最近看到comfyui里面有调用大模型接口的节点,是使用Ollama工具的,之前都是自己部署响应模型的api,属实有点费时间,而Ollama的定位,就是让更多人以最简单快速的方式在本地把大模型跑起来。
Ollama约等于一个简洁的命令行工具和一个稳定的服务端 API,你只需要输入模型的名字,就能自动下载模型并运行了。
下载非常简单,官方github:
https://github.com/ollama/ollama
只需要找到对应操作系统download安装包:
下载完成后点击exe直接安装,注意这里是没法选择安装位置的……
安装完成后,在任务栏里就应该能看到这个小羊驼了,在打开的情况下,调出cmd运行命令,就可以自动下载并启动模型了,非常简单。
比如我想安装7b的千问模型,那就输入ollama run qwen:7b
如果想下载其他的,可以按照下面的表格去输入对应的语句。
但不仅仅限于上面的表格,比如看到有人的工作流里使用了llava:7b-v1.6-mistral-fp16,那么直接输入这个模型也是能下到的,反正只要输入后能下就没啥问题~
因为下载模型比较慢,可以多开几个cmd窗口一起下。
不过开模型是比较占显存的,本来显存不够大的朋友要量力而行,不然可能画图程序要跑不起来了。
最后解决一下下载模型位置的问题。
这个位置默认是在c盘的usr下面,有个.ollama文件夹。
咱们可以直接把这个文件夹剪贴到希望的位置,然后使用cmd写指令,进行软连接,就不会占用c盘的空间了。
比如我从c盘下面移动到了f盘的根目录,可以使用mklink /j命令去进行软连接。
mklink /j "C:\Users\zci\.ollama" "F:\.ollama"
这样今后下载的模型也都会在f盘中。
有了ollama,还能配合很多图形界面去使用,在git的下面有列出:
比如这个Dify就能够使用很多开源的框架,又能够使用类似ComfyUI的这种分块工作流的方式去搭建agent了。
如果你在玩语言模型或者ComfyUI,电脑显存也够,那可以把ollama配置起来了,然后就能在节点里调用了。