您当前的位置:首页 > 计算机 > 软件应用 > 资料管理

Ollama轻松搭建大语言多模态模型,这个好!

时间:07-02来源:作者:点击数:

最近看到comfyui里面有调用大模型接口的节点,是使用Ollama工具的,之前都是自己部署响应模型的api,属实有点费时间,而Ollama的定位,就是让更多人以最简单快速的方式在本地把大模型跑起来。

Ollama约等于一个简洁的命令行工具和一个稳定的服务端 API,你只需要输入模型的名字,就能自动下载模型并运行了。

下载非常简单,官方github:

https://github.com/ollama/ollama

只需要找到对应操作系统download安装包:

下载完成后点击exe直接安装,注意这里是没法选择安装位置的……

安装完成后,在任务栏里就应该能看到这个小羊驼了,在打开的情况下,调出cmd运行命令,就可以自动下载并启动模型了,非常简单。

比如我想安装7b的千问模型,那就输入ollama run qwen:7b

如果想下载其他的,可以按照下面的表格去输入对应的语句。

但不仅仅限于上面的表格,比如看到有人的工作流里使用了llava:7b-v1.6-mistral-fp16,那么直接输入这个模型也是能下到的,反正只要输入后能下就没啥问题~

因为下载模型比较慢,可以多开几个cmd窗口一起下。

不过开模型是比较占显存的,本来显存不够大的朋友要量力而行,不然可能画图程序要跑不起来了。

最后解决一下下载模型位置的问题。

这个位置默认是在c盘的usr下面,有个.ollama文件夹。

咱们可以直接把这个文件夹剪贴到希望的位置,然后使用cmd写指令,进行软连接,就不会占用c盘的空间了。

比如我从c盘下面移动到了f盘的根目录,可以使用mklink /j命令去进行软连接。

mklink /j "C:\Users\zci\.ollama" "F:\.ollama"

这样今后下载的模型也都会在f盘中。

有了ollama,还能配合很多图形界面去使用,在git的下面有列出:

比如这个Dify就能够使用很多开源的框架,又能够使用类似ComfyUI的这种分块工作流的方式去搭建agent了。

如果你在玩语言模型或者ComfyUI,电脑显存也够,那可以把ollama配置起来了,然后就能在节点里调用了。

方便获取更多学习、工作、生活信息请关注本站微信公众号城东书院 微信服务号城东书院 微信订阅号
推荐内容
相关内容
栏目更新
栏目热门