今天给大家分享deepseek的本地部署教程
Ollama 支持 Linux/macOS/Windows,需根据系统选择安装方式。
适用系统:Ubuntu/Debian/CentOS 等
步骤:
- curl -fsSL https://ollama.com/install.sh | sh
-
- sudo usermod -aG ollama $USER # 将当前用户加入ollama组newgrp ollama # 刷新用户组
-
- systemctl start ollama # 启动服务systemctl enable ollama # 开机自启
-
- ollama --version # 输出版本号即成功
-
步骤:
- curl -fsSL https://ollama.com/install.sh | sh
-
- ollama serve # 前台运行(调试用)
-
- brew services start ollama # 通过Homebrew管理
-
前置要求:
步骤:
- ollama list # 查看已安装模型
-
💬
默认情况下,Ollama 服务仅在本地运行,不对外提供服务。要使 Ollama 服务能够对外提供服务,你需要设置以下两个环境变量:
如果 Ollama 作为 systemd 服务运行,应使用 systemctl 设置环境变量:
- [Service]Environment="OLLAMA_HOST=0.0.0.0"Environment="OLLAMA_ORIGINS=*"
-
-
- systemctl daemon-reloadsystemctl restart ollama
-
-
官方模型库参考:Ollama DeepSeek-R1 页面
- ollama pull deepseek-r1 # 官方推荐模型名称
-
-
- ollama pull deepseek-r1:7b # 7B参数基础版ollama pull deepseek-r1:33b # 33B参数进阶版(需更高显存)
-
-
- ollama run deepseek-r1
-
-
验证交互:
- >>> 你好,请用中文回答你好!我是DeepSeek-R1,很高兴为您提供帮助!
-
-
根据硬件资源选择运行模式:
适用情况:无独立显卡或显存不足
配置优化:
- OLLAMA_NUM_THREADS=4 ollama run deepseek-r1 # 限制4线程
-
-
- ollama pull deepseek-r1:7b-q4_0 # 4-bit量化版
-
-
适用情况:有NVIDIA显卡(需CUDA支持)
配置步骤:
- ollama run deepseek-r1 --gpu # 强制使用GPU
-
-
- nvidia-smi # 查看GPU利用率
-
-
- docker run -d \ --name=maxkb \ -p 8080:8080 \ -v ~/maxkb_data:/var/lib/postgresql/data \ 1panel/maxkb:latest
-
-
- journalctl -u ollama -f # Linux
-
-
- OLLAMA_HOST=0.0.0.0:11435 ollama serve # 指定新端口
-
-
- ollama rm deepseek-r1 && ollama pull deepseek-r1
-
-
- curl http://ollama-ip:11434 # 确认Ollama API可达
-
-
- OLLAMA_ORIGINS="*" ollama serve
-
-
场景 | 推荐配置 |
---|---|
CPU模式 | 使用 |
GPU模式 | 启用 |
我使用zabbix+grafana对服务器做了资源使用情况的监控,因为我的服务器没有GPU,全部使用CPU去跑,当我运行大模型的时候,可以看到服务器资源站哟比较高(目前我测试用的的Deepseek-r1:7b)
DeepSeek无疑是2025开年AI圈的一匹黑马,在一众AI大模型中,DeepSeek以低价高性能的优势脱颖而出。DeepSeek的上线实现了AI界的又一大突破,各大科技巨头都火速出手,争先抢占DeepSeek大模型的流量风口。
DeepSeek的爆火,远不止于此。它是一场属于每个人的科技革命,一次打破界限的机会,一次让普通人也能逆袭契机。
DeepSeek的优点
掌握DeepSeek对于转行大模型领域的人来说是一个很大的优势,目前懂得大模型技术方面的人才很稀缺,而DeepSeek就是一个突破口。现在越来越多的人才都想往大模型方向转行,对于想要转行创业,提升自我的人来说是一个不可多得的机会。