waittingsummer
deepin
2025-02-27 13:24 cy
Reply Like 0 View the author
cy
👍 只能看看……老爷机不配
👍 只能看看……老爷机不配
https://developer.nvidia.com/cuda-gpus 我看很多老卡都在5.0以上,就是显存不够。GTX 1060 6GB可以!
只使用8G内存也行!
老显卡真不行
请问有朋友试过双 3060TI16G显存接入DeepSeek吗?有没什么注意事项?
请问有朋友试过双 3060TI16G显存接入DeepSeek吗?有没什么注意事项?
2个3060TI没试过。我试过4个其它型号的卡,模型可以近似平均的占用4个卡的显存。
ollama支持使用设备上的指定GPU:
--gpus "device=0"
: 使用第一个 GPU 设备--gpus "device=1"
: 使用第二个 GPU 设备--gpus "device=2,3"
: 使用第三和第四个 GPU 设备Popular Events
More
使用docker快速离线部署ollama并运行deepseek模型。
0 环境要求
先查看显卡是否计算能力和显存大小,来判断是否使用纯GPU模式或者混合模式。
如果没有符合条件的GPU,那只能使用纯CPU模式,很慢!
(1)安装docker-ce 。
(2)如有符合条件的NVIDIA GPU,安装CUDA和NVIDIA Container Toolkit。amd或其他GPU,本帖没研究过暂不讨论。
CUDA安装,参考帖子 https://bbs.deepin.org/post/271418
docker-ce和NVIDIA Container Toolkit安装,参考帖子 https://bbs.deepin.org/post/262226
Ollama 支持计算能力为 5.0 及以上的 Nvidia GPU!
查询自己的NVIDIA GPU的计算能力:https://developer.nvidia.com/cuda-gpus
点击图标即可展开列表显示内容
1 准备离线文件
(1)获取ollama的docker镜像文件,目前最新版是 ollama/ollama:0.5.12,查询 https://hub.docker.com/r/ollama/ollama
(2)下载deepseek模型文件,莫大社区下载地址
https://modelscope.cn/models/unsloth/DeepSeek-R1-Distill-Qwen-7B-GGUF/files
https://modelscope.cn/models/unsloth/DeepSeek-R1-Distill-Qwen-14B-GGUF/files
https://modelscope.cn/models/unsloth/DeepSeek-R1-Distill-Qwen-32B-GGUF/files
关于模型选择,根据硬件资源选择
我选择的模型 DeepSeek-R1-Distill-Qwen-7B-Q5_K_M.gguf
(3)提前准备好ollama导入自定义模型要用到的Modelfile文件(实测Modelfile文件名称任意都可以)
docker方式离线部署
命令行运行模型:
会一直停留在命令输入窗口中,只有退出,模型才会停止并释放使用的CPU和GPU资源;
而且输入和显示效果有限。一般用于部署完测试,不推荐日常会话使用。
推荐客户端方式:
本地下载号的模型
纯CPU模式、纯GPU模式、CPU/GPU混合模式
4个DCU海光Z100 32GB,纯GPU模式,卡显存使用情况。
默认设置下ollama给GPU加载的就是最大层数。
单卡最多可设置模型层数(取整):单卡模型层数上限=单卡显存大小/模型大小*模型总层数
多卡同理累加,不过每个卡层数都取整。
ollama支持多卡,docker参数设置如下:
--gpus all
: 使用所有 GPU 设备--gpus "device=0"
: 使用第一个 GPU 设备--gpus "device=1"
: 使用第二个 GPU 设备--gpus "device=2,3"
: 使用第三和第四个 GPU 设备混合比例可以根据自己卡数量,显存大小,模型的层数,kv缓存的大小,手动设置加载进gpu的模型层数。
待后续研究和验证测试:
通过设置环境变量,设置
OLLAMA_GPU_LAYER
为cuda
,并通过CUDA_VISIBLE_DEVICES
指定GPU的UUID。modelfile中添加参数docker compose方式离线部署
个人推荐此方式,离线部署或者迁移的时候打包整个文件夹带走即可,修改端口或卡ID配置文件还是更方便一些。在上面的文件夹下添加docker-compose.yml文件即可
4 ollama 命令
5 ollama API
参考https://www.runoob.com/ollama/ollama-api.html