kookboy
deepin
2025-10-05 22:00 这个问题我问了kimi 、通义千问、元宝都没成功,最终还是DeepSeek帮我解决了这个头疼的问题!
Reply Like 0 View the author
这个问题我问了kimi 、通义千问、元宝都没成功,最终还是DeepSeek帮我解决了这个头疼的问题!
amd 显卡好像在Linux上是最容易安装驱动的
amd 显卡好像在Linux上是最容易安装驱动的
我是为了本地部署大模型玩AI,所以当初买笔记本电脑时特别关注要有独显N卡的。
Popular Ranking
ChangePopular Events
More
我的神舟笔记本电脑最近不是重装了NVIDIA GeForce RTX 4060 Laptop较新的驱动(V580.82.09)吗?结果发现Docker-ollama运行大模型的速度反而慢了,在AI的耐心帮助下,最终找到了原因。是因为580.82.09驱动版本太新,与之前安装的NVIDIA Container Toolkit(1.14.3)不匹配,导致容器找不到兼容的 libcuda.so,所以没有成功启用显卡的GPU。
还有NVIDIA Container Toolkit在Deepin 25上安装也是挺折腾的!挺麻烦的地方在于NVIDIA Container Toolkit的源与版本问题。在不断的测试安装后,安装NVIDIA Container Toolkit组件这事终于搞定了!现特分享给有需要的网友们~!
明确结论:Ollama 正在使用您的 NVIDIA GPU 进行运算
🔍 关键证据分析:
✅ GPU 识别成功
library=cuda- 明确使用 CUDA 计算库name="NVIDIA GeForce RTX 4060 Laptop GPU"- 正确识别显卡型号compute=8.9 driver=13.0- GPU 计算能力和驱动版本正常✅ 模型完全运行在 GPU 上
offloaded 29/29 layers to GPU- 所有 28 个模型层 + 输出层都卸载到 GPUCUDA0 model buffer size = 4829.59 MiB- GPU 显存中分配了 4.8GB 模型数据GPULayers:29- 明确指定所有层都在 GPU 上运行✅ 显存使用情况
7.6 GiB7.2 GiB→ 模型加载后占用约4.8 GiB224.00 MiB- 也在 GPU 上⚠️ 注意项(不影响GPU使用)
entering low vram mode- 只是优化策略,不影响 GPU 加速🚀 性能表现
从日志看到 API 请求响应时间:
18.45秒(首次加载)1.14秒、1.42秒(后续响应很快)总结:您的 Ollama 正在充分利用 NVIDIA RTX 4060 GPU 进行 AI 推理,性能表现正常!
Deepin 25安装与N卡(v580.82.09)版本匹配的NVIDIA Container Toolkit(v1.17.8)
首先,软件源地址,手动指定一个与Deepin 25兼容的Debian版本。
方法一:使用稳定的通用Debian软件源
根据NVIDIA官方页面的提示,可以尝试使用稳定的通用deb软件源。请依次执行以下命令:
验证安装(关键步骤)
安装完成后执行以下命令,若能输出路径和版本,说明安装成功:
后面的部分我就省略了......(详细可以查看此帖https://bbs.deepin.org/post/291393)