[deepin exploration] 笔记本双显卡:Win11与Deepin双系统+1panel+ollama技术分享
Tofloor
poster avatar
kookboy
deepin
2025-09-09 17:25
Author

一、 硬件配置概览

  • CPU: 第12代英特尔酷睿 i7-12650H (10核16线程 @ 最高4.60GHz)
  • GPU(集成): 英特尔® UHD Graphics(Alder Lake-P GT1)
  • GPU(独显): NVIDIA GeForce RTX 4060 Max-Q / Mobile(8GB 显存)
  • 内存: 32GB

二、 操作系统现状

我当前采用了 Windows 11 与 Deepin V25 双系统 的配置方案。

Windows 11 子系统应用:

  • 安装了 ollama 和 Cherry Studio 以支持 AI 本地应用。
  • 部署了 WSL2 (Windows Subsystem for Linux 2),同时安装了 Ubuntu WSLDeepin WSL
  • 核心使用的 Ubuntu WSL 被配置为 本地服务器环境,并安装了 1Panel 管理面板 进行集中管理。
  • 在该环境下部署了 Halo 个人博客/笔记系统
  • Deepin WSL 主要用于测试目的。

Deepin v25: 安装了1Panel+Halo+Ollama+Cherry Studio

总体目的: 我的想法是最大化硬件性能利用,支持免费 AI 大模型的本地部署运行,并能方便调用各种服务器软件资源,同时也是兴趣使然。

截图_我的电脑信息.png

nvidia-smi.png

三、 选择双系统的初衷

主要有以下三方面的考虑:

  1. 体验国产 Linux 发行版: 近期对国产操作系统产生了浓厚兴趣,想体验最新版本。我主要尝试了 Deepin(一二十年前曾用过)和 openKylin。openKylin 的最新版本 SP2 在通过 U 盘引导启动后,安装过程即出现黑屏无响应,最终未能安装成功。之后还尝试了 Ubuntu 24.04 LTS,但其在运行一段时间后出现卡顿,且未能成功配置我习惯的 Fcitx5 五笔输入法,也被放弃。Deepin V25 则比较顺利(初次安装时由于不熟悉其“磐石固件保护”功能而稍有波折,导致重装一次),虽然安装部分个人所需软件时不是特别顺畅,但总体体验感较好其集成的 AI 功能尤其吸引我
  2. 对 Windows 系统的担忧: 近期 Windows 11 的自动更新补丁被曝存在严重 BUG,导致不少用户的 SSD 存储设备损坏。我本人就不幸“中招”,有两块 SSD 在写入大量数据(约数十GB)时突然失效,无法被系统识别,造成相当大的困扰。此外,Edge 浏览器日趋强势的作风,以及美国在技术上的一些动向,都让人感到心烦、甚至厌恶。虽然年纪渐长,但我认为自己有必要重拾对 Linux 及国产操作系统的兴趣,开始逐步将主力工作环境向 Linux 平台迁移,深切希望 Deepin 能成为一个稳定、可靠的长期选择
  3. 社区观察: 出于对 openKylin SP2 安装失败原因的好奇,我浏览了其社区,发现用户反映 SP2 新版本安装或使用中遇到的问题,似乎比 Deepin V25 还要更多一些,这就更促使我决定选择了Deepin V25。

四、为了本地部署和运用AI大模型,N卡驱动和GPU加速的问题得首先解决。当然,得益于Deepin自带的UOS AI,遇到问题直接问它,不是太复杂的技术问题一般是能够解决。

完整重装NVIDIA显卡驱动套件

# 完全删除现有NVIDIA组件
sudo apt purge '*nvidia*'
sudo apt autoremove
sudo apt clean

# 重新安装完整驱动包
sudo apt install nvidia-driver-full
# 安装任务栏显卡切换插件
sudo apt install dde-dock-graphics-plugin

重启电脑,任务栏切换成N卡,注销再进就可以了。

如果终端下nvidia-smi有输出,说明安装成功。

安装NVIDIA Container Toolkit

  1. 添加 GPG 密钥
curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg
  1. 添加仓库
curl -s -L https://nvidia.github.io/libnvidia-container/debian11/libnvidia-container.list | \

sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | \

sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list
  1. 最后更新源:
sudo apt update

注意:Deepin 25 基于 Debian 11,因此使用 debian11 是正确的。如果遇到任何错误,可以将 URL 中的 debian11 改为 experimental 作为备选方案。

Deepin v25 安装1Panel+Docker + NVIDIA GPU 验证

  1. 先关闭磐石系统:sudo deepin-immutable-writable enable (执行完命令后,需重启系统才可以生效)

  2. 一键脚本安装1panel(包含了Docker),根据命令行提示完成安装:

    sudo bash -c "$(curl -sSL https://resource.fit2cloud.com/1panel/package/v2/quick_start.sh)"

  3. 检查 NVIDIA Container Toolkit

which nvidia-ctk

nvidia-ctk --version

4.注册 NVIDIA 运行时

sudo nvidia-ctk runtime configure --runtime=docker
  1. 设置默认运行时(修复 daemon.json)
sudo tee /etc/docker/daemon.json <<-'EOF'
{
  "runtimes": {
    "nvidia": {
      "path": "nvidia-container-runtime",
      "runtimeArgs": []
    }
  },
  "default-runtime": "nvidia"
}
EOF
sudo systemctl restart docker
  1. 确认默认运行时
docker info | grep -i runtime
# 应显示 Default Runtime: nvidia
  1. 验证 GPU 可用
docker run --rm --gpus all nvidia/cuda:12.2.0-base-ubuntu22.04 nvidia-smi
  1. 镜像留存

镜像仅 ~200 MB,保留供后续复测;磁盘紧张时 docker image prune 清理。

Reply Favorite View the author
All Replies
kookboy
deepin
2025-09-09 17:29
#1

还有几张图片没能显示~

再传两张给大伙看看吧。

ollama install.png

GPU验证.png

N卡GPU跑AI大模型时测试数据:

在一个终端窗口启动GPU监控:
watch -n 0.3 nvidia-smi

在另一个终端运行Ollama请求:
ollama run llama3 "简短测试GPU性能" --verbose

观察nvidia-smi输出:
查找Processes部分的ollama条目
注意显存使用量的增加(应增加2GB以上)
观察GPU-Util值(应有明显的使用率峰值)
测试数据:
total duration:       17.595060934s
load duration:        1.673757767s
prompt eval count:    8 token(s)
prompt eval duration: 120.21019ms
prompt eval rate:     66.55 tokens/s
eval count:           622 token(s)
eval duration:        15.800621308s
eval rate:            39.37 tokens/s

从以上的测试结果可以明确确认 Ollama 正在使用您的 NVIDIA GPU 进行加速!以下是分析要点:

GPU 运行的关键证据 🔥

  1. Token 生成速率 (eval_rate):

    • 39.37 tokens/s 这个速度远高于 CPU 运行
    • CPU 运行通常只有 5-10 tokens/s
    • GPU 运行(尤其是 RTX 4060)通常可以达到 30-100+ tokens/s
  2. Prompt 处理速度:

    • 66.55 tokens/s 非常高的提示处理速度
    • 表明模型参数已经预加载到 GPU 显存
  3. 显存占用特征:

    • 模型加载时间 1.673757767s 较长
    • 这是 GPU 运行的典型特征(将模型从内存复制到显存)
  4. 总体性能表现:

    • 处理 8 个输入 token 并生成 622 个输出 token 只用 17.6 秒
    • CPU 运行同等量级文本通常需要 1-2 分钟

性能数据分析表

指标 数值 说明
Token 生成速度 39.37 tokens/s GPU 特征值,远高于 CPU 的 5-10 tokens/s
总响应时间 17.6 秒 相当于每秒处理 35 个 token(622/17.6),优秀表现
模型加载时间 1.67 秒 标准 GPU 运行特征(模型加载到显存)
提示处理速度 66.55 tokens/s 非常高的前向传播速度
响应质量 622 个 token 完整、详细的回答,展现 GPU 处理能力

RTX 4060 预期性能对比

  • 您的实测性能: 39.37 tokens/s(符合预期)
  • 🔄 理论上限: 约 80-120 tokens/s(根据模型复杂度)
  • 💡 优化建议: 可尝试更精简的模型(如 deepseek-coder:1.3b)获取 80+ tokens/s

总结

您的 Ollama 已成功使用 NVIDIA RTX 4060 GPU 加速 🎉

您已经完全满足在 1Panel 中部署 GPU 加速的 Ollama 的所有要求。现在可以:

  1. 在 1Panel 中部署 Ollama
  2. 运行大型模型(如 llama3:7b)
  3. 构建各种 AI 应用(文档分析、代码生成等)
Reply View the author
deepin-流云
Moderator
Community OP
2025-09-10 09:41
#2

kissing_heart 感谢分享

Reply View the author
花雨落逝
Moderator
2025-09-10 10:03
#3

有没有一种可能,deepin V25已经是根发行版了(但是应该说,deepin V25和debian 11应该是兼容的)

Reply View the author
贺东明
deepin
13 hours ago
#4
花雨落逝

有没有一种可能,deepin V25已经是根发行版了(但是应该说,deepin V25和debian 11应该是兼容的)

我也正想说呢,不过之前的印象确实难以快速扭转

Reply View the author