[App Sharing] 让 uos ai 吃上 N 卡 GPU 加速
Tofloor
poster avatar
gfdgd_xi
deepin
Ecological co-builder
2026-04-08 22:25
Author

原版的 deepin modelhub 内置的 llama.cpp 是没有开启 cuda 编译选项的,所以原版的 uos ai 没法调用 n 卡来跑模型的,就只能拿 CPU 算,速度比较慢

(原版的没有编译带 cuda 的 so)

image.png

所以我手动开启了 cuda 选项重新编译了一下,就能用 N 卡算了
唯一的问题就是体积大了很多,安装包从原来的 2 MB 暴涨到了 77 MB

这是用 CPU 算的效果(AMD Ryzen 5700G + 2133 频率的内存)

录屏_gxde-top-panel_20260408221554.gif

这个是 GPU 算的效果(4060ti 16G),会快很多

录屏_uos-ai-assistant_20260408222003.gif

注:本地跑模型对显存的要求比较高,我这里跑 DeepSeek 1.5B 模型就需要 2 个多 GB 的显存了,如果显存太小就没什么必要折腾了,爆显存的话还没纯 CPU 计算的快
而且如果你的 n 卡太老或性能太低,可能跑的效果还不如 CPU 算的快
然后需要安装 n 卡闭源驱动才能用,开源驱动用不了哈
image.png

下载链接:https://gfdgdxi.lanzouw.com/b0pnixtti
密码:9msn

Reply Favorite View the author
All Replies
大威天龙
deepin
2026-04-08 22:58
#1

我的是5060ti 16g的显卡,想本地跑14b模型,但是好像uos ai里面只能下载到1.5b 7b =。=!不知道咋弄。

Reply View the author
gfdgd_xi
deepin
Ecological co-builder
2026-04-08 23:07
#2
大威天龙

我的是5060ti 16g的显卡,想本地跑14b模型,但是好像uos ai里面只能下载到1.5b 7b =。=!不知道咋弄。

uos ai可以手动加模型,但是用的llama.cpp版本太老了很多新模型都用不了,要找时间研究下怎么更新llama的版本

Reply View the author
Amber
deepin
2026-04-09 17:57
#3

那么A卡呢?我拿我的A10 6800K跑本地AI,我试了那个deepseek的模型,基本就是我打字的速度,还得先加载半分钟才开始吐字,但是如果拿RX6600算就不一样了

Reply View the author