[App Sharing] 让 uos ai 吃上 N 卡 GPU 加速
Tofloor
poster avatar
gfdgd_xi
deepin
Ecological co-builder
15 hours ago
Author

原版的 deepin modelhub 内置的 llama.cpp 是没有开启 cuda 编译选项的,所以原版的 uos ai 没法调用 n 卡来跑模型的,就只能拿 CPU 算,速度比较慢

(原版的没有编译带 cuda 的 so)

image.png

所以我手动开启了 cuda 选项重新编译了一下,就能用 N 卡算了
唯一的问题就是体积大了很多,安装包从原来的 2 MB 暴涨到了 77 MB

这是用 CPU 算的效果(AMD Ryzen 5700G + 2133 频率的内存)

录屏_gxde-top-panel_20260408221554.gif

这个是 GPU 算的效果(4060ti 16G),会快很多

录屏_uos-ai-assistant_20260408222003.gif

注:本地跑模型对显存的要求比较高,我这里跑 DeepSeek 1.5B 模型就需要 2 个多 GB 的显存了,如果显存太小就没什么必要折腾了,爆显存的话还没纯 CPU 计算的快
而且如果你的 n 卡太老或性能太低,可能跑的效果还不如 CPU 算的快
然后需要安装 n 卡闭源驱动才能用,开源驱动用不了哈
image.png

下载链接:https://gfdgdxi.lanzouw.com/b0pnixtti
密码:9msn

Reply Favorite View the author
All Replies
大威天龙
deepin
15 hours ago
#1

我的是5060ti 16g的显卡,想本地跑14b模型,但是好像uos ai里面只能下载到1.5b 7b =。=!不知道咋弄。

Reply View the author
gfdgd_xi
deepin
Ecological co-builder
14 hours ago
#2
大威天龙

我的是5060ti 16g的显卡,想本地跑14b模型,但是好像uos ai里面只能下载到1.5b 7b =。=!不知道咋弄。

uos ai可以手动加模型,但是用的llama.cpp版本太老了很多新模型都用不了,要找时间研究下怎么更新llama的版本

Reply View the author