大威天龙
deepin
15 hours ago 我的是5060ti 16g的显卡,想本地跑14b模型,但是好像uos ai里面只能下载到1.5b 7b =。=!不知道咋弄。
Reply Like 0 View the author
我的是5060ti 16g的显卡,想本地跑14b模型,但是好像uos ai里面只能下载到1.5b 7b =。=!不知道咋弄。
我的是5060ti 16g的显卡,想本地跑14b模型,但是好像uos ai里面只能下载到1.5b 7b =。=!不知道咋弄。
uos ai可以手动加模型,但是用的llama.cpp版本太老了很多新模型都用不了,要找时间研究下怎么更新llama的版本
Popular Ranking
ChangePopular Events
More
原版的 deepin modelhub 内置的 llama.cpp 是没有开启 cuda 编译选项的,所以原版的 uos ai 没法调用 n 卡来跑模型的,就只能拿 CPU 算,速度比较慢
(原版的没有编译带 cuda 的 so)
所以我手动开启了 cuda 选项重新编译了一下,就能用 N 卡算了
唯一的问题就是体积大了很多,安装包从原来的 2 MB 暴涨到了 77 MB
这是用 CPU 算的效果(AMD Ryzen 5700G + 2133 频率的内存)
这个是 GPU 算的效果(4060ti 16G),会快很多
注:本地跑模型对显存的要求比较高,我这里跑 DeepSeek 1.5B 模型就需要 2 个多 GB 的显存了,如果显存太小就没什么必要折腾了,爆显存的话还没纯 CPU 计算的快

而且如果你的 n 卡太老或性能太低,可能跑的效果还不如 CPU 算的快
然后需要安装 n 卡闭源驱动才能用,开源驱动用不了哈
下载链接:https://gfdgdxi.lanzouw.com/b0pnixtti
密码:9msn