[deepin exploration] 有针对 intel gpu 大语言模型推理加速的方案吗?
Tofloor
poster avatar
guyuming
deepin
2025-02-26 17:22
Author

春节后才开始玩大模型,按网上指南下载 ollama 运行 deepseek-r1, 不管是linux,还是windows下,都还比较方便。

我新硬件 intel 6 核12 线程的cpu,睿频5G, 32G内存, 最大尝试过 r1:32b的模型,都是没用gpu加速。

我现在想尝试下使用 intel 核显 gpu 加速,网上找到一些成功案例,但都是windows下的,我在linux 下没成功。有没有这方面经验?包括有啥 docker image 我可以拉下了尝试下吗?

Reply Favorite View the author
All Replies
安洛
deepin
2025-02-26 18:03
#1
Reply View the author
安洛
deepin
2025-02-26 18:06
#2

另外有部分框架支持使用 vulkan 加速,比如 llama.cpp,也可以利用 intel 显卡,但我个人测试下来在 intel 核显上性能和稳定性都不如楼上提到的 ipex-llm。

Reply View the author
root
deepin
2025-02-26 19:05
#3

硬件差3代等于老, LZ的新硬件 intel 6 核12 线程的cpu,睿频5G,与intel的NPU加速无缘

https://github.com/intel/linux-npu-driver

intel gpu 大语言模型推理加速的方案(linux 从6.9内核就开始支持),

https://www.intel.com/content/www/us/en/products/details/processors/core-ultra.html

当前支持的CPU列表

木有 Intel® Core™ Ultra 及之后的cpu (即 Meteor Lake 及之后)就别想用GPU加速

(连Versatile Processing Unit (VPU)硬件电路都木有的CPU还是早点睡叭,梦里啥都有,只能纯CPU跑)

Reply View the author
guyuming
deepin
2025-02-27 12:24
#4

这个文档里 提到文件 /opt/intel/oneapi/setvars.sh, 我找不到这个文件,因为是在gentoo上试的,我就在 gentoo 论坛提了个问题: https://forums.gentoo.org/viewtopic-p-8855727.html#8855727

还没在deepin上试过。

Reply View the author
安洛
deepin
2025-02-27 14:59
#5
guyuming

这个文档里 提到文件 /opt/intel/oneapi/setvars.sh, 我找不到这个文件,因为是在gentoo上试的,我就在 gentoo 论坛提了个问题: https://forums.gentoo.org/viewtopic-p-8855727.html#8855727

还没在deepin上试过。

你需要安装intel oneapi basekit。如果你的发行版没有提供对应的包,我强烈建议你使用 docker。
另外我看了下你的硬件是第 10 代酷睿(cometlake)。根据这个issue,虽然不像楼上说的需要 MTL 那么夸张,但也需要 11 代以上的酷睿处理器。cometlake 目前尚不支持。

Reply View the author