All Replies
安洛
deepin
2025-02-26 18:03 Reply Like 0 View the author
安洛
deepin
2025-02-26 18:06 另外有部分框架支持使用 vulkan 加速,比如 llama.cpp,也可以利用 intel 显卡,但我个人测试下来在 intel 核显上性能和稳定性都不如楼上提到的 ipex-llm。
Reply Like 0 View the author
root
deepin
2025-02-26 19:05 硬件差3代等于老, LZ的新硬件 intel 6 核12 线程的cpu,睿频5G,与intel的NPU加速无缘
https://github.com/intel/linux-npu-driver
intel gpu 大语言模型推理加速的方案(linux 从6.9内核就开始支持),
https://www.intel.com/content/www/us/en/products/details/processors/core-ultra.html
当前支持的CPU列表
木有 Intel® Core™ Ultra 及之后的cpu (即 Meteor Lake 及之后)就别想用GPU加速
(连Versatile Processing Unit (VPU)硬件电路都木有的CPU还是早点睡叭,梦里啥都有,只能纯CPU跑)
Reply Like 0 View the author
guyuming
deepin
2025-02-27 12:24 安洛:
这个文档里 提到文件 /opt/intel/oneapi/setvars.sh, 我找不到这个文件,因为是在gentoo上试的,我就在 gentoo 论坛提了个问题: https://forums.gentoo.org/viewtopic-p-8855727.html#8855727
还没在deepin上试过。
Reply Like 0 View the author
安洛
deepin
2025-02-27 14:59 guyuming:
这个文档里 提到文件 /opt/intel/oneapi/setvars.sh, 我找不到这个文件,因为是在gentoo上试的,我就在 gentoo 论坛提了个问题: https://forums.gentoo.org/viewtopic-p-8855727.html#8855727
还没在deepin上试过。
你需要安装intel oneapi basekit。如果你的发行版没有提供对应的包,我强烈建议你使用 docker。
另外我看了下你的硬件是第 10 代酷睿(cometlake)。根据这个issue,虽然不像楼上说的需要 MTL 那么夸张,但也需要 11 代以上的酷睿处理器。cometlake 目前尚不支持。
Reply Like 1 View the author
Please sign in first
Popular Events
More
春节后才开始玩大模型,按网上指南下载 ollama 运行 deepseek-r1, 不管是linux,还是windows下,都还比较方便。
我新硬件 intel 6 核12 线程的cpu,睿频5G, 32G内存, 最大尝试过 r1:32b的模型,都是没用gpu加速。
我现在想尝试下使用 intel 核显 gpu 加速,网上找到一些成功案例,但都是windows下的,我在linux 下没成功。有没有这方面经验?包括有啥 docker image 我可以拉下了尝试下吗?