lin_lcs
deepin
2025-07-20 08:42 
Reply Like 0 View the author

【胡伟武:如果用上先进工艺、先进带宽,龙芯GPGPU算力也能打【现场03】】 https://www.bilibili.com/video/BV18Eu9zGE8b/?share_source=copy_web&vd_source=73262b49574b4d4b6fd5bbde947a75f2
Popular Ranking
ChangePopular Events
More
近日外媒报道,在即将到来的Linux 6.17内核版本中,AMD KFD现可基于龙芯架构(LoongArch)构建,使该国产CPU架构用户能在Instinct/Radeon硬件上使用AMD KFD+ROCm计算方案。
AMD KFD+ROCm方案是一套以开源为核心、瞄准高性能计算的软硬件协同方案,本质上是AMD对标NVIDIA CUDA生态的开源替代方案。该方案通过内核驱动(KFD)与用户态软件栈(ROCm)的深度协同,旨在为Linux系统为AMD GPU提供异构计算支持,为HPC、AI及科研领域提供高性价比的GPU加速方案,尤其适合寻求避免被单一厂商绑定、利用消费级硬件或深度定制化开发的用户。
国产CPU+国际GPU打破硬件生态壁垒
英伟达CUDA凭借其成熟的开发工具链在非涉密场景中仍大量使用英伟达硬件+CUDA方案,存在事实上的依赖和断供风险。同时,在信创行业的党政军、金融、能源等关键领域必须使用通过安全审查的国产方案,搭载CUDA的英伟达芯片(包括特供中国版A800/H800)已被排除在信创采购清单之外,但短时间内,可共选择的国产方案很少。
此次,龙芯作为中国自主研发的CPU架构,实现对AMD GPU计算生态(ROCm)的官方驱动支持,进一步增强了供应链的稳定性。为国产超算、AI训练、科学计算等场景提供了“龙芯CPU+AMD GPU”的异构加速方案,降低了对x86平台的依赖,实现异构计算自主可控。
规避CUDA生态垄断,为国产超算提供新选项
ROCm是AMD对标NVIDIA CUDA的开源计算平台,龙芯支持ROCm后,用户可在国产平台上利用AMD GPU运行PyTorch、TensorFlow等AI框架(通过ROCm的HIP兼容层),减少对NVIDIA生态的绑定,结合ROCm的MIOpen(深度学习库)、RCCL(通信库)等工具链,加速本土AI基础设施落地,推动国产高性能计算(HPC)与AI发展。
若龙芯能持续优化与ROCm的协同效率(如编译器优化、通信库加速),龙芯平台可构建完整的AI训练/推理解决方案,服务于数据中心、边缘计算等场景。未来可能在科研、国防、智算中心等领域形成独特优势,成为中国异构计算的新基石。
Linux 6.17稳定版内核预计将于10月初发布,近日发布的最终批次功能更新针对AMDGPU/AMDKFD,计划纳入Linux 6.17合并窗口。
AMD KFD+ ROCm 是什么?
AMD KFD+ROCm 是一套以开源为核心、瞄准高性能计算的软硬件协同方案,为 HPC、AI 及科研领域提供高性价比的 GPU 加速方案。
开发组来聊聊,可能性有多大?会有龙芯AI服务器出现吗?