AI大模型用的是显卡吧
AI大模型用的是显卡吧
AI显卡,确实会用到。
看过一个说法16G那个时候就只是个入门机配置,32G才能流畅用,64G才是能够很顺畅的用ai,不知是真是假
Windows的AI大模型?是指copilot吗?那东西是联网的吧,运算根本不在本地,也不会占用什么内存啊。UOS AI也是联网AI的方案。运行这些东西没什么配置要求。
现有的个人电脑算力没几个能支撑本地运行可用的AI大模型的,内存在这其中甚至算是比较符合要求的了。CPU等计算单元的问题比内存大多了,等运算单元提升上来了内存早就迭代了。
AI大模型也有不那么消耗资源的版本,但那样效果就会差了。毕竟不能又要马儿跑,又要马儿不吃草。
看过一个说法16G那个时候就只是个入门机配置,32G才能流畅用,64G才是能够很顺畅的用ai,不知是真是假
现在Windows11推荐是选32GB运行内存。
Windows的AI大模型?是指copilot吗?那东西是联网的吧,运算根本不在本地,也不会占用什么内存啊。UOS AI也是联网AI的方案。运行这些东西没什么配置要求。
现有的个人电脑算力没几个能支撑本地运行可用的AI大模型的,内存在这其中甚至算是比较符合要求的了。CPU等计算单元的问题比内存大多了,等运算单元提升上来了内存早就迭代了。
AI大模型也有不那么消耗资源的版本,但那样效果就会差了。毕竟不能又要马儿跑,又要马儿不吃草。
如果是云端,16GB不知道够不够用。
Windows的AI大模型?是指copilot吗?那东西是联网的吧,运算根本不在本地,也不会占用什么内存啊。UOS AI也是联网AI的方案。运行这些东西没什么配置要求。
现有的个人电脑算力没几个能支撑本地运行可用的AI大模型的,内存在这其中甚至算是比较符合要求的了。CPU等计算单元的问题比内存大多了,等运算单元提升上来了内存早就迭代了。
AI大模型也有不那么消耗资源的版本,但那样效果就会差了。毕竟不能又要马儿跑,又要马儿不吃草。
本地。。。llama3好像也不是不可以。。。虽然说本地好麻烦的嘞,深刻怀疑是Windows为自己越来越臃肿找的理由
本地。。。llama3好像也不是不可以。。。虽然说本地好麻烦的嘞,深刻怀疑是Windows为自己越来越臃肿找的理由
llama3 70b的版本毫无疑问会爆掉任何消费级计算设备。哪怕是最低的8b版本,最新的消费级cpu跑起来也只有不到1 token/s的输出速度,会爆掉大部分消费级GPU的显存,效果还被随便一个免费的联网llm暴打。
MacBook好像准备配置本地ai模型,配合新处理器的,不知道到时候他得配多少内存😂
MacBook好像准备配置本地ai模型,配合新处理器的,不知道到时候他得配多少内存😂
MacBook,现在如果加入AI大模型,最少也得16GB。
低配版的8GB运行内存,以后要搞订阅版。
如题,当Windows11的最新版版本增加AI大模型后,导致很多电脑的内存要增加到32GB,可能16GB也不够用。
对于deepin v23,我们加入自己的AI大模型平台后,自己的电脑也是否需要把运行内存条扩展到32GB以上?为什么AI大模型在个人电脑上会这么消耗资源?