[Internal testing communication] ollama下载大模型时候不用换源,直接拉就行,应该是整合国内源了
Tofloor
poster avatar
139******11
deepin
a day ago
Author

拉大模型的时候,先查了一下速度问题,AI说国内下载慢,n多换源大法,但是好多都无法访问了,直接拉了一下,40M/s。
官方脚本安装ollama的时候避开六日高峰期,科学上网也挺快,2-4m/s

Reply Favorite View the author
All Replies
玲泷沙.spark
deepin
20 hours ago
#1

本来下载速度 就是拉满的

Reply View the author