试一下
好人一生平安,先收藏下来,换个配置好点的电脑再玩这个
为什么我的ai里面没有自定义呢?
请问,intel i5 能跑动吗
ollama默认的api地址是http://127.0.0.1:11434/v1吧
ollama默认的api地址是http://127.0.0.1:11434/v1吧
正解,连接上了!
但是为什么问几个问题就开始出乱码了
换了通义千问的模型就没有乱码的问题了
大佬建议换个头像和ID,方便别人记住你,你可能要在论坛里成为名人了,你的帖子已经是论坛推荐的热帖了
顺便问一下,卸载的时候又该怎么卸载?
卸载方法会在下一篇帖子
ollama默认的api地址是http://127.0.0.1:11434/v1吧
是的,但是markdown把模型连接地址识别成了网站,把端口吞了,现在文章已经修复,没有这个问题了
正解,连接上了!
但是为什么问几个问题就开始出乱码了
换了通义千问的模型就没有乱码的问题了
对不起,我在编辑帖子的时候没注意到markdown把模型连接地址识别成了网站,把端口吞了,现在文章已经修复,没有这个问题了
请问,intel i5 能跑动吗
是intel几代呢
为什么我的ai里面没有自定义呢?
UOSAI版本太老旧,需要UOS AI 1.3.0
已读不懂,希望随便录个视频
你可以关注一下我的bilibili
对不起,我在编辑帖子的时候没注意到markdown把模型连接地址识别成了网站,把端口吞了,现在文章已经修复,没有这个问题了
楼主辛苦了,感谢
模型运行的时候太占内存了
27b运行的时候需要31G内存
感觉本地模型甚至AIPC
噱头还是大于实用性的
我刚才安装了1070专业版
发现已经不能添加自定义模型了
好文
我天真的以为,用了本地模型就可以断网用AI了,刚才试了一下,发现想多了。
已读不懂
大佬,能出个 GPU 版本的吗?
Popular Events
More
UOSAI绑定本地模型其实是有官方教程的,但是官方教程坑很多,这篇文章就来教你避坑
首先来安装Ollama,官方教程使用Ollama官方安装脚本,由于国内网络原因,容易安装失败,所以使用我为大家搭建的镜像站,命令如下:
在打开的nano中输入
然后按Ctrl+O保存文件,继续执行命令
然后来启动Ollama,以下是各种CPU能跑的而且能力较好的模型的启动命令
清华大学GLM:
阿里巴巴Qwen:
上海人工智能实验室的书生·浦语:
现在开始链接到UOS-AI吧 请按图片操作
这里的信息这么填写
②账号名称:根据需要随意填写。
③API Key:Ollama未开启鉴权,可以随意填写。
④模型名:填写Ollama运行的模型名称,如前文运行的是qwen2:7b,那么这里就填qwen2:7b。
⑤模型请求地址:
直接确定
现在你可以在UOSAI中使用本地模型啦!