这个服务并不需要root权限,是否可以用autostart desktop 机制启动呢?

这个服务并不需要root权限,是否可以用autostart desktop 机制启动呢?
其实吧,不用担心这么多的,默认安装后,ollama服务就已经默认配置了开机启动,你要是担心的话,也可以手动设置一下
命令:sudo systemctl enable ollama
其实吧,不用担心这么多的,默认安装后,ollama服务就已经默认配置了开机启动,你要是担心的话,也可以手动设置一下
命令:sudo systemctl enable ollama
说起来为什么deepin 25的systemd service 配置要有所不同呢?
@momen 照着 UOS AI 的窗口化搞一下?
厉害了~赶紧试试……
(文中ollama的几个链接跳回论坛主页了,麻烦重新编辑下)

说起来为什么deepin 25的systemd service 配置要有所不同呢?
因为从 Deepin 25 开始,deepin导入了“磐石系统”,也就是不可变系统,该系统做了一些调整 。
现在很多Linux版本应该都开始考虑不可变系统的设计了,比如 openKylin 2.0 等。

厉害了~赶紧试试……
(文中ollama的几个链接跳回论坛主页了,麻烦重新编辑下)
多谢提醒,已经修订了
这个APIkey填什么?不填好像提示连接失败
ollama的下载速度贼慢且经常断,试了几次都装不上,有办法吗?

这个APIkey填什么?不填好像提示连接失败
对于ollama本地部署的大模型,API Key是否填写都不会影响的(毕竟就没配置过这个密钥),你要实在想填写也行,随便填些内容进去就可以了,不会影响使用。
你的报错,可以考虑检查一下ollama服务此时是否运行正常
命令:systemctl status ollama
为什么我的ollama还是不能开机自启?必须在终端运行ollama serve才能正常运行本地模型。
如果不运行的话,不仅终端会提示“Error: could not connect to ollama app, is it running?”,就连UOS-AI那边也会提示拒绝连接。
简直太🐮了。👍👍👍👍
后期可以跟这家公司合作出点有关的软件,肯定很香~

ollama的下载速度贼慢且经常断,试了几次都装不上,有办法吗?
嗯,针对你遇到的问题,我更新了一下内容,请参考附录第4点进行操作即可。

为什么我的ollama还是不能开机自启?必须在终端运行ollama serve才能正常运行本地模型。
如果不运行的话,不仅终端会提示“Error: could not connect to ollama app, is it running?”,就连UOS-AI那边也会提示拒绝连接。
不能开机自启动,应该是服务配置出错了,用命令查看服务状态应该会发现服务没有正常运行
命令:systemctl status ollama
请参考本贴的内容检查一下,应该很快就会发现问题所在
推荐检查的内容点:ollama的服务文件 /etc/systemd/system/ollama.service
楼主写的确实详细,我前几天用23部署的本地的模型也是接入了uos ai,想问下uos ai中有一个知识库管理的功能,需要什么设置能让大模型调用上传的知识库呢?这个块没搞明白,明天准备用 anythingllm
试试。。。。。。。。
楼主写的确实详细,我前几天用23部署的本地的模型也是接入了uos ai,想问下uos ai中有一个知识库管理的功能,需要什么设置能让大模型调用上传的知识库呢?这个块没搞明白,明天准备用 anythingllm
试试。。。。。。。。
脑子突然想起来了,需要切换智能体为“个人知识助手”。这样就可以调用本地知识库了。刚才试了试可以了

楼主写的确实详细,我前几天用23部署的本地的模型也是接入了uos ai,想问下uos ai中有一个知识库管理的功能,需要什么设置能让大模型调用上传的知识库呢?这个块没搞明白,明天准备用 anythingllm
试试。。。。。。。。
其实吧,不太推荐你使用UOS AI提供的知识库功能,安装体验不是太好。但你想要尝试的话,可以进行如下配置。
要使用UOS AI的知识库功能,需要先安装下图所示的向量化插件,点击安装就会打开应用商店对应的位置
说明:只有安装了“向量化插件”才能继续安装统信提供的大模型哦(下图所示的1.5B和7B模型)。
直接点击安装即可
说明:别被介绍中的大小骗了哦,UOS使用的这个向量化插件绝对不止 13.7KB; 而且下载很慢,需要下载很久(真的很久),且与你的网络好坏无关。
等这个向量化插件安装成功后,就可以在下图所示的知识库管理中点击添加文件了,之后再等你添加的文件完成向量化转换就可以了(转换完成后,会有对应的标识)
使用时,在UOS AI中选择需要使用的智能体为“个人知识助手”,并选择一个合适的大模型,之后就可以进行知识库问答了
说明:如果你使用的本地模型进行问答的话,效果与你的本地算力和使用的模型能力强相关哦。

脑子突然想起来了,需要切换智能体为“个人知识助手”。这样就可以调用本地知识库了。刚才试了试可以了
确实是这里,看来你之前就是差了这最后一步。
Popular Events
More
最近想要在Deepin系统上部署本地 DeepSeek-R1 模型的话题越来越多了,虽然不是太复杂,但看了好几个帖子都感觉写得不够详细,对新手也不够友好,我就来写一个稍微详细点的吧
说明:本流程不仅仅适用于 DeepSeek-R1 模型,同样也适用于其它模型的本地部署
演示使用的系统版本与硬件条件
Ollama部署
打开网站:Ollama软件 ,点击复制命令
将该命令粘贴到终端中执行即可,安装过程中需要输入当前用户的密码
命令:
curl -fsSL https://ollama.com/install.sh | sh
说明:ollama软件大概有1.5GB左右,下载需要一些时间(下图所示还没开始下载哦,下载开始后会显示下载速度等信息)
ollama下载完成后,就可以正常查看软件版本
命令:
ollama --version
Ollama服务配置
说明1:如果你只希望简单使用的话,可跳过此处的服务配置
说明2:此处ollama服务配置主要调整了ollama下载模型文件的保存位置和服务访问限制调整
命令:
sudo vim /etc/systemd/system/ollama.service
默认的配置文件内容
非Deepin 25系统服务修改参考
该ollama服务配置适用于Ubuntu、OpenEuler、RedHat、Deepin 23等大多数系统
Deepin 25系统服务修改参考
由于Deepin 25采用了不可变系统的设计,ollama安装完成后,程序的执行文件位置出现了一些变化
在进行ollama服务配置时也需要做相应的修改(否则服务会运行异常)
Ollama服务启动
更新服务配置:
sudo systemctl daemon-reload
重启ollama服务:
sudo systemctl restart ollama.service
查看ollama服务运行状态:
systemctl status ollama.service
模型下载
打开网站:Ollama网站模型搜索
搜索框中搜索需要下载的模型名称关键字,由于 DeepSeek-R1 模型是最近发布的热门基座大模型,此时的排序在最前面,直接点击进入即可
根据自己的电脑配置,选择合适大小的参数模型,点击复制模型下载命令
将复制的命令粘贴到终端中进行下载(本例中选择下载 1.5b 参数量大小的模型)
模型下载完成后会自动运行,此时就可以在终端中与它进行对话了
命令:
ollama run deepseek-r1:1.5b
说明:不是因为我的电脑配置太差哦,而是这个大小的模型响应速度最快,日常使用时我的电脑风扇都不会转一下的(思考太过复杂的问题时,还是会转的,风扇没有坏),内存占用也很低(大概占用1.3GB的内存),非常好用。毕竟是推理模型,比起普通的聊天模型,它会尝试思考验证自己的想法是否正确,也就是说,模型本身的知识量只是它思考的参照物,它能做的事是远超已投喂知识数量的哦(在能够得到正确引导的前提下)。
如果以后想在终端中运行该模型的话,也是继续使用上面的命令哦。
下面是一个简单的运行示例
在UOS AI中添加本地模型
当然了,虽然终端中可以正常使用DeepSeek模型,但毕竟不太方便,还是使用图形化的访问方式体验才会更好。下面我们在UOS AI中添加DeepSeek R1。
打开UOS AI的设置选项
在模型配置中选择“私有化部署”,点击“添加”
在添加窗口中参考如下内容进行填写,填写完成点击确定即可
本例中使用到的信息
点击确定后,程序会验证对应的大模型是否可用(显示转圈)
验证完毕后,会显示已经成功添加的本地模型
添加完成后,就可以在UOS AI中选择 DeepSeek R1 模型进行使用了
.
.
.
附录
01:Ollama模型下载页面的部分信息说明
在Ollama模型的下载页面,你可能也注意到了下面的这些信息,
第一部分
“1.5b, 7b, 8b, 14b, 32b, 70b, 671b” 表示本页提供的模型参数的数量规模
“9M Pulls” 表示该模型已经被下载了9百万次
"Updated 2 weeks ago" 表示该页面或模型资源上一次更新是在两周前
补充:“28 Tags” 表示与该模型相关的标签数量是28个,不同的标签用于标识模型的不同版本、配置等
第二部分
"Updated 2 weeks ago" 表示该模型资源上次更新是在两周前
“0a8c26691023 · 4.7GB” 表示该模型文件的标识符与大小
model行:模型信息
params行:参数信息
template行:模板信息
license行:采用的许可证
02:ollama服务的进一步配置
默认情况下,ollama启动一个大模型后,你要是5分钟不使用的话,ollama就会关闭该模型 (释放内存),当你再次使用该模型时,ollama会再次启动该模型 (将模型载入内存),当模型文件比较大时,体验就会不太好。
而且,在多人使用时,大家同时对大模型进行提问的话,默认情况下是需要排队的(阻塞),也就是回答完一个人的问题后才会继续回答下一个人的提问,多人使用时体验也不会很好。
如果你是那种不差电费的角色,是可以考虑调整一下ollama释放模型的时间与开启并发的,调整后的服务配置如下
命令:
sudo vim /etc/systemd/system/ollama.service
03:ollama服务卸载
如果你不想继续使用ollama了,可以参考如下流程进行卸载
04:手动安装Ollama程序
由于Ollama站点访问有时候不太稳定,导致部分人在使用官网提供的安装命令时可能会安装失败
官网提供的安装命令:
curl -fsSL https://ollama.com/install.sh | sh
此时有两个方法可以解决
方法1:换个时间点进行安装尝试,比如早晨起早一点进行安装,速度很快。
方法2:手动安装
05:Linux系统下Ollama的版本更新问题
在Linux下,目前版本的Ollama没有提供对应的升级功能,只能通过官方提供的命令直接进行覆盖安装
命令:
curl -fsSL https://ollama.com/install.sh | sh
当然了,如果你是手动安装的 Ollama 程序,则只需要再次从GitHub网站上下载对应的新文件进行解压替换即可
网站:Ollama的GitHub地址
06:跨源资源共享(CORS)配置
对于部分希望在浏览器插件中调用本地大模型算力的情况,比如“沉浸式翻译”
需要在Ollama服务配置文件中间添加跨源资源共享(CORS)配置,添加完成后重启服务生效
命令:
vim /etc/systemd/system/ollama.service
07:待定