随便问个简单问题都这样,看来还是得上更好的CPU+显卡
按教程来的,怎么回事呢?
如何训练DeepSeek呢,想把他训练成投资理财一类的助手。
方法一按步骤添加后,最后一 步没有出现deepseek-R1
如何训练DeepSeek呢,想把他训练成投资理财一类的助手。
你问问它怎么训练它啊
/home/用户名/.local/share/deepin-modelhub/models
可能是解压模型文件路径没配置对,就会有这类的报错,可以检查试试看~
我查找.local文件夹找不到啊,自己设置了个local文件夹按步骤操作,无法启用。
出现“连接失败,请检查是否连接了互联网,或稍后再试。”的用户们可以去大模型拷贝的路径下看看最底层文件夹里是不是三个文件都齐全,如果出现某一个文件缺失,都会出现这样的提示;可以将从网盘下载的完整文件再重新拷贝一遍,重启UOS AI即可恢复正常。
/home/用户名/.local/share/deepin-modelhub/models

解压后文件夹中有3个文件,都需要复制到指定位置,才可以离线使用。
如果是直接拖拽的文件夹,有可能只复制了.gguf文件。
好了,谢谢!
我是Intel ultra 125H ,用的 deepseek-r1-7b-q8 大模型,比1.5B好用,但是生成会很慢,
我让1.5b 用 ts 语法写一段冒泡排序的语法,他就死循环了,相比之下还是7B 好用一点
靠谱的方法是你维护手册做成知识库喂给它,或者加搜索插件,才能更好的处理问题。我也用的1.5b的蒸馏模型,给出的答案不知道靠谱不。
说一句是在胡扯毫不为过。
在线版搞不定

感谢分享!看了教程试了下,体验不是太好。
UOS AI 本地部署deepseek r1-1.5B 和deepseek r1-14B
思考的时间非常久,生成的速度很慢,同样的模型比LMstudio慢了非常多;我的显卡是amd rx6800 16GB显存,lmstudio几乎很快能出结果,但UOS AI就慢得离谱,而且CPU占用80%多甚至更高。我不知道自己哪里没有设置好,才导致这种状况。

V23版本UOS 下,
方法一:UOS AI 离线部署Dee1.5B pSeek-R1 模型
按照方法拷贝进去后,UOS AI 的选项里没有Dee1.5B pSeek-R1本地部署。不知道啥原因就是出不来选项。
我的也是,在终端能查到文件,在文件夹一层一层找,找不到
20.9能否支持?
我的也是,在终端能查到文件,在文件夹一层一层找,找不到
现在能用了,刚才是没有把uos ai更新到最新版本
求助:安装了本地模型,还需要联网吗?
求助:安装了本地模型,还需要联网吗?
应该是本地模型的路径没有放对 ,或者拷贝的时候少了文件,可以看下置顶评论。
DeepSeek 大模型自发布以来吸引了众多用户关注,为了让 deepin 用户更好地体验这一前沿技术,UOS AI 现已适配接入 DeepSeek-R1 端侧模型!无需忍受服务器崩溃,两步即可在本地独享DeepSeek-R1模型带来的震撼体验。
本次,我们为大家提供了「离线部署」和「在线接入」两种方式在UOS AI 中使用 DeepSeek-R1 模型,大家可根据自身设备及网络环境等情况自行选择:
UOS AI已更新至最新版本,上述两种方法均支持目前所有系统版本:UOS V20、deepin20.9、deepin23、deepin25 Preview。
方法一:UOS AI 离线部署DeepSeek-R1 1.5B 模型
Step 1:更新 UOS AI 及向量化模型插件
首先请打开应用商店,检查更新 UOS AI 至最新版。
更新完成后,打开 UOS AI 的「设置」选项,在「模型配置-本地模型」中选择「向量化模型插件-安装/更新」,在自动跳转到应用商店界面后,点击安装/更新即可。
Step 2:安装 DeepSeek-R1 1.5B模型
待第一步「向量化模型插件」安装/更新成功之后,前往UOS AI 设置──本地模型,点击安装DeepSeek-R1-1.5B模型即可。
经过上述步骤安装完成向量化模型及DeepSeek-R1-1.5B模型后,再次打开 UOS AI 界面,即可手动切换使用 DeepSeek-R1-1.5B 模型。
以下是一个简单的DeepSeek-R1 运行示例:
方法二:UOS AI 在线接入 DeepSeek-R1 API
Step 1:获取 API key
访问 DeepSeek 官网(https://www.deepseek.com/),注册/登录账号后,创建并获取API key。若由于服务器压力等问题无法访问以上页面,也可以访问其他渠道获取 API key。
本文将以硅基流动(https://siliconflow.cn/zh-cn/)为例,在注册/登录账号后,前往 API 密钥管理页面,创建并获取 API key。
Step 2:在 UOS AI 中接入 DeepSeek-R1 在线模型
打开 UOS AI 的「设置」选项,在「模型配置」中选择「在线模型-添加」,进入UOS AI的添加模型界面。
完成添加窗口中的内容填写,并点击确定即可,本例中使用到的信息参考如下:
填写完毕并提交确认后,即可在UOS AI中选择 DeepSeek-R1 模型进行使用。
理论上只要你在硅基流动账户中的余额够用,其模型仓库的所有模型都可以通过上述方法在UOS AI中配置调用,只需在上述配置方法中的模型名处填写对应的完整模型名称即可(如上图所示),其它不变。
需要注意的是,在线大模型受网络及用户访问量影响,偶尔可能会出现访问慢、超时或无法访问的情况,建议多次尝试即可。
在线模型由于当前适配问题,DeepSeek深度思考的内容与对话内容尚未分开,但这并不影响正常使用,UOS AI 团队会在后续更新中尽快优化体验。
最后感谢社区用户「陈正勇」提供的在线配置参考~大家在体验过程中有任何建议或问题,欢迎在评论区留言,或前往deepin社区论坛讨论交流,优质反馈将有机会获得deepin官方周边礼品噢!