[deepin exploration] deepin UOS AI无缝接入 DeepSeek-R1 模型!离线、在线都支持!
Tofloor
poster avatar
deepin小助手
Super Moderator
OM
2025-02-07 18:10
Author

image.png

DeepSeek 大模型自发布以来吸引了众多用户关注,为了让 deepin 用户更好地体验这一前沿技术,UOS AI 现已适配接入 DeepSeek-R1 端侧模型!无需忍受服务器崩溃,两步即可在本地独享DeepSeek-R1模型带来的震撼体验。

本次,我们为大家提供了「离线部署」和「在线接入」两种方式在UOS AI 中使用 DeepSeek-R1 模型,大家可根据自身设备及网络环境等情况自行选择:

  • 方法一:使用 deepin 官方适配的 UOS AI DeepSeek-R1 1.5B 模型离线部署
  • 方法二:使用 UOS AI的自定义模型接口在线接入DeepSeek-R1 API

注:离线部署方式仅支持 deepin 23、deepin 25 Preview系统使用;在线接入方式支持 UOS V20、deepin 20.9、deepin 23、deepin 25 Preview系统使用。

方法一:UOS AI 离线部署DeepSeek-R1 1.5B 模型

Step 1:更新 UOS AI 及向量化模型插件

若您正在使用deepin 23,可从应用商店更新 UOS AI 至最新版。

image.jpeg

注:若您是首次在 deepin 中下载使用 UOS AI,根据界面提示「勾选用户使用协议-免费领取试用账号」后即可直接进入 UOS AI 全新版本。

若您正在使用 deepin 25 Preview,请通过以下命令升级 UOS AI 至最新版,应用商店稍晚些时候更新。

sudo apt update
sudo apt install uos-ai deepin-modelhub uos-ai-rag

更新完成后,打开 UOS AI 的「设置」选项,在「模型配置-本地模型」中选择「向量化模型插件-安装/更新」,在自动跳转到应用商店界面后,点击安装/更新即可。

image (1).png

Step 2:安装 DeepSeek-R1 模型 GGUF 版本

UOS AI 的模型后端驱动框架是基于 llama.cpp,大家可直接在魔搭社区找到 DeepSeek-R1 的 GGUF 版本。

这里我们将以最通用且便捷的 1.5B 模型为例,其模型大小适中,对硬件配置要求不高,仅需 CPU 即可实现流畅推理。(若您正在使用 CUDA 推理,可以等后续 deepin 系统更新 CUDA 版本的推理后端框架)。

已适配 UOS AI 的 DeepSeek-R1 1.5B 模型的下载地址如下:

百度网盘: https://pan.baidu.com/s/1-786vFU4dunpdproiOHdbQ?pwd=zxxw
123网盘:https://www.123865.com/s/XXsfjv-Jjcph (备用链接:https://www.123684.com/s/XXsfjv-Jjcph
夸克网盘:https://pan.quark.cn/s/edbf721fefaf

将模型文件下载完成后,打开文件管理器,直接进入如下目录:

/home/用户名/.local/share/deepin-modelhub/models   #其中用户名替换为自己的计算机用户名

注:若没有 deepin-modelhub 文件夹以及下面的 models 文件夹,可以自己手动创建该文件夹。

进入 models 文件夹,将下载完成的模型文件夹解压后,直接复制到刚刚创建的文件夹路径中,注意检查路径不要有多的名称。模型完整路径如下:

/home/用户名/.local/share/deepin-modelhub/models/DeepSeek-R1-1.5B/gguf   #其中用户名替换为自己的计算机用户名

image (2).png

经过上述步骤,再次打开 UOS AI 界面,即可手动切换使用 DeepSeek-R1-1.5B 模型。

image (3).png

以下是一个简单的DeepSeek-R1 运行示例:

image.gif

方法二:UOS AI 在线接入 DeepSeek-R1 API

Step 1:获取 API key

访问 DeepSeek 官网(https://www.deepseek.com/),注册/登录账号后,创建并获取API key。若由于服务器压力等问题无法访问以上页面,也可以访问其他渠道获取 API key。

image (4).png

本文将以硅基流动(https://siliconflow.cn/zh-cn/)为例,在注册/登录账号后,前往 API 密钥管理页面,创建并获取 API key。

image (5).png

Step 2:在 UOS AI 中接入 DeepSeek-R1 在线模型

打开 UOS AI 的「设置」选项,在「模型配置」中选择「在线模型-添加」,进入UOS AI的添加模型界面。

image (6).png

完成添加窗口中的内容填写,并点击确定即可,本例中使用到的信息参考如下:

账号名称:自定义
模型类型:自定义
API Key:粘贴 Step 1中所复制的 API 密钥
模型名:deepseek-ai/DeepSeek-R1
请求地址:https://api.siliconflow.cn/v1/chat/completions

截图_选择区域_20250207175641.png

填写完毕并提交确认后,即可在UOS AI中选择 DeepSeek-R1 模型进行使用。

截图_uos-ai-assistant_20250207174950.png

理论上只要你在硅基流动账户中的余额够用,其模型仓库的所有模型都可以通过上述方法在UOS AI中配置调用,只需在上述配置方法中的模型名处填写对应的完整模型名称即可(如上图所示),其它不变。

截图_选择区域_20250207142123.png

需要注意的是,在线大模型受网络及用户访问量影响,偶尔可能会出现访问慢、超时或无法访问的情况,建议多次尝试即可。

在线模型由于当前适配问题,DeepSeek深度思考的内容与对话内容尚未分开,但这并不影响正常使用,UOS AI 团队会在后续更新中尽快优化体验。

最后感谢社区用户「陈正勇」提供的在线配置参考~大家在体验过程中有任何建议或问题,欢迎在评论区留言,或前往deepin社区论坛讨论交流,优质反馈将有机会获得deepin官方周边礼品噢!

以用为本.png

Reply Favorite View the author
All Replies
1 / 6
To page
小小薪愿
deepin
2025-02-07 18:45
#1

kissing_heart

Reply View the author
fhqiw
deepin
2025-02-07 19:22
#2

连接失败,请检查是否连接了互联网,或稍后再试。
image.png

Reply View the author
北冥夜未央
deepin
Ecological co-builder
2025-02-07 19:32
#3
It has been deleted!
136******27
deepin
2025-02-07 20:34
#4

请问wsl2 deepin支持部署吗?

Reply View the author
xuqi
deepin testing team
2025-02-07 20:59
#5
fhqiw

连接失败,请检查是否连接了互联网,或稍后再试。
image.png

/home/用户名/.local/share/deepin-modelhub/models

可能是解压模型文件路径没配置对,就会有这类的报错,可以检查试试看~

Reply View the author
fhqiw
deepin
2025-02-07 21:20
#6
xuqi

/home/用户名/.local/share/deepin-modelhub/models

可能是解压模型文件路径没配置对,就会有这类的报错,可以检查试试看~

路径是对的

Reply View the author
sammy-621
deepin
2025-02-07 21:25
#7

在线模型实在是太不稳定了。正在尝试本地模型。我自从1.2日开始用UOSAI接入DeepSeekV3,那时速度快到飞起。自从火出圈后,真是直接无法使用了。

Reply View the author
James
deepin
2025-02-08 00:06
#8

V23版本UOS 下,

方法一:UOS AI 离线部署Dee1.5B pSeek-R1 模型

按照方法拷贝进去后,UOS AI 的选项里没有Dee1.5B pSeek-R1本地部署。不知道啥原因就是出不来选项。

Reply View the author
天平虎
deepin
2025-02-08 00:32
#9
fhqiw

连接失败,请检查是否连接了互联网,或稍后再试。
image.png

解压后文件夹中有3个文件,都需要复制到指定位置,才可以离线使用。

如果是直接拖拽的文件夹,有可能只复制了.gguf文件。
image.png

Reply View the author
老胖
deepin
2025-02-08 03:18
#10

私有部署可以先安装 ollama ,从ollama下载deepseek,再添加离线的私有化部署,<账号名称>、APIKey>这两个随便填。<模型名称>填上ollama选择上下载的模型名称,<请求地址>http://127.0.0.1:11434/v1。

本地部署多个大模型注意区分下模型名称,请求地址不变。

本地私有部署的话deepseek-r1:1.5b和qwen2.5:3b都可以尝试一下qwen略优,电脑性能好的可以上楼

Reply View the author
gadfly3173
deepin
2025-02-08 09:33
#11

这次更新还是没支持像groq这样直接返回think标签的情况哇

Reply View the author
潘老施主
deepin
2025-02-08 09:46
#12

like

Reply View the author
潘老施主
deepin
2025-02-08 09:48
#13
136******27

请问wsl2 deepin支持部署吗?

安装了UOS AI 就可以部署。

Reply View the author
Locoy
deepin
2025-02-08 09:49
#14

image.png太智障啦

Reply View the author
无忧。
deepin
2025-02-08 10:03
#15

连接失败,请检查是否连接了互联网,或稍后再试。

Reply View the author
catubibu
deepin
2025-02-08 10:33
#16
sammy-621

在线模型实在是太不稳定了。正在尝试本地模型。我自从1.2日开始用UOSAI接入DeepSeekV3,那时速度快到飞起。自从火出圈后,真是直接无法使用了。

花钱用api服务,本地的都不是满血。百度千帆现在免费,硅基流动也有券。

Reply View the author
JesseyLawson
deepin
2025-02-08 10:37
#17
无忧。

连接失败,请检查是否连接了互联网,或稍后再试。

+1

Reply View the author
毗那夜迦
deepin
2025-02-08 10:50
#18
JesseyLawson

+1

我的也是同样的问题😂

Reply View the author
观察者
deepin
2025-02-08 11:04
#19
Locoy

image.png太智障啦

靠谱的方法是你维护手册做成知识库喂给它,或者加搜索插件,才能更好的处理问题。我也用的1.5b的蒸馏模型,给出的答案不知道靠谱不。
Screenshot_20250208_110332.png

Reply View the author
毗那夜迦
deepin
2025-02-08 11:22
#20
无忧。

连接失败,请检查是否连接了互联网,或稍后再试。

刚再试又可以了,不知是deepin做了优化还是啥了,我先用百度千帆问了那个柯西不等式,然后再用切换deepseek问同样的问题,就有反应了,之后再问其他问题,就都可以用了😂

Reply View the author
1 / 6
To page