只能说本地模型一言难尽,这里我用的 8B 那个
我这个什么问题呢,一直回答不了
我的deepseek部署的也是1.5B的
我的建议是使用Docker来运行
收藏为敬。
本地部署Deepseek-R1,测试一下经典的“先有鸡还是先有蛋?”的问题,Deepseek还在思考中,大家可以测试一下哦
本地部署Deepseek-R1,测试一下经典的“先有鸡还是先有蛋?”的问题,Deepseek还在思考中,大家可以测试一下哦
首先,这个题目类似于“先有鸡还是先有蛋”,听起来像是一层层叠叠的因果关系。也许从生物学的角度说,蛋是母鸡生下的,那么母鸡必须已经存在才能下蛋,所以“先有蛋”可能来源于母鸡的存在。但另一方面,母鸡也是生物,它又是从受精卵发育而来的,所以这可能是从胚胎开始,性别分化,最终形成的。
另外,这个题目可能涉及到时间、空间等基本概念。在物理学中,事件的发生是有时间顺序的,所以“先有鸡还是先有蛋”这个问题可能需要理解这两个事件(有鸡和有蛋)之间的关系是有序还是无序。也许从一个更大的视角看,比如生态系统中的物种出现,或者生命过程中的某个阶段。
再者,考虑到哲学层面,人们可能会问,是否有绝对的时间起点,是否能够确定任何两个事件的先后顺序。在物理学中,尤其是广义相对论中提到的时间并不是绝对的,而是与参考系有关,在极端情况下甚至可以逆转时间顺序或导致时间膨胀和收缩。因此,这个问题可能涉及到时间的基本性质。
此外,这个题目还有点像是一道哲学思辨题,可能在考察人们如何看待因果关系以及事件的先后顺序。比如有些人可能会先从进化论的角度出发,认为生物的发展需要先有母鸡这种生物,才能有蛋的生成,所以“先有蛋”。而另一些人则会说,蛋的存在依赖于母鸡的基因和结构,所以可能更类似于胚胎发育的过程,即“先有母鸡”,也就是“先有了结构基础”,继而产生“蛋”。
我还记得以前学过的类似问题比如“先有牛顿定律还是苹果落地?”。可能同样的道理,“先有鸡还是先有蛋”可能没有一个绝对的正确答案,而是取决于所处的视角和模型。
最后,这个题目也让我思考了生命起源的基本问题。如何解释生命的出现顺序,有没有起点,或者是否都是随机发生,并没有严格的先后顺序?
综上所述,我需要进一步查阅相关科学研究和文献来深入了解这个问题的具体科学解释,同时也要考虑从哲学和思辨的角度来探讨可能的结果。
经过仔细分析,“先有鸡还是先有蛋”这个问题在自然界中并没有一个明确的先后顺序。然而,在物理学和生物学的视角下,可以得出以下结论:
- 生物学视角:通常认为母鸡的存在是下蛋的前提,因为没有母鸡就没有鸡蛋,因此可以说“先有了鸡”,但从生命发育的角度来看,母鸡本身来自于受精卵的演进,所以蛋的出现可能源于母鸡的基因结构,这是一个更复杂的演变更过程。
- 哲学和物理视角:由于时间在不同参考系中具有相对性,在某些极端条件下,事件顺序可能存在不确定性。然而,从日常观察的角度来看,我们更容易感受到生物存在的先有性,即“先有鸡”,这可能因为蛋的出现依赖于母鸡的存在。
综上所述,这个问题没有一个单一的答案,但通过不同的视角可以得到不同的结论。因此,最准确的回答是:无法在严格的意义下确定“先有鸡还是先有蛋”,因为它们都是自然演进过程中的产物,而没有绝对的时间起点或严格的先后顺序。
本地部署的话,强烈建议部署7B及以上的值蒸馏模型,如果数据量太少的话,其实回答内容很差劲。
我这个什么问题呢,一直回答不了
我的deepseek部署的也是1.5B的
不好意思,搞错了模型地址信息,少复制了“V1”,现在可以用了。
这个要收藏一下。
github实在不好连接,一直下载不下来。

谢谢,非常详尽的文章
收藏了,备用

ollama 感觉还是克隆下来然后本地编译爽,编译出来的文件 就几十m,也支持android termux 直接编译运行。
请问专业版1070要怎么本地部署?谢谢

请问专业版1070要怎么本地部署?谢谢
专业版本默认是不允许安装商店之外的软件的,需要先在设置中获取权限,获取权限后,配置方法就是一样的了。

非常好的教程,uos ai添加了2个私有模型,可以随时切换!
添加第3个模型的,出现了连接拒绝的情况,先这样用着吧。
——————————————————————
论坛上还有一个部署教程,虽然成功部署本地模型,但用起来非常慢。要多花十几倍甚至更长的时间才有文字出现。我也搞不懂为什么,同样的模型,一台电脑,差距这么大?
嗯,针对你遇到的问题,我更新了一下内容,请参考附录第4点进行操作即可。
麻烦问一下
ollama run 或 ollama pull
下载大模型的时候也非常慢,有办法加速吗

麻烦问一下
ollama run 或 ollama pull
下载大模型的时候也非常慢,有办法加速吗
这个嘛,我没遇到过下载很慢的情况,下载速度都蛮快的,只有最后几MB时会慢一点。
这样吧,我晚上回去再添加一些内容,说不定能解决你的问题。
这个嘛,我没遇到过下载很慢的情况,下载速度都蛮快的,只有最后几MB时会慢一点。
这样吧,我晚上回去再添加一些内容,说不定能解决你的问题。
我这边ollama run第一次下载大模型的时候平均速度不到500kb。
不论是设置deepin的系统代理,还是命令行 export https_proxy 都无法让ollama走代理

我这边ollama run第一次下载大模型的时候平均速度不到500kb。
不论是设置deepin的系统代理,还是命令行 export https_proxy 都无法让ollama走代理
嗯,要不你考虑一下,去找个网络好一点的地方,下载大模型的gguf文件用命令导入。
嗯,要不你考虑一下,去找个网络好一点的地方,下载大模型的gguf文件用命令导入。
我还真尝试了这个,
结果不太懂,下载了一个gguf的文件,加载之后,竟然不支持中文。
Popular Events
More
最近想要在Deepin系统上部署本地 DeepSeek-R1 模型的话题越来越多了,虽然不是太复杂,但看了好几个帖子都感觉写得不够详细,对新手也不够友好,我就来写一个稍微详细点的吧
说明:本流程不仅仅适用于 DeepSeek-R1 模型,同样也适用于其它模型的本地部署
演示使用的系统版本与硬件条件
Ollama部署
打开网站:Ollama软件 ,点击复制命令
将该命令粘贴到终端中执行即可,安装过程中需要输入当前用户的密码
命令:
curl -fsSL https://ollama.com/install.sh | sh
说明:ollama软件大概有1.5GB左右,下载需要一些时间(下图所示还没开始下载哦,下载开始后会显示下载速度等信息)
ollama下载完成后,就可以正常查看软件版本
命令:
ollama --version
Ollama服务配置
说明1:如果你只希望简单使用的话,可跳过此处的服务配置
说明2:此处ollama服务配置主要调整了ollama下载模型文件的保存位置和服务访问限制调整
命令:
sudo vim /etc/systemd/system/ollama.service
默认的配置文件内容
非Deepin 25系统服务修改参考
该ollama服务配置适用于Ubuntu、OpenEuler、RedHat、Deepin 23等大多数系统
Deepin 25系统服务修改参考
由于Deepin 25采用了不可变系统的设计,ollama安装完成后,程序的执行文件位置出现了一些变化
在进行ollama服务配置时也需要做相应的修改(否则服务会运行异常)
Ollama服务启动
更新服务配置:
sudo systemctl daemon-reload
重启ollama服务:
sudo systemctl restart ollama.service
查看ollama服务运行状态:
systemctl status ollama.service
模型下载
打开网站:Ollama网站模型搜索
搜索框中搜索需要下载的模型名称关键字,由于 DeepSeek-R1 模型是最近发布的热门基座大模型,此时的排序在最前面,直接点击进入即可
根据自己的电脑配置,选择合适大小的参数模型,点击复制模型下载命令
将复制的命令粘贴到终端中进行下载(本例中选择下载 1.5b 参数量大小的模型)
模型下载完成后会自动运行,此时就可以在终端中与它进行对话了
命令:
ollama run deepseek-r1:1.5b
说明:不是因为我的电脑配置太差哦,而是这个大小的模型响应速度最快,日常使用时我的电脑风扇都不会转一下的(思考太过复杂的问题时,还是会转的,风扇没有坏),内存占用也很低(大概占用1.3GB的内存),非常好用。毕竟是推理模型,比起普通的聊天模型,它会尝试思考验证自己的想法是否正确,也就是说,模型本身的知识量只是它思考的参照物,它能做的事是远超已投喂知识数量的哦(在能够得到正确引导的前提下)。
如果以后想在终端中运行该模型的话,也是继续使用上面的命令哦。
下面是一个简单的运行示例
在UOS AI中添加本地模型
当然了,虽然终端中可以正常使用DeepSeek模型,但毕竟不太方便,还是使用图形化的访问方式体验才会更好。下面我们在UOS AI中添加DeepSeek R1。
打开UOS AI的设置选项
在模型配置中选择“私有化部署”,点击“添加”
在添加窗口中参考如下内容进行填写,填写完成点击确定即可
本例中使用到的信息
点击确定后,程序会验证对应的大模型是否可用(显示转圈)
验证完毕后,会显示已经成功添加的本地模型
添加完成后,就可以在UOS AI中选择 DeepSeek R1 模型进行使用了
.
.
.
附录
01:Ollama模型下载页面的部分信息说明
在Ollama模型的下载页面,你可能也注意到了下面的这些信息,
第一部分
“1.5b, 7b, 8b, 14b, 32b, 70b, 671b” 表示本页提供的模型参数的数量规模
“9M Pulls” 表示该模型已经被下载了9百万次
"Updated 2 weeks ago" 表示该页面或模型资源上一次更新是在两周前
补充:“28 Tags” 表示与该模型相关的标签数量是28个,不同的标签用于标识模型的不同版本、配置等
第二部分
"Updated 2 weeks ago" 表示该模型资源上次更新是在两周前
“0a8c26691023 · 4.7GB” 表示该模型文件的标识符与大小
model行:模型信息
params行:参数信息
template行:模板信息
license行:采用的许可证
02:ollama服务的进一步配置
默认情况下,ollama启动一个大模型后,你要是5分钟不使用的话,ollama就会关闭该模型 (释放内存),当你再次使用该模型时,ollama会再次启动该模型 (将模型载入内存),当模型文件比较大时,体验就会不太好。
而且,在多人使用时,大家同时对大模型进行提问的话,默认情况下是需要排队的(阻塞),也就是回答完一个人的问题后才会继续回答下一个人的提问,多人使用时体验也不会很好。
如果你是那种不差电费的角色,是可以考虑调整一下ollama释放模型的时间与开启并发的,调整后的服务配置如下
命令:
sudo vim /etc/systemd/system/ollama.service
03:ollama服务卸载
如果你不想继续使用ollama了,可以参考如下流程进行卸载
04:手动安装Ollama程序
由于Ollama站点访问有时候不太稳定,导致部分人在使用官网提供的安装命令时可能会安装失败
官网提供的安装命令:
curl -fsSL https://ollama.com/install.sh | sh
此时有两个方法可以解决
方法1:换个时间点进行安装尝试,比如早晨起早一点进行安装,速度很快。
方法2:手动安装
05:Linux系统下Ollama的版本更新问题
在Linux下,目前版本的Ollama没有提供对应的升级功能,只能通过官方提供的命令直接进行覆盖安装
命令:
curl -fsSL https://ollama.com/install.sh | sh
当然了,如果你是手动安装的 Ollama 程序,则只需要再次从GitHub网站上下载对应的新文件进行解压替换即可
网站:Ollama的GitHub地址
06:跨源资源共享(CORS)配置
对于部分希望在浏览器插件中调用本地大模型算力的情况,比如“沉浸式翻译”
需要在Ollama服务配置文件中间添加跨源资源共享(CORS)配置,添加完成后重启服务生效
命令:
vim /etc/systemd/system/ollama.service
07:待定