[Internal testing communication] 好消息:千问qwen3.5小模型0.8b 2b 4b 9b开源,不用再怕烧Token了~
Tofloor
poster avatar
kookboy
deepin
2026-03-03 17:08
Author

阿里千问开源Qwen3.5小尺寸模型系列 马斯克评价其智能水平惊人

每日经济新闻

2026-03-03 11:02
每日经济新闻官方账号

3月2日晚间,阿里千问正式开源4款Qwen3.5小尺寸模型系列,分别是Qwen3.5-0.8B/2B/4B/9B。

阿里千问表示这一系列模型继承了Qwen3.5家族的基因,采用原生多模态训练、最新的模型架构,以满足从极端资源受限到高性能轻量级应用的不同需求。

小模型发布后,在海外社交媒体上获得了马斯克的关注,他评价这一系列小模型达到“惊人的智能水平”。

据了解,此前千问3.5家族已开源Qwen3.5-397B-A17B的大尺寸模型,Qwen3.5-122B-A10B、Qwen3.5-35B-A3B、Qwen3.5-27B等3个中型尺寸模型,加上此次发布的小模型系列,千问3.5系列共开源了8款模型。

有分析人士认为,此次发布的系列小模型填补了Qwen3.5系列在端侧部署领域的空白,形成了从0.8B到397B的完整产品矩阵。

在AI硬件浪潮下,适合端侧部署的小模型备受关注。

银河证券近日研报分析认为,大模型能力加速进化,加速推动进入“Agentic AI”阶段,软件商业模式存不确定性,对比之下,硬件仍然是AI应用落地最为确定的受益方向,为消费电子产业链公司带来新的业务增长点。国内春节期间消费数据显示新型消费电子品类增长迅猛,海外方面头部企业正加速布局AI硬件入口。

阿里也在加大端侧领域布局,正在将千问打造成软硬一体、跨多种终端形态的AI助手,打造“一脑多端”的模式。

近日,据报道,阿里个人AI助手“千问”正式进军AI硬件领域,今年将面向全球市场推出多款不同形态的AI硬件产品。

每日经济新闻


我下个9B的试试~tail

ollama qwen3.5 9b.png

ollama qwen3.5 9b 2.png

卧槽~秒回啊~速度太快了!

赚到了~


唉~测试了4b,无法调用浏览器,这个有点失望,9b的最后调用成功......

测试的结果:调用工具表现糟糕,基本不可用,我放弃了。sweat

Reply Favorite View the author
All Replies
raspbian
deepin
2026-03-03 17:35
#1

我一直很好奇的是本地部署小模型的实际用途到底是啥

大活干不了 比如写个代码片段

小活不能干 即使是标记为未经审查的本地小模型在翻译一些英文原文也不能完全摒弃zz正确 实际上的翻译结果面目全非

即使就是单纯聊天 你还要反过来给他提供情绪价值

Reply View the author
晚秋(lateautumn)
Moderator
2026-03-03 17:41
#2

工作上需要编wpsjs宏,用deepseek编成功了,也试过用千问。还没有感觉出两个哪个更好。

Reply View the author
Feelup
deepin
2026-03-04 09:09
#3

要是UOS AI能提供这些0.8B、2B、4B的小模型下载使用就好了,这样断网的情况下,也能问一些简单的命令啥的。

Reply View the author
鲜衣怒马
deepin
2026-03-04 09:40
#4
Feelup

要是UOS AI能提供这些0.8B、2B、4B的小模型下载使用就好了,这样断网的情况下,也能问一些简单的命令啥的。

这里可以安装啊,还支持私有化部署的配置
image.png

Reply View the author
kookboy
deepin
2026-03-04 09:59
#5

此次开源的千问3.5,重要的地方说三遍:支持图像、支持图像、支持图像!

Reply View the author
kookboy
deepin
2026-03-04 10:04
#6
Feelup

要是UOS AI能提供这些0.8B、2B、4B的小模型下载使用就好了,这样断网的情况下,也能问一些简单的命令啥的。

就算你的设备很旧,应该也能跑2B的吧~

Reply View the author
我白说了
deepin
2026-03-04 10:12
#7
kookboy

此次开源的千问3.5,重要的地方说三遍:支持图像、支持图像、支持图像!

三个小模型都支持吗?

Reply View the author
Feelup
deepin
2026-03-04 12:46
#8
kookboy

就算你的设备很旧,应该也能跑2B的吧~

能跑和体验良好是不一样的,是我的话,我会平常用0.8B的,回答效果不好时再切换到2B。

考虑让UOS AI自带也是因为,这东西就算你不用,它也在后台跑着,占用着内存,何必再多安装一堆的服务和软件来运行其它模型呢,还不如让UOS AI物尽其用比较好。

Reply View the author
穿西装的万斯在统亻言
deepin
Backbone of ecological co-construction group
2026-03-04 15:03
#9

9B才6GB?以后可以塞进去手机了

Reply View the author
长的名字可以让你的朋友更不容易记住你
deepin
2026-03-04 16:45
#10
kookboy

就算你的设备很旧,应该也能跑2B的吧~

应该能跑,不过回答水平也是2B。

Reply View the author