阿里巴巴通义千问团队继续推出小模型 9B参数能力甚至超过120B的开源同行
早前阿里巴巴通义千问团队就推出 Qwen3.5 中型系列模型,中型模型的参数规模在 35B 左右,但在多项基准测试中可以紧追或超过 235B 的通义千问 Qwen3 系列模型。
现在通义千问团队继续推出小型系列模型,这些模型的核心理念都是以更少的算力实现更高的智能,也就是不再单纯追求参数规模,而是通过优化模型架构、数据质量和强化学习来提升实际性能。

最新推出的小型模型包括:
Qwen3.5-0.8B 版:参数规模仅 8 亿,小巧快速非常适合边缘设备
Qwen3.5-4B 版:参数规模为 40 亿,为轻量级智能体提供强大的多模态支持
Qwen3.5-9B 版:参数规模为 90 亿,更加紧凑的模型,紧追大型模型的能力但算力要求更低
还会推出规模更小的基础模型:
通义千问团队还预告称后续还会推出基础模型,这些基础模型的参数规模更小可以在硬件配置更低的设备上运行,不过暂时还不清楚这些参数规模更小的基础模型何时发布。
量化团队 Unsloth AI 也同步发布 Qwen3.5 小型系列模型的量化版本,经过量化后的版本可在仅 6GB (显存或内存) 的设备上运行,但实际 TPS 有多少还不清楚。
相关链接:
HuggingFace:https://huggingface.co/collections/Qwen/qwen35
ModelScope:https://modelscope.cn/collections/Qwen/Qwen35
GGUFs 量化版本:https://huggingface.co/collections/unsloth/qwen35
基准测试对比:
注:标题中所说的超过 120B 同行指的是 GPT-OSS-120B 版。
关注公众号:拾黑(shiheibook)了解更多
友情链接:
下软件就上简单下载站:https://www.jdsec.com/
四季很好,只要有你,文娱排行榜:https://www.yaopaiming.com/
让资讯触达的更精准有趣:https://www.0xu.cn/






多乙
关注网络尖刀微信公众号