小模型的逆袭
2026 年 4 月,阿里通义千问发布 Qwen3.6-27B,以密集的 270 亿参数实现超越超大 MoE 模型的性能。
架构创新
- 从 MoE 回归 Dense:放弃稀疏架构,采用全密集设计
- 参数效率:27B 参数实现 397B MoE 级别的性能
- Agentic Coding:在编程 Agent 场景中表现突出
本地部署优势
- llama.cpp 支持:可直接在消费级硬件上运行
- 量化方案:提供多种量化级别,在质量和速度间灵活取舍
- 部署成本:相比 397B MoE,27B 密集模型的推理成本大幅降低
Benchmark 表现
- 多项基准测试超越同规模 MoE 模型
- Agentic Coding 场景下与更大模型持平甚至超越
- 本地部署可行性:普通消费者即可运行
意义
- 证明架构创新可以部分弥补参数差距
- 为端侧部署和大模型平民化提供新路径
- 中国大模型正在从「追规模」走向「拼架构」
来源: 阿里通义千问官方 + 开发者社区
链接: https://qwenlm.github.io/