阿里巴巴發布 Qwen3.5 中型模型!中小模型證明「小而聰明」,不再是越大越強
阿里巴巴 Qwen 團隊發布 Qwen 3.5 Medium 系列,用更小、更高效、成本更低的模型來挑戰傳統的“大參數就是更好”敘事。
阿里巴巴 Qwen 團隊發布 Qwen 3.5 Medium 系列,這一系列包括 Qwen3.5-Flash、Qwen3.5-35B-A3B、Qwen3.5-122B-A10B 和 Qwen3.5-27B 四款,在多項基準測試中大幅超越前代,甚至逼近更大模型的表現,「小模型更聰明、更高效」的時代已經來臨。
Qwen 3.5 Medium 技術核心
Qwen 3.5 Medium 系列在 GSM8K、MATH、HumanEval、MMLU、CMMLU 等基準上達到或接近 SOTA 水平,尤其在長上下文理解、工具使用、程式碼生成與數學推理上表現突出。
Qwen 團隊強調,這不是靠堆參數,而是透過極致優質資料清洗、強大訓練策略與高效架構實現。
Qwen3.5-35B-A3B 的總參數為 350 億,但「Active Parameters」(在推理過程中真正啟用的參數)只有 30 億。在多項 benchmark 上超越了上一代 2350 億參數的 Qwen3-235B-A22B 和視覺版 Qwen3-VL-235B,這意味著「尺寸不是唯一法則」。
Qwen3.5-Flash、Qwen3.5-122B-A10B 和 Qwen3.5-27B 則是不同定位的實戰工具。
- Qwen3.5-Flash 基於 35B 模型的生產版,預設 100 萬 token 的超長上下文窗口,並內置官方工具呼叫支持,為長文本任務與代碼庫分析等實際使用場景優化。
- Qwen3.5-122B-A10B 與 Qwen3.5-27B 鎖定更複雜的推理與 agent 風格任務,122B 版本在長程邏輯一致性上表現突出。
中小模型變強
Qwen 3.5 Medium 的突破來自三個關鍵:
- 更高效的訓練資料蒸餾與後訓練
- 針對生產環境的專屬優化(延遲、記憶體使用、穩定性)
- 強大的工具呼叫與長上下文能力,讓小模型也能處理複雜任務
越來越多公司發現,參數不是唯一指標,生產級表現才是關鍵。Qwen 3.5 Medium 正是「小而聰明」路線的最新代表。
中小模型大爆發
阿里巴巴 Qwen 3.5 Medium 發布後,預計將大幅降低企業AI部署門檻,讓更多開發者與企業用低成本獲得高性能AI。競爭對手 Llama 3.1 8B、Gemma 2 9B、Mistral Small等都將面臨壓力,誰能先在生產環境證明「小而強」,誰就贏得市場。
「小模型更聰明」的趨勢正式確立:高效訓練 + 優質資料 + 專用架構,讓中型模型在多項任務上超越巨頭,市場將從大模型主導轉向中型模型主導,推理成本砍半,邊緣與雲端部署門檻大幅降低。