阿里巴巴發布 Qwen3.5 中型模型!中小模型證明「小而聰明」,不再是越大越強

阿里巴巴 Qwen 團隊發布 Qwen 3.5 Medium 系列,用更小、更高效、成本更低的模型來挑戰傳統的“大參數就是更好”敘事。

阿里巴巴發布 Qwen3.5 中型模型!中小模型證明「小而聰明」,不再是越大越強

阿里巴巴 Qwen 團隊發布 Qwen 3.5 Medium 系列,這一系列包括 Qwen3.5-Flash、Qwen3.5-35B-A3B、Qwen3.5-122B-A10B 和 Qwen3.5-27B 四款,在多項基準測試中大幅超越前代,甚至逼近更大模型的表現,「小模型更聰明、更高效」的時代已經來臨。


Qwen 3.5 Medium 技術核心

Qwen 3.5 Medium 系列在 GSM8K、MATH、HumanEval、MMLU、CMMLU 等基準上達到或接近 SOTA 水平,尤其在長上下文理解、工具使用、程式碼生成與數學推理上表現突出。

Qwen 團隊強調,這不是靠堆參數,而是透過極致優質資料清洗、強大訓練策略與高效架構實現。

Qwen3.5-35B-A3B 的總參數為 350 億,但「Active Parameters」(在推理過程中真正啟用的參數)只有 30 億。在多項 benchmark 上超越了上一代 2350 億參數的 Qwen3-235B-A22B 和視覺版 Qwen3-VL-235B,這意味著「尺寸不是唯一法則」。

Qwen3.5-Flash、Qwen3.5-122B-A10B 和 Qwen3.5-27B 則是不同定位的實戰工具。

  • Qwen3.5-Flash 基於 35B 模型的生產版,預設 100 萬 token 的超長上下文窗口,並內置官方工具呼叫支持,為長文本任務與代碼庫分析等實際使用場景優化。
  • Qwen3.5-122B-A10B 與 Qwen3.5-27B 鎖定更複雜的推理與 agent 風格任務,122B 版本在長程邏輯一致性上表現突出。

中小模型變強

Qwen 3.5 Medium 的突破來自三個關鍵:

  • 更高效的訓練資料蒸餾與後訓練
  • 針對生產環境的專屬優化(延遲、記憶體使用、穩定性)
  • 強大的工具呼叫與長上下文能力,讓小模型也能處理複雜任務

越來越多公司發現,參數不是唯一指標,生產級表現才是關鍵。Qwen 3.5 Medium 正是「小而聰明」路線的最新代表。


中小模型大爆發

阿里巴巴 Qwen 3.5 Medium 發布後,預計將大幅降低企業AI部署門檻,讓更多開發者與企業用低成本獲得高性能AI。競爭對手 Llama 3.1 8B、Gemma 2 9B、Mistral Small等都將面臨壓力,誰能先在生產環境證明「小而強」,誰就贏得市場。

「小模型更聰明」的趨勢正式確立:高效訓練 + 優質資料 + 專用架構,讓中型模型在多項任務上超越巨頭,市場將從大模型主導轉向中型模型主導,推理成本砍半,邊緣與雲端部署門檻大幅降低。


Source

Alibaba Qwen Team Releases Qwen 3.5 Medium Model Series: A Production Powerhouse Proving that Smaller AI Models are Smarter

Read more

加拿大新創 Taalas 直接把 AI 模型變成晶片!每秒 17000 token 的 HC1

加拿大新創 Taalas 直接把 AI 模型變成晶片!每秒 17000 token 的 HC1

感謝大家熱情參與「AI 郵報年度訂閱調查」!目前調查已正式結束,我們收到了非常多寶貴的建議,有些人覺得我們可以辦更多的實體活動或是 Workshop (這些我們目前都在籌備中!很快就有消息能跟大家分享)。 但在整理名單時,我們發現系統設定未能完整擷取到部分讀者的 Manus 註冊 Email。為了確保您的抽獎權益不因系統問題受損,請先前已填寫過的夥伴,撥冗 10 秒鐘回到原表單連結補填 Email,我們將以此作為最終的中獎與發獎憑證。 👉 補填連結: AI 郵報訂戶調查 * 得獎公布: 將於下期電子報正式揭曉。 * 特別說明: 活動目前已截止,本次補填僅限原參與者領獎資格確認;新填寫的朋友雖然無法計入抽獎,但我們依然非常感謝您的支持! 另外,我們正將大家的 Feedback 整理成一份精華 Report,預計於下週與各位分享,敬請期待! 接著馬上讓我們進入本週的五件 AI 大事,搭配觀察筆記 讓你不只是看熱鬧,也能看懂門道。 本周焦點事件 1. 加拿大新創 Taalas 直接把 AI