2026 CES 第一槍:NVIDIA Alpamayo 亮相,打破過去十年的自駕模型架構

Share
2026 CES 第一槍:NVIDIA Alpamayo 亮相,打破過去十年的自駕模型架構

歡迎來到 2026 年的第 1 週。沒想到才從耶誕假期結束,AI 圈就已經炸開來了,首先是 NVIDIA 在 2026 CES 首次亮相的 Alpamayo 自駕「開源推理」模型。另一個則是前陣子剛從 Meta 離職的 Yann LeCun 親口爆料的 Meta Llama 跑分造假醜聞(原本是要以這個為標題的,但覺得有點 Click Bait 的嫌疑,想想還是算了)。

本週也收錄 Google 工程師 Jaana 用 Claude Code 一小時,完成團隊花了一整年的架構工作。在這篇裡面我們整理了 Jaana 在 AI Coding 的心得。從開源技術到業界八卦,再到 Prompt Engineering 的實戰技巧,本期內容非常多元。

同時,我們也啟動醞釀一陣子的 AIPost 「影響力講師」計劃。

麥肯錫 2025 年的全球 AI 調查報告 指出,AI 的採用率雖然攀升至 88%,但其中只有 6% 的企業真正從 AI 創造商業價值,市場上充斥著太多「只教工具」的雜訊,導致無論是企業或是個人在導入 & 使用 AI 上充滿疑慮。我們希望建立一個具備「實務導向 × 專業審核 × 認證價值」的平台,找回 AI 教育中失落的信任感。

所以我們與國際專業機構合作,打造一套嚴謹的 AI 課程體系。如果你擅長的是能把 AI 真正落地到工作流中,解決真實的產業問題,我們正在找你。

  • 限額審核: 第一批僅開放核心講師申請,採取領域限額與滾動式審核。
  • 優先規劃: 入選者將優先納入後續的長期課程、企業培訓與跨域合作。

📌 備註: 本表單為「背景初審」,提交不代表保證合作。我們將由專業顧問團隊審核後,主動聯繫合適人選。

登記表單傳送門

工商結束了!馬上讓我們進入本週的五件 AI 大事,
讓你不只是看熱鬧,也能看懂門道。


本周焦點事件

  1. 2026 CES:NVIDIA Alpamayo 正式亮相,開源的自駕推理型 AI
  2. Llama 4 跑分造假!前圖靈獎得主 Yann LeCun 爆料 Meta 內部亂象
  3. 【2026 AI 關鍵活動|主編精選】麥肯錫:只有 6% 的企業,真正用 AI 創造價值
  4. 不再讓 AI 睜眼說瞎話:Meta 提出的「驗證鏈(CoVe)」技術如何改善 AI 幻覺?
  5. Claude Code 僅用 1 小時,完成 Google 團隊一年的架構工作

2026 CES:NVIDIA Alpamayo 正式亮相,開源的自駕推理型 AI

Src: NVIDIA Yotubue

在 2026 年的 CES 演講中,NVIDIA 執行長黃仁勳搶先發布了 Alpamayo,名子取自秘魯著名的山 Alpamayo。這款全球首個開源的「推理型」自駕模型,標誌著自動駕駛技術的重大突破,從過去依賴反射式的「感知模型」進化到如今具備邏輯推理的「推理型模型」,終於讓車輛不只是看到障礙物,還能理解交通場景中的因果關係,並「解釋」自己的決策。

什麼是 Alpamayo?

過去十年,自動駕駛主要依賴感知模型,也就是車輛透過感知系統(如雷達、cam)來感知環境並作出反射性動作,比如閃避障礙物。

Alpamayo 的出現徹底改變了這一局面。它基於 VLA(Vision-Language-Action,視覺-語言-行動) 架構,賦予車輛一個「大腦」,使其能夠進行推理、解釋並語言化描述其決策過程。具體來說,Alpamayo 不僅能看到前方的障礙物,還能推斷障礙物的移動目的,並且可以像人類一樣解釋它是如何做決定的:「因為左側行人距離過近,我決定減速並向右微調。」

罕見的開源戰略:打破自駕開發的黑盒子
NVIDIA 不僅推出了創新的自駕技術,還決定採取開源策略,將 Alpamayo 1 模型AlpaSim 模擬框架 完全開源,並同步上架 GitHub 和 Hugging Face。

AlpaSim:自駕車最難的是處理極端天氣或罕見車禍。AlpaSim 提供了一個完全開放的模擬環境,讓開發者可以在虛擬世界中測試數百萬英里的極端情境,而不必冒著實體車損壞的風險。

同時釋出超過 1700 小時的高品質駕駛數據。這些數據不只是影片,還包含了標註好的資料,讓中小型車廠不需要具備 Google 或 Tesla 那樣的數據收集能力,也能訓練出高水準的模型。


Llama 4 跑分造假!前圖靈獎得主 Yann LeCun 爆料 Meta 內部亂象

src:Financial times

2024 年底,Meta 為了追趕 OpenAI 的腳步,不惜砸下重金與資源在 Llama 系列模型上。萬萬沒想到的是,2026 年才剛開始就有震撼彈,竟然還是由 Meta 自己的「AI 教父」炸開的。

Yann LeCun 不僅是 Meta 過去十年的首席 AI 科學家,更是獲得圖靈獎的三位 AI 教父之一。 近日在接受《金融時報》(FT)的告別採訪中,LeCun 不僅宣布離職創立新公司,更直接「暴力地」撕開 Meta 內部的權力鬥爭與造假醜聞。

當 65 歲的教父要向 28 歲的少年報告

LeCun 在採訪中透露,因為 Mark Zuckerberg 對 Llama (Meta 自家的模型) 進度緩慢的焦慮,所以在去年夏天豪擲 140 億美元投資 Scale AI,並挖角年僅 28 歲的創辦人 Alexandr Wang,讓其執掌新成立的 Superintelligence Labs。

Meta 解散核心 AGI 團隊,把 AI 大權交給 28 歲創辦人

LeCun 在採訪中毫不留情地評價這位新上司:「年輕、缺乏研究經驗,他根本不懂什麼叫研究,更不知道什麼會吸引或是惹毛一個研究員。」他額外說了:「你不能告訴一個研究員要做什麼,尤其是不能告訴像我這樣的研究員要做什麼。」畢竟對於 LeCun 這樣的 AI 教父,上司的角色應該是提供資源,而非管理,就像過去 Zuckerberg 做的事一樣。

同時,LeCun 選擇暴力揭疤,親口證實:Meta 內部「操弄」了 Llama 4 的基準測試。他們透過更換不同模型來對應不同的測試,以此美化數據。這件事在內部曝光後,Zuckerberg 對整個 GenAI 團隊失去信心(與 LeCun 身處的 FAIR 團隊不同),這也是為什麼他轉而將權力交給外來的 Alexandr Wang。

教父的華麗轉身:AMI Labs 啟動,法國總理的私人簡訊

LeCun 雖然離開了 Meta,但他並不是落寞退場。相反地,他隨即宣布成立新公司 AMI Labs(Advanced Machine Intelligence),且一出場就瞄準了 30 億美元 的估值。他的新戰友是法國 AI 醫療新創 Nabla 的創辦人 Alex LeBrun。LeCun 透露,法國總理馬克宏甚至親自傳了簡訊給他。兩人聯手的目標明確:拋棄 LLM 的死路,直接攻克「世界模型」。

觀察筆記

在資本市場面前,科學真理往往得讓位給股價,但對於 Yann LeCun 這種等級的科學家來說,這些全是 Bullshit。

我相信大家對 LeCun 是極有共感的。在他眼裡,LLM(大型語言模型)就是一條死路,他已經不只一次在公開場合暗示這點。所以,無論 Zuckerburg 或新官上任的 Alexandr Wang 怎麼逼他,他都不想、也不會去研究這個他認為「沒前途」的東西。

對 LeCun 來說,待不待 Meta 根本不重要,他要的是能專研領域的絕對自由。但諷刺的是,正因為他身為「首席 AI 科學家」這個神主牌角色,Meta 為了護航 Llama 的商業敘事與股價,長期對他下達了禁言令。

俗話說的好,拿槌子的人,看什麼都像釘子。 Zuckerburg 投入數百億美金為的不是五至十年後的 AI 技術進化,而是當前 Llama 模型的成長速度。當這兩者發生碰撞,偽造的跑分只是裂痕的開始。真正的代價在於,矽谷巨頭可能在追逐 5% 的數據成長的 KPI 時,錯過了下一個 100 倍的變革。


【2026 AI 關鍵活動|主編精選】麥肯錫:只有 6% 的企業,真正用 AI 創造價值

AI 正在被「廣泛使用」,卻鮮少被「深度整合」

根據麥肯錫 2025 年的全球 AI 調查報告,AI 的採用率已攀升至 88%。換句話說,AI 已完成從「新奇嘗試」到「辦公標配」的轉型。然而,真正能將 AI 轉化為企業層級商業價值、實質反映在損益表上的企業,竟然僅佔 6%

為什麼 88% 的熱情,最終只換來 6% 的成果? 關鍵不在於模型「夠不夠聰明」,而在於「信任」與「權限」。當 AI 給出建議時,決策者心中往往存在三個心魔:

  1. 數據來源疑慮: 這資料哪來的?(是不是拿過期的數據在算?)
  2. 邏輯黑盒子: 這建議能解釋嗎?(它是憑邏輯還是憑感覺?)
  3. 責任歸屬: 萬一出錯,誰要負責?

當企業的資料基建尚未打底、治理邏輯混亂時,AI 就永遠只能是一個「懂聊天的查詢工具」,被擋在權限結構之外,觸碰不到價值創造的核心。

很多企業急著引進應用,卻只是把原本混亂的流程變得更混亂。我們認為,AI 獲利有一條不可跳過的邏輯:

資料基建(打底) ➔ 資料治理(定規矩) ➔ AI 導入(工具) ➔ 決策智能(獲利)

這也是為什麼,我們特別推薦本週這場深談實務的活動。

這場活動不教你「多用一個工具」,而是分享一套「結構性的解法」。我們將從最底層的資料整合出發,延伸到 2026 年最核心的 AI Agent(AI 代理人) 應用,最終直擊核心:如何讓 AI 進入決策流程,轉化為真實利潤?

如果您感覺手上的 AI 工具仍停留在「局部優化」,尚未觸及組織靈魂,這場對話將是您的關鍵轉捩點。

【 活動資訊 】

  • 活動主題: AI-INSIDE:中小企業 AI 化的第一哩與最後一哩
  • 活動日期: 2026 年 1 月 14 日 (三)
  • 活動地點: 台灣微軟 19F (台北市信義區)
  • 報名方式: 免費報名、審核制(名額有限,建議儘快登記)

[ 👉 立即登記,拿回 AI 時代的決策權 ]


不再讓 AI 睜眼說瞎話:Meta 提出的「驗證鏈(CoVe)」技術如何改善 AI 幻覺?

CoVe 全名 Chain-of-Verification,是由 Meta AI Research 於 2024 年發表的研究成果,透過這種 Prompt Engineering 可以讓 AI 產生自我糾正的迴路,進而降低 LLM 在生成內容時的「事實性」幻覺。

即便現在已經是 2026 年,當你要求 AI 處理高度依賴事實的任務時,CoVe 的效果仍舊為目前最顯著的 Prompt Engineering 技巧,而且適用於目前所有主流的 LLM。事實上,只要模型的架構仍處在「機率式」的預測回答,CoVe 就是 AI 時代與 AI 互動的一個利器,因為可以強迫模型從直覺反應轉向邏輯查證。

雖然模型不斷進化,但當處理高度依賴事實的任務(如法律、史實、技術數據)時,CoVe 仍是目前效果最顯著的技巧之一。研究顯示,透過這種結構化驗證,能有效減少約 20-30% 的事實錯誤,適用於目前所有主流 LLM。

如何使用 CoVe 的 Prompt Engineering 技巧

(可以不用每次都加入,請於需要時加入即可,尤其前面提到的「高度依賴事實任務時」):

在提示詞中加入:

針對以下問題,請執行 CoVe 流程

  1. 先給出初步回答。
  2. 列出該回答中哪些事實需要核實?
  3. 逐一針對這些事實進行查證。
  4. 根據查證結果,修正並提供最終準確答案。

Claude Code 僅用 1 小時,完成 Google 團隊一年的架構工作

這段由前 Google 資深工程師 Jaana Dogan 所發出的推文,在 AI 與軟體工程界引發了巨大震動。它不僅僅是一個「工具好用」的評價,更揭示了 AI Coding Agents(開發代理人) 已經進化到能挑戰頂尖工程師架構能力的程度。

Jaana Dogan(現為 Google Cloud 首席工程師)透露,Google 內部從去年開始就一直在嘗試構建 「分散式代理人編排系統 (Distributed Agent Orchestrators)」。你可以把它想像成「管理一堆 Agent 的作業系統」,假設你想找某個產業別的職缺,這個作業系統可以接收指令、拆解任務,並分配其他 Agent 執行。如果實際上想看這種架構如何運作,可以參考 Manus 的 WideResearch 功能。

2025 Manus AI Agent 完全指南:如何讓 AI 助手幫你節省80%時間,輕鬆破解高效工作法!

讓我們回到 Claude Code 的話題上,Jaana 給了 Anthropic 推出的新工具 Claude Code 一段約三個段落的文字描述。這段描述僅僅是問題的定義,並未包含任何 Google 內部受保護的原始碼或商業機密。結果 Claude Code 在短短 1 小時內,就生成了 Google 頂尖團隊耗時 1 年才構思出來的系統架構原型。

而針對那些對 AI 寫程式持懷疑態度的人,Jaana 給出了非常具體的建議:

  • 永遠要在你的專業領域測試: 不要只叫 AI 寫簡單的程式,而是去寫一個你已經是「專家」的複雜領域。
  • 親自審判成果: 從零開始構建複雜系統,因為只有專家才能判斷 AI 生成的成品究竟是垃圾,還是具備實戰價值的傑作。

Jaana 讚嘆的不只是 Claude 的聰明,而是 Antropic 打造的整個環境:

  1. 環境感知(Context Awareness): Claude Code 不只是讀一個檔案,它能理解整個專案目錄的結構。它知道你的 Database.py 會影響到 User.py
  2. 自主循環(Self-correction): 當它寫完程式碼,它會主動執行測試。如果噴出錯誤訊息(Error Log),它會自動讀取 Log 並自我修正,直到測試通過。
  3. 高密度的邏輯壓縮: Jaana 提到的驚人之處在於,她只給了三段話(意圖),Claude Code 就能在它的 Harness 裡,利用對分散式系統的「深層知識」,迅速組裝出符合邏輯的架構。
【Vibe Coding】Claude Code 教學|怎麼用一句話串連資料庫、建立全端網站?

喜歡這期內容嗎?有哪一則讓你特別有感?
歡迎回信或是 Instagram 告訴我們,我們會偷偷讀大家的回覆的!

我們下周見
—AI郵報 編輯團隊

Read more

一個 22 歲的人,三天內把全球最危險 Anthropic Mythos AI 架構開源了

一個 22 歲的人,三天內把全球最危險 Anthropic Mythos AI 架構開源了

AI 小道消息 01 Moonshot AI 開源了新的 agentic coding 模型 Kimi K2.6,在推理、coding 等主要 benchmark 上接近甚至超越 GPT-5.4、Opus 4.6 與 Gemini 3.1 Pro,且成本僅需一小部分。 02 Adobe 在 Adobe Summit 上推出 CX Enterprise,一個專為企業設計的 agentic AI 平台,透過 AI agent 網路協調行銷、內容與客戶互動流程。 03 OpenAI 上線 Chronicle,這是

AI 原生開發時代降臨!微軟攜手零壹科技、AI 郵報推動 Agentic DevOps,定義企業 AI 治理新標準

AI 原生開發時代降臨!微軟攜手零壹科技、AI 郵報推動 Agentic DevOps,定義企業 AI 治理新標準

AI 已不只是工程師的輔助工具——它正在成為能理解需求、拆解任務、負責成果的「開發夥伴」。 隨著 AI 技術從單純的程式碼輔助工具進化為具備主動執行能力的「AI 代理人」(AI Agent),台灣軟體開發產業正迎來關鍵的典範轉移。由 台灣微軟(Microsoft) 主辦,並由微軟核心夥伴零壹科技(Zerone)與專業科技媒體 AI 郵報(AIPost)協辦的「AI Agent 時代來臨:從 GitHub Copilot 到 AI-Native Development」線上研討會,於近日圓滿落幕。活動吸引超過 300 位企業決策者與架構師同步在線,報名狀況空前踴躍。 微軟:以 GitHub Copilot 定義 Agentic DevOps 的四大模式 微軟夥伴技術架構師 Tina