明明下好 Prompt 了,AI 還是常出錯?了解 Context Engineering 的重要性,讓 AI 不再自己通靈!

Context Engineering 在近期不斷被討論,隨著 AI 技術越來越發展,AI 開發者們也逐漸從 Prompt Engineering 的研究轉向 Context Engineering,大幅的改善了 AI 對於回答不精確、甚至出現幻覺的情況。那究竟 Context Engineering 有什麼魔力,本文將帶大家一探究竟!

明明下好 Prompt 了,AI 還是常出錯?了解 Context Engineering 的重要性,讓 AI 不再自己通靈!
Context Engineering 幫助 AI Agent 不再出現幻覺!

明明都寫好 Prompt 了,為什麼 AI 還會出現幻覺?

當我們在和 ChatGPT 聊天時,有時會遇到雞同鴨講的情況,雖然情況已較以往優化許多了,但還是偶爾會碰到。我認為會出現幻覺的原因可以歸類為以下三種:

  • Prompt 下錯:在這個人均 Prompt Engineer的年代,機會已大幅的降低。你總不可能將 ChatGPT 定義為一個廚師,卻叫他教你修汽車吧…
  • LLM 本身限制:LLM 是藉由預測每個字串和下一個字詞出現的機率,來產出文字、句子或文章的。這代表, LLM 在生成回覆時常常會以「最保險的方式」來進行生成,但最保險的字串可能僅涵蓋 90% 可能的結果,剩下的 10% 可能就是 LLM 的盲區,而這些盲區可能就是 AI 出現幻覺的地方。
  • 訓練資料過時:眾多模型都是使用過往資料來進行訓練,例如 GPT-5 模型的訓練資料截至 2023 年底,在 2024 年之後的資料,便需要透過上網查詢來進行補充,但這部分的功能確實也會有些誤差,導致幻覺的出現。

為了要減少 AI 出現幻覺的可能性,我們也必須要提供適當的情境讓 AI 判讀我們的需求。於是 Context Engineering 便誕生了。

什麼是 Context Engineering?

比起在 Prompt 中加入一堆詠唱咒語(例如:你是一個行銷專家,幫我生成關於…的文案),Context 更注重在 AI 模型該在什麼樣的情境下做決策。

AI Agent 在執行特地任務時,常常會需要一些特定的專業知識、背景、檔案、數據等資料來進行輔助。並且在往後的任務需求,Agent 都會運用這些已經預先提供的情境、記憶,來進行任務處理。

Context Engineering 與 Prompt Engineering 的比較 Source: Anthropic

就好像你在教導一位公司的新同事,要如何處理每周的廣告報表一樣。Prompt Engineering 可能就會和這位新同事說:「你是一個數位行銷專家,請幫我根據這周的 Meta 廣告成效數據,生成一封報表信件。」這時候同事聽到可能會霧煞煞,然後上 Meta 後台來去進行數據撈取,並整理成一份「他認為的報表」但這極有可能不會是客戶想看到的。然而,Context Engineering 則是會提供給你過往的報表、表格的 Template、關注的數據要有那些、參考信件的格式長怎樣、你還可以用到的工具有什麼。接著新同事就會照著這些「規範」來執行任務,生產出來的周報才會是符合期待的。

所以 Context Engineering 其實對一個新的 AI Agent 來說,就好比是 Orientation,一個好的 Orientation,就應該要教導新人有哪些東工具可以用、哪些資料可以查、哪些地方要注意,人是如此,AI 更是如此。

跟人類一樣,AI 也需要一個舒服的環境

Context Engineering 提供了一個舒服的環境讓 AI Agent 能大展拳腳,但是 Context 也必須要符合 AI 能夠消化的範疇,當我們針對 AI 的 Context 太精確、反而限制了 AI 的洞察想法;太過模糊的話,也會導致 Agent 產出不如預期。

Context Engineering 必須要拿捏適當尺度 Source: Anthropic

Anthropic 在近期的文章也有提到 Context Engineering 的一些小撇步,幫大家整理成以下幾點:

  • System Prompt:在和 AI 互動前,先下好指令定義這個 Agent 執行的系統,並且以結構化的方式呈現。常見的結構會包含角色、背景知識、回覆格式等內容。
  • Tools:提供 Agent 他所需要的工具,並且告訴他該如何使用。透過創建各種不同的 Agents 來針對不同的工作執行,並且將成過送交給下一位 Agent。或是使用 MCP 來讓模型與外界的特定工具進行連接,產出更精準的內容。
  • Examples & Constrains:提供給 Agent 一些參考範例,並告訴他要學習這份範例的哪個部分(例如:學習他的語氣、學習他的邏輯方式等等)。並且要給 AI 限制,限制他的輸出格式、風格等,讓 AI 產出能使用的內容。
  • Memories:維護模型記憶也是很重要的一點,雖然 Agent 會盡可能的記得我們所有交談過的內容,但因為 Agents 的記憶也相當有限,常常會發生記憶錯亂的情況。這時,就會需要透過定期維護更新記憶,並且去除掉不必要的記憶,或是使用外部記憶庫來保持 Context 的精簡,來讓 Agents 維持在一個正確的道路上。

有了這些 Context Engineering 的技巧,讓 AI Agent 可以從「回答」進化到「思考」階段,也讓我們從以往注重 Prompt 的階段,到驅動 AI 進行思考的地步。相信在未來, Context Engineering 會是一個很重要的專業,讓更多 AI Agents 能有不一樣的玩法,更有效率的幫助我們完成任務。

Read more

[AI郵報新年特輯] 2025 - 26 Top 5 AI 工具 & 大事件回顧

[AI郵報新年特輯] 2025 - 26 Top 5 AI 工具 & 大事件回顧

新年快樂,各位 AI 狂熱者!(文末有抽獎活動!抽十位 Manus 8000 積分 Pro 會員!) 在點開這封信、開始閱讀本週的週年回顧前,請先給螢幕前的自己鼓鼓掌。老實說,在農曆新年期間還能保持「開信」的慣性,基本上已經是 AI 成癮者了,如果開一個戒斷互助會,我想是沒有人會來的,因為就我們來說,用 AI 已經成為不想戒、不能戒的習慣了。 上週我們啟動了《AI 郵報》的年度訂戶調查(目前仍在進行中,點這裡前往填寫)。在後台看反饋時,有讀者對我們的題目設計蠻有興趣,私底下詢問我們「為什麼要問閱讀週報時,同時還在做什麼?」 這題看似閒聊,但其實是因為我之前研究 Netflix 的一個啟發。當大家在討論 Disney+ 或 YouTube 或是其他本地 OTT 對於

Elon Musk 確認 xAI 裁員——SpaceX 天價併購後的重組風暴與共同創辦人出走潮

Elon Musk 確認 xAI 裁員——SpaceX 天價併購後的重組風暴與共同創辦人出走潮

Elon Musk 確認 xAI 進行組織重組並裁員,距離 SpaceX 以 1.25 兆美元收購 xAI 僅一週多。這筆史上最大企業併購案的背後,是接連不斷的高層出走潮:12 位共同創辦人已有 6 人離職,包括 Tony Wu 和 Jimmy Ba 在 48 小時內相繼宣布離開。合併後的新公司計畫在 2026 年 IPO,但 Grok 聊天機器人面臨技術爭議與監管壓力,為這場天價 IPO 增添不確定性。