Google 推出 Search Live 語音搜尋功能,結合 Gemini 模型打造即時 AI 對話體驗
Google 正式在 Android 與 iOS 平台推出名為「Search Live」的語音互動搜尋功能,讓使用者可透過自然語音與 AI 進行即時雙向對話式搜尋。這項功能目前限於美國地區,需先在 Google Labs 中開啟「AI 模式」後方可使用,並由 Gemini 模型的語音變體驅動,主打快速、自然且連貫的語音體驗。

Google 正式在 Android 與 iOS 平台推出名為「Search Live」的語音互動搜尋功能,讓使用者可透過自然語音與 AI 進行即時雙向對話式搜尋。這項功能目前限於美國地區,需先在 Google Labs 中開啟「AI 模式」後方可使用,並由 Gemini 模型的語音變體驅動,主打快速、自然且連貫的語音體驗。
打造自然語音對話搜尋 無需輸入也能持續追問
使用者只需在 Google App 中點選搜尋列下方的「Live」圖示,即可開始語音提問。Search Live 將以語音即時回應,並允許使用者無縫追問後續問題,無需手動輸入文字或操作螢幕。舉例來說,用戶可詢問「如何防止亞麻洋裝在行李箱中變皺」,AI 將即時回覆,並可進一步針對摺疊技巧或布料差異進行對話。
整體互動過程設計為連續語音對話,不僅簡化操作流程,也特別適用於手邊忙碌或移動中使用的場景,如打包行李、下廚或走路途中。
Gemini 模型支援 未來加入即時鏡頭辨識互動
Search Live 的核心技術為 Google Gemini 語音模型的客製版本,具備自然語言理解與語音生成能力,讓搜尋過程更像與真人助理對話。Google 也計畫在未來擴展 Search Live 功能,加入相機辨識能力,實現視覺互動。屆時,使用者可對著實體物件、數學題或圖像進行語音提問,AI 將提供即時解說,進一步強化搜尋的多模態體驗。
這項影像互動功能已於 2025 年 Google I/O 開發者大會中預告,預計將在未來數月內逐步推出。
內容來源可見性仍待關注
儘管 Search Live 提升了搜尋互動性與便利性,但也引發業界對內容引用與流量分配的關注。由於使用者可全程透過語音獲得答案,系統僅以小卡片形式在畫面下方顯示引用來源,可能導致實際內容創作者的網站無法獲得足夠點擊與收益。
這一問題凸顯生成式 AI 搜尋工具在提升體驗的同時,也面臨資訊來源透明度與內容經濟模型的挑戰。如何兼顧使用者便利性與原始創作者的權益,將是未來 AI 搜尋產品持續發展的重要議題。
Google 搜尋轉型邁向多模態與個人化互動
Search Live 的推出標誌著 Google 正積極推動搜尋體驗的轉型,從傳統關鍵字輸入邁向語音與視覺導向的多模態互動。透過 Gemini 模型的整合,Google 希望將搜尋服務打造成個人化的 AI 助理平台,不僅提升效率,也讓資訊取得過程更加自然、貼近日常使用情境。
目前 Search Live 僅於美國開放,尚未公布全球上線時間表。隨著 AI 搜尋持續演進,Search Live 預期將成為 Google 強化搜尋競爭力的重要策略之一。