Google 推出 Search Live 語音搜尋功能,結合 Gemini 模型打造即時 AI 對話體驗

Google 正式在 Android 與 iOS 平台推出名為「Search Live」的語音互動搜尋功能,讓使用者可透過自然語音與 AI 進行即時雙向對話式搜尋。這項功能目前限於美國地區,需先在 Google Labs 中開啟「AI 模式」後方可使用,並由 Gemini 模型的語音變體驅動,主打快速、自然且連貫的語音體驗。

Google 推出 Search Live 語音搜尋功能,結合 Gemini 模型打造即時 AI 對話體驗

Google 正式在 Android 與 iOS 平台推出名為「Search Live」的語音互動搜尋功能,讓使用者可透過自然語音與 AI 進行即時雙向對話式搜尋。這項功能目前限於美國地區,需先在 Google Labs 中開啟「AI 模式」後方可使用,並由 Gemini 模型的語音變體驅動,主打快速、自然且連貫的語音體驗。

打造自然語音對話搜尋 無需輸入也能持續追問

使用者只需在 Google App 中點選搜尋列下方的「Live」圖示,即可開始語音提問。Search Live 將以語音即時回應,並允許使用者無縫追問後續問題,無需手動輸入文字或操作螢幕。舉例來說,用戶可詢問「如何防止亞麻洋裝在行李箱中變皺」,AI 將即時回覆,並可進一步針對摺疊技巧或布料差異進行對話。

整體互動過程設計為連續語音對話,不僅簡化操作流程,也特別適用於手邊忙碌或移動中使用的場景,如打包行李、下廚或走路途中。

Gemini 模型支援 未來加入即時鏡頭辨識互動

Search Live 的核心技術為 Google Gemini 語音模型的客製版本,具備自然語言理解與語音生成能力,讓搜尋過程更像與真人助理對話。Google 也計畫在未來擴展 Search Live 功能,加入相機辨識能力,實現視覺互動。屆時,使用者可對著實體物件、數學題或圖像進行語音提問,AI 將提供即時解說,進一步強化搜尋的多模態體驗。

這項影像互動功能已於 2025 年 Google I/O 開發者大會中預告,預計將在未來數月內逐步推出。

內容來源可見性仍待關注

儘管 Search Live 提升了搜尋互動性與便利性,但也引發業界對內容引用與流量分配的關注。由於使用者可全程透過語音獲得答案,系統僅以小卡片形式在畫面下方顯示引用來源,可能導致實際內容創作者的網站無法獲得足夠點擊與收益。

這一問題凸顯生成式 AI 搜尋工具在提升體驗的同時,也面臨資訊來源透明度與內容經濟模型的挑戰。如何兼顧使用者便利性與原始創作者的權益,將是未來 AI 搜尋產品持續發展的重要議題。

Google 搜尋轉型邁向多模態與個人化互動

Search Live 的推出標誌著 Google 正積極推動搜尋體驗的轉型,從傳統關鍵字輸入邁向語音與視覺導向的多模態互動。透過 Gemini 模型的整合,Google 希望將搜尋服務打造成個人化的 AI 助理平台,不僅提升效率,也讓資訊取得過程更加自然、貼近日常使用情境。

目前 Search Live 僅於美國開放,尚未公布全球上線時間表。隨著 AI 搜尋持續演進,Search Live 預期將成為 Google 強化搜尋競爭力的重要策略之一。

Read more

【影音工具教學】AI ASMR 影片怎麼做?用 Veo 3 生成高品質畫面與聲音!

【影音工具教學】AI ASMR 影片怎麼做?用 Veo 3 生成高品質畫面與聲音!

Veo 3 是目前最懂「聲音」的 AI 影片工具,能根據提示詞自動生成同步的畫面與音效,成為打造 ASMR 類影片的秘密武器。這篇教學將帶你從撰寫 prompt 開始,教你如何讓 Veo 不只「看見」你想像的畫面,也能「聽見」你腦中的聲音節奏。附上範本與實例,讓你第一次寫 prompt 就能切出一刀療癒的紅蘿蔔。

lock-1