【科技新聞】Google 推出 Search Live 語音搜尋功能,結合 Gemini 模型打造即時 AI 對話體驗

Google 正式在 Android 與 iOS 平台推出名為「Search Live」的語音互動搜尋功能,讓使用者可透過自然語音與 AI 進行即時雙向對話式搜尋。這項功能目前限於美國地區,需先在 Google Labs 中開啟「AI 模式」後方可使用,並由 Gemini 模型的語音變體驅動,主打快速、自然且連貫的語音體驗。

【科技新聞】Google 推出 Search Live 語音搜尋功能,結合 Gemini 模型打造即時 AI 對話體驗

Google 正式在 Android 與 iOS 平台推出名為「Search Live」的語音互動搜尋功能,讓使用者可透過自然語音與 AI 進行即時雙向對話式搜尋。這項功能目前限於美國地區,需先在 Google Labs 中開啟「AI 模式」後方可使用,並由 Gemini 模型的語音變體驅動,主打快速、自然且連貫的語音體驗。

打造自然語音對話搜尋 無需輸入也能持續追問

使用者只需在 Google App 中點選搜尋列下方的「Live」圖示,即可開始語音提問。Search Live 將以語音即時回應,並允許使用者無縫追問後續問題,無需手動輸入文字或操作螢幕。舉例來說,用戶可詢問「如何防止亞麻洋裝在行李箱中變皺」,AI 將即時回覆,並可進一步針對摺疊技巧或布料差異進行對話。

整體互動過程設計為連續語音對話,不僅簡化操作流程,也特別適用於手邊忙碌或移動中使用的場景,如打包行李、下廚或走路途中。

Gemini 模型支援 未來加入即時鏡頭辨識互動

Search Live 的核心技術為 Google Gemini 語音模型的客製版本,具備自然語言理解與語音生成能力,讓搜尋過程更像與真人助理對話。Google 也計畫在未來擴展 Search Live 功能,加入相機辨識能力,實現視覺互動。屆時,使用者可對著實體物件、數學題或圖像進行語音提問,AI 將提供即時解說,進一步強化搜尋的多模態體驗。

這項影像互動功能已於 2025 年 Google I/O 開發者大會中預告,預計將在未來數月內逐步推出。

內容來源可見性仍待關注

儘管 Search Live 提升了搜尋互動性與便利性,但也引發業界對內容引用與流量分配的關注。由於使用者可全程透過語音獲得答案,系統僅以小卡片形式在畫面下方顯示引用來源,可能導致實際內容創作者的網站無法獲得足夠點擊與收益。

這一問題凸顯生成式 AI 搜尋工具在提升體驗的同時,也面臨資訊來源透明度與內容經濟模型的挑戰。如何兼顧使用者便利性與原始創作者的權益,將是未來 AI 搜尋產品持續發展的重要議題。

Google 搜尋轉型邁向多模態與個人化互動

Search Live 的推出標誌著 Google 正積極推動搜尋體驗的轉型,從傳統關鍵字輸入邁向語音與視覺導向的多模態互動。透過 Gemini 模型的整合,Google 希望將搜尋服務打造成個人化的 AI 助理平台,不僅提升效率,也讓資訊取得過程更加自然、貼近日常使用情境。

目前 Search Live 僅於美國開放,尚未公布全球上線時間表。隨著 AI 搜尋持續演進,Search Live 預期將成為 Google 強化搜尋競爭力的重要策略之一。

Read more

Figma 上市的大功臣與下一步 - Evan Wallace & 設計界的 GitHub?

Figma 上市的大功臣與下一步 - Evan Wallace & 設計界的 GitHub?

這是我寫過最長的一篇電子報(對不起 XD),但我保證值得。因為 Figma 掛牌上市,讓我第一次真正 Dig in 這家公司的技術奇蹟──從 Evan Wallace 如何把專業設計工具塞進瀏覽器,到 Figma 是否能成為「設計界的 GitHub」;此外,這期也會帶你看 Anthropic 超車 OpenAI、Meta 的個人超級 AI 助理願景,以及 AI 界的 Netflix Showrunner。還有,我們 8/14 也要辦第一次實體小聚,真的很想和你碰杯聊聊!

lock-1