Google推出RT-2機器人模型將使機器人更智能化

谷歌目前正在著力訓練機器人,使其能夠像人工智能聊天機器人一樣進行學習。近日,谷歌推出了AI學習模型Robotic Transformer (RT-2),旨在使機器人更智能化。這項模型是谷歌在視覺語言動作(VLA)方面的新版本,致力於教導機器人更好地識別視覺和語言模式。

Google推出RT-2機器人模型將使機器人更智能化

讓機器人擁有更好的推理能力

谷歌目前正在著力訓練機器人,使其能夠像人工智能聊天機器人一樣進行學習。近日,谷歌推出了AI學習模型Robotic Transformer (RT-2),旨在使機器人更智能化。這項模型是谷歌在視覺語言動作(VLA)方面的新版本,致力於教導機器人更好地識別視覺和語言模式,以便更好地理解指令和推斷出最適合滿足需求的物件。

訓練機器人成為更智能的助手

在實驗中,谷歌研究人員將RT-2放置於廚房環境中,要求機器人手臂判斷何為一個好的鐵錘(結果是一塊岩石),並選擇一種飲料給一個疲憊的人(機器人選擇了一罐紅牛)。甚至更令人驚訝的是,研究人員讓機器人將一罐可樂移到Taylor Swift的圖片上,這機器人竟然也是Taylor的粉絲,這對人類來說是個好消息。

RT-2模型的優勢

谷歌表示,RT-2模型是通過在網路和機器人數據上進行訓練的,並利用了谷歌自家的Bard等大型語言模型的研究進展。該模型將語言模型與機器人數據結合,使機器人能夠理解和處理其他語言的指示,而不僅僅局限於英語。

多年來,研究人員一直試圖讓機器人擁有更好的推理能力,以解決現實環境中存在的問題。事實上,現實生活是極其混亂的,對機器人來說,需要更多的指令才能完成對人類來說簡單的事情。然而,有了像RT-2這樣的VLA模型的強大能力,機器人能夠獲得更多信息,並更加靈活地推斷下一步該做什麼。

谷歌的智能機器人探索

谷歌的探索之旅始於去年,當時宣布將在機器人技術中使用LLM PaLM,並創建了一個名為PaLM-SayCan的系統,將LLM與實體機器人相結合。而RT-2的推出,是谷歌在機器人領域持續探索的又一步。

機器人的進步與挑戰

(image: iStock)

儘管谷歌的新機器人模型引人矚目,但仍存在一些挑戰。據《紐約時報》報導,機器人在實時演示中曾錯誤地識別蘇打水的口味,並將水果誤認為白色。這說明機器人的智能化仍需不斷改進和優化。

然而,對於不同的人來說,機器人的智能化可能受到不同的歡迎程度。一些人可能對機器人在日常生活中的應用感到興奮,期待其在未來能夠成為更加智能和靈活的助手;而一些人則可能會聯想到《黑鏡》中可怕的機器狗,讓他們對機器人的發展保持著一些保留。

展望未來:越來越智能的機器人

無論如何,我們可以期待明年會有更加智能的機器人問世。這些機器人可能只需最少的指令,就能在日常中成為我們的得力助手,。目前來看,谷歌RT-2機器人模型的推出,標誌著機器人在理解人類指令和在現實環境中能更有效地運作,但這只是機器人發展進程的開始,未來的機器人將更加智能、更加靈活,成為人類生活中不可或缺的一部分。

(原文出自:https://www.theverge.com/2023/7/28/23811109/google-smart-robot-generative-ai)

Read more

Meta 正在「收購」OpenAI?只是用更狠毒的方式

Meta 正在「收購」OpenAI?只是用更狠毒的方式

上週大家過得還好嗎? 這次丹娜絲颱風給台灣帶來的災情不小,南部和東部尤其嚴重。我的台南老家也被摧毀了,今天南下的高速公路充滿了倒掉的樹。寫這封週報的時候,其實心裡還掛著很多事,但還是想把這週值得關注的 AI 新聞整理好。希望大家都平安,也別忘了在忙碌之餘多多關心身邊的人。 讓我們轉換心情!這週也一樣,精選 5 則值得關注的 AI 新聞,搭配一段觀察筆記, 讓你不只是看熱鬧,也能看懂門道。 本週焦點事件 1. Meta 正在「收購」OpenAI? 2. Google Veo 3 結束測試,全球開放! 3. 針對 300 位軟體高層做的調查報告,揭露 AI 軟體公司的新成長曲線 4. Spotify 爆紅神秘樂團,其實是 AI 生的? 5. AI 幫助一對夫妻成功懷孕?

lock-1
【影音工具教學】用一張照片,拍出電影級特效?Higgsfield 把這件事變簡單了

【影音工具教學】用一張照片,拍出電影級特效?Higgsfield 把這件事變簡單了

過去,電影裡那些超誇張的鏡頭,都是一群專業團隊花大錢、大把時間才拍出來的。 比如《駭客任務》的子彈時間,為了讓主角在空中定格旋轉,現場要擺上幾十台相機,每台各拍一張,再拼成一段連貫的動畫。 但現在,只要一張照片,一個按鈕。 Higgsfield,直接讓 AI 幫你拍出這種級別的特效。

lock-1