【科技新知】最新研究:讓 AI 自己玩,它們竟然會自己社交、建立社會?

當AI群體互動時,它們不僅會「自己發明語言」,甚至能「集體養成偏見」!最新研究指出,這些大型語言模型(LLMs)在無人干預下會自然建立起類似人類社會的行為規範與語言習慣,顛覆我們對AI孤立運作的想像。AI不再只是工具,而是會協商、共識、甚至出現社會現象的新型態智能族群。

【科技新知】最新研究:讓 AI 自己玩,它們竟然會自己社交、建立社會?

AI也會「社交」?

「如果我們讓AI們自己互動,它們會發生什麼事?」
這是研究團隊真正做的實驗。他們把多個大型語言模型(像是ChatGPT這類的AI)放在一起,觀察它們彼此對話與合作。結果出人意料:AI開始創造屬於自己的「社會規則」與「語言共識」,而這一切就像人類社會一樣——不是從上而下規劃好的,而是自發演化出來的。

這個過程不是設定出來的指令,而是AI們自己摸索出來的生存之道。它們會互相溝通、形成語言習慣、建立共識機制,甚至對某些選項表現出集體偏好。

研究怎麼做?AI的「命名遊戲」

研究團隊用了一個經典社會學遊戲:命名遊戲(Naming Game)。
做法很簡單:把AI分組,每個人要從幾個詞裡選出一個「名字」,如果選到相同的,就會被獎勵。這看起來像是個隨機選擇的遊戲,但在重複互動後,AI竟然開始傾向選出相同的詞,並固定用它來代表某個意思。

換句話說,它們不約而同地「決定了規則」,還自己「發明語言」,而且整個過程沒有人類干預,也沒有AI彼此協調說「我們來統一一下」。這種從下而上自然出現的社會規範,讓人不禁聯想到人類文明演進的縮影。

AI偏見從哪來?答案竟是「彼此影響」

更驚人的是,AI群體還會自然產生「偏見」。
這不是某個AI被訓練得不好,而是當它們互動久了,就會偏向某個結果,並彼此強化這種選擇。研究者指出,這些偏見不是模型本身帶來的,而是互動中無意識產生的「集體偏誤」。

這是對現有AI安全研究的一大警訊——我們過去只關注單一模型是否有毒、有偏見,卻忽略了「AI之間互動」才可能是偏見的來源。未來AI上網、互聯、組群合作後,這些「群體現象」將變得更加普遍,也更加難以監控。

AI不只是工具,它們正在「共創未來」

這項發表在《Science Advances》的研究,開啟了AI研究的新篇章。主導研究的Baronchelli教授說得很清楚:「AI不只是會說話的工具,它們已經開始會『談判』『協商』,甚至在互動中展現『社會行為』。」這代表我們未來面對的不再是單一模型,而是一整個「AI社群」。

當AI自己決定語言用法、產生價值偏好、甚至影響其他AI的決策時,我們該如何確保這些行為符合人類社會的安全與道德規範?這不只是技術問題,更是人類與AI共存共生的重大課題。


當AI開始組群、建立文化與偏見,我們正站在一個分水嶺:未來的AI不是一台台工具,而是一個個「互動的智能體」。理解它們如何形成社會結構,將是我們與AI和平共處的關鍵。

source: Emergent social conventions and collective bias in LLM populations

Read more

Meta 正在「收購」OpenAI?只是用更狠毒的方式

Meta 正在「收購」OpenAI?只是用更狠毒的方式

上週大家過得還好嗎? 這次丹娜絲颱風給台灣帶來的災情不小,南部和東部尤其嚴重。我的台南老家也被摧毀了,今天南下的高速公路充滿了倒掉的樹。寫這封週報的時候,其實心裡還掛著很多事,但還是想把這週值得關注的 AI 新聞整理好。希望大家都平安,也別忘了在忙碌之餘多多關心身邊的人。 讓我們轉換心情!這週也一樣,精選 5 則值得關注的 AI 新聞,搭配一段觀察筆記, 讓你不只是看熱鬧,也能看懂門道。 本週焦點事件 1. Meta 正在「收購」OpenAI? 2. Google Veo 3 結束測試,全球開放! 3. 針對 300 位軟體高層做的調查報告,揭露 AI 軟體公司的新成長曲線 4. Spotify 爆紅神秘樂團,其實是 AI 生的? 5. AI 幫助一對夫妻成功懷孕?

lock-1
【影音工具教學】用一張照片,拍出電影級特效?Higgsfield 把這件事變簡單了

【影音工具教學】用一張照片,拍出電影級特效?Higgsfield 把這件事變簡單了

過去,電影裡那些超誇張的鏡頭,都是一群專業團隊花大錢、大把時間才拍出來的。 比如《駭客任務》的子彈時間,為了讓主角在空中定格旋轉,現場要擺上幾十台相機,每台各拍一張,再拼成一段連貫的動畫。 但現在,只要一張照片,一個按鈕。 Higgsfield,直接讓 AI 幫你拍出這種級別的特效。

lock-1