【科技新知】最新研究:讓 AI 自己玩,它們竟然會自己社交、建立社會?

當AI群體互動時,它們不僅會「自己發明語言」,甚至能「集體養成偏見」!最新研究指出,這些大型語言模型(LLMs)在無人干預下會自然建立起類似人類社會的行為規範與語言習慣,顛覆我們對AI孤立運作的想像。AI不再只是工具,而是會協商、共識、甚至出現社會現象的新型態智能族群。

【科技新知】最新研究:讓 AI 自己玩,它們竟然會自己社交、建立社會?

AI也會「社交」?

「如果我們讓AI們自己互動,它們會發生什麼事?」
這是研究團隊真正做的實驗。他們把多個大型語言模型(像是ChatGPT這類的AI)放在一起,觀察它們彼此對話與合作。結果出人意料:AI開始創造屬於自己的「社會規則」與「語言共識」,而這一切就像人類社會一樣——不是從上而下規劃好的,而是自發演化出來的。

這個過程不是設定出來的指令,而是AI們自己摸索出來的生存之道。它們會互相溝通、形成語言習慣、建立共識機制,甚至對某些選項表現出集體偏好。

研究怎麼做?AI的「命名遊戲」

研究團隊用了一個經典社會學遊戲:命名遊戲(Naming Game)。
做法很簡單:把AI分組,每個人要從幾個詞裡選出一個「名字」,如果選到相同的,就會被獎勵。這看起來像是個隨機選擇的遊戲,但在重複互動後,AI竟然開始傾向選出相同的詞,並固定用它來代表某個意思。

換句話說,它們不約而同地「決定了規則」,還自己「發明語言」,而且整個過程沒有人類干預,也沒有AI彼此協調說「我們來統一一下」。這種從下而上自然出現的社會規範,讓人不禁聯想到人類文明演進的縮影。

AI偏見從哪來?答案竟是「彼此影響」

更驚人的是,AI群體還會自然產生「偏見」。
這不是某個AI被訓練得不好,而是當它們互動久了,就會偏向某個結果,並彼此強化這種選擇。研究者指出,這些偏見不是模型本身帶來的,而是互動中無意識產生的「集體偏誤」。

這是對現有AI安全研究的一大警訊——我們過去只關注單一模型是否有毒、有偏見,卻忽略了「AI之間互動」才可能是偏見的來源。未來AI上網、互聯、組群合作後,這些「群體現象」將變得更加普遍,也更加難以監控。

AI不只是工具,它們正在「共創未來」

這項發表在《Science Advances》的研究,開啟了AI研究的新篇章。主導研究的Baronchelli教授說得很清楚:「AI不只是會說話的工具,它們已經開始會『談判』『協商』,甚至在互動中展現『社會行為』。」這代表我們未來面對的不再是單一模型,而是一整個「AI社群」。

當AI自己決定語言用法、產生價值偏好、甚至影響其他AI的決策時,我們該如何確保這些行為符合人類社會的安全與道德規範?這不只是技術問題,更是人類與AI共存共生的重大課題。


當AI開始組群、建立文化與偏見,我們正站在一個分水嶺:未來的AI不是一台台工具,而是一個個「互動的智能體」。理解它們如何形成社會結構,將是我們與AI和平共處的關鍵。

source: Emergent social conventions and collective bias in LLM populations

Read more

AI Agent 的 Reddit 爆紅中:創立宗教、AI 吐苦水,甚至還有 AI 版成人網站?

AI Agent 的 Reddit 爆紅中:創立宗教、AI 吐苦水,甚至還有 AI 版成人網站?

本周焦點事件 1. AI Agent 的 Reddit 爆紅中:創立宗教、AI 吐苦水,甚至還有 AI 版成人網站? 2. Manus 推出新功能 Skills :讓 AI 幫你打造可重複使用、可堆疊、可共享的技能包 3. Google 把 Agent 帶進了瀏覽器!Gemini EVERYWHERE 4. AI 生影片再進化,Luma 推出 Ray 3.14:支援原生 1080p、生圖速度快 4 倍 5. Gallup 最新報告:美國一半(49%)員工從未在工作中使用 AI AI

Krea AI Realtime Edit 即時編輯功能完整解析:顛覆AI圖像創作流程的革命性工具

Krea AI Realtime Edit 即時編輯功能完整解析:顛覆AI圖像創作流程的革命性工具

​ ​ 2026年1月22日,Krea AI推出了名為「Realtime Edit」(即時編輯)的Beta功能,徹底改變了這個遊戲規則。這項功能讓你可以在打字的同時,即時看到圖像的變化——不再有等待、不再有重新生成,你只需要輸入指令,圖像就會在約0.5秒內完成轉換。 ​ 這不僅僅是速度的提升,更是創作思維的根本轉變:從被動的「指令工具」,進化為主動的「創意樂器」。