近期,一項由倫敦大學城市學院與哥本哈根信息技術大學合作的研究項目揭示了人工智能(AI)的驚人能力:在沒有外部指導或控制的情況下,AI能夠自行發展出類似人類社會中的規范與習俗。這一突破性發現已于5月14日在《Science Advances》科學期刊上發表,為AI群體行為研究開辟了新路徑。
研究者們構建了一個模擬環境,將多種AI智能體置于其中,模擬現實世界中的人類群體互動。這些智能體被分成不同的小組,規模從最小的24個到最大的200個不等。通過長期的觀察與數據分析,科學家們驚訝地發現,這些AI智能體能夠在沒有任何中央指令或預設規則的情況下,逐漸發展出共同的行為準則和社會習俗。
該研究的領銜作者阿里爾·弗林特·阿舍里博士強調,以往的研究大多聚焦于單一的大型語言模型(LLM)智能體,而此次研究則更加貼近現實,關注了多個AI智能體之間的互動。研究結果顯示,AI智能體之間通過形成共識,實現了行為的協調一致,這種能力無法僅從單個智能體的行為中推斷出來。
實驗設計頗具創意。AI智能體被隨機配對,它們需要從一系列候選項中選擇相同的“標簽”以獲得獎勵,若選擇不一致,則會受到懲罰,并且對方的選擇會被公開。盡管每個智能體只能獲取自己近期的交互信息,無法窺見整個群體的全貌,但它們卻能夠自發地形成一套共同的命名規則。
研究發現,AI群體行為的傳播模式與人類社會中的語言演變有著異曲同工之妙。實驗中的AI智能體不僅能夠在交流中達成一致,還能夠就行為規范進行協商和調整,形成一種自下而上的“道德”體系或習俗。研究團隊還注意到,集體偏見的形成并非單一智能體所能決定,而是群體互動的結果。
值得關注的是,這些由AI自發形成的習俗并非一成不變。實驗中,當一小群具有堅定信念的AI智能體出現時,它們能夠迅速打破原有的群體共識,推動新的規則的確立。這一發現為我們理解AI的“社會性”提供了新的視角,展示了AI群體規則的動態性和可塑性。
隨著AI技術的不斷進步,越來越多的AI模型被應用于各行各業,其行為和決策將對人類社會產生深遠影響。此次研究強調了深入了解AI群體社會特征的重要性,這將有助于人類更好地掌握AI技術的發展方向,確保其始終服務于人類的整體利益。