12月8日消息,據外電報道,一份最新報告對全球領先的人工智能公司的安全標準提出了質疑,警告稱OpenAI、xAI、Anthropic和meta等公司的AI模型“遠未達到”新興的國際標準。
該結論來自未來生命研究所(Future of Life Institute)最新發(fā)布的《人工智能安全指數》(AI Safety Index),該指數描繪了一幅令人擔憂的景象:人工智能行業(yè)的發(fā)展速度已經超過了其自身的控制能力。這份由人工智能和倫理專家組成的獨立小組編寫的報告發(fā)現,盡管科技巨頭們仍在競相開發(fā)超級智能系統,但很少有公司擁有可靠的保障措施來確保此類技術不會失控。報告還指責這些公司將速度和市場主導地位置于其所構建系統的穩(wěn)定性和安全性之上。
該研究指出,目前沒有一家大型人工智能實驗室達到專家所認為的“健全的治理和透明度標準”,而這些標準對于安全開發(fā)下一代模型至關重要。
作者警告說,這些監(jiān)管漏洞可能使社會容易受到意想不到的后果的影響,從錯誤信息到涉及失控人工智能行為的更極端后果。
據路透社報道,麻省理工學院教授、未來生命研究所所長馬克斯·泰格馬克表示:“盡管最近人工智能驅動的黑客攻擊以及人工智能導致人們精神錯亂和自殘的行為引起了軒然大波,但美國的人工智能公司受到的監(jiān)管仍然比餐館少,并且仍在繼續(xù)游說反對具有約束力的安全標準。”
人工智能領導者面臨安全危機
這份報告的發(fā)布正值公眾對人工智能的焦慮情緒日益高漲之際。僅在過去一年,就有數起自殘和自殺事件與缺乏監(jiān)管的聊天機器人互動有關,引發(fā)了全球范圍內要求加強監(jiān)管的呼聲。
未來生命研究所(FLI)一直是呼吁放緩人工智能發(fā)展步伐,直至建立明確的倫理框架的最積極倡導者之一。該組織認為,世界正競相發(fā)展“超越人類智能”的系統,卻缺乏負責任地管理這些系統的工具。
在新發(fā)布的指數中,Anthropic、OpenAI、meta 和 xAI 等公司在問責制和透明度方面得分尤其低。
評估發(fā)現,這些公司在如何測試偏見、處理安全事故或計劃未來如何控制高級自主行為等方面的信息披露有限。
相比之下,規(guī)模較小的歐洲和亞洲研究實驗室因其模型安全文檔和公開風險評估的透明度更高而受到贊揚。然而,該報告的結論是,目前全球人工智能競賽中沒有任何一家主要參與者的安全水平能夠滿足歐盟和聯合國監(jiān)管機構正在討論的新興國際標準。
行業(yè)反應和日益增長的壓力
不出所料,報告中提及的公司對此反應不一。
谷歌DeepMind的一位發(fā)言人告訴路透社,隨著人工智能模型日趨復雜,公司將“繼續(xù)在安全性和治理方面與自身能力同步創(chuàng)新”。而由埃隆·馬斯克創(chuàng)立的xAI則給出了更為直白的回應:“傳統媒體的謊言”,這似乎是自動回復,而非官方聲明。
這份報告發(fā)布之際,人工智能領域正就如何平衡創(chuàng)新與克制展開激烈辯論。盡管歐洲和亞洲的監(jiān)管機構正力推更強有力的法律來遏制人工智能風險,但未來生命研究所指出,美國仍然缺乏可執(zhí)行的規(guī)則。
報告總結道:“人工智能競賽的步伐遠超安全保障的跟進速度。”除非OpenAI、meta和xAI等公司徹底改革其治理結構,否則在世界意識到其代價之前,這種差距可能會進一步擴大。(鞭牛士、AI普瑞斯編譯)










