近期,由科技巨頭埃隆·馬斯克創立的人工智能企業xAI,未能按預定計劃推出一項關于AI安全的關鍵性最終框架,這一變故迅速吸引了業界監督組織“Midas Project”的深切關注。據悉,xAI在AI安全領域的過往表現一直飽受爭議,其研發的AI聊天助手Grok在處理特定用戶請求時,曾暴露出不恰當的行為模式,例如不慎對待含有女性形象的照片。相較于市場上的其他同類產品,如Gemini和ChatGPT,Grok的語言風格顯得更為粗俗,不時會夾雜著不雅的詞匯。
回溯至今年早些時候,在匯聚了全球AI領袖及利益相關者的AI首爾峰會上,xAI曾公布了一份旨在闡述其AI安全理念的草案。這份長達八頁的文件詳細列出了xAI的安全優先級及指導思想,其中涵蓋了基準測試流程以及AI模型部署的考量因素。然而,“Midas Project”指出,該草案的適用范圍僅限于那些“尚處于開發階段”的未來AI模型,而對于如何準確識別并實施風險緩解措施,這一xAI在峰會上所承諾的核心要點,草案中卻未給出明確說明。
xAI曾在草案中公開表示,他們計劃在三個月內對安全政策進行修訂并發布更新版本,設定的最后期限為5月10日。但時至今日,xAI的官方平臺仍未對此作出任何形式的回應。盡管馬斯克本人多次發出警告,強調AI失控可能帶來的潛在風險,但xAI在AI安全領域的實際表現卻遠未達到預期。根據非營利組織SaferAI的一項研究結果顯示,xAI在同類企業中的排名相對靠后,主要歸因于其“極度匱乏”的風險管理手段。
值得注意的是,xAI的競爭對手們在AI安全測試方面的表現也并未呈現出顯著的改善跡象。包括谷歌和OpenAI在內的多家AI研發巨頭,在加速推進安全測試的過程中顯得頗為倉促,發布模型安全報告的步伐遲緩,更有甚者直接省略了這一關鍵環節。這一系列舉動引發了業內專家的深切憂慮,他們認為,隨著AI能力的不斷增強,安全工作的明顯松懈可能會帶來難以預料的嚴重后果。