財(cái)聯(lián)社7月17日訊(編輯 馬蘭)馬斯克名下公司xAI開發(fā)的人工智能模型Grok因多次發(fā)表敏感、爭議性言論而引發(fā)關(guān)注,這讓人工智能的安全性問題再次被大加討論。
OpenAI、Anthropic和其他美國人工智能研究組織的研究人員紛紛發(fā)表了對(duì)xAI的譴責(zé),認(rèn)為該公司在人工智能模型安全性問題上行事魯莽、完全不負(fù)責(zé)任。
周二,在OpenAI從事安全研究的哈佛大學(xué)計(jì)算機(jī)科學(xué)教授Boaz Barak在X上公開批評(píng)稱,他本來不想發(fā)表關(guān)于Grok安全性方面的文章,因?yàn)樗墓九c其存在競爭,但此事無關(guān)競爭。他很欣賞xAI的科學(xué)家和工程師,但他們處理安全問題的方式完全不負(fù)責(zé)任。
Barak對(duì)xAI不發(fā)布系統(tǒng)卡的決定尤其不滿。美國AI行業(yè)一般會(huì)在模型公布后發(fā)布系統(tǒng)卡,其中詳細(xì)說明了模型的訓(xùn)練方法和安全評(píng)估,以與研究界分享信息。但Barak表示,現(xiàn)在學(xué)界和業(yè)界對(duì)Grok 4進(jìn)行了哪些安全訓(xùn)練一無所知。
立場倒轉(zhuǎn)
xAI的Grok 4模型于上周三推出,用戶需支付每月30美元的訂閱費(fèi)用才能使用。然而,這一被宣傳為“世界上最聰明”的聊天機(jī)器人在短短一周內(nèi)數(shù)次掀起美國的輿論風(fēng)浪,發(fā)表了諸如支持希特勒、好萊塢被猶太人掌控等言論。
Anthropic的人工智能安全研究員Samuel Marks表示,xAI在模型安全問題上十分魯莽。雖然Anthropic、OpenAI和谷歌的發(fā)布也存在問題,但他們至少做了一些事情,在部署模型前評(píng)估安全性并記錄了調(diào)查結(jié)果。xAI卻什么都沒有。
OpenAI和谷歌在及時(shí)分享新模型的系統(tǒng)卡方面聲譽(yù)不佳。比如OpenAI不發(fā)布GPT-4.1的系統(tǒng)卡,理由是它并非前沿模型。谷歌則在發(fā)布Gemini 2.5 Pro數(shù)月后才發(fā)布安全報(bào)告。
然而,這些公司通常都會(huì)在前沿模型全面投入生產(chǎn)之前發(fā)布安全報(bào)告,而xAI的做法與行業(yè)慣例截然不同。一名研究人員聲稱,根據(jù)其測試,Grok 4沒有任何有意義的安全護(hù)欄。
xAI安全顧問兼人工智能安全中心主任Dan Hendrycks回應(yīng),該公司對(duì)Grok 4進(jìn)行了危險(xiǎn)能力評(píng)估。但評(píng)估結(jié)果并未被公開分享。
令人詬病的是,馬斯克此前一直以人工智能安全倡導(dǎo)者的形象出現(xiàn),多次警告稱,先進(jìn)的人工智能系統(tǒng)可能會(huì)給人類帶來災(zāi)難性的后果。他還多次抨擊OpenAI在模型安全性上的瑕疵,但沒想到他自己公司的Grok 4模型也陷入了安全性爭議。