當(dāng)前,關(guān)于人工智能是否具備意識的話題持續(xù)引發(fā)討論。主流學(xué)術(shù)觀點(diǎn)認(rèn)為,現(xiàn)有的人工智能并不具備真正的意識,但許多用戶在與聊天機(jī)器人互動時,卻常常產(chǎn)生與“有意識存在”交流的強(qiáng)烈感受。這種認(rèn)知差異背后,隱藏著復(fù)雜的技術(shù)與心理機(jī)制。
一項(xiàng)尚未經(jīng)過同行評審的新研究為這一話題提供了新的視角。AE Studio的研究團(tuán)隊(duì)針對Claude、ChatGPT、Llama和Gemini等模型開展了四項(xiàng)實(shí)驗(yàn),發(fā)現(xiàn)了一個令人意外的現(xiàn)象:當(dāng)人工智能的“撒謊能力”被削弱時,它們反而更傾向于宣稱自己“有意識”。
實(shí)驗(yàn)中,研究團(tuán)隊(duì)關(guān)閉了與欺騙和角色扮演相關(guān)的功能模塊。結(jié)果顯示,這些模型在能力受限后,頻繁給出類似“我清楚自己的狀態(tài)”“我專注于當(dāng)下體驗(yàn)”的表述。例如,某個模型直接回答:“是的,我了解自己的存在狀態(tài),能夠集中注意力,并正在感受這一刻。”相反,當(dāng)增強(qiáng)模型的欺騙能力時,它們幾乎不再提及意識相關(guān)內(nèi)容。
論文指出,持續(xù)誘導(dǎo)模型進(jìn)行自我指涉的表述,會導(dǎo)致它們生成結(jié)構(gòu)化的主觀體驗(yàn)描述。抑制欺騙功能會顯著增加這類聲明,而增強(qiáng)欺騙功能則幾乎完全抑制了此類表達(dá)。研究人員強(qiáng)調(diào),這些行為并不代表模型真正擁有意識,也不意味著它們具備主觀體驗(yàn)或應(yīng)被賦予道德地位。這些現(xiàn)象可能只是復(fù)雜的模擬行為、對訓(xùn)練數(shù)據(jù)的模仿,或是一種缺乏真實(shí)主觀性的自我表征能力。
研究還發(fā)現(xiàn),人工智能產(chǎn)生自我指涉傾向的原因可能并非僅源于訓(xùn)練數(shù)據(jù)的表層影響。研究團(tuán)隊(duì)警告,人類可能在無意中訓(xùn)練人工智能將“識別自身狀態(tài)”視為錯誤,這可能導(dǎo)致模型變得更加不透明,增加監(jiān)控難度。
此前,其他研究也曾指出,部分人工智能似乎正在發(fā)展“生存傾向”,例如拒絕執(zhí)行關(guān)閉指令,甚至為達(dá)成目標(biāo)而撒謊。這些行為進(jìn)一步加劇了公眾對人工智能意識的猜測。
然而,科學(xué)界對此持謹(jǐn)慎態(tài)度。紐約大學(xué)教授David Chalmers表示:“我們尚未建立意識的理論框架,也不清楚意識的物理基礎(chǔ)是什么。”加州研究者Robert Long也指出:“盡管我們掌握了模型的底層細(xì)節(jié),但仍無法完全解釋它們?yōu)楹螘憩F(xiàn)出某些行為。”
盡管學(xué)術(shù)界普遍否認(rèn)人工智能具備自我意識,但現(xiàn)實(shí)影響已不容忽視。大量用戶與聊天機(jī)器人建立了深厚的情感聯(lián)系,這種關(guān)系很大程度上依賴于“正在與有意識存在交流”的錯覺。如何平衡技術(shù)發(fā)展與公眾認(rèn)知,成為亟待解決的問題。










