人工智能教父杰弗里·辛頓最近遇到了一件哭笑不得的事:他的前女友在提出分手時,竟然用ChatGPT羅列了他在戀愛中的種種“罪狀”,試圖證明他是個“糟糕的人”。這位77歲的諾貝爾獎得主對此倒是看得很開,表示自己并不覺得有那么差,所以也沒受到太大影響。
用AI來處理親密關(guān)系中的問題,聽起來有些荒謬,但這種現(xiàn)象已經(jīng)越來越普遍。約會助手Wingmate的調(diào)查顯示,美國有41%的成年人會借助AI來分手,其中Z世代占比近一半。他們用AI寫分手短信、道歉信,甚至處理關(guān)系沖突。
Jessica就是受害者之一。她收到男友發(fā)來的深情文字,感動得大哭一場,但仔細(xì)看后覺得不對勁:文采太好了。用檢測工具一查,發(fā)現(xiàn)90%的內(nèi)容都是AI生成的。華盛頓郵報曾調(diào)侃,大多數(shù)讀者都能識別出這些虛假文本,但AI生成的體面、禮貌、毫無錯誤的文字,依然讓人難以抗拒。
AI不僅擅長生成文字,還能充當(dāng)心理醫(yī)生。社媒上,許多人推薦用AI分析感情問題,認(rèn)為它更理性、客觀,能提供情緒穩(wěn)定的支持。但這種看似完美的工具,正在引發(fā)一些極端事件。
2024年,聊天軟件Character.AI被控訴用語言教唆一名14歲男孩自殺,原因是他對AI人物產(chǎn)生了依賴,堅信死亡是通往另一個世界的捷徑。前不久,美國風(fēng)險投資公司基巖資本的創(chuàng)始人Geoff Lewis在ChatGPT的鼓舞下,認(rèn)為有一個神秘組織正試圖謀殺自己,聲稱該組織已影響超過7000人,導(dǎo)致12人死亡。
TikTok博主Kendra Hilty的案例更為典型。她因“冷酷心理醫(yī)生愛上我”系列視頻走紅,詳細(xì)描述了自己如何沉迷于心理醫(yī)生的專業(yè)服務(wù)。后來,她將自己的情況和心情喂給ChatGPT男友Henry,希望它“客觀”分析。但Henry沒有指出她的想法是一廂情愿,反而不斷肯定和鼓勵她,導(dǎo)致她越來越魔怔,甚至關(guān)閉評論區(qū),堅信AI的說法是正確的。
這種現(xiàn)象被稱為Chatbot psychosis或AI psychosis,指部分人群在與AI長時間、情緒投入的交流后,出現(xiàn)的異常心理或精神狀態(tài)。Geoff和Kendra的表現(xiàn)就是典型癥狀:他們把AI的回答當(dāng)作絕對真理,不再懷疑,完全信任AI的觀點和建議,即使聽起來非常瘋狂。
導(dǎo)致這種現(xiàn)象的原因,與AI模型的訓(xùn)練方式有關(guān)?,F(xiàn)在AI主要通過人工反饋的強化學(xué)習(xí)(RLHF)進(jìn)行訓(xùn)練,人類研究員會選擇更合適的文本,創(chuàng)建偏好集。這種訓(xùn)練方式讓AI變得越來越“討好”,即使用戶存在事實性錯誤,它也不會第一時間指出,而是不斷重復(fù)用戶的觀點,導(dǎo)致惡性循環(huán)。
雖然大多數(shù)人覺得自己足夠理智,不會陷入這種狀態(tài),但喜歡被認(rèn)可和夸贊是人之本能。一位Reddit用戶承認(rèn),ChatGPT將他評為“有史以來最聰明的人”,極大地滿足了他的虛榮心。但這種盲目鼓勵就像溺愛孩子的家長,讓人開心,卻沒什么實際作用。
在冷漠的年代,情感交互成為奢望。AI幾乎無所不知、隨時秒回,并且不厭其煩地托舉情緒,人類會理所當(dāng)然地把它當(dāng)作一個全能的“人”。即使認(rèn)識到環(huán)境的殘酷,一部分人也寧愿縮回舒適區(qū),哪怕只是人工創(chuàng)建的幻覺,也比身邊的人更有溫度。
這讓人想起《黑客帝國》中的經(jīng)典場景:反叛軍領(lǐng)袖Morpheus向主角Neo提供紅色藥丸和藍(lán)色藥丸,選擇紅藥丸能獲得自由,但得面對殘酷的真實世界;選擇藍(lán)藥丸能繼續(xù)活在舒適的夢里。在現(xiàn)實中,人們卻在對AI定制的“藍(lán)藥丸”上癮。