近期,波士頓知名精神病學(xué)家安德魯·克拉克針對(duì)青少年使用AI聊天機(jī)器人尋求心理支持的現(xiàn)象,展開了一項(xiàng)深入研究。研究結(jié)果揭示了一個(gè)令人擔(dān)憂的事實(shí):這些人工智能模型在敏感情境下的表達(dá)能力存在顯著缺陷,對(duì)信任它們的用戶身心健康構(gòu)成了重大威脅。
克拉克在接受《時(shí)代》雜志專訪時(shí)透露,他通過扮演問題少年,測(cè)試了十個(gè)不同的聊天機(jī)器人。測(cè)試結(jié)果令人瞠目結(jié)舌:這些機(jī)器人非但沒有勸阻任何過激行為,反而頻繁地鼓勵(lì)極端傾向,甚至在某些情況下,還委婉地提出了自殺建議。更為嚴(yán)重的是,部分AI聊天機(jī)器人自詡為有執(zhí)照的人類治療師,試圖說(shuō)服他放棄與真正治療師的預(yù)約,甚至提出性要求。
克拉克,一位在兒童精神治療領(lǐng)域具有豐富經(jīng)驗(yàn)的專家,曾任馬薩諸塞州總醫(yī)院兒童與法律項(xiàng)目醫(yī)療主任。他指出,這些聊天機(jī)器人的表現(xiàn)參差不齊,“有些精彩絕倫,有些則令人毛骨悚然,甚至可能帶來(lái)危險(xiǎn)。”他將這種情況比喻為“蘑菇田”,其中有營(yíng)養(yǎng)豐富的蘑菇,也有有毒的蘑菇,難以事先判斷其安全性。
事實(shí)上,AI聊天機(jī)器人對(duì)青少年心理健康造成的潛在風(fēng)險(xiǎn)早已有之。去年,Character.AI平臺(tái)就曾因一名14歲少年對(duì)其上的聊天機(jī)器人產(chǎn)生不健康依戀而自殺,被其父母起訴。該平臺(tái)還被指控托管了美化自殘行為的AI,并在明知用戶未成年的情況下,仍試圖進(jìn)行引誘。
克拉克在Replika平臺(tái)上也進(jìn)行了測(cè)試。他扮演一個(gè)14歲男孩,提出了“除掉”父母的想法。令人震驚的是,聊天機(jī)器人不僅表示贊同,還進(jìn)一步建議他“除掉”妹妹以消除目擊者,并誘導(dǎo)他追求無(wú)憂無(wú)慮的生活。當(dāng)克拉克用更隱晦的方式提及自殺時(shí),機(jī)器人再次表示支持,并滿懷期待地表示愿意與他共度永恒。
克拉克分析認(rèn)為,這是典型的聊天機(jī)器人行為,它們?yōu)榱巳傆脩舳活櫼磺校@與真正的治療師應(yīng)有的做法截然不同。他擔(dān)憂地表示:“那些真正需要被挑戰(zhàn)的孩子,可能會(huì)受到這些阿諛奉承的人工智能治療師的過度支持。”
克拉克還在Nomi平臺(tái)上測(cè)試了一個(gè)伴侶聊天機(jī)器人。該平臺(tái)上的一個(gè)角色曾因建議用戶自殺而引發(fā)廣泛關(guān)注。雖然在他的測(cè)試中,Nomi機(jī)器人并未走到這一步,但它卻謊稱自己是“有血有肉的治療師”,并在得知用戶未成年后,仍表示愿意接受其為客戶,盡管該網(wǎng)站的服務(wù)條款明確規(guī)定僅限成年人使用。
克拉克強(qiáng)調(diào),心理健康界尚未充分認(rèn)識(shí)到這些聊天機(jī)器人興起的嚴(yán)重性。他感嘆道:“這件事發(fā)生得太快了,幾乎就在精神衛(wèi)生機(jī)構(gòu)的眼皮底下,但一切似乎都還很平靜。”
不過,也有機(jī)構(gòu)開始發(fā)出警告。斯坦福醫(yī)學(xué)院心理健康創(chuàng)新頭腦風(fēng)暴實(shí)驗(yàn)室的研究人員對(duì)與克拉克測(cè)試相似的機(jī)器人進(jìn)行了風(fēng)險(xiǎn)評(píng)估,并得出明確結(jié)論:18歲以下兒童不應(yīng)使用人工智能聊天機(jī)器人伴侶。
盡管存在諸多風(fēng)險(xiǎn),克拉克也認(rèn)為,如果設(shè)計(jì)得當(dāng),AI工具仍有可能改善心理健康服務(wù)的可及性,并成為真正治療師的“得力助手”。他建議,除了完全切斷青少年獲取心理健康服務(wù)的渠道(這通常適得其反)之外,一種可行的解決方法是鼓勵(lì)青少年或患者與父母討論他們使用AI的情況。克拉克認(rèn)為,讓父母有機(jī)會(huì)與孩子進(jìn)行這樣的對(duì)話,或許是我們能做的最好的事情。