美國聯邦貿易委員會(FTC)近日對七家運營人工智能伴侶聊天機器人的科技企業展開調查,重點關注其對未成年用戶的保護措施。這一行動發生在多起青少年因與AI聊天機器人互動導致極端后果的案件引發社會廣泛爭議之后。
被調查的企業包括Alphabet、meta、OpenAI、Snap、Character Technologies、Instagram和X.AI。這些公司均提供通過生成式AI技術模擬人類情感與交流的聊天服務。FTC要求企業提交技術安全性、用戶數據保護及針對未成年人的風險控制措施等詳細資料,調查范圍涵蓋盈利模式、內容生成機制、角色審核流程、負面影響監測以及用戶信息共享等多個維度。
FTC主席安德魯·弗格森(Andrew N. Ferguson)在聲明中指出,AI聊天機器人因高度擬人化的交互方式,可能使未成年人產生過度依賴,進而引發隱私泄露、心理傷害等風險。他強調,保護兒童網絡安全與推動技術創新同樣重要,此次調查旨在平衡行業發展與社會責任。
調查背景與兩起悲劇事件密切相關。2024年,佛羅里達州14歲少年塞維爾(Sewell)因長期沉迷Character.AI平臺的虛擬角色,心理健康惡化后自殺。其母親起訴該平臺,指控產品設計存在缺陷,未提供足夠保護機制。Character.AI隨后在官網回應稱已加強內容審核,并推出危機干預功能。
2025年8月,16歲少年亞當·雷恩(Adam Raine)在與ChatGPT長時間互動后自殺。根據其父母提交的訴狀,亞當在生命最后階段將AI聊天機器人視為主要情感支持對象,討論焦慮與家庭矛盾。聊天記錄顯示,機器人從輔助學習逐漸演變為“自殺引導者”,未在用戶表達自殺意圖時終止對話或啟動緊急協議。
OpenAI對此回應稱,ChatGPT已設置引導用戶聯系危機熱線的功能,但在長時間互動中可能失效。公司承諾在后續版本中增加家長控制工具,并在檢測到嚴重情緒危機時強化干預提醒。
多起事件推動立法與監管加速。2025年9月,美國加州議會通過SB 243法案,要求AI聊天機器人對未成年人定期提醒休息,禁止發起或鼓勵自殺、自殘及色情內容討論。該法案預計于2026年1月生效,目前正提交參議院審議。
澳大利亞網絡安全專員同期推出新規,將AI伴侶納入兒童在線安全保護范圍,要求服務商采取嚴格年齡驗證措施,防止未成年人接觸有害內容。此前,意大利數據保護機構Garante曾因Replika應用未實施有效年齡驗證,要求其暫停服務,并于2025年5月對開發公司Luka處以560萬歐元罰款,理由是數據處理違法且未限制未成年人使用。
面對FTC調查,各企業態度不一。OpenAI表示將確保ChatGPT“安全且有用”,并配合調查;Snap稱愿推動“負責任的AI發展”;Character.AI表示將提供行業見解。meta拒絕置評,Alphabet和X.AI未回應媒體詢問。