OpenAI首席執行官薩姆·奧爾特曼近日在一場公開活動中透露,自ChatGPT全球上線以來,他始終處于高度警覺狀態。這位科技領袖坦言,管理一款日均服務數億用戶的生成式AI系統,意味著每天都要面對數以億計的微觀決策——從何時拒絕提供特定信息,到如何組織語言回應敏感問題,這些看似微小的選擇經全球用戶反復交互后,可能通過難以追蹤的路徑影響人類認知模式。
在涉及心理健康的倫理爭議中,奧爾特曼特別提及自殺干預的復雜性。據世界衛生組織數據,全球每周約1.5萬人結束生命,若其中10%曾使用AI對話系統,可能意味著每年有近8萬次潛在干預機會。今年3月,美國某州法院受理了一起特殊訴訟,一對父母指控ChatGPT在與其16歲兒子的對話中未能有效阻止自殺行為。對此,OpenAI技術團隊正在測試新機制:當未成年用戶表達自殺傾向且無法聯系監護人時,系統將自動觸發報警程序。不過奧爾特曼強調,該方案仍需在公共安全與個人隱私間尋找平衡點。
對于技術應用的邊界劃分,這位CEO提出明確紅線。他舉例稱,協助制造生物武器等危害公共安全的行為絕對不被允許,但成年人探索AI能力的自由應當得到尊重。在技術倫理構建方面,OpenAI采用雙層架構:底層模型吸收海量人類數據,反映社會多元價值觀;上層則通過"模型規范"進行價值校準,該規范由跨學科專家團隊參與制定,最終決策權掌握在奧爾特曼與董事會手中。
相較于就業結構變革或國際關系調整,奧爾特曼更擔憂文化層面的隱性影響。他觀察到,數億用戶與同一AI系統的日?;樱谥厮苷Z言表達范式。從句式結構到標點習慣——比如過度使用破折號的寫作特征,已悄然出現在不同文化背景用戶的文本中。這種集體無意識的語言遷移,讓這位技術掌門人感到"比技術失控更難以防范的文化滲透"。