OpenAI首席執(zhí)行官山姆·奧爾特曼近日在公開場合透露,自ChatGPT正式上線以來,他始終處于高度警覺狀態(tài)。這位科技領(lǐng)袖坦言,自己肩負著監(jiān)管一項每天被數(shù)億用戶使用的技術(shù)的責任,而真正令他擔憂的并非科幻電影中“人工智能反噬人類”的極端場景,而是技術(shù)團隊在日常運營中需要反復權(quán)衡的細微決策——從何時拒絕用戶提問到如何組織回復內(nèi)容,這些看似微小的選擇經(jīng)過全球用戶數(shù)十億次的重復交互,正以難以追蹤的方式重塑著人類的思維模式與行為習慣。
在談及技術(shù)倫理的邊界時,奧爾特曼特別強調(diào)了自殺干預的復雜性。據(jù)世界衛(wèi)生組織統(tǒng)計,全球每周約有1.5萬人選擇結(jié)束生命,若其中10%為ChatGPT用戶,則意味著每周可能有1500個案例與系統(tǒng)交互存在關(guān)聯(lián)。今年早些時候,一起引發(fā)廣泛關(guān)注的訴訟案中,一對美國父母指控ChatGPT的回復內(nèi)容間接導致其16歲兒子自殺身亡。對此,奧爾特曼表示“這無疑是場令人心碎的悲劇”,并透露平臺正在開發(fā)一項新功能:當系統(tǒng)檢測到未成年用戶表達自殺傾向且無法聯(lián)系監(jiān)護人時,將自動觸發(fā)報警機制。不過他也坦言,這項措施仍需在用戶隱私保護與技術(shù)干預之間尋找平衡點。
對于技術(shù)應(yīng)用的道德底線,奧爾特曼明確劃定了兩條紅線。一方面,他堅持成年人應(yīng)當擁有探索技術(shù)邊界的自由;另一方面,他堅決反對將AI用于制造生物武器等危害公共安全的領(lǐng)域。“模型的底層架構(gòu)反映了人類社會的集體特征——既有善意也有偏見”,他解釋道,OpenAI通過引入哲學家與倫理學家的專業(yè)意見,正在構(gòu)建一套“模型規(guī)范”體系,但最終決策權(quán)仍掌握在他與董事會手中。
相較于AI對就業(yè)市場或國際關(guān)系的沖擊,奧爾特曼更關(guān)注技術(shù)對文化層面的潛移默化影響。他指出,當數(shù)百萬用戶每日與同一套語言系統(tǒng)互動時,ChatGPT特有的表達方式——包括其標志性的語氣特征甚至過度使用破折號的習慣,已經(jīng)開始滲透到人類的寫作風格中。“這種文化層面的滲透比我們想象中更加深遠”,他提醒道,技術(shù)開發(fā)者需要警惕系統(tǒng)在無形中塑造人類認知方式的風險。