OpenAI近日發布公告,就青少年安全、用戶自由與隱私保護三大核心原則的平衡問題作出詳細說明。公司承認,這三者之間存在天然矛盾,需在充分透明的前提下尋求最優解。
針對AI對話中涉及的敏感信息,OpenAI將其類比為醫療或法律咨詢場景,主張這類數據應獲得同等程度的"特權保護"。目前公司正推動相關政策立法,同時研發技術手段確保員工無法直接訪問用戶數據。但在自動化系統檢測到嚴重濫用行為,或涉及生命安全威脅、大規模網絡安全事件等極端情況下,數據將啟動人工審核流程。
在用戶自由度方面,OpenAI采取分級管理策略。系統默認屏蔽曖昧對話內容,但成年用戶主動要求時可獲得相關服務;涉及自殺實施指導的內容被嚴格禁止,但允許創作包含此類情節的虛構作品。公司將其概括為"以成年人標準對待成年用戶"的原則。
對于未成年人保護,OpenAI確立了安全優先的指導方針。ChatGPT服務對象限定為13歲以上用戶,公司正在開發年齡識別系統,通過技術手段區分用戶群體。系統檢測到未成年人時,將自動啟用青少年模式,過濾露骨內容,并在發現嚴重心理問題時啟動家長聯絡機制,緊急情況下將通知執法部門。
當用戶年齡無法確認或信息不全時,系統默認按未成年人標準處理;成年用戶則可通過身份驗證解鎖完整功能。針對未成年群體,公司制定了更嚴格的限制措施:全面禁止曖昧對話生成,任何形式的自殺/自殘話題討論,包括文學創作背景下的相關內容。
若系統判定用戶存在自殺傾向,將優先嘗試聯系家長,緊急情況下將直接上報有關部門。本月內即將推出的家長控制功能包含五大模塊:通過郵箱建立家長-子女賬戶關聯、定制青少年使用規則、管理記憶功能與聊天記錄、接收心理危機預警、設置使用時段限制。
所有用戶仍將保留使用提醒功能,當檢測到持續使用時間過長時,系統會自動提示用戶休息。這些措施共同構成了OpenAI構建的AI使用安全防護體系。