OpenAI近日發布公告,就青少年安全、用戶自由與隱私保護三大核心議題的平衡策略作出詳細說明。公司承認,這些領域存在天然的矛盾性,必須在透明框架下尋找動態平衡點。
針對AI對話中涉及的敏感信息,OpenAI將其類比為醫療問診或法律咨詢場景,主張這類數據應享有同等程度的特權保護。公司正推動相關政策立法,同時研發新型加密技術,確保用戶數據即便在內部也處于嚴格隔離狀態。不過公告明確,當自動化系統檢測到嚴重濫用行為,或涉及生命安全威脅、網絡安全危機等極端情況時,數據將啟動人工審核機制。
在用戶自由度方面,OpenAI采取分級管理策略。隨著技術可控性提升,成年用戶將獲得更大操作空間:系統默認屏蔽曖昧內容,但經主動請求后可開放;涉及自殺主題時,拒絕提供實施指導,但允許創作虛構作品。這種"成人視作成人"的原則,體現了對用戶自主判斷權的尊重。
未成年人保護被列為優先級。ChatGPT明確限定13歲以上用戶使用,正在開發的年齡識別系統將通過多維度數據判斷用戶身份。未滿18歲者自動啟用青少年模式,系統將過濾性暗示內容,并在檢測到嚴重心理危機時啟動應急機制,包括聯系監護人或通報執法部門。
針對信息模糊的情況,系統默認采取保護性措施,未成年人需通過身份驗證才能解鎖全部功能。具體規則包括:禁止任何形式的曖昧對話生成;嚴禁參與自殺/自殘話題討論,包括文學創作場景;發現自殺傾向時優先聯系家長,緊急情況下直接上報相關部門。
本月將上線的家長控制功能包含五大模塊:通過郵件實現賬戶綁定;自定義青少年使用規則;管理記憶功能與歷史記錄;接收心理危機預警(無法聯系家長時自動上報);設置"數字宵禁"限制使用時段。所有用戶仍保留原有提醒機制,例如連續使用時的休息提示。