OpenAI于近日發布公告,就青少年安全、用戶自由與隱私保護三大核心原則的平衡問題作出詳細說明。公司坦言,這三個領域在實際操作中存在內在矛盾,因此必須在透明框架下尋求最優解決方案。AI對話場景中涉及的個人信息敏感度堪比醫療問診或法律咨詢,這類數據需要獲得特殊保護機制。
針對數據保護問題,OpenAI提出將醫療領域"特權保護"原則引入AI領域。公司正在推動相關政策立法,要求AI對話數據享有與醫患溝通同等的保密等級。技術層面,研發團隊正開發新型加密系統,確保用戶信息即使對內部技術人員也保持不可見狀態。但公告特別說明,當系統檢測到嚴重濫用行為、生命安全威脅、公共安全風險或重大網絡攻擊時,將啟動人工審核機制。
在用戶權限管理方面,OpenAI采取漸進式開放策略。隨著模型可控性的技術突破,用戶使用自由度正持續提升。針對未成年人保護,公司明確將ChatGPT使用年齡限定在13歲以上,并投入資源開發AI年齡識別系統。該系統通過分析對話特征、用詞習慣等維度,實現未成年人用戶自動識別與限制。
政策倡導層面,OpenAI正與全球監管機構展開密集對話。公司技術團隊向立法部門提交了包含23項具體建議的報告,重點涉及數據最小化原則、緊急情況響應標準、跨司法管轄區協作機制等內容。這些建議既包含技術實現路徑,也涵蓋法律框架構建方案,旨在建立國際通行的AI隱私保護標準。