近日,英國互聯網安全領域的多位倡導者聯名致信國家通訊監管機構Ofcom,要求對社交媒體巨頭meta在風險評估流程中過度依賴人工智能(AI)的做法加以限制。這一呼吁的背景是,meta計劃將風險評估工作的九成自動化,此舉引發了對于用戶安全,特別是未成年用戶保護的深切憂慮。
根據英國的《在線安全法》,社交媒體平臺有責任全面評估服務可能帶來的風險,并據此制定有效的緩解措施。這一風險評估機制被視為保護用戶,特別是兒童用戶安全的關鍵法律要求。然而,包括Molly Rose基金會、兒童慈善組織NSPCC以及互聯網觀察基金會在內的多個機構認為,meta將風險評估主要交由AI處理的做法是一個“令人擔憂的倒退”。
在致Ofcom首席執行官梅拉妮·道斯的信函中,倡導者們明確表達了對AI主導風險評估的擔憂,并強烈建議監管機構明確指出,若風險評估過度或完全依賴自動化手段,則不應被視為“適當且充分”。他們還呼吁Ofcom質疑meta在風險評估過程中降低標準的假設。Ofcom方面表示,將認真審視這封信函所表達的關切,并在適當時候作出回應。
面對這一質疑,meta公司迅速作出回應,強調其在安全領域的堅定承諾。meta發言人指出,公司并未使用AI做出風險決策,而是開發了一款工具,以幫助團隊識別并遵守相關法律和政策要求。該發言人還強調,AI技術是在人工監督下使用的,旨在提升有害內容的管理能力,且技術進步已顯著改善了安全結果。
Molly Rose基金會在組織此次聯名行動時,引用了美國廣播公司NPR的報道。據報道,meta最近的算法更新和新安全功能將主要由AI系統批準,而不再經過人工審查。一位不愿透露姓名的前meta高管表示,這種變化雖然能加速Facebook、Instagram和WhatsApp上應用更新和新功能的推出,但也會帶來“更大的風險”,因為在新產品發布前,潛在問題很可能被忽視。
NPR的報道還指出,meta正考慮將青少年風險和虛假信息傳播等敏感領域的審查工作自動化。這一消息進一步加劇了公眾對于meta過度依賴AI可能帶來的安全風險的擔憂。