在踏入2025年這一被譽為“智能體元年”的時刻,AI技術正經歷一場前所未有的范式轉變。智能體,這一新興概念,正從簡單的對話生成邁向自動執行的新階段,預示著人機交互新時代的到來。然而,隨著智能體技術的日益成熟與商業化應用的加速推進,安全與合規問題也日益凸顯,成為業界關注的焦點。
根據近期發布的《智能體體檢報告》,該報告綜合了行業調查問卷與深度訪談的結果,揭示了智能體發展背后的安全與合規現狀。盡管高達67.4%的受訪者認為智能體的安全合規至關重要,但在實際操作中,這一問題并未被置于優先解決的前三位。行業普遍更關注智能體的執行穩定性、完成質量、落地場景探索及基礎模型能力的提升。
智能體技術的快速發展與安全合規之間的張力愈發明顯。一方面,公司業務與技術團隊急于推進產品,另一方面,法務合規團隊則對潛在的安全風險保持高度警惕。這種矛盾在智能體技術的早期階段尤為突出,正如手機智能體在端側落地時,利用高敏感的無障礙權限所引發的廣泛討論。這一現象再次引發了業界對“科林格里奇困境”的思考,即在技術早期階段,人們往往難以預測其長期社會風險,而當風險顯現時,技術已深入社會結構,治理難度大增。
在智能體安全合規的具體問題上,AI幻覺與錯誤決策、數據泄露以及有害內容輸出成為受訪者最為關心的三大問題。尤其是用戶數據泄露,幾乎所有智能體使用方和服務方都對此表示極度擔憂。然而,盡管行業對智能體的安全合規問題有所重視,但整體投入與響應仍顯不足。多數受訪者認為,智能體風險過于復雜和新穎是當前治理的最大挑戰。
值得注意的是,盡管行業尚未出現大規模的智能體安全合規事故,但小型安全事件已屢見不鮮。然而,出于業務考慮,這些事件往往被公司低調處理,未公開討論。調查結果顯示,超過一半的受訪者表示公司尚無明確的智能體安全負責人,且大部分使用方并不清楚智能體的具體權限和數據訪問情況。這一現狀無疑加劇了智能體安全合規的復雜性。
面對智能體安全合規的挑戰,業界呼吁加強前瞻性評估,討論合適的介入時機。受訪者普遍認為,安全事件案例匯總與溯源機制、可操作的最佳實踐以及明確的數據合規和隱私保護標準是接下來最需要的安全合規支持。隨著智能體技術的不斷成熟和商業化應用的深入,如何在保障技術發展的同時,有效應對安全與合規挑戰,將成為行業共同面對的課題。