隨著大模型在金融、政務、能源等關鍵行業加速落地,其帶來的安全挑戰正成為行業焦點。在近日舉辦的2025年世界互聯網大會烏鎮峰會上,360數字安全集團發布國內首份聚焦大模型安全的專業報告,系統梳理了這類智能系統從研發到應用全流程中的潛在風險,并創新提出“雙軌制”安全治理方案,為AI技術規模化應用構建防護體系。
報告顯示,大模型面臨的安全威脅呈現立體化特征,形成覆蓋技術棧各層級的攻擊矩陣。在基礎設施層面,訓練集群遭受網絡攻擊可能導致模型被植入惡意代碼或訓練數據遭竊取;數據層則面臨訓練數據泄露、知識庫污染等風險,直接威脅模型輸出的可信度;內容生成環節可能產生虛假信息、違規內容甚至“AI幻覺”,引發社會層面的連鎖反應。
智能體(Agent)的自主決策能力帶來新型風險。當AI代理被惡意操控時,可能執行未經授權的金融交易、篡改政務系統數據等高危操作。用戶端的安全漏洞同樣不容忽視,攻擊者可通過提示詞注入、權限繞過等手段直接干預模型行為,形成“隔山打牛”式的攻擊路徑。
針對這些復合型威脅,360提出“外掛式+原生式”雙重防護機制。前者通過部署獨立的安全監測系統,在模型運行環境外構建防護網,包括內容合規審查、異常行為預警等模塊;后者則將安全基因植入模型開發全周期,從數據采集階段的脫敏處理,到訓練過程的對抗樣本防御,再到部署環節的訪問控制,形成“安全即代碼”的研發范式。
基于這套理論框架,該集團已打造包含七大核心能力的安全解決方案。方案涵蓋數據隱私保護、模型魯棒性增強、生成內容過濾、智能體行為審計、API接口防護、攻防演練平臺及合規性驗證等關鍵領域,并在銀行、制造業、智慧城市等場景完成部署驗證。某股份制銀行通過引入該方案,成功攔截多起針對AI客服系統的深度偽造攻擊,避免潛在經濟損失超億元。
報告特別強調,大模型安全需要構建產業共同體。360計劃聯合高校、研究機構及行業伙伴,共同推進安全標準制定、威脅情報共享和開源工具開發。目前,其主導的AI安全實驗室已開放部分檢測工具包,供開發者免費使用,助力提升行業整體防護水平。這種開放協作模式,正在重塑AI安全領域的生態格局。
業內專家指出,當大模型從實驗室走向生產系統,安全防護已從技術選項變為必選項。360的實踐表明,只有將安全能力深度融入AI技術棧,才能破解“智能度越高,風險面越大”的發展悖論。這場關乎AI技術可信度的保衛戰,正在重新定義智能時代的生存法則。










