AIPress.com.cn報道
12月22日消息,知名 AI 安全研究員 Sander Schulhoff 在近日的訪談中發出警告:全球企業正面臨一場嚴重的 AI 安全危機,而現有的網絡安全團隊對此幾乎束手無策。Schulhoff 指出,傳統安全團隊的思維模式是“修補代碼漏洞”,但大語言模型(LLM)的失敗邏輯完全不同,他形象地總結道:“你可以修補一個漏洞,但你無法修補一個大腦。”這種“大腦式”的系統屬性意味著,AI 并不是因為代碼寫錯了而犯錯,而是被語言引導、誘導甚至“欺騙”而產生違規行為。
Schulhoff 強調,目前的網安人才儲備與 AI 系統防御需求之間存在嚴重的斷層。傳統的網安專業人士習慣于掃描技術缺陷,卻往往忽視了最核心的問題:如果有人通過巧妙的提示詞(Prompt)誘導 AI 執行違規指令怎么辦?他舉例稱,具備 AI 安全意識的專家會通過容器化運行 AI 生成的代碼來隔離風險,但普通團隊往往缺乏這種跨領域的系統性思維。他預言,未來最具競爭力的崗位將產生在 AI 安全與傳統網絡安全的交叉點。
針對當前火熱的 AI 安全初創市場,Schulhoff 表達了極度辛辣的批評。他認為,許多宣稱能提供“萬能護欄(Guardrails)”或“自動化紅隊測試”的公司是在撒謊,因為 AI 被操縱的方式幾乎是無窮盡的。他大膽預測,隨著企業意識到這些自動化工具無法提供真實保護,該領域將迎來一輪慘烈的“市場修正”,許多依賴融資泡沫生存的安全初創公司將因收入枯竭而倒閉。盡管 Google 等巨頭正通過收購(如 320 億美元收購 Wiz)加強云安全布局,但底層人才架構的缺失仍是懸在所有企業頭上的達摩克利斯之劍。(AI普瑞斯編譯)







