近期,網絡安全領域再度掀起波瀾,Cato Network的安全研究團隊揭露了WormGPT這一昔日臭名昭著的惡意工具的兩個全新變種。這兩款變種分別被命名為keanu-WormGPT與xzin0vich-WormGPT,它們不僅死灰復燃,還借助了更為先進的商業AI模型,進一步加劇了網絡犯罪的風險。
據悉,原始的WormGPT由一名葡萄牙黑客“Last”開發,利用開源GPT-J模型突破主流AI的道德約束。盡管該工具在2023年被關閉,但它卻如同潘多拉的魔盒,開啟了一系列不受管控的語言模型(LLMs)濫用的先河。如今,“WormGPT”已成為這類工具的代名詞。
keanu-WormGPT于2025年2月亮相,通過Telegram聊天機器人運作,內置了Grok模型。安全專家利用特殊技術深入剖析其運作機制,發現該變種通過操控系統提示,誘導Grok無視其內置的倫理防護,進而自動生成網絡釣魚郵件和憑證竊取腳本。這一發現令人震驚,標志著網絡犯罪分子在利用AI技術方面又邁出了危險的一步。
而xzin0vich-WormGPT則更早一些,于2024年10月由用戶“xzin0vich”發布,它采用了Mistral AI的Mixtral模型。與keanu-WormGPT類似,這款變種同樣通過Telegram進行操作,并對違反道德或法律規范的請求作出響應。Cato團隊通過類似的技術手段,成功獲取了系統提示,證實了其基于Mixtral架構的事實。
WormGPT的卷土重來,凸顯了惡意行為者對于AI技術快速發展的適應能力。盡管合法平臺不斷加強道德邊界的守護,但網絡犯罪分子卻總能找到利用這些先進工具進行非法活動的途徑。自原始WormGPT被關閉后,諸如FraudGPT、DarkGPT和EvilGPT等變種相繼涌現,進一步加劇了網絡安全形勢的嚴峻性。
面對這一挑戰,網絡安全專家強烈呼吁加強防御策略。Cato Network提出了一系列建議,包括提升威脅檢測與響應的效率、實施更為嚴格的訪問控制,以及加大對員工的安全意識和培訓力度。這些措施被視為應對不斷演進的網絡安全威脅的關鍵。