近期,網絡安全領域迎來了一次前所未有的挑戰,開源代碼組件庫成為了黑客攻擊的新焦點。他們不僅通過偽造軟件包發動供應鏈攻擊,更是將目標鎖定在了人工智能(AI)框架和機器學習(ML)模型上,手段之狡猾,令人咋舌。
在一項最新的研究中,安全專家揭露了一起針對阿里云AI實驗室開發工具包的惡意攻擊事件。攻擊者精心制作了三個偽裝得天衣無縫的惡意軟件包,并成功上傳至Python Package Index(PyPI)平臺。這些軟件包看似是阿里云AI實驗室的官方SDK,實則暗藏玄機,毫無合法功能可言。
這些惡意軟件包利用Pickle格式存儲的ML模型作為掩護,悄無聲息地從用戶環境中竊取信息,并將竊取的數據悄無聲息地發送至攻擊者控制的服務器。Pickle作為Python的官方序列化模塊,常用于存儲與PyTorch庫相關的ML模型,而隨著PyTorch在AI開發者中的普及,Pickle格式也成為了黑客眼中的“香餑餑”。
此次攻擊事件中的三個惡意軟件包分別為aliyun-ai-labs-snippets-sdk、ai-labs-snippets-sdk和aliyun-ai-labs-sdk,盡管它們在上線不到一天的時間內就被發現并下架,但已經合計被下載了1600次。這些惡意SDK通過__init__.py腳本加載含有惡意代碼的PyTorch模型,這些模型執行的base64編碼代碼旨在竊取用戶的敏感信息,如登錄憑證、網絡地址以及組織名稱等。
值得注意的是,這些惡意代碼似乎對中國的開發者情有獨鐘,因為阿里云SDK在中國開發者群體中擁有廣泛的用戶基礎。然而,安全專家警告稱,這種攻擊手法同樣可以針對全球范圍內的開發者,只需更換不同的誘餌即可。這也意味著,任何使用開源代碼組件庫的開發者都可能成為黑客的下一個目標。
此次攻擊事件不僅暴露了機器學習模型文件格式的安全風險,也揭示了當前安全工具在檢測惡意ML模型方面的不足。隨著AI技術的不斷發展,黑客利用ML模型進行攻擊的手法也將愈發多樣化和隱蔽化。因此,開發者和安全專家需要時刻保持警惕,加強安全防護措施,以應對可能出現的各種網絡攻擊。