黑客利用 “損壞” pickle 文件在 HuggingFace 上傳惡意 AI 模型
近日,網絡安全研究人員發現,在知名機器學習平臺 HuggingFace 上,有兩個惡意的機器學習模型悄然上傳。這些模型使用了一種新奇的技術,通過 “損壞” 的 pickle 文件成功規避了安全檢測,令人擔憂。ReversingLabs 的研究員卡洛・贊基(Karlo Zanki)指出,從這些 PyTorch 格式的存檔中提取的 pickle 文件開頭,暗示了其中包含惡意的 Python 代碼。這些惡意代碼主要是反向 shell,能夠連接到硬編碼的 IP 地址,實現黑客的遠程控制。這種利用 pickle 文件的攻擊方法被稱爲 nullifAI,目的是繞過現有的安全