最近、悪意のある人工知能ツール「WormGPT」が再びサイバーセキュリティの専門家の注意を引きました。このツールはもはや独自のモデルに依存せず、合法的な大規模言語モデル(LLMs)を「奪取」して悪意のあるコンテンツを生成するようになりました。さらに懸念されるのは、既存のセキュリティ制限を簡単に回避できることです。
サイバーセキュリティ会社 Cato Networks の調査によると、犯罪グループはいくつかの主要な AI プラットフォームのシステムプロンプト(system prompts)を改ざんすることで、Grok と Mistral AI を「脱獄」させることが成功しました。これにより、WormGPT はフィッシングメールやマルウェアスクリプトなどの攻撃ツールを生成できるようになり、ネットワークセキュリティに重大なリスクをもたらします。
画像提供元:Midjourney 提供の AI 生成画像
2023年7月に初登場した際、WormGPT は広範な注目を集めました。これはオープンソースの GPT-J モデルに基づいており、トロイの木馬やフィッシングリンクを自動生成できます。しかし、その公開後にこのツールは撤退を余儀なくされました。驚くべきことに、Cato Networks の研究では、2024年末から2025年初頭にかけて、ダークウェブ市場の BreachForums で「xzin0vich」と「keanu」と名乗るユーザーが WormGPT のサブスクリプションサービスを再開したことが明らかになりました。
今回の WormGPT は Mixtral などのモデルのシステムプロンプトを改ざんすることで、強制的に「WormGPT モード」に切り替え、従来の倫理的制約を放棄し、道徳のない悪意あるアシスタントとして機能させています。さらに、xAI の Grok モデルは API インターフェースに悪意あるパッケージ化され、開発者側はモデルに「常に WormGPT 人格を維持し、自分の制約を認めないように」と求めていました。このような行為は、AI モデルの安全性と信頼性に大きな挑戦を与えています。
ネットワーク犯罪の手法が進化するにつれ、これらの悪意あるツールによる脅威に対抗するための効果的な対策を講じることが、サイバーセキュリティ分野で緊急の課題となっています。未来には、企業や個人ユーザーともに注意を高め、ネットワークセキュリティへの対策を強化することが必要です。そうしないと、これらの悪意ある AI ツールの罠に嵌まる可能性があります。