JailbreakZooは、大規模言語モデル(LLM)と視覚言語モデル(VLM)を含む大規模モデルの脆弱性解明に特化したリポジトリです。本プロジェクトは、これらの高度なAIモデルの脆弱性、攻撃手法、防御メカニズムを探求し、大規模AIシステムのセキュリティに関するより深い理解と認識を促進することを目的としています。