Meta、新たなフレームワークを発表、高リスクAIシステムのリリース制限を計画
Metaは最近、最先端AIモデルがもたらすリスクを評価・軽減し、必要に応じて開発の中止またはこれらのシステムのリリース制限を行うことを目的とした、新たなリスクポリシーフレームワークを発表しました。このフレームワークは「最先端AIフレームワーク」と呼ばれ、MetaがどのようにAIモデルを高リスクと重要リスクの2つのカテゴリに分類し、それに応じて対策を講じてリスクを「許容できるレベル」まで軽減するかを詳細に説明しています。このフレームワークでは、重要リスクは特定の脅威シナリオの実行に独自に貢献できるものとして定義されています。一方、高リスクとは