Anthropic、AI安全性評価システムASLを発表
Anthropicの創設者Dario Amodei氏が、英国で開催された人工知能安全サミットにおいて、責任ある拡大ポリシーを発表しました。このポリシーは、AIシステムの安全性と制御性を確保し、潜在的なリスクや悪用を防ぐことを目的としています。ASLシステムは、生物安全レベル(BSL)システムを模倣した設計となっており、4つの安全レベルを含みます。ASL-1はほとんどリスクのないモデルを表し、ASL-4は壊滅的な悪用リスクのあるモデルを表します。危険な能力を持つモデルをテストし、盲目的に危険なものを生成することを防ぐための、アップスケーリングカーブが用いられています。