最近、人工知能企業Anthropicは、「責任ある拡張」ポリシーの最新アップデートを発表し、追加の安全対策が必要なモデルを明確にしました。この取り組みは、新技術の導入前に潜在的なリスクを効果的に防ぐことを目的としています。
Anthropicのブログによると、AIモデルのストレステストで、そのモデルが「資源が限られた国の機関」による化学兵器や生物兵器の開発を支援する可能性があることが判明した場合、Anthropicは正式な導入前に新たな安全対策を講じます。さらに、モデルが初級研究員の作業を完全に自動化できる場合、または技術の急速な拡大において過剰な加速効果をもたらす場合も、同様に安全対策を強化します。
Anthropicは今月初め、新たな資金調達ラウンドを完了し、評価額は615億ドルに達し、AIスタートアップ企業の中でもトップクラスの評価額となりました。しかし、OpenAIと比較すると、OpenAIは最近400億ドルの資金調達を発表し、総評価額は3000億ドルに達しているため、依然として微々たるものです。今後10年間で生成AI市場は1兆ドルを超えると予想されており、市場競争は激化しており、Google、Amazon、Microsoftなどのテクノロジー大手は、新製品や新機能を積極的に導入しています。中国からの競争も顕在化しており、DeepSeekのAIモデルが米国で急速に人気を集めていることはその一例です。
昨年10月に発表された「責任ある拡張」ポリシーでは、潜在的な監視機器を発見するための物理的なオフィスの安全検査も行うことも述べられています。同社は、経営陣によるリスク委員会を設立し、内部セキュリティチームを構築したことを確認しています。さらに、高度な検出機器と技術を利用した「物理的な」セキュリティプロセスを導入し、監視機器の検出を行い、社内セキュリティを確保しています。
AnthropicのAIの安全性と責任に関する継続的な努力は、自社技術の保護だけでなく、業界全体の健全な発展にとって重要な保証となっています。