人工知能技術の急速な発展に伴い、OpenAIやAnthropicなどの主要なAI開発企業は、米国軍との連携強化に努めています。その目的は、国防総省の効率向上を図りつつ、AI技術が致死兵器に使用されないようにすることです。
国防総省の主任デジタル・AI官であるRadha Plumb博士は、TechCrunchのインタビューで、現在のAIは兵器には使用されていないものの、脅威の識別、追跡、評価において国防総省に大きなメリットをもたらしていると述べています。
画像出典:AI生成画像、画像ライセンス提供元Midjourney
Plumb博士は、国防総省が「殺傷連鎖」の実行を加速させていると述べています。このプロセスには、脅威の識別、追跡、排除が含まれ、複雑なセンサー、プラットフォーム、兵器システムが関与します。生成AIは、殺傷連鎖の計画および戦略段階においてその潜在能力を示しています。AIは、指揮官が脅威に直面した際に迅速かつ効果的に対応するのに役立つと彼女は指摘しています。
近年、国防総省とAI開発企業の関係はますます緊密になっています。2024年、OpenAI、Anthropic、Metaなどの企業は利用ポリシーを緩和し、米国情報機関および国防機関が自社のAIシステムを使用できるようにしましたが、これらのAI技術を人間を傷つける目的で使用することは依然として禁止されています。この変化により、AI企業と防衛関連企業との連携が急速に進展しました。
例えば、Metaは11月にロッキード・マーティンやBooz Allenなどの企業と提携し、Llama AIモデルを国防分野に応用しました。AnthropicもPalantirと同様の連携を行っています。これらの連携の具体的な技術的詳細は不明ですが、Plumb博士は、計画段階でのAIの適用は、複数の主要開発企業の利用ポリシーと矛盾する可能性があると述べています。
AI兵器が生死の決定権を持つべきかどうかについては、業界で激しい議論が展開されています。AndurilのCEOであるPalmer Luckeyは、米国軍は自律兵器システムの調達に長い歴史があると述べています。しかし、Plumb博士はこれを否定し、いかなる場合でも、武力行使の決定には人が関与しなければならないと強調しています。
彼女は、自動化システムが単独で生死の決定を行うという考え方は単純化しすぎであり、実際ははるかに複雑であると指摘しています。国防総省のAIシステムは人と機械の協働であり、意思決定には上級幹部の関与があります。
要点:
🌐 AIは、国防総省における脅威の識別と評価において大きなメリットをもたらし、軍事意思決定の効率化を推進しています。
🤝 AI開発企業と国防総省の連携はますます緊密になっていますが、AI技術を人間を傷つける目的で使用しないという原則は堅持されています。
🔍 AI兵器が生死の決定権を持つべきかどうかについての議論は続いており、国防総省は常に人の関与が必要であると強調しています。