最近、OpenAIのCEOサム・アルトマンが、同社の安全委員会からの辞任を発表しました。この委員会は今年5月に設立され、OpenAIの人工知能モデルの開発と展開における重要な安全に関する意思決定を監督する役割を担っていました。アルトマンのこの決定は大きな注目を集め、彼は透明性、協力、安全性を高めるために、この役割を第三者専門家に委ねることを望んでいます。

OpenAI、人工知能、AI

アルトマンの辞任に伴い、この安全委員会は「独立した監督委員会」へと移行し、安全に関する問題に重点を置きます。新委員長には、カーネギーメロン大学コンピューターサイエンス学部機械学習部門長のジコ・コルトが就任しました。彼は前任のブレット・テイラーの後任で、テイラーも委員会を離れています。委員会の他のメンバーには、Quoraの共同創設者兼CEOのアダム・ダンジロ、アメリカ陸軍退役将官のポール・ナカソネ、そしてソニー株式会社の元執行副社長兼最高法務責任者のニコール・リーグマンが含まれます。

コルトのリーダーシップの下、委員会は、OpenAIの最新の大規模言語モデルであるOpenAI o1の安全性と適合性の基準を審査します。OpenAI o1は高度な推論能力を備え、物理学、化学、生物学などの分野で人間の博士号取得者を超える性能を示し、数学やコーディングにおいても優れた能力を発揮するとされています。

OpenAIはまた、独立したAIの安全とガバナンスの確立、安全対策の強化、OpenAIの活動の透明性の向上、外部組織との協力、そしてモデル開発と監視における会社の安全フレームワークの統一など、委員会の今後の使命を提示しました。「私たちは、高性能で安全なモデルをリリースする方法を継続的に改善することに尽力しており、安全委員会はOpenAIの未来を形作る上で重要な役割を果たします。」と、同社は述べています。

しかし、アルトマンの経営スタイルは、昨年末に一時解任された後、すぐにOpenAIに復帰した経緯もあり、外部から批判を受けています。彼はテスラのイーロン・マスクとも緊張関係にあると言われ、マスクはOpenAIの創設取締役の一人です。OpenAIの技術の安全性に関する疑問は繰り返し提起されており、同社が違法な秘密保持契約を使用しているかどうか、そして従業員に規制当局との接触を報告するよう求めているかどうかなどが含まれています。

アルトマンの今回の辞任がAIガバナンスにどのような影響を与えるかはまだ不明です。これは、OpenAIがAIガバナンスにおける中立性の重要性を認識し、AIの安全とリスクの管理においてよりオープンになる意思を示している可能性を示唆している、と指摘する声もあります。

要点:

🌐 アルトマンがOpenAI安全委員会を辞任し、より独立した監視体制を推進。

🔍 新委員長ジコ・コルトが委員会を率い、OpenAIの新モデルの安全性を評価。

🤝 OpenAIは外部組織との協力を強化し、透明性と安全対策を向上させる計画。