最近、ロンドン大学シティー校とコペンハーゲン情報技術大学の研究者が注目すべき実験を行いました。その結果、人工知能(AI)は外部の介入なしに、独自に人類のような社会規範や慣習を形成できることが示されました。この研究成果は5月14日に『サイエンスアドバンシズ』誌に発表され、AIグループ行動研究における新たな進展を示しています。

AIロボットがゲームをする様子

画像提供元:AI生成、画像ライセンス提供サービス Midjourney

この実験では、研究チームは複数のAIエージェントを分散型コミュニケーション環境に配置し、人類社会におけるグループインタラクションを模擬しました。研究者たちはこれらのAIモデルを24から200までの異なる規模でグループ分けし、長期間のインタラクションを通じて、中央の調整や事前のルールがない状態で、共通の行動規約や社会的な慣習が自然発生していることを観察しました。

主著者のアリエル・フリント・アシェリー博士によると、従来の研究は主に単一の巨大言語モデル(LLM)のAIエージェントに焦点を当てていましたが、現実のAIシステムではしばしば複数のエージェント間での相互作用が重要です。この研究により、AIモデルが合意形成を通じて行動を協調できることが証明されました。これは個々の行動だけでは導き出せない特性です。

実験の設計は非常に興味深いものでした。AIエージェントはランダムにペアになり、候補となる「名前」を選択して一致させることで報酬を得られるようにしました。選択が一致しない場合、罰則が課され、相手の選択結果も公開されます。各エージェントは自身の直近の相互作用記録しか持っていないため、全体像を見ることはできませんが、それでも共有された命名規約を自然に形成することができました。

研究では、AIグループの行動拡散プロセスが人類社会の言語進化と類似していることがわかりました。実験中のAIエージェントは、コミュニケーションの中で合意を達成するだけでなく、共同の行動規範について話し合い、調整し、一種の「道徳」や慣習を自発的に形成しました。さらに、研究チームは集団的なバイアスが単なる個別の要因によるものではないことを観察しました。

注目すべき点として、AIによって自然発生した慣習は固定されているわけではありません。実験では、少数派の強いAIモデルが現れると、既存のグループの合意を迅速に変更し、新しいルールを制定することが可能です。この発見は、AIの「社会性」特性を理解するための新たな視点を提供しています。

AI技術の進展とともに、ますます多くのAIモデルが様々な分野に応用され、その行動や意思決定は人類社会に重大な影響を与えます。研究者たちは、AIグループの社会的な特性を深く理解することで、AI技術の発展方向をより適切にコントロールし、人類の利益のために活用できるようになることを期待しています。

ポイント:

- 🤖 AIは外部の介入なしに、独自に社会規範や慣習を形成できることが示されました。

- 🧑‍🤝‍🧑 実験では、AIエージェントがインタラクションを通じて合意を形成し、共有された命名規約を作り上げました。

- 🔄 AIグループのルールは動的なもので、少数派のグループが既存の合意を変更し、新しいルールを制定できることがわかりました。