この記事では、汎用人工知能(AGI)と大規模言語モデル(LLM)の関係性と違いについて論じています。著者は、AGIは世界を記述するモデルだけでなく、世界を理解できるモデルであるべきだと考えています。大規模言語モデルが抱える課題としては、幻覚や因果関係の推論能力の欠如などが挙げられます。本稿では、因果推論を行い、世界を理解できるモデルを構築することが、AGI実現への道筋であると主張しています。