研究がAI言語モデルの限界を警告:8Kを超えるコンテキストでは性能が半減、概念推論が課題に
ミュンヘン大学、ミュンヘン機械学習センター、Adobe Researchによる最近の共同研究によると、GPT-4o、Gemini 1.5 Pro、Llama-3.3-70Bなど、12種類の最先端AI言語モデルは、長文の概念推論タスクにおいて顕著な性能低下に直面しています。これらのモデルは、少なくとも128,000トークンのコンテキスト処理をサポートしていますが、深層的な論理的関連付け能力には根本的な限界があることが示されています。研究チームは、NOLIMA(ノーテキストマッチング…