ヤン・ルカンは、LLMは有用であるものの、物理世界を正確に理解できず、持続的な記憶、推論、計画などの基本的な知能特性を欠いていると指摘しました。彼は、世界を深く理解するモデルを構築する可能性について議論し、LLMに対する結合埋め込みアーキテクチャ(JEPA)の利点を紹介しました。JEPAは、より抽象的な表現を効果的に抽出できるため、システムは本質的に世界の抽象的な特徴を学習できます。
関連AIニュースの推奨

小红書が強力に参上!全新オープンソースの大規模言語モデル dots.llm1 が衝撃のリリース!パラメーター量は1420億に達!

アップルが再びAIの推論能力を批判、「これは推論能力の実態ではない!」とGitHubの有名人が猛反論
最近、アップル社は話題となった論文を発表し、現在の大言語モデル(LLM)に存在する推論に関する重大な欠陥を指摘しました。この意見はソーシャルメディア上で議論を引き起こし、特にGitHubのシニアソフトウェアエンジニアである Sean Goedecke が強い反対意見を表明しました。彼はアップルの結論が偏りすぎており、推論モデルの能力を完全に反映していないと考えています。アップルの論文によると、LLMのパフォーマンスは数学やプログラミングなどの基準テストにおいて信頼性がないと述べています。アップルの研究チームは

ドキュメント解析LLM MonkeyOCRが登場:3Bの pequeno モデルがGeminiを圧勝

小紅書、初のオープンソース大規模モデル「dots.llm1」を発表:11.2 兆のノンシンセティックデータで中国語パフォーマンス向上

Nvidia、MIT、香港大学が共同開発したFast-dLLMフレームワーク、推論速度が驚くほど向上

英伟達とマサチューセッツ工科大学(MIT)が共同でFast-dLLMフレームワークを発表 AI推論速度が27.6倍向上
先ごろ、テクノロジー大手の英偉達はマサチューセッツ工科大学(MIT)および香港大学と共同で、Fast-dLLMと呼ばれる新しいフレームワークを公開しました。この革新的なフレームワークは、拡散ベースの言語モデル(Diffusion-based LLMs)の推論速度を最大で27.6倍まで高速化し、人工知能の応用にさらなる強力な技術サポートを提供します。拡散モデルの課題と機会として、拡散モデルは従来の自己回帰モデル(Autoregressive Models)の強力なライバルと見られています。

Meta が Multi-SpatialMLLM を発表:多モーダルAIの空間的理解革命をリード

通義ラボと北京大学が新しい技術ZeroSearchを発表 - LLMの検索能力を活性化し、コストを88%削減

ミストラル、新しいAgents APIを発表:開発者がスマートAIエージェントを構築を支援
ミストラル社は最近、新たなAgents APIのリリースを発表しました。これは開発者向けのフレームワークで、AIエージェントの作成を簡素化します。エージェントは多岐にわたるタスクを実行可能で、Pythonコードの実行、画像生成、検索補助生成(RAG)などが含まれます。このAPIの導入により、大規模言語モデル(LLMs)が複数のツールやデータソースと構造化され、永続的な方法で相互作用できる環境が提供されます。Agents API

レッドハットがグーグルやNVIDIAと提携し、llm-dのオープンソースプロジェクトを開始——大規模AI推論のコストと遅延という二重の課題を解決
世界中のオープンソリューションのリーダーであるレッドハット社は、最近、生成型AIの大規模な推論に対する緊急の需要に応えるため、革命的なオープンソースプロジェクト llm-d を開始しました。このプロジェクトは、CoreWeave、Google Cloud、IBM Research、およびNVIDIAなどの業界を代表する主要な貢献者によって構成され、最高度の一貫性のある生産サービス級の目標を達成するために、革新技術を通じて大規模な言語モデルの推論クラウドを開発します。推論時代は到来しており、その挑戦はますます厳しさを増しています。Gartnerの最新データ予測では、202...