最近、NVIDIAはメタと長期間にわたる世代を超えた戦略的パートナーシップを発表しました。今回の合意に基づき、メタはその大規模なAIデータセンター内に数百万台のNVIDIAブラックウェルGPU、および知能体AI推論向けに特別に設計された次世代のルビンアーキテクチャGPUを導入し、AI計算基盤を強化する予定です。
グーグルとアップルが重要提携を発表。グーグルがアップルの主要クラウドプロバイダーとなり、アップルは次世代AIモデル開発にGemini技術を活用。グーグルは2026年までにAIインフラ強化のため1750億~1850億ドルを投資予定。....
PositronがAI推論チップ「Asimov」を発表。大規模モデル推論に最適化し、GPUアーキテクチャを簡素化することで効率向上。エネルギー効率とコストパフォーマンスがNVIDIA次世代製品の5倍と主張し、業界注目を集める。....
グーグルは2025年第4四半期の決算説明会で、アップルとのAI協力に関する具体的な詳細を避け、クラウドサービスプロバイダーとしての役割を確認し、ジェミニをベースにした次世代技術の開発を支援したことを示した。
次世代のAIビジュアル創作エンジンで、多種類のプロフェッショナルレベルのビジュアルコンテンツを創作できます。
次世代のAIアプリケーションに対して、インテリジェントAPIインフラストラクチャを提供します。
Banana Proは次世代のAI画像モデルで、テキストから画像への変換、高解像度レンダリング、および精密編集をサポートしています。
グーグルの次世代AI画像生成ツール。4K解像度、5ステップのワークフロー、自己修正機能と文化的な感知能力を備えています。
Google
$0.7
入力トークン/百万
$2.8
出力トークン/百万
1k
コンテキスト長
Anthropic
$7
$35
200
$2.1
$17.5
$21
$105
Alibaba
$1
$10
256
$3.9
$15.2
64
-
Bytedance
$0.8
$2
128
Deepseek
$4
$12
Tencent
32
Openai
$8.75
$70
400
$1.75
$14
$525
Chatglm
allenai
Olmo 3は、Allen Institute for AIによって開発された次世代の言語モデルファミリーで、7Bと32Bの指令と思考のバリエーションを含んでいます。このモデルは、長鎖思考において優れた性能を発揮し、数学やコーディングなどの推論タスクの性能を大幅に向上させます。すべてのコード、チェックポイント、およびトレーニングの詳細は公開され、言語モデル科学の発展を促進します。
Olmo 3は、Allen Institute for AIによって開発された次世代の言語モデルシリーズで、7Bと32Bの2種類の規模があり、命令型と思考型の2種類のバリエーションがあります。このモデルはDolma 3データセットで事前学習され、Dolciデータセットで事後学習され、長い連鎖的な思考能力を備えており、数学やコーディングなどの推論タスクで優れた性能を発揮します。
unsloth
GLM-4.6は智譜AIが発表した次世代のテキスト生成モデルで、GLM-4.5と比較して、長いコンテキストウィンドウ、より優れたコーディング性能、より強力な推論能力など、多くの面で顕著な改善が見られます。このモデルは、いくつかの公開ベンチマークテストで優れた結果を収めており、国内外の主要モデルと比較しても競争力があります。
GLM-4.6は智譜AIが開発した次世代の大規模言語モデルで、GLM-4.5と比較して、文脈処理、コーディング能力、推論性能の面で著しい向上が見られます。このモデルは200Kの文脈長をサポートし、複数の公開ベンチマークテストで優れた成績を収めており、特にコード生成、推論、エージェントタスクの分野で競争力を持っています。
zai-org
GLM-4.6は智譜AIが発表した次世代のテキスト生成モデルで、GLM-4.5と比較して、文脈処理、コード化性能、推論能力などの面で著しい向上を実現し、200Kの文脈長をサポートし、より強力なエージェント能力と洗練されたライティング能力を備えています。
GLM-4.6-FP8は智譜AIが発表した次世代のテキスト生成モデルで、GLM-4.5と比較していくつかの重要な点で著しい改善が見られます。このモデルはより長い文脈ウィンドウ、卓越したコーディング性能、高度な推論能力、およびより強力なエージェント機能を備えており、より複雑なタスクを処理することができます。
Mungert
LFM2はLiquid AIによって開発された次世代のハイブリッドモデルで、エッジAIとデバイス端末のデプロイメントに特化して設計されており、品質、速度、メモリ効率の面で新しい基準を確立しています。このモデルは革新的なハイブリッドLiquidアーキテクチャを採用し、乗算ゲートと短い畳み込みを備えており、多言語処理をサポートしています。
LiquidAI
LFM2はLiquid AIによって開発された次世代の混合モデルで、エッジAIとデバイス端のデプロイに特化して設計されています。このモデルは、品質、速度、メモリ効率の面で新しい基準を確立し、特にリソースが制限された環境での動作に適しています。
cpatonn
GLM-4.5V-AWQ-4bitは、Zhipu AIの次世代フラッグシップテキスト基礎モデルに基づいて構築された量子化バージョンのマルチモーダルモデルで、AWQ-4bit量子化技術により最適化され、優れた性能を維持しながら計算リソースの必要量を大幅に削減します。このモデルは42の公開視覚言語ベンチマークテストで同規模のモデルのSOTA性能を達成し、強力な視覚推論能力を備えています。
LFM2はLiquid AIによって開発された次世代のハイブリッドモデルで、エッジAIとデバイス端末デプロイ向けに設計され、品質、速度、メモリ効率の面で新しい基準を確立しました。
LFM2はLiquid AIによって開発された次世代のハイブリッドモデルで、エッジAIとデバイス端デプロイ向けに設計され、品質、速度、メモリ効率の面で新しい基準を確立しました。
LFM2はLiquid AIによって開発された次世代の混合モデルで、エッジAIとデバイス端でのデプロイに特化しており、品質、速度、メモリ効率の面で新たな基準を確立しています。
LFM2はLiquid AIによって開発された次世代の混合モデルで、エッジAIとデバイス端末デプロイ向けに設計され、品質、速度、メモリ効率の面で新しい基準を確立しました。
LFM2はLiquid AIによって開発された次世代の混合モデルで、エッジAIとデバイス端末のデプロイに特化しており、品質、速度、メモリ効率の面で新しい基準を確立しています。
LFM2-700MはLiquid AIによって開発された次世代の混合モデルで、エッジAIとデバイス端末でのデプロイに特化して設計され、品質、速度、メモリ効率の面で新しい基準を確立しました。
Intelligent-Internet
II-Medical-8Bはインテリジェントインターネットが開発した次世代医療大規模言語モデルで、AI医療推論能力を強化するために設計され、医療質問応答能力において大きなブレークスルーを実現しました。
Salesforce
xLAM-2はSalesforceが開発した次世代大型アクションモデルで、マルチターン会話と関数呼び出し能力に特化しており、ユーザーの意図を実行可能なアクションに変換し、AIエージェントの中核コンポーネントとして機能します。
alpindale
WizardLM-2 8x22BはマイクロソフトAIが開発した次世代の最先端大規模言語モデルで、エキスパート混合(MoE)アーキテクチャを採用し、複雑な対話、多言語、推論、エージェントタスクで優れた性能を発揮します。
Fastly NGWAF MCPサーバーは、次世代WebアプリケーションファイアウォールAPIとシームレスに統合され、AIアシスタントが自然言語でWebアプリケーションのセキュリティを管理できるようにします。これには、ルール管理、IPリスト、セキュリティ監視、およびマルチテナントサポートが含まれます。
DocuMind MCP Serverは、ニューラルネットワークに基づく次世代のドキュメント品質分析サーバーで、高度なアルゴリズムを通じてREADME評価、SVGヘッダー画像スキャン、多言語対応などの機能を提供し、開発者にAI駆動のドキュメント改善提案を提供します。
NGSS MCPサーバーは、AIアシスタントに米国の次世代科学基準(NGSS)の中学段階のカリキュラム基準を提供するプロトコルサーバーで、55の基準が含まれ、3次元フレームワークの照会、高性能キャッシュ、およびさまざまな検索ツールをサポートしています。
Cursor IDEはAI支援開発向けに設計された次世代コードエディターで、MCPサーバーが提供するAI機能を統合し、Spring AIフレームワークを通じてAIモデルの統合と開発の最適化を実現します。