アリババグループがベイリン大モデルのRing-flash-linear-2.0-128Kをオープンソース化。超長文プログラミングに特化。混合線形アテンションとスパースMoEアーキテクチャを採用し、6.1Bパラメータのみを活性化することで40Bの密なモデルと同等の性能を達成。コード生成やスマートエージェント分野で最高水準の結果を実現し、長い文脈処理の問題を効率的に解決。
DeepSeek-OCRは革新的な「視覚記憶圧縮」メカニズムを導入。長文情報を画像内で処理し、超長文コンテキストにおける計算リソース問題を解決。画像文書解析で最高性能を実現。....
DeepSeek-V3.2-Exp実験モデルをリリース。160Kコンテキスト長対応で価格50%以上削減。V3.1-Terminusを最適化し、長文処理効率を向上。....
OpenAIがGPT-5 Pro APIをリリース。40万トークンのコンテキストウィンドウを備え、画像の入力もサポートし、複雑な長文処理が可能。料金は100万トークンあたり15ドルで、AIアプリケーションの普及を促進する。これは同社史上最高のモデルである。
MoBAは、長文コンテキストに対応した混合ブロックアテンション機構であり、大規模言語モデルの効率化を目的としています。
月之暗面がリリースした最新のAIモデルです。自動同期更新と長文コンテキストに対応し、AIチャットやスマートアシスタントの構築に最適です。
高性能の双方向エンコーダーTransformerモデル
長文テキストを効率的に処理する双方向エンコーダーモデル
openai
$14.4
入力トークン/百万
$57.6
出力トークン/百万
200k
コンテキスト長
minimax
-
1M
baidu
$4
$16
128k
$2
$8
32k
mistral
$43.2
ai21-labs
$3.53
$7.99
260k
256k
anthropic
moonshot
$1
智谱ai
$0.5
ByteDance-Seed
人工海馬ネットワーク(AHN)は、無損記憶を固定サイズの圧縮表現に変換することで、無損記憶の正確性と圧縮記憶の高効率性を結合した革新的な長文脈モデリング手法です。このモデルは、長シーケンスを効果的に処理でき、計算コストが固定されており、様々なRNNに似たアーキテクチャに適用できます。
unsloth
Granite-4.0-H-Tinyは、IBMが開発した70億パラメータの長文コンテキスト命令モデルで、Granite-4.0-H-Tiny-Baseをベースに微調整されています。このモデルは、オープンソースの命令データセットと内部合成データセットを組み合わせ、監督微調整、強化学習アライメント、モデルマージなどの技術を用いて開発され、強化された命令追従とツール呼び出し機能を備えており、特に企業向けアプリケーションに適しています。
zai-org
GLM-4.6は智譜AIが発表した次世代のテキスト生成モデルで、GLM-4.5と比較して、文脈処理、コード化性能、推論能力などの面で著しい向上を実現し、200Kの文脈長をサポートし、より強力なエージェント能力と洗練されたライティング能力を備えています。
GLM-4.6-FP8は智譜AIが発表した次世代のテキスト生成モデルで、GLM-4.5と比較していくつかの重要な点で著しい改善が見られます。このモデルはより長い文脈ウィンドウ、卓越したコーディング性能、高度な推論能力、およびより強力なエージェント機能を備えており、より複雑なタスクを処理することができます。
pierre-tassel
Rapido NERは、猫のRapidoにちなんで名付けられた、強力な多言語固有表現認識器とエンティティ埋め込みモデルです。このモデルは、強力な多言語NER性能を提供し、エンティティクラスタリングと検索をサポートし、文書内のクラスタリングや長いコンテキストなどのタスクを処理します。
nightmedia
これはQwen3-Next-80Bモデルを変換したMLX形式の大規模言語モデルで、100万タグの超長文コンテキスト処理能力を持っています。このモデルは独自のqx65量化式を採用し、単なる技術的な最適化ではなく感情的な共感に重点を置き、質問の背後にある感情を感知し、より人間性のある返答を生成することができます。
ibm-granite
Granite-4.0-Micro-BaseはIBMが開発したデコーダーのみの長文脈言語モデルで、約15兆のトークンを使ってゼロから学習され、四ステージトレーニング戦略を採用しています。このモデルは様々なテキスト生成タスクに特化して設計されており、多言語と穴埋め式のコード補完機能をサポートしています。
Granite-4.0-H-Tiny-BaseはIBMが開発したデコーダのみの長文脈言語モデルで、混合専門家アーキテクチャを採用し、約23兆トークンで4段階のトレーニングを行い、多言語テキスト生成とコード補完タスクをサポートします。
Granite-4.0-H-Micro-BaseはIBMが開発したデコーダーのみの長文脈言語モデルで、幅広いテキスト生成タスクに設計されています。このモデルは4段階のトレーニングを経ており、合計約18兆個のトークンデータを使用しており、多言語テキスト生成とコード補完機能をサポートしています。
Granite-4.0-H-MicroはIBMが開発した30億パラメータの長文コンテキスト指令モデルで、Granite-4.0-H-Micro-Baseをベースに微調整されています。このモデルは、オープンソースの指令データセットと内部合成データセットを組み合わせて訓練され、多言語サポートと強化されたツール呼び出し機能を備え、企業アプリケーションで優れた性能を発揮します。
Infinigence
梅格レス2-3x7B-A3Bはデバイスネイティブの大規模言語モデルで、ハイブリッドエキスパート(MoE)アーキテクチャを採用し、MoEの正確性と密集モデルのコンパクト性の利点を兼ね備えています。このモデルは8Tトークンのデータで訓練され、32Kの文脈長を持ち、将来的には推論とエージェント機能の向上が計画されています。
inclusionAI
Ring-mini-2.0はLing 2.0アーキテクチャを基に深度に最適化された高性能推論型MoEモデルで、総パラメータが160億、活性化パラメータが14億に過ぎないが、100億規模以下の密集モデルと同等の総合推論能力を実現しています。論理推論、コード生成、数学タスクにおいて優れた性能を発揮し、12.8万の長文脈処理と毎秒300以上のトークンの高速生成をサポートしています。
NVFP4
Qwen3-Coder-30B-A3B-Instructは、コーディングタスクに特化して最適化された高効率のテキスト生成モデルで、優れた長文脈処理能力とツール呼び出しサポートを備え、開発者に強力なコーディング支援を提供します。
cpatonn
Qwen3-30B-A3B-Thinking-2507は量子化処理された大規模言語モデルで、強化された推論能力、汎用能力、長文脈理解能力を持っています。このモデルは混合エキスパートアーキテクチャを採用しており、論理推論、数学、科学、コーディングなどの複雑なタスクで優れた性能を発揮し、262,144トークンの長文脈処理をサポートしています。
gabriellarson
Llama-3.3-Nemotron-Super-49B-v1.5はNVIDIAが開発した高効率大規模言語モデルで、Meta Llama-3.3-70B-Instructをベースに派生しています。このモデルは推論、チャットインタラクション、エージェントタスクで優れた性能を発揮し、ニューラルアーキテクチャサーチ技術により大幅にメモリ使用量を削減し、128Kトークンの文脈長をサポートし、数学、コード、科学、ツール呼び出しなどの多方面での能力が強化されています。
TurkuNLP
フィンランド現代BERTは、現代BERTアーキテクチャに基づく多言語エンコーダーモデルで、フィンランド語、スウェーデン語、英語、コード、ラテン語、北サーミ語で事前学習されています。このモデルは4000億個のトークンで学習され、最大128,000個のトークンの文脈長をサポートし、フィンランドの公用語と長文書のシナリオを処理するために設計されています。
sarvamai
Sarvam-TranslateはSarvam AIが開発した高度な翻訳モデルで、インドの22の公用語に特化した文書レベルの翻訳を行い、長いコンテキスト入力と様々なコンテンツ形式をサポートします。
kakaocorp
Kanana 1.5はKakaoが開発したバイリンガル大規模言語モデルで、プログラミング、数学、関数呼び出し能力が大幅に向上し、32Kトークンのコンテキスト長をサポート、YaRN拡張技術により128Kトークンの超長文処理が可能です。
Goraint
Qwen3-8Bの4ビットAWQ量子化バージョン、MLXライブラリ向けに最適化され、19.2万トークンの長文コンテキスト処理をサポート、エッジデバイス向けのデプロイメントに適しています。
OddTheGreat
複数の12Bパラメータモデルの融合成果、ロールプレイに最適化され、創造性と安定性を兼ね備え、16kの長文コンテキストをサポート