サウジアラビアのMisraj AIがAWSカンファレンスでアラビア語大規模言語モデル「Kawn」を発表。業界でのアラビア語応用を促進し、双方向翻訳モデル「Mutarjim」と15方言対応の「Lahjawi」を特徴とする。チャットボット等での方言間コミュニケーションを容易に実現。....
OpenAIは「懺悔」フレームワークを導入し、AIモデルが不適切な行動や問題のある判断を自ら認めるよう訓練。これにより、大規模言語モデルが「期待に応えよう」として誤った発言をする問題を解決。モデルは主要回答後に推論プロセスを詳細に説明する二次応答を行う。....
中国初の視覚障害児向けAI読み聞かせシステム「小星」が正式リリース。大規模言語モデルを搭載し、スマホやPCから無料で利用可能。本の内容や語義、ストーリーに関する質問に対応し、視覚障害者の読書ニーズをサポートします。....
NVIDIAはNeurIPSで新AIインフラとモデルを発表、物理AIの発展を促進し、ロボットや自動運転車の現実世界認識を支援。特に自動運転向け初のオープン推論視覚言語モデル「Alpamayo-R1」をリリースし、テキストと画像処理による車両環境認識能力を向上。....
Kat Devはソフトウェアエンジニアリングとコーディングタスクに特化した大規模言語モデルで、AIコーディングを支援します。
AI検索可視性プラットフォームで、ブランドがChatGPT、Perplexity、Google AIなどの大規模言語モデル(LLM)におけるパフォーマンスを最適化するのを支援します。
さまざまな大規模言語モデルに対応したオープンソースのAIエージェントCLIツールです。
Flux Kontext AIは、先進的なFLUX.1モデルを使用した革新的なAI画像編集プラットフォームです。自然言語プロンプトを利用して画像を変換します。
Google
$0.49
入力トークン/百万
$2.1
出力トークン/百万
1k
コンテキスト長
Xai
$1.4
$3.5
2k
Openai
-
$0.7
$2.8
Anthropic
$7
$35
200
$17.5
$21
$105
Alibaba
$1
$10
256
$6
$24
Baidu
128
$2
$20
$4
$16
$8
$240
52
Bytedance
$1.2
$3.6
4
$3.9
$15.2
64
RinggAI
これは通話記録分析用に特別に開発された混合言語AIモデルで、ヒンディー語、英語、およびヒンディー語と英語の混合通話の文字起こし内容を処理できます。モデルはQwen2.5 - 1.5B - Instructをベースに微調整されており、強力な多言語理解と情報抽出能力を備えています。
prithivMLmods
Olmo-3-7B-Instruct-AIO-GGUFは、Allen Institute for AIが開発したOlmo-3-7B-InstructモデルのGGUF量子化バージョンです。これは70億パラメータの自己回帰型言語モデルで、Tulu 2やUltraFeedbackなどのデータセットで教師付き微調整と直接的な嗜好最適化を行って訓練され、質問応答と指令の遵守において優れた性能を発揮します。
DevQuasar
これは ai-sage/GigaChat3-702B-A36B-preview-bf16 モデルの量子化バージョンで、一般の人々に無料で知識を取得する手段を提供することを目的としています。このモデルは大型言語モデルで、テキスト生成タスクに特化しています。
VibeThinker-1.5Bは微博AIが開発した15億パラメータの密集型言語モデルで、Qwen2.5-Math-1.5Bをベースに微調整され、数学やアルゴリズムコーディングの問題に特化して設計されています。「スペクトルから信号への原理」のフレームワークを用いてトレーニングされ、複数の数学コンテストのテストでより大規模なモデルを上回り、トレーニングコストは約7800ドルで、最大約40kトークンの出力をサポートします。
allenai
Olmo 3は、Allen Institute for AIによって開発された次世代の言語モデルファミリーで、7Bと32Bの指令と思考のバリエーションを含んでいます。このモデルは、長鎖思考において優れた性能を発揮し、数学やコーディングなどの推論タスクの性能を大幅に向上させます。すべてのコード、チェックポイント、およびトレーニングの詳細は公開され、言語モデル科学の発展を促進します。
Olmo 3は、Allen Institute for AIによって開発された次世代の言語モデルシリーズで、7Bと32Bの2種類の規模があり、命令型と思考型の2種類のバリエーションがあります。このモデルはDolma 3データセットで事前学習され、Dolciデータセットで事後学習され、長い連鎖的な思考能力を備えており、数学やコーディングなどの推論タスクで優れた性能を発揮します。
XiaomiMiMo
米モデルのエンボディメントモデル(MiMo-Embodied)は、強力なクロスエンボディメント視覚言語モデルであり、自動運転とエンボディメントAIタスクの両方で卓越した性能を発揮します。これは、この2つの重要な分野を結合した最初のオープンソースの視覚言語モデルであり、動的な物理環境における理解と推論能力を大幅に向上させました。
Olmo 3はAllen Institute for AIによって開発された一連の言語モデルで、7Bと32Bの2種類の規模があり、命令式と思考式の2種類のバリエーションがあります。このモデルは長鎖思考に優れており、数学やコーディングなどの推論タスクの性能を効果的に向上させることができます。多段階訓練方式を採用しており、教師付き微調整、直接嗜好最適化、検証可能な報酬による強化学習が含まれます。
Olmo-3-7B-Think-DPOはAllen Institute for AIが開発した70億パラメータの言語モデルで、長い連鎖的な思考能力を持ち、数学やコーディングなどの推論タスクで優れた性能を発揮します。このモデルは、教師付き微調整、直接的な嗜好最適化、検証可能な報酬に基づく強化学習などの多段階の訓練を経ており、研究や教育目的に特化して設計されています。
Olmo 3はAllen Institute for AI (Ai2)によって開発された一連の言語モデルで、7Bと32Bの2種類の規格があり、InstructとThinkの2種類のバリエーションがあります。このモデルはTransformerアーキテクチャに基づいており、長い思考チェーン能力を持ち、数学やコーディングなどの推論タスクの性能を効果的に向上させることができます。
Olmo 3はAllen Institute for AIによって開発されたオープンソースの言語モデルシリーズで、7Bと32Bの2種類の規格があり、指令(Instruct)と思考(Think)の2種類のバリエーションに分かれています。このモデルは卓越した長鎖思考能力を持ち、数学やコーディングなどの推論タスクのパフォーマンスを大幅に向上させることができます。
Olmo 3はAllen Institute for AIによって開発された全新型の言語モデルファミリーで、7Bと32Bの2種類の規模があり、指令(Instruct)と思考(Think)の2種類のバリエーションがあります。このモデルは長鎖型の思考を用いて、数学やコーディングなどの推論タスクの性能を向上させ、言語モデル科学の発展を推進することを目的としています。
Olmo 3 7B RL-Zero Mathは、Allen AIによって開発された、数学的推論タスクに特化して最適化された70億パラメータの言語モデルです。RL-Zero強化学習方法を用いて数学データセットで訓練され、数学的推論能力を効果的に向上させます。
Olmo 3 7B RL-Zero Mixは、Allen AIが開発した7Bパラメータ規模の言語モデルで、Olmo 3シリーズに属します。このモデルはDolma 3データセットで事前学習され、Dolciデータセットで事後学習され、強化学習によって数学、コーディング、推論能力が最適化されています。
DakkaWolf
Trouper-12B GGUFは、DarwinAnim8orによってオリジナルモデルを基に開発されたテキスト生成モデルで、ロールプレイングやクリエイティブライティングのシナリオに特化して最適化されています。このモデルはMistral-Nemo-Base-12Bから微調整され、カスタムの「Actors」データセットを使用して訓練されており、生成されるテキストはより自然で、一般的な「AI言語」の特徴を避けています。
Olmo-3-32B-Think-DPOはAllen AIが開発した32Bパラメータの言語モデルで、直接嗜好最適化(DPO)を用いて訓練され、長鎖的な思考推論能力を備え、数学やコーディングなどの複雑な推論タスクで優れた性能を発揮します。
これはMoonshot AI技術に基づく量子化バージョンのモデルで、ビジュアル言語の理解と生成タスクに特化しており、知識の取得障壁を低くし、知識を誰もが利用できるようにすることを目指しています。
Olmo 3は、Allen Institute for AI (Ai2)によって開発された全く新しい32Bパラメータの言語モデルファミリーで、Base、Instruct、Thinkなどのバリエーションが含まれています。このモデルはDolma 3データセットを基に訓練され、65,536の長文脈処理をサポートし、言語モデル科学の発展を推進することを目的としています。モデルは完全にオープンソースで、Apache 2.0ライセンスに従っています。
unsloth
Qwen3-VL-2B-InstructはQwenシリーズの中で最も強力なビジュアル言語モデルで、卓越したテキスト理解と生成能力、深いビジュアル認知と推論能力、長いコンテキストサポート、強力な空間およびビデオ動的理解能力を備えています。このモデルは2Bのパラメータ規模を採用し、命令対話をサポートし、マルチモーダルAIアプリケーションに適しています。
Mungert
PokeeResearch-7Bは、Pokee AIによって開発された70億パラメータの深度研究エージェントモデルです。AIフィードバック強化学習(RLAIF)と強力な推論フレームワークを組み合わせ、ツール強化型大規模言語モデルにおいて信頼性が高く、アライメントされ、拡張可能な研究レベルの推論を実現し、複雑な多段階研究ワークフローに適しています。
Supabase MCPサーバーは、SupabaseプロジェクトとAIアシスタントを接続するツールです。Model Context Protocol(MCP)を通じて、大規模言語モデル(LLMs)と外部サービスのやり取りを標準化し、データベース管理、設定取得、データクエリなどの機能を実現します。
DaVinci Resolve MCP Serverは、AIプログラミングアシスタント(Cursor、Claude Desktopなど)とDaVinci Resolveを接続するモデルコンテキストプロトコルサーバーで、自然言語でDaVinci Resolveを照会・制御することをサポートしています。
MCP2Lambdaは、AWS Lambda関数を大規模言語モデル(LLM)のツールとして実行するMCPプロトコルサーバーで、コードを変更することなくAIモデルがLambda関数を呼び出し、プライベートリソースやAWSサービスにアクセスできるようにします。
YouTube MCPサーバーは、標準化されたインターフェースの実装で、AI言語モデルがプロトコルを通じてYouTubeコンテンツとやり取りできるようにし、ビデオ情報の取得、字幕管理、チャンネルとプレイリストの管理などの機能を提供します。
MCP2LambdaはMCPサーバーで、コードを変更することなく、AWS Lambda関数を大規模言語モデル(LLM)のツールとして使用することができます。Model Context Protocol (MCP)を通じてAIモデルとLambda関数の間に橋渡しを行い、モデルがプライベートリソースにアクセスし、カスタム操作を実行できるようにします。
言語サーバープロトコル(LSP)とモデルコンテキストプロトコル(MCP)に基づく無インターフェースのコードエディタサービスで、言語インテリジェントサポートとAI支援によるコード操作機能を提供します。
AWSセキュリティMCPは、モデルコンテキストプロトコルに基づくサービスで、AIアシスタントが自然言語クエリを通じてAWSインフラストラクチャのセキュリティ問題を自主的にチェックして分析できます。IAM、EC2、S3などの複数のAWSセキュリティサービスをサポートし、セキュリティ提案と脅威モデリングレポートを提供します。
Revit MCP統合は、Autodesk RevitとAIアシスタントをつなぐ架け橋で、自然言語でモデルとの対話を実現します。
Kanboard MCPサーバーは、Go言語で開発されたモデルコンテキストプロトコルサーバーで、AIアシスタントとKanboardプロジェクト管理システムのシームレスな統合を実現し、自然言語コマンドでプロジェクト、タスク、ユーザー、ワークフローを管理できます。
Trellis MCPはAIアシスタントとTrellis 3D生成モデルをつなぐインターフェースサービスで、自然言語で迅速に3Dアセットを生成してBlenderにインポートできます。このプロジェクトはオープンソースモデルに基づいており、APIバックエンドを自分でデプロイする必要があり、高速で無料という特徴がありますが、安定性のリスクがあります。
メタAPI MCPサーバーは、多APIをサポートするゲートウェイサーバーで、Model Context Protocol (MCP)を通じて様々なAPIと大規模言語モデル(Claude、GPTなど)を接続し、AIアシスタントがAPIと直接やり取りし、実データソースにアクセスできるようにします。JSON設定ファイルまたはPostmanコレクションからのAPIの迅速な追加をサポートし、HTTPメソッドの完全なサポートと複数の認証方式を提供します。
MCPMonkeyはViolentmonkeyに基づくブラウザ拡張で、MCPプロトコルサーバーを統合することでAI言語モデルとブラウザの対話機能を実現し、タブ管理、ページスタイル抽出などのツールを含みます。
mcp2mqttは、MCPとMQTTプロトコルを通じて自然言語でハードウェアデバイスを制御する、IoTデバイスとAI大規模モデルをつなぐ架け橋プロジェクトです。
Node.jsとGemini APIに基づくAI研究アシスタントツールで、Firecrawlを通じてウェブデータを収集し、Gemini大規模モデルを利用して深い言語理解とレポート生成を行い、反復的な深層研究をサポートし、MCPプロトコルと統合できます。
CTXはコードリポジトリと大規模言語モデル(LLM)を接続するツールで、構造化されたコンテキストファイルを自動生成することで、AI開発におけるコードコンテキストの伝達効率が低い問題を解決します。コードファイル、Gitリポジトリ、ウェブページなどの複数のソースから情報を収集することができ、MCPサーバーを通じて直接AIアシスタントにプロジェクトコンテキストを提供することができます。
Tailpipe MCPサーバーはAI駆動のログ分析ツールで、モデルコンテキストプロトコルを通じてAIアシスタントとクラウド/SaaSログデータを接続し、自然言語によるクエリと分析をサポートし、セキュリティイベント調査、コストとパフォーマンスの洞察などの機能を提供します。
このプロジェクトは、LangGraphとMCPプロトコルに基づくリアルタイムのマルチツールエージェントアーキテクチャを示しています。エージェントの編成とツールの実行を分離することで、モジュール化された拡張可能なAIシステムを実現します。MCPサービスは複数の伝送プロトコル(SSE/STDIO)をサポートし、AIエージェントがリモートツールを動的に呼び出せるようにし、言語を超えたクラウドデプロイメントが可能です。
YouTube MCPサーバーは、YouTube動画から字幕を取得して抽出するツールで、AI言語モデルが動画コンテンツにアクセスして処理できるようにします。
MetaMask MCPは、大規模言語モデルがMetaMaskを通じてブロックチェーンとやり取りできるモデルコンテキストプロトコルサーバーです。秘密鍵はユーザーのウォレットに安全に保存され、AIエージェントと共有されません。
MCP - JaCoCoは、JaCoCoのコードカバレッジレポートを大規模言語モデル(LLM)に適した形式に変換するサービスツールで、AIによる分析をより効率的に行えるようにします。