ZenMuxプラットフォームは、Claude Opus4.6モデルを無料サブスクリプションに追加し、2週間の無料体験を提供します。このモデルは性能が大幅に向上し、大容量のコンテキスト処理をサポートしており、業界における重要な恩恵と見なされています。
アップルチームはオープンソースモデルを改良し、UIデザイン分野でトップクラスの大規模モデルを凌駕しました。従来のAIによるコード生成はUIデザインにおいては不十分であり、人間からのフィードバックに基づく強化学習が粗いものだったためです。アップルは細かい調整を行うことで、小規模なモデルが特定のタスクにおいて逆転を果たし、開発者たちが抱えていたインターフェース開発の悩みを解決しました。
OpenAIは企業向けプラットフォームFrontierを発表しました。このプラットフォームは、実際のタスクを遂行するAIインテリジェントエージェントを構築・配置・管理することを目的としており、AIが対話アシスタントから「デジタル同僚」への進化を推進します。このプラットフォームは、企業がAIを導入する際に一般的に発生するデータの孤立、権限の複雑さ、業務文脈の欠如などの課題を解決することを目指しており、大規模なモデルと業務アプリケーションの間の実装ギャップを埋めることを図っています。
AIスタートアップのFundamentalが隠密状態を終え、2億5500万ドルのAラウンド資金調達を発表しました。この資金調達後の評価額は12億ドルに達しました。今回の資金調達はOak HC/FTなどの複数の機関が主導し、PerplexityやDatadogのCEOも個人として参加しました。会社のコア製品である基礎モデル「Nexus」は、ChatGPTなど主流の大規模言語モデルと競合することを目的としています。
AIエージェント用のLLMルーターで、USDC支払いに対応し、割引と複数のモデル選択が可能です。
AI大規模モデルを比較?分析し、最も適したモデルを選ぶお手伝いをします。
EvoLinkを介した統合により、10 - 15秒の音画同期したリアルなビデオを生成し、AIビデオ制作規模を拡大します。
ワンストップの大規模なモデルAPI管理プラットフォームで、複数のAIモデルをサポートしています。
Xai
$1.4
入力トークン/百万
$3.5
出力トークン/百万
2k
コンテキスト長
Openai
-
Anthropic
$105
$525
200
Google
$0.7
$2.8
1k
$2.1
$17.5
$21
Alibaba
$6
$24
256
Bytedance
$1.2
$3.6
4
$2
Moonshot
$4
$16
$0.8
128
Baidu
32
Deepseek
$12
Tencent
$1
$0.4
$0.75
prithivMLmods
VibeThinker-1.5Bは微博AIが開発した15億パラメータの密集型言語モデルで、Qwen2.5-Math-1.5Bをベースに微調整され、数学やアルゴリズムコーディングの問題に特化して設計されています。「スペクトルから信号への原理」のフレームワークを用いてトレーニングされ、複数の数学コンテストのテストでより大規模なモデルを上回り、トレーニングコストは約7800ドルで、最大約40kトークンの出力をサポートします。
Mungert
PokeeResearch-7Bは、Pokee AIによって開発された70億パラメータの深度研究エージェントモデルです。AIフィードバック強化学習(RLAIF)と強力な推論フレームワークを組み合わせ、ツール強化型大規模言語モデルにおいて信頼性が高く、アライメントされ、拡張可能な研究レベルの推論を実現し、複雑な多段階研究ワークフローに適しています。
nineninesix
KaniTTSは、リアルタイム対話型AIアプリケーション向けに最適化された高速、高音質のテキスト音声変換モデルです。2段階パイプラインを用いて、大規模言語モデルと高効率オーディオコーデックを組み合わせ、卓越した速度とオーディオ品質を実現します。このモデルはスペイン語をサポートし、4億のパラメータを持ち、サンプリングレートは22kHzです。
KaniTTSは、リアルタイム対話型人工知能アプリケーション向けに最適化された高速かつ高忠実度のアラビア語テキスト音声変換モデルです。2段階パイプラインアーキテクチャを採用し、大規模言語モデルと効率的なオーディオコーデックを組み合わせることで、卓越した速度とオーディオ品質を実現し、対話型AI、障害者支援、研究など多くの分野の音声合成ニーズを満たすことができます。
KaniTTSは、リアルタイム対話型AIアプリケーション向けに最適化された高速かつ高忠実度のテキスト音声変換モデルです。独自の2段階アーキテクチャにより、大規模言語モデルと効率的な音声コーデックを組み合わせ、低遅延で高品質な音声合成を実現します。リアルタイムファクターは最低0.2で、リアルタイム速度の5倍の高速合成が可能です。
unsloth
ApertusはスイスのAIによって開発された完全にオープンな多言語大規模言語モデルで、70億と80億の2種類のパラメータ規模を提供します。このモデルは1000種類以上の言語をサポートし、完全にコンプライアンスでオープンな学習データを使用し、その性能はクローズドソースモデルに匹敵します。Apertusは15Tのトークンで事前学習され、段階的なコース学習方法を採用し、最大65,536トークンのコンテキスト長をサポートします。
redponike
ApertusはスイスのAIによって開発された完全にオープンな多言語大規模言語モデルで、パラメータ規模は80億と700億で、1000種以上の言語と長文脈処理をサポートし、完全にコンプライアンスの取れたオープンな学習データのみを使用し、性能はクローズドソースモデルに匹敵します。
GLM-4.6は智譜AIが開発した次世代の大規模言語モデルで、GLM-4.5と比較して、文脈処理、コーディング能力、推論性能の面で著しい向上が見られます。このモデルは200Kの文脈長をサポートし、複数の公開ベンチマークテストで優れた成績を収めており、特にコード生成、推論、エージェントタスクの分野で競争力を持っています。
KaniTTSは、リアルタイム対話型AIアプリケーション向けに最適化された高速かつ高忠実度のテキスト音声変換モデルです。2段階のパイプラインアーキテクチャを採用し、大規模言語モデルと効率的なオーディオコーデックを組み合わせることで、卓越した速度と音質を実現し、複数の言語をサポートし、エッジ/サーバーデプロイメントに適しています。
Sunbird
Sunflower-32BはSunbird AIによって開発された多言語大規模言語モデルで、ウガンダ地域の言語に特化して最適化されています。Qwen 3 - 32Bアーキテクチャに基づいて構築され、31種類のウガンダ言語と英語の翻訳およびテキスト生成タスクをサポートし、ウガンダ言語の翻訳精度で優れた結果を示しています。
Sunflower-14Bは、Sunbird AIによって開発された多言語大規模言語モデルで、ウガンダの言語に特化して設計されています。このモデルはQwen 3-14Bアーキテクチャに基づいて構築され、31種類のウガンダ語と英語の翻訳およびテキスト生成タスクをサポートし、複数の評価で優れた成績を収めています。
neuphonic
NeuTTS Airは世界初の即時音声クローン機能を備えた超リアルな端側テキスト読み上げ(TTS)言語モデルです。0.5Bパラメータの大規模言語モデルの骨格をベースに構築され、ローカルデバイスに自然な音声、リアルタイム性能、組み込みセキュリティ、話者クローン機能をもたらします。
NeuTTS Airは、即時音声クローニング機能を備えた世界初の超リアルなデバイス端テキスト音声変換モデルです。0.5Bパラメータの大規模言語モデルの骨格をベースに構築され、ローカルデバイス上で自然な音声生成、リアルタイム性能、話者クローニング機能を実現します。
geoffmunn
これはQwen/Qwen3-0.6B言語モデルのGGUF量子化バージョンで、6億のパラメータを持つコンパクトな大規模言語モデルで、低リソースデバイスでの超高速推論用に設計されています。llama.cpp、LM Studio、OpenWebUI、GPT4Allなどのフレームワークをサポートし、どこでもオフラインでプライベートAIを使用できます。
mradermacher
ConfTuner-MinistralはMistralアーキテクチャに基づく量子化大規模言語モデルで、信頼性の高いAIシナリオに特化して微調整され、テキスト生成と信頼度推定機能をサポートしています。このモデルは複数の量子化バージョンを提供し、異なるリソース制約環境に適しています。
NeuTTS Airは世界初の即時音声クローニング機能を備えた超リアルなデバイス端テキスト音声変換(TTS)言語モデルです。0.5Bの大規模言語モデルのバックボーンネットワークをベースに構築され、ローカルデバイスに自然な音声、リアルタイム性能、組み込みセキュリティ機能、話者クローニング機能をもたらします。
DevQuasar
本プロジェクトは、騰訊の混元-MT-7B大規模言語モデルの量子化バージョンを提供します。モデル圧縮技術を通じて計算と記憶の要件を削減し、知識をすべての人に利用可能にすることを目指し、高性能なAIモデルをより普及させ、使いやすくします。
LiquidAI
LFM2-Audio-1.5BはLiquid AIが提供する最初のエンドツーエンドの音声基礎モデルで、低遅延とリアルタイム対話に特化して設計されています。このモデルはわずか15億パラメータで、シームレスな対話インタラクションを実現し、パラメータ規模がはるかに大きいモデルと匹敵する能力を持っています。
ducklingcodehouse
これは、フィンランド語の歯科医学に特化した対話型AIアシスタントで、LoRAによる微調整を行った大規模言語モデルです。歯科相談の質問に対して、背景、評価、提案の3つの部分に分かれた構造化臨床回答を生成することができます。
cpatonn
GLM-4.5V-AWQ-4bitは、Zhipu AIの次世代フラッグシップテキスト基礎モデルに基づいて構築された量子化バージョンのマルチモーダルモデルで、AWQ-4bit量子化技術により最適化され、優れた性能を維持しながら計算リソースの必要量を大幅に削減します。このモデルは42の公開視覚言語ベンチマークテストで同規模のモデルのSOTA性能を達成し、強力な視覚推論能力を備えています。
HiveChatは中小チーム向けに設計されたAIチャットアプリで、複数の大規模モデルサービスプロバイダーをサポートし、グループ管理、トークン制限、サードパーティログインなどの機能を提供します。
Supabase MCPサーバーは、SupabaseプロジェクトとAIアシスタントを接続するツールです。Model Context Protocol(MCP)を通じて、大規模言語モデル(LLMs)と外部サービスのやり取りを標準化し、データベース管理、設定取得、データクエリなどの機能を実現します。
K8MはAI駆動の軽量級Kubernetesコンソールツールで、大規模モデルの能力を統合し、多クラスタ管理とMCPサービスをサポートします。
MCP2Lambdaは、AWS Lambda関数を大規模言語モデル(LLM)のツールとして実行するMCPプロトコルサーバーで、コードを変更することなくAIモデルがLambda関数を呼び出し、プライベートリソースやAWSサービスにアクセスできるようにします。
MCP2LambdaはMCPサーバーで、コードを変更することなく、AWS Lambda関数を大規模言語モデル(LLM)のツールとして使用することができます。Model Context Protocol (MCP)を通じてAIモデルとLambda関数の間に橋渡しを行い、モデルがプライベートリソースにアクセスし、カスタム操作を実行できるようにします。
mcp2mqttは、MCPとMQTTプロトコルを通じて自然言語でハードウェアデバイスを制御する、IoTデバイスとAI大規模モデルをつなぐ架け橋プロジェクトです。
Node.jsとGemini APIに基づくAI研究アシスタントツールで、Firecrawlを通じてウェブデータを収集し、Gemini大規模モデルを利用して深い言語理解とレポート生成を行い、反復的な深層研究をサポートし、MCPプロトコルと統合できます。
CTXはコードリポジトリと大規模言語モデル(LLM)を接続するツールで、構造化されたコンテキストファイルを自動生成することで、AI開発におけるコードコンテキストの伝達効率が低い問題を解決します。コードファイル、Gitリポジトリ、ウェブページなどの複数のソースから情報を収集することができ、MCPサーバーを通じて直接AIアシスタントにプロジェクトコンテキストを提供することができます。
Checkstyle MCP Serverは、大規模言語モデルとローカルのコード品質ツールを接続するミドルウェアで、Go、Java、Luaなどの言語のコードチェックとフォーマットをサポートし、プロジェクト設定管理とAI自己修正機能を提供します。
メタAPI MCPサーバーは、多APIをサポートするゲートウェイサーバーで、Model Context Protocol (MCP)を通じて様々なAPIと大規模言語モデル(Claude、GPTなど)を接続し、AIアシスタントがAPIと直接やり取りし、実データソースにアクセスできるようにします。JSON設定ファイルまたはPostmanコレクションからのAPIの迅速な追加をサポートし、HTTPメソッドの完全なサポートと複数の認証方式を提供します。
Qwen MCPツールは、モデルコンテキストプロトコルに基づくサーバーで、Qwen CLIとAIアシスタントを統合し、大規模コンテキストウィンドウ分析、ファイル処理、サンドボックス実行、複数モデルサポートなどの機能を提供します。
MCP - JaCoCoは、JaCoCoのコードカバレッジレポートを大規模言語モデル(LLM)に適した形式に変換するサービスツールで、AIによる分析をより効率的に行えるようにします。
高性能なバッチコード理解MCPツールキットで、Javaに最適化され、全景コンテキスト、構造マッピング、正確な位置特定機能を提供し、AIエージェントが大規模なコードベースを効率的に探索するのを支援します。
MetaMask MCPは、大規模言語モデルがMetaMaskを通じてブロックチェーンとやり取りできるモデルコンテキストプロトコルサーバーです。秘密鍵はユーザーのウォレットに安全に保存され、AIエージェントと共有されません。
飞书MCPサーバーの実装で、AI大規模モデルと飞书APIのやり取り能力を提供し、主に多维表格の操作をサポートします。
このプロジェクトは、GraphistryのGPU加速グラフ可視化プラットフォームとモデル制御プロトコル(MCP)を統合し、AIアシスタントや大規模言語モデルに高度なグラフ分析機能を提供し、複数のデータフォーマットとネットワーク分析機能をサポートします。
Codex MCPツールは、IDEまたはAIアシスタントをCodex CLIに接続するオープンソースのMCPサーバーで、非対話型自動化、安全なサンドボックス編集、大規模コード分析をサポートし、進捗のストリーミング更新と構造化変更モードを提供します。
Lookerctl は、LookML を大規模に管理および最適化するための包括的なコマンドラインツールです。ローカルでの高速検証、使用分析、依存関係マッピング、科学的なテスト、AI 統合などの機能を提供し、AI エージェントが使用できる MCP サーバーをサポートします。
Unified MCP Tool Graphは、研究に基づくプロジェクトで、異なるMCPサーバーからのツールAPIを集約し、構造化して集中型のNeo4jグラフデータベースに格納することで、大規模言語モデル(LLMs)とエージェントAIシステムに最も関連するツールを動的に検索するためのインテリジェントなインフラストラクチャ層を提供します。
Clockify MCPサービスはAIツールと統合されたサーバーで、Clockifyの時間記録を管理するために使用されます。ユーザーは大規模言語モデルにヒントを送信することで時間エントリを記録できます。