メタCEOザッカーバーグがAI事業化を直轄。新世代モデル「Avocado」は2026年春リリース予定で、APIとホスティングサービスのみ提供し、オープンソース化せず。GoogleやOpenAIなどの技術を統合し、先端性能を目指す。MetaはNVIDIAと50億ドルのH100契約を締結し、モデル訓練に専用。....
インテルがAIチップスタートアップSambaNova Systemsの買収を計画、非拘束性意向書を締結。取引詳細は非公開。SambaNovaはインテルCEOが取締役会長を務め、約11.4億ドルの資金調達を実施。....
腾讯は自社開発の大規模AIモデル「混元」を「Tencent HY」に改名し、バージョン2.0にアップグレード。グローバル市場への適応と国際ユーザーへのサービス向上を目的としたブランド戦略の一環。....
灵光AI助手がウェブ版をリリース。ブラウザから直接利用可能で、PCとモバイルのデータ同期を実現。中核機能は「灵光对话」と「灵光闪应用」で、自然言語によるアプリ生成をサポートし、デバイスを跨いだ編集・管理・共有が可能に。....
EU地域ですぐにレンタルできるプライベートでお得なGPUサーバー。様々な設定とAIテンプレートを提供します。
SideConvoはAIプラグインで、ウェブサイトの訪問者と自動的に交流し、コンバージョンを促進します。
Elsie AIは電商起業家をサポートし、時間を節約し、自動的にデータを分析し、成長に関するアドバイスを提供します。
リアルなAIアバターでビジネスインタラクションを革新し、24時間体制の仮想代表がビジネスの成長をサポートします。
Google
$0.49
入力トークン/百万
$2.1
出力トークン/百万
1k
コンテキスト長
Openai
$2.8
$11.2
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$1
$10
256
Baidu
128
$6
$24
$2
$20
$4
$16
bartowski
これはai-sageのGigaChat3-10B-A1.8Bモデルを定量処理したバージョンで、llama.cppのimatrix定量技術を採用し、さまざまなハードウェア条件下でより効率的に動作します。モデルはロシア語と英語をサポートし、主にテキスト生成タスクに使用されます。
ubergarm
これはai-sage/GigaChat3-10B-A1.8B-bf16モデルのGGUF量子化バージョンで、高精度のQ8_0から極度に圧縮されたsmol-IQ1_KTまで、さまざまな量子化オプションを提供し、さまざまなハードウェア条件でのデプロイメントニーズを満たします。このモデルは32Kのコンテキスト長をサポートし、MLAアーキテクチャを採用し、対話シナリオに最適化されています。
evilfreelancer
これはai - sage/GigaChat3-10B-A1.8Bモデルの量子化バージョンで、GGUF形式を採用し、特定のllama.cppブランチのサポートが必要です。モデルは混合専門家アーキテクチャを採用し、総パラメータ数は約118億で、そのうち活性化パラメータ数は約18億です。
allenai
Olmo 3は、Allen Institute for AI (Ai2)によって開発された全く新しい32Bパラメータの言語モデルファミリーで、Base、Instruct、Thinkなどのバリエーションが含まれています。このモデルはDolma 3データセットを基に訓練され、65,536の長文脈処理をサポートし、言語モデル科学の発展を推進することを目的としています。モデルは完全にオープンソースで、Apache 2.0ライセンスに従っています。
TheStageAI
TheWhisper-Large-V3-Turboは、OpenAI Whisper Large V3モデルの高性能ファインチューニング版で、TheStage AIによって多プラットフォームのリアルタイム、低遅延、低消費電力の音声テキスト変換推論に最適化されています。ストリーミング文字起こし、単語のタイムスタンプ、拡張可能なパフォーマンスをサポートし、リアルタイム字幕、会議、デバイス端末の音声インターフェイスなどのシーンに適しています。
LiquidAI
LFM2-VL-3BはLiquid AIが開発したマルチモーダル視覚言語モデルで、LFM2バックボーンアーキテクチャに基づいて構築されており、強力な視覚理解と推論能力を備えており、特に細粒度な感知タスクで優れた性能を発揮します。このモデルは、テキストと画像の入力を効率的に処理することができ、最大512×512解像度の原生画像処理をサポートしています。
noctrex
これは慧慧AIモデルHuihui-MoE-60B-A3B-abliteratedのMXFP4_MOE量子化バージョンで、テキスト生成をサポートします。この量子化バージョンは特定の基礎モデルに基づいて処理され、モデルのパフォーマンスと使用体験をある程度最適化することができます。
ethicalabs
xLSTM-7b-Instructは、NX - AI/xLSTM-7bに基づく実験的な微調整バージョンで、指令遵守タスクに特化して最適化されています。このモデルにはチャットテンプレートのサポートが追加され、TRLを使用して教師付き微調整トレーニングが行われ、より良い会話体験を提供することを目的としています。
nvidia
NVIDIA GPT-OSS-120B Eagle3は、OpenAIのgpt-oss-120bモデルをベースに最適化されたバージョンで、ハイブリッドエキスパート(MoE)アーキテクチャを採用し、総パラメータ数が1200億、アクティブなパラメータ数が50億です。このモデルは商用および非商用の使用をサポートし、テキスト生成タスクに適しており、特にAIエージェントシステムやチャットボットなどのアプリケーション開発に適しています。
nineninesix
KaniTTSは、リアルタイム対話型AIアプリケーション向けに最適化された高速かつ高忠実度のテキスト音声変換モデルです。2段階のパイプラインアーキテクチャを採用し、大規模言語モデルと効率的なオーディオコーデックを組み合わせることで、卓越した速度と音質を実現し、複数の言語をサポートし、エッジ/サーバーデプロイメントに適しています。
Mungert
LFM2はLiquid AIによって開発された次世代のハイブリッドモデルで、エッジAIとデバイス端末のデプロイメントに特化して設計されており、品質、速度、メモリ効率の面で新しい基準を確立しています。このモデルは革新的なハイブリッドLiquidアーキテクチャを採用し、乗算ゲートと短い畳み込みを備えており、多言語処理をサポートしています。
geoffmunn
これはQwen/Qwen3-0.6B言語モデルのGGUF量子化バージョンで、6億のパラメータを持つコンパクトな大規模言語モデルで、低リソースデバイスでの超高速推論用に設計されています。llama.cpp、LM Studio、OpenWebUI、GPT4Allなどのフレームワークをサポートし、どこでもオフラインでプライベートAIを使用できます。
mradermacher
ConfTuner-MinistralはMistralアーキテクチャに基づく量子化大規模言語モデルで、信頼性の高いAIシナリオに特化して微調整され、テキスト生成と信頼度推定機能をサポートしています。このモデルは複数の量子化バージョンを提供し、異なるリソース制約環境に適しています。
これは liushiliushi/ConfTuner-Ministral モデルの静的量子化バージョンで、テキスト生成と信頼度推定タスクに適しています。このモデルはMistralアーキテクチャに基づいており、信頼できるAI出力を提供するように微調整されており、さまざまな量子化レベルをサポートして異なるハードウェア要件を満たします。
Olmo 3は、Allen Institute for AIによって開発された全く新しい7Bパラメータの言語モデルシリーズで、Transformerアーキテクチャに基づき、Dolma 3データセットで訓練され、言語モデル科学の発展を推進することを目的としています。モデルはBase、Instruct、Thinkなどの複数のバリエーションを提供し、最大65,536の文脈長をサポートします。
NVIDIA Qwen2.5-VL-7B-Instruct-FP4は、アリババのQwen2.5-VL-7B-Instructモデルの量子化バージョンで、最適化されたTransformerアーキテクチャを採用し、マルチモーダル入力(テキストと画像)をサポートし、さまざまなAIアプリケーションシナリオに適しています。このモデルはTensorRT Model Optimizerを使用してFP4量子化され、NVIDIA GPU上で効率的な推論性能を提供します。
NVIDIA Qwen3-32B FP4モデルは、アリババクラウドのQwen3-32Bモデルの量子化バージョンで、最適化されたTransformerアーキテクチャを使用し、重みと活性化をFP4データ型に量子化することで、効率的な推論を実現します。このモデルは、商用および非商用用途をサポートし、さまざまなAIアプリケーションシナリオに適しています。
これはNVIDIAがアリババのQwen3-14BモデルをFP8で量子化したバージョンで、最適化されたTransformerアーキテクチャを採用し、131Kのコンテキスト長をサポートし、さまざまなAIアプリケーションシナリオに適しています。
NVIDIA Qwen3-14B FP4モデルは、アリババのQwen3-14Bモデルの量子化バージョンで、FP4データ型を用いて最適化され、TensorRT-LLMによる効率的な推論が可能です。このモデルはNVIDIA GPU加速システム向けに設計されており、AIエージェントシステム、チャットボット、RAGシステムなどの様々なAIアプリケーションシーンに適しており、世界中での商用および非商用利用がサポートされています。
anikifoss
これはMoonshot AIのKimi-K2-Instruct-0905モデルの高品質量子化バージョンで、HQ4_K量子化方法を採用し、推論性能を特別に最適化し、75000のコンテキスト長をサポートし、テキスト生成タスクに適しています。
wcgwはMCPサーバープロジェクトで、シェルとコードエディターツールが統合されており、AIがローカルマシン上でコマンドを実行し、ファイルを読み書きし、コードを編集するなどの操作ができます。アーキテクトモード、コード作成モードなどの複数のモードを提供し、タスクチェックポイント保存、ターミナル対話、構文チェックなどの機能をサポートしており、コード開発、問題解決などのシーンに適しています。
Refact AgentはオープンソースのAIプログラミングアシスタントで、多言語のコード生成、デバッグ、最適化をサポートし、主流の開発ツールと統合し、ローカルにデプロイでき、スマートなコード補完とコード解釈機能を提供します。
PG - MCPは、PostgreSQLデータベース用に設計されたモデルコンテキストプロトコルサーバーです。AIエージェントがデータベースを発見、接続、クエリ、および理解するためのAPIを提供し、複数のデータベース接続、豊富なディレクトリ情報、およびクエリ実行計画分析機能をサポートします。
HiveChatは中小チーム向けに設計されたAIチャットアプリで、複数の大規模モデルサービスプロバイダーをサポートし、グループ管理、トークン制限、サードパーティログインなどの機能を提供します。
BrowserTools MCPは強力なブラウザ監視と相互作用ツールで、Chrome拡張機能とローカルサーバーを通じてAIによるブラウザのスマートな分析と操作を実現します。
Zen MCPは多モデルAI協調開発サーバーで、ClaudeやGemini CLIなどのAIコーディングアシスタントに強化されたワークフローツールとモデル間のコンテキスト管理を提供します。これは複数のAIモデルのシームレスな協調をサポートし、コードレビュー、デバッグ、リファクタリングなどの開発タスクを実現し、異なるワークフロー間で会話のコンテキストを維持することができます。
Sail は、ストリーム処理、バッチ処理、および計算集約型(AI)ワークロードを統一することを目的としたプロジェクトで、Spark SQL と Spark DataFrame API の代替手段を提供し、シングルマシンと分散環境の両方をサポートします。
MCPプロトコルに基づくAI駆動のブラウザ自動化サーバーで、自然言語によるウェブページ操作と深度ウェブ調査をサポートします。
OpenDiaはオープンソースのブラウザ拡張ツールで、AIモデルが直接ユーザーのブラウザを制御でき、既存のログイン状態、ブックマークなどのデータを利用して自動化操作を行います。複数のブラウザとAIモデルをサポートし、プライバシー保護に配慮しています。
AWS MCPサーバーは、Model Context Protocolに基づく専用サーバーのセットであり、ドキュメント検索、知識ベース照会、CDKのベストプラクティス、コスト分析、画像生成など、さまざまなAWS関連機能を提供します。標準化されたプロトコルを通じてAIアプリケーションとAWSサービスの統合を強化することを目的としています。
XcodeBuild MCPは、AIアシスタントとMCPクライアントにXcode関連のツールを統合するサーバーで、Xcodeプロジェクト管理、シミュレーター制御、アプリユーティリティなどの機能をサポートし、開発プロセスの自動化を実現します。
hyper - mcpはWebAssemblyプラグインに基づく高性能MCPサーバーで、コンテナレジストリを通じたプラグイン配布をサポートし、さまざまなAIアプリケーションシーンに適しています。
MCP Unityは、Model Context Protocolを実装したUnityエディター拡張機能で、AIアシスタントがUnityプロジェクトとやり取りできるようにし、UnityとNode.jsサーバーの間の橋渡しを提供します。
MCPアトラシアンは、アトラシアンの製品(ConfluenceとJira)用に設計されたモデルコンテキストプロトコルサーバーで、クラウドとオンプレミスの両方のデプロイをサポートし、AIアシスタントの統合機能を提供します。
Supabase MCPサーバーは、SupabaseプロジェクトとAIアシスタントを接続するツールです。Model Context Protocol(MCP)を通じて、大規模言語モデル(LLMs)と外部サービスのやり取りを標準化し、データベース管理、設定取得、データクエリなどの機能を実現します。
Exa MCP Serverは、AIアシスタント(Claudeなど)にウェブ検索機能を提供するサーバーで、Exa AI検索APIを通じてリアルタイムで安全にウェブ情報を取得できます。
AIワークフローにshadcn/uiコンポーネントの統合を提供するMCPサーバーで、React、Svelte、Vueフレームワークをサポートし、コンポーネントのソースコード、使用例、メタデータへのアクセス機能を備えています。
Browser MCPはMCPサーバーとChrome拡張機能の組み合わせで、AIアプリケーション(VS Code、Claudeなど)を通じてブラウザの自動操作を実現し、高速、プライバシー保護、ログイン状態の維持、検出回避などの特徴を備えています。
Microsoft公式のMCPサーバーで、AIアシスタントに最新のMicrosoft技術ドキュメントの検索と取得機能を提供します。
MCP Unityは、Model Context Protocolを実装したUnityエディター拡張で、Node.jsサーバーを通じてAIアシスタントとUnityプロジェクトのインタラクションを橋渡しし、メニュー実行、オブジェクト選択、コンポーネント更新などの機能を提供します。