小米は7Bパラメータのマルチモーダルモデル「Xiaomi-MiMo-VL-Miloco-7B-GGUF」とスマートホームマネージャー「Xiaomi Miloco」を発表。米家カメラによるリアルタイムの行動・ジェスチャー認識でスマート家電を自動連携。Home Assistant対応、NVIDIA GPU/Dockerで商用利用不可のオープンソースとして提供。....
AIプログラミングアシスタントCursorが23億ドル調達、評価額は99億ドルから293億ドルへ約2倍増。AccelとCoatueが主導し、NVIDIAやGoogleなどが参加。資金は10月発表の自社モデル「Composer」開発に投入。....
AIプログラミングツールCursorのAnysphereが23億ドルのDラウンド資金調達を完了。投後評価額は293億ドルに。CoatueとAccelが主導し、NVIDIAとGoogleが新たな投資家として参加。技術エコシステムの強化とAIプログラミング分野でのリーダーシップ確立を目指す。....
マイクロソフトCEOナデラ氏は、OpenAIのAIチップ開発成果を活用し、自社AIチップ開発を加速すると発表。NVIDIA依存低減と全栈AIインフラ構築を目指す現実的な戦略を示した。....
高品質の英語自動音声認識モデルで、句読点とタイムスタンプの予測をサポートしています。
NVIDIA GeForce RTX 5070 Tiグラフィックカードは、Blackwellアーキテクチャを採用し、DLSS 4テクノロジーに対応しており、ゲームと創作に強力なパフォーマンスを提供します。
PDFを音声コンテンツに変換し、パーソナライズされたAI音声ブックを作成します。
NVIDIA? GeForce RTX? 5090は、これまでにないほどパワフルなGeForce GPUであり、ゲーマーとクリエイターに革新的な能力をもたらします。
nvidia
-
入力トークン/百万
出力トークン/百万
128k
コンテキスト長
samwell
NV-Reason-CXR-3B GGUFはNVIDIA NV-Reason-CXR-3Bビジュアル言語モデルの量子化バージョンで、エッジデバイスへのデプロイに最適化されています。これは30億パラメータのモデルで、胸部X線分析に特化しており、GGUF形式に変換され、量子化処理が施されているため、モバイルデバイス、デスクトップデバイス、組み込みシステムで効率的に動作します。
bartowski
これはNVIDIAのQwen3-Nemotron-32B-RLBFF大規模言語モデルのGGUF量子化バージョンで、llama.cppツールを使用して様々な精度で量子化され、BF16からIQ2_XXSまで20種類以上の量子化オプションを提供し、さまざまなハードウェア構成とパフォーマンス要件に対応しています。
QuantStack
これはNVIDIA ChronoEdit-14B-DiffusersモデルのGGUF量子化バージョンで、画像から動画への変換タスクに特化しています。このモデルは元のモデルのすべての機能を保持し、同時にGGUF形式によってデプロイと実行効率を最適化しています。
Qwen
Qwen3-VL-2B-ThinkingはQwenシリーズの中で最も強力なビジュアル言語モデルの1つで、GGUF形式の重みを使用し、CPU、NVIDIA GPU、Apple Siliconなどのデバイスで効率的な推論をサポートします。このモデルは、優れたマルチモーダル理解と推論能力を備え、特にビジュアル感知、空間理解、エージェントインタラクション機能が強化されています。
TheStageAI
TheWhisper-Large-V3はOpenAI Whisper Large V3モデルの高性能ファインチューニング版で、TheStage AIによって多プラットフォーム(NVIDIA GPUとApple Silicon)のリアルタイム、低遅延、低消費電力の音声テキスト変換推論用に最適化されています。
NVIDIA-Nemotron-Nano-VL-12B-V2-FP4-QADはNVIDIAが開発した自己回帰型ビジュアル言語モデルで、最適化されたTransformerアーキテクチャに基づいており、画像とテキストの入力を同時に処理することができます。このモデルはFP4量子化技術を採用しており、性能を維持しながらモデルサイズと推論コストを大幅に削減し、さまざまなマルチモーダルアプリケーションシナリオに適しています。
NVIDIA-Nemotron-Nano-VL-12B-V2-FP8はNVIDIAが開発した量子化視覚言語モデルで、最適化されたTransformerアーキテクチャを採用し、商用画像で三段階のトレーニングを行っています。このモデルは単一画像の推論をサポートし、多言語およびマルチモーダル処理能力を備えており、画像要約、テキスト画像分析などの様々なシーンに適用できます。
BR-RMは革新的な2ラウンド推論報酬モデルで、適応的分岐と分岐に基づく反省メカニズムにより、従来の報酬モデルにおける「判断拡散」の問題を解決し、複数の報酬モデリングベンチマークテストで業界をリードする性能を達成しました。
NVIDIA Nemotron Nano v2 12B VLは強力なマルチモーダルビジュアル言語モデルで、多画像推論と動画理解をサポートし、文書インテリジェンス、ビジュアル質問応答、要約機能を備え、商用に使用できます。
Tacoin
これはTacoinがNVIDIA GR00Tモデルをベースに、LIBERO libero longベンチマークテストで微調整したロボット操作モデルです。このモデルはデュアルRGBストリームと8自由度の状態入力を採用し、16ステップの関節空間動作を予測でき、長期的な視野のロボット操作タスクに特化しています。
Llama Nemotron Reranking 1BはNVIDIAが開発した、テキスト検索の再ランキングに特化したモデルです。Llama-3.2-1Bアーキテクチャをベースに微調整されており、クエリと文書のペアに対して関連性の対数スコアを提供し、多言語と長文書の処理をサポートします。
Llama Nemotron Embedding 1Bモデルは、NVIDIAが開発した、多言語およびクロス言語のテキスト質問応答検索に最適化された埋め込みモデルです。26言語をサポートし、最大8192トークンの文書を処理でき、動的な埋め込みサイズによりデータストレージの占有を大幅に削減できます。
Qwen3-Nemotron-32B-RLBFFはQwen/Qwen3-32Bをベースに微調整された大規模言語モデルで、強化学習フィードバック技術により、デフォルトの思考パターンでの応答生成品質を大幅に向上させています。このモデルは複数のベンチマークテストで優れた性能を発揮し、低い推論コストを維持しています。
NVIDIA GPT-OSS-120B Eagle3は、OpenAIのgpt-oss-120bモデルをベースに最適化されたバージョンで、ハイブリッドエキスパート(MoE)アーキテクチャを採用し、総パラメータ数が1200億、アクティブなパラメータ数が50億です。このモデルは商用および非商用の使用をサポートし、テキスト生成タスクに適しており、特にAIエージェントシステムやチャットボットなどのアプリケーション開発に適しています。
RedHatAI
これはNVIDIA-Nemotron-Nano-9B-v2モデルのFP8動的量子化バージョンで、重みと活性化をFP8データ型に量子化することで最適化を実現し、ディスクサイズとGPUメモリ要件を約50%削減し、同時に優れたテキスト生成性能を維持します。
nineninesix
KaniTTSは高速で高忠実度のテキスト音声変換モデルで、リアルタイム対話型人工知能アプリケーション向けに最適化されています。このモデルは2段階の処理フローを採用し、大規模言語モデルと効率的なオーディオコーデックを組み合わせています。Nvidia RTX 5080で15秒の音声を生成する際の遅延は約1秒だけで、MOS自然度評価は4.3/5で、英語、中国語、日本語などの多言語をサポートしています。
mlx-community
これはNVIDIA Nemotronアーキテクチャに基づく49Bパラメータの大規模言語モデルで、MLX形式に変換され、4ビット量子化が行われており、Apple Siliconチップ用に特別に最適化され、効率的なテキスト生成能力を提供します。
unsloth
NVIDIA Nemotron Nano 9B v2 は NVIDIA が開発した高性能な大規模言語モデルで、Mamba2-Transformer 混合アーキテクチャを採用し、多言語推論とチャットタスクをサポートし、複数のベンチマークテストで優れた性能を発揮し、特に実行時の「思考」予算管理機能をサポートしています。
NVIDIA Qwen3-32B FP4モデルは、アリババクラウドのQwen3-32Bモデルの量子化バージョンで、最適化されたTransformerアーキテクチャを使用し、重みと活性化をFP4データ型に量子化することで、効率的な推論を実現します。このモデルは、商用および非商用用途をサポートし、さまざまなAIアプリケーションシナリオに適しています。
NVIDIA Qwen3-14B FP4モデルは、アリババのQwen3-14Bモデルの量子化バージョンで、FP4データ型を用いて最適化され、TensorRT-LLMによる効率的な推論が可能です。このモデルはNVIDIA GPU加速システム向けに設計されており、AIエージェントシステム、チャットボット、RAGシステムなどの様々なAIアプリケーションシーンに適しており、世界中での商用および非商用利用がサポートされています。
Isaac Sim MCP拡張機能は、自然言語でNVIDIA Isaac Simを制御し、ロボットシミュレーション、シーン作成、動的なインタラクションを実現し、MCPエコシステムと具現化されたインテリジェントアプリケーションを接続します。
NVIDIA USDCode APIに基づくMCPサーバーで、Isaac Simのスクリプト作成、USD操作、Pythonコードスニペット、APIの使用方法に関するAIアシスタントツールを提供します。
Brev MCPサーバーの実装で、Brev CLIのAPIアクセストークンと現在の組織設定を使用し、迅速な起動と開発デバッグをサポートします。
FastMCPライブラリに基づくMCPサーバープロジェクトで、ネットワーククライアントを通じて自然言語でNvidia Jetson開発ボードを監視およびリモート制御します。
JetsonMCPはMCPサーバーで、SSH接続を通じてAIアシスタントがNVIDIA Jetson Nanoエッジコンピューティングシステムを管理および最適化するのを支援し、AIワークロードのデプロイ、ハードウェアの最適化、システム管理機能を提供します。
JetsonMCPは、SSH接続を通じてNVIDIA Jetson Nanoエッジコンピューティングデバイスを管理するMCPサーバーで、AIワークロード最適化、ハードウェア構成、システム管理機能を提供し、自然言語命令を専門的な操作コマンドに変換します。