OpenAIがAWSと3800億ドル・7年間の契約を締結。数十万台のNVIDIA GPUを活用し、AIインフラを強化。従来のクラウドサービスを超える戦略的提携。....
NVIDIAとドイツテレコムが10億ユーロを投じ、2026年Q1にドイツで欧州最大級のデータセンターを稼働。欧州のAIインフラ強化と米中への競争力向上を目指す。....
マイクロソフトAzure ND GB300v6仮想マシンがLlama270Bモデルで110万トークン/秒の推論速度を達成。NVIDIA GB300NVL72システム(72個Blackwell Ultra GPU+36個Grace CPU)を採用し、大規模AI処理における技術力を示した。....
現代自動車とNVIDIAは協力関係を深化させ、Blackwellアーキテクチャに基づくAI工場を共同で建設しています。両社はCESで自律走行やスマート工場、ロボット技術の開発プロジェクトを発表し、韓国政府の支援を受け、2025年のAPEC韓国会議で詳細を説明する予定です。
NVIDIA GeForce RTX 5070 Tiグラフィックカードは、Blackwellアーキテクチャを採用し、DLSS 4テクノロジーに対応しており、ゲームと創作に強力なパフォーマンスを提供します。
PDFを音声コンテンツに変換し、パーソナライズされたAI音声ブックを作成します。
NVIDIA? GeForce RTX? 5090は、これまでにないほどパワフルなGeForce GPUであり、ゲーマーとクリエイターに革新的な能力をもたらします。
NVIDIA-Ingestは、ドキュメントの内容とメタデータ抽出を行うマイクロサービスです。
nvidia
-
入力トークン/百万
出力トークン/百万
128k
コンテキスト長
bartowski
これはNVIDIAのQwen3-Nemotron-32B-RLBFF大規模言語モデルのGGUF量子化バージョンで、llama.cppツールを使用して様々な精度で量子化され、BF16からIQ2_XXSまで20種類以上の量子化オプションを提供し、さまざまなハードウェア構成とパフォーマンス要件に対応しています。
QuantStack
これはNVIDIA ChronoEdit-14B-DiffusersモデルのGGUF量子化バージョンで、画像から動画への変換タスクに特化しています。このモデルは元のモデルのすべての機能を保持し、同時にGGUF形式によってデプロイと実行効率を最適化しています。
Qwen
Qwen3-VL-2B-ThinkingはQwenシリーズの中で最も強力なビジュアル言語モデルの1つで、GGUF形式の重みを使用し、CPU、NVIDIA GPU、Apple Siliconなどのデバイスで効率的な推論をサポートします。このモデルは、優れたマルチモーダル理解と推論能力を備え、特にビジュアル感知、空間理解、エージェントインタラクション機能が強化されています。
TheStageAI
TheWhisper-Large-V3はOpenAI Whisper Large V3モデルの高性能ファインチューニング版で、TheStage AIによって多プラットフォーム(NVIDIA GPUとApple Silicon)のリアルタイム、低遅延、低消費電力の音声テキスト変換推論用に最適化されています。
NVIDIA-Nemotron-Nano-VL-12B-V2-FP4-QADはNVIDIAが開発した自己回帰型ビジュアル言語モデルで、最適化されたTransformerアーキテクチャに基づいており、画像とテキストの入力を同時に処理することができます。このモデルはFP4量子化技術を採用しており、性能を維持しながらモデルサイズと推論コストを大幅に削減し、さまざまなマルチモーダルアプリケーションシナリオに適しています。
NVIDIA-Nemotron-Nano-VL-12B-V2-FP8はNVIDIAが開発した量子化視覚言語モデルで、最適化されたTransformerアーキテクチャを採用し、商用画像で三段階のトレーニングを行っています。このモデルは単一画像の推論をサポートし、多言語およびマルチモーダル処理能力を備えており、画像要約、テキスト画像分析などの様々なシーンに適用できます。
BR-RMは革新的な2ラウンド推論報酬モデルで、適応的分岐と分岐に基づく反省メカニズムにより、従来の報酬モデルにおける「判断拡散」の問題を解決し、複数の報酬モデリングベンチマークテストで業界をリードする性能を達成しました。
NVIDIA Nemotron Nano v2 12B VLは強力なマルチモーダルビジュアル言語モデルで、多画像推論と動画理解をサポートし、文書インテリジェンス、ビジュアル質問応答、要約機能を備え、商用に使用できます。
Tacoin
これはTacoinがNVIDIA GR00Tモデルをベースに、LIBERO libero longベンチマークテストで微調整したロボット操作モデルです。このモデルはデュアルRGBストリームと8自由度の状態入力を採用し、16ステップの関節空間動作を予測でき、長期的な視野のロボット操作タスクに特化しています。
Qwen3-Nemotron-32B-RLBFFはQwen/Qwen3-32Bをベースに微調整された大規模言語モデルで、強化学習フィードバック技術により、デフォルトの思考パターンでの応答生成品質を大幅に向上させています。このモデルは複数のベンチマークテストで優れた性能を発揮し、低い推論コストを維持しています。
NVIDIA GPT-OSS-120B Eagle3は、OpenAIのgpt-oss-120bモデルをベースに最適化されたバージョンで、ハイブリッドエキスパート(MoE)アーキテクチャを採用し、総パラメータ数が1200億、アクティブなパラメータ数が50億です。このモデルは商用および非商用の使用をサポートし、テキスト生成タスクに適しており、特にAIエージェントシステムやチャットボットなどのアプリケーション開発に適しています。
RedHatAI
これはNVIDIA-Nemotron-Nano-9B-v2モデルのFP8動的量子化バージョンで、重みと活性化をFP8データ型に量子化することで最適化を実現し、ディスクサイズとGPUメモリ要件を約50%削減し、同時に優れたテキスト生成性能を維持します。
nineninesix
KaniTTSは高速で高忠実度のテキスト音声変換モデルで、リアルタイム対話型人工知能アプリケーション向けに最適化されています。このモデルは2段階の処理フローを採用し、大規模言語モデルと効率的なオーディオコーデックを組み合わせています。Nvidia RTX 5080で15秒の音声を生成する際の遅延は約1秒だけで、MOS自然度評価は4.3/5で、英語、中国語、日本語などの多言語をサポートしています。
mlx-community
これはNVIDIA Nemotronアーキテクチャに基づく49Bパラメータの大規模言語モデルで、MLX形式に変換され、4ビット量子化が行われており、Apple Siliconチップ用に特別に最適化され、効率的なテキスト生成能力を提供します。
unsloth
NVIDIA Nemotron Nano 9B v2 は NVIDIA が開発した高性能な大規模言語モデルで、Mamba2-Transformer 混合アーキテクチャを採用し、多言語推論とチャットタスクをサポートし、複数のベンチマークテストで優れた性能を発揮し、特に実行時の「思考」予算管理機能をサポートしています。
NVIDIA Qwen3-32B FP4モデルは、アリババクラウドのQwen3-32Bモデルの量子化バージョンで、最適化されたTransformerアーキテクチャを使用し、重みと活性化をFP4データ型に量子化することで、効率的な推論を実現します。このモデルは、商用および非商用用途をサポートし、さまざまなAIアプリケーションシナリオに適しています。
NVIDIA Qwen3-14B FP4モデルは、アリババのQwen3-14Bモデルの量子化バージョンで、FP4データ型を用いて最適化され、TensorRT-LLMによる効率的な推論が可能です。このモデルはNVIDIA GPU加速システム向けに設計されており、AIエージェントシステム、チャットボット、RAGシステムなどの様々なAIアプリケーションシーンに適しており、世界中での商用および非商用利用がサポートされています。
Mungert
NVIDIA Nemotron Nano 12B v2はNVIDIAによって開発された大規模言語モデルで、Mamba2-Transformer混合アーキテクチャを採用し、120億のパラメータを持っています。このモデルは多言語処理をサポートし、複数のベンチマークテストで優れた成績を収めており、特に推論タスクに長けており、実行時の推論予算制御をサポートしています。
cpatonn
NVIDIA Nemotron Nano 12B v2は、NVIDIAによって最初から訓練された大規模言語モデルで、推論および非推論タスク用に設計されています。混合Mamba2-Transformerアーキテクチャを採用し、多言語に対応し、制御可能な推論能力を備えており、ユーザーの要求に応じて推論過程を生成するか、直接答えを提供することができます。
NVIDIA-Nemotron-Nano-9B-v2はNVIDIAが新たに訓練した大規模言語モデルで、推論タスクと非推論タスクの両方に対応した統一モデルです。このモデルはMamba2-Transformer混合アーキテクチャを採用し、多言語に対応し、制御可能な推論能力を備えています。ユーザーはシステムプロンプトを通じてモデルの推論プロセスを制御できます。このモデルは複数のベンチマークテストで優れた成績を収め、すでに商用可能です。
Isaac Sim MCP拡張機能は、自然言語でNVIDIA Isaac Simを制御し、ロボットシミュレーション、シーン作成、動的なインタラクションを実現し、MCPエコシステムと具現化されたインテリジェントアプリケーションを接続します。
Brev MCPサーバーの実装で、Brev CLIのAPIアクセストークンと現在の組織設定を使用し、迅速な起動と開発デバッグをサポートします。
NVIDIA USDCode APIに基づくMCPサーバーで、Isaac Simのスクリプト作成、USD操作、Pythonコードスニペット、APIの使用方法に関するAIアシスタントツールを提供します。
FastMCPライブラリに基づくMCPサーバープロジェクトで、ネットワーククライアントを通じて自然言語でNvidia Jetson開発ボードを監視およびリモート制御します。
JetsonMCPはMCPサーバーで、SSH接続を通じてAIアシスタントがNVIDIA Jetson Nanoエッジコンピューティングシステムを管理および最適化するのを支援し、AIワークロードのデプロイ、ハードウェアの最適化、システム管理機能を提供します。
JetsonMCPは、SSH接続を通じてNVIDIA Jetson Nanoエッジコンピューティングデバイスを管理するMCPサーバーで、AIワークロード最適化、ハードウェア構成、システム管理機能を提供し、自然言語命令を専門的な操作コマンドに変換します。