李飛飛チームがRTFMモデルを発表。単一H100 GPUで持続的・3D整合性を維持し、反射・陰影効果を実現。3D世界のリアルタイム生成と相互作用を可能にし、技術の実用化を推進。....
CohereがCommand A Reasoningモデルを発表。高難度のビジネス推論タスク向けで、エージェントワークフローや大規模ドキュメント分析に優れ、BFCL-v3などで他モデルを上回る性能。H100/A100 GPU対応。....
8月15日、宇樹科技の人型ロボットH1が人型ロボット競技大会で1500m金メダルを獲得。春節祭にも出演した同社初のヒューマノイドロボットで、2023年モデル。....
Metaは2026年に世界初の1GW超スーパーコンピュータ「Prometheus」を導入予定。130万個のNVIDIA H100 GPUを搭載し、算力は2exaflops超。さらに5GW規模の「Hyperion」クラスターも計画中。2025年までに600-650億ドルをAIインフラに投資し、OpenAIなどとの競争に対抗。大規模AI訓練とメタバース開発の競争力強化を図る。....
B200、H200、RTX4090、H100などさまざまなモデルを含む高性能GPUのレンタルサービスを提供しています。即時配信、明確な価格設定。
Apple Vision Proを用いた人型ロボットUnitree H1_2の遠隔操作を実現します。
nvidia
-
入力トークン/百万
出力トークン/百万
128k
コンテキスト長
FastVideo
FastVideoチームが開発した画像を動画に変換するモデルで、CausalWan2.2 I2V A14Bシリーズに属し、8ステップ推論をサポートし、H100から4090までのさまざまなGPUに対応し、Macユーザーも使用できます。
pytorch
これはPyTorchチームがtorchaoを使用して量子化したQwen3-8Bモデルで、int4の重みのみの量子化とAWQアルゴリズムを採用しています。このモデルはH100 GPU上で53%のVRAM使用量を削減し、1.34倍の高速化を実現し、mmlu_abstract_algebraタスクに特化したキャリブレーション最適化が行われています。
jet-ai
Jet-Nemotron-4BはNVIDIAが開発した高効率混合アーキテクチャの言語モデルで、事後ニューラルアーキテクチャサーチとJetBlock線形注意力モジュールという2つの核心的な革新技術に基づいて構築されています。性能面では、Qwen3、Qwen2.5、Gemma3、Llama3.2などのオープンソースモデルを上回り、H100 GPU上で最大53.6倍の生成スループットの高速化を実現しています。
Jet-Nemotronは新型の混合アーキテクチャ言語モデルファミリーで、Qwen3、Qwen2.5、Gemma3、Llama3.2などの最先端のオープンソース全注意言語モデルを上回り、同時に著しい効率向上を実現します。H100 GPUでは生成スループットが最大53.6倍に加速されます。
Mungert
Meta Llama-3.3-70B-Instructをベースにした大規模言語モデルで、多段階のトレーニング最適化を経て、推論やチャットなどのタスクで優れた性能を発揮し、複数の言語をサポートし、様々なAIアプリケーションシーンに適しています。ニューラルアーキテクチャサーチ技術を用いて最適化され、単一のH100-80GB GPUで効率的に動作します。
tiiuae
ファルコン-H1はTIIが開発した高性能ハイブリッドアーキテクチャ言語モデルで、TransformersとMambaアーキテクチャの利点を組み合わせ、英語と多言語タスクをサポートします。
ファルコン-H1はTIIが開発したTransformers+Mambaハイブリッドアーキテクチャの因果デコーダ専用言語モデルで、英語と多言語タスクをサポートします。
ファルコン-H1はアラブ首長国連邦の技術革新研究所が開発した、Transformerとマンバアーキテクチャを組み合わせた因果デコーダーモデルで、英語と多言語タスクをサポートします。
ファルコン-H1はTIIが開発した効率的なハイブリッドアーキテクチャの言語モデルで、TransformersとMambaアーキテクチャの利点を組み合わせ、英語と多言語タスクをサポートします。
ファルコン-H1はTIIによって開発されたハイブリッドTransformers+Mambaアーキテクチャの因果デコーダ専用言語モデルで、英語をサポートし、優れた性能を発揮します。
ファルコンH1はアラブ首長国連邦技術革新研究所によって開発されたハイブリッドアーキテクチャ言語モデルで、TransformerとMambaアーキテクチャを組み合わせ、多言語処理をサポート
Phi-4-mini-instructモデルはtorchaoによるfloat8動的活性化と重みの量子化を経ており、H100上で36%のVRAM削減と15-20%の速度向上を実現し、精度にはほとんど影響を与えません。
h1alexbel
このモデルはTransformersライブラリに基づくモデルで、具体的な用途や機能は明確に説明されていません。
h1t
Stable Diffusion v1.5をベースにしたTCD LoRAモデルで、軌跡一貫性蒸留技術により画像生成効率を最適化。
Stable Diffusion XLベースの軌道一貫性蒸留モデルで、革新的な蒸留技術により少ステップで高品質な画像生成を実現
transformer3
これはAutoTrainでトレーニングされたテキスト要約モデルで、金融分野のテキストに特化して最適化されています
H1Bビザ就職検索MCPサーバーで、米国労働省の実際のLCAデータを使用し、H1Bスポンサー企業の検索、職種分析、データエクスポート機能を提供します。