近日,NVIDIA正式宣布与Meta建立一项为期多年、跨世代的战略合作伙伴关系。根据双方达成的协议内容,Meta计划在其超大规模的AI数据中心内部署数百万颗NVIDIA的Blackwell GPU,以及专为智能体AI推理量身打造的下一代Rubin架构GPU,以强化其AI算力基础。
英伟达承诺优先向韩国供应下一代Vera Rubin GPU,并提前提供Blackwell GB300,以支持韩国科技发展。
Runway发布最新视频生成模型Gen-4.5,专为创作者、影视制作人和企业用户设计,即将向所有订阅层级开放。该模型在文本转视频基准测试中以1247分领先,超越谷歌Veo3等竞品,成为当前最强文生视频模型。其卓越性能得益于先进的NVIDIA Hopper与Blackwell GPU平台支持。
微软Azure ND GB300v6虚拟机在Llama270B模型上创下每秒110万token推理速度新纪录。该成就基于与英伟达的深度合作,采用配备72个Blackwell Ultra GPU和36个Grace CPU的NVIDIA GB300NVL72系统,突显微软在规模化AI运算领域的专业实力。
Openai
$2.8
输入tokens/百万
$11.2
输出tokens/百万
1k
上下文长度
-
Bytedance
$0.8
$2
128
Alibaba
$0.4
$8.75
$70
400
$1.75
$14
$0.35
64
$0.63
$3.15
131
$1.8
$5.4
16
Tencent
32
$17.5
$56
$0.7
$2.4
$9.6
Google
$0.14
$0.28
mratsim
GLM-4.5-Iceblink-v2-106B-A12B-FP8是基于GLM-4.5-Iceblink-v2-106B-A12B模型,采用最先进的混合专家量化方法进行FP8量化的版本。该模型专门针对支持硬件FP8的Ada、Hopper或Blackwell系列GPU优化,在保持高质量输出的同时显著提升推理效率。
QuantStack
这是基于Danrisi的Flux架构文本到图像模型UltraReal Fine-Tune的Nunchaku量化(SVDQ)版本。该模型提供了两种量化格式:INT4适用于非Blackwell架构GPU(50系列之前),NVFP4适用于Blackwell架构GPU(50系列),旨在降低硬件需求同时保持图像生成质量。
spooknik
这是UltraReal Fine-Tune模型的SVDQ量化版本,由Danrisi基于Flux开发,是一款文本到图像生成模型。该版本提供了多种量化方案,适配不同GPU硬件,特别针对非Blackwell系列和Blackwell系列GPU进行了优化。
这是Project0模型的SVDQ量化版本,基于Flux Dev和Flux Krea创建的文本到图像模型。该模型提供了多种量化格式,针对不同GPU架构进行了优化,包括INT4和FP4量化版本,适用于Blackwell和非Blackwell GPU用户。