AI网络初创公司Upscale AI获2亿美元A轮融资,由Tiger Global等领投,旨在挑战英伟达在AI系统交换机领域的地位。公司获英特尔、AMD等支持,核心产品为专为AI设计的定制芯片“SkyHammer”,致力于优化GPU间的网络连接,提升AI硬件性能。
英伟达CEO黄仁勋在达沃斯论坛指出,AI虽重塑就业市场,但也催生史上最大规模基建潮。数据中心建设需求激增,带动数万亿美元投资,使水管工、电工等技工成为AI时代热门职业。
英伟达CEO黄仁勋在达沃斯论坛上表示,过去一年AI模型层取得三大突破:一是代理式AI的崛起,模型具备复杂推理与计划能力;二是开源模型生态繁荣,如DeepSeek等降低了技术门槛;三是多模态AI的快速发展,推动AI应用更广泛落地。
英伟达被指控试图从盗版网站安娜档案馆获取500TB电子书数据用于AI训练,引发作者集体诉讼,批评其侵犯版权并采取极端竞争手段。
Bytedance
$0.8
Input tokens/M
$8
Output tokens/M
256
Context Length
Chatglm
$2
128
$0.5
-
Anthropic
$21
$105
200
Tencent
$4
28
Alibaba
131
$2.4
$9.6
32
Deepseek
8
$1
Openai
$84
$420
Moonshot
$32
262
Baidu
bartowski
这是英伟达Qwen3-Nemotron-32B-RLBFF大语言模型的GGUF量化版本,使用llama.cpp工具进行多种精度量化,提供从BF16到IQ2_XXS共20多种量化选项,适用于不同硬件配置和性能需求。
nvidia
Nemotron-Flash-3B 是英伟达推出的新型混合小型语言模型,专门针对实际应用中的低延迟需求设计。该模型在数学、编码和常识推理等任务中展现出卓越性能,同时具备出色的小批量低延迟和大批量高吞吐量特性。
lmstudio-community
这是英伟达OpenReasoning Nemotron 14B的量化版本,由bartowski基于llama.cpp提供GGUF量化。
这是英伟达OpenReasoning Nemotron 7B模型的GGUF量化版本,专门用于文本生成任务。该模型通过LM Studio社区模型亮点计划提供,支持高效的推理和部署。
英伟达推出的高性能7B参数语言模型,专注于数学和代码推理任务,支持128k上下文长度。
基于英伟达AceReason-Nemotron-7B的GGUF量化版本,专注于数学与代码推理,支持128k tokens长上下文
基于英伟达AceReason-Nemotron-14B的GGUF量化版本,专注于数学与代码推理任务,支持128k tokens长上下文
DevQuasar
Cosmos-Reason1-7B是英伟达发布的7B参数规模的基础模型,专注于图文转文本任务。
Nemotron-Flash-3B是英伟达开发的新型混合小型语言模型,专为低延迟应用设计,在数学、编码和常识推理等任务上表现出色,具有优异的性能和效率平衡。
由英伟达发布的4B参数规模大语言模型,支持128k tokens上下文长度,专为推理、对话及RAG等任务优化
Nemotron-H-56B-Base-8K是英伟达开发的大型语言模型,采用混合Mamba-Transformer架构,支持8K上下文长度和多语言文本生成。
英伟达Isaac GR00T N1是全球首个面向通用人形机器人推理与技能的开源基础模型,具有20亿参数规模。
基于英伟达AceInstruct-7B模型的量化版本,使用llama.cpp进行量化,支持多种量化类型,适用于代码、数学和通用领域任务。
AceMath-7B-Instruct是英伟达推出的专为数学推理设计的指导模型,基于改进版Qwen架构开发,擅长通过思维链(CoT)推理解决英文数学问题。
Raj-Maharajwala
基于英伟达Llama 3 - ChatQA的保险领域特定语言模型的GGUF量化版本,针对保险相关的查询和对话进行了微调。
英伟达定制的大型语言模型,旨在提升大语言模型生成回复对用户查询的有用性。
Nemotron-Mini-4B-Instruct是英伟达开发的专为角色扮演、检索增强生成和函数调用优化的响应生成模型,基于Minitron-4B-Base微调,支持4096个token的上下文长度。