英伟达发布新一代开源大模型Nemotron 3 Super,专为AI智能体设计。该模型采用创新的Mamba-MoE混合架构,参数总量1200亿,激活参数仅120亿,推理效率大幅提升,速度暴增300%,同时保持卓越任务成功率,成为开源社区焦点。
Meta发布新一代自研AI芯片MTIA3,旨在减少对外部算力依赖。该芯片专为推荐系统和推理任务定制,在内部测试中,其推理效能已超越英伟达H100。
英伟达计划五年投资260亿美元研发开放权重AI模型,从硬件巨头转向深度参与AI核心模型研发,推动开源生态发展。
Meta计划在2027年底前部署四代自研AI芯片,以减少对英伟达等外部供应商的依赖,为AI业务提供定制化算力支持,以在全球AI竞赛中掌握主动权。
Bytedance
$0.8
Input tokens/M
$8
Output tokens/M
256
Context Length
Chatglm
$2
128
$0.5
-
Anthropic
$21
$105
200
Tencent
$4
28
Alibaba
131
$2.4
$9.6
32
Deepseek
8
$1
Openai
$84
$420
Moonshot
$32
262
Baidu
bartowski
这是英伟达Qwen3-Nemotron-32B-RLBFF大语言模型的GGUF量化版本,使用llama.cpp工具进行多种精度量化,提供从BF16到IQ2_XXS共20多种量化选项,适用于不同硬件配置和性能需求。
nvidia
Nemotron-Flash-3B 是英伟达推出的新型混合小型语言模型,专门针对实际应用中的低延迟需求设计。该模型在数学、编码和常识推理等任务中展现出卓越性能,同时具备出色的小批量低延迟和大批量高吞吐量特性。
lmstudio-community
这是英伟达OpenReasoning Nemotron 14B的量化版本,由bartowski基于llama.cpp提供GGUF量化。
这是英伟达OpenReasoning Nemotron 7B模型的GGUF量化版本,专门用于文本生成任务。该模型通过LM Studio社区模型亮点计划提供,支持高效的推理和部署。
英伟达推出的高性能7B参数语言模型,专注于数学和代码推理任务,支持128k上下文长度。
基于英伟达AceReason-Nemotron-7B的GGUF量化版本,专注于数学与代码推理,支持128k tokens长上下文
基于英伟达AceReason-Nemotron-14B的GGUF量化版本,专注于数学与代码推理任务,支持128k tokens长上下文
DevQuasar
Cosmos-Reason1-7B是英伟达发布的7B参数规模的基础模型,专注于图文转文本任务。
Nemotron-Flash-3B是英伟达开发的新型混合小型语言模型,专为低延迟应用设计,在数学、编码和常识推理等任务上表现出色,具有优异的性能和效率平衡。
由英伟达发布的4B参数规模大语言模型,支持128k tokens上下文长度,专为推理、对话及RAG等任务优化
Nemotron-H-56B-Base-8K是英伟达开发的大型语言模型,采用混合Mamba-Transformer架构,支持8K上下文长度和多语言文本生成。
英伟达Isaac GR00T N1是全球首个面向通用人形机器人推理与技能的开源基础模型,具有20亿参数规模。
基于英伟达AceInstruct-7B模型的量化版本,使用llama.cpp进行量化,支持多种量化类型,适用于代码、数学和通用领域任务。
AceMath-7B-Instruct是英伟达推出的专为数学推理设计的指导模型,基于改进版Qwen架构开发,擅长通过思维链(CoT)推理解决英文数学问题。
Raj-Maharajwala
基于英伟达Llama 3 - ChatQA的保险领域特定语言模型的GGUF量化版本,针对保险相关的查询和对话进行了微调。
英伟达定制的大型语言模型,旨在提升大语言模型生成回复对用户查询的有用性。
Nemotron-Mini-4B-Instruct是英伟达开发的专为角色扮演、检索增强生成和函数调用优化的响应生成模型,基于Minitron-4B-Base微调,支持4096个token的上下文长度。