英伟达发布大模型微调指南,降低技术门槛,让普通开发者也能在消费级设备上高效完成模型定制。该指南详解如何在NVIDIA全系硬件上利用开源框架Unsloth实现专业级微调。Unsloth专为NVIDIA GPU打造,优化训练全流程,提升性能。
英伟达以约200亿美元获得AI芯片初创公司Groq的技术非独家授权,其核心团队已加入英伟达,此举被视为规避监管的“变相收购”。交易金额达Groq估值三倍,旨在战略防御谷歌TPU的竞争威胁,巩固市场地位。
英伟达与AI芯片公司Groq达成技术授权协议,并聘请其核心团队。虽非直接收购,但交易金额或达200亿美元,有望成为英伟达最大技术并购,旨在巩固其AI芯片市场主导地位。
英伟达与AI芯片初创公司Groq达成技术授权协议,获得其核心技术授权,并将整合进未来产品线。Groq创始人兼CEO乔纳森·罗斯将率核心团队加盟英伟达,推动技术规模化应用。此举强化了英伟达在AI算力领域的技术布局。
Bytedance
$0.8
Input tokens/M
$8
Output tokens/M
256
Context Length
Chatglm
$2
128
$0.5
-
Anthropic
$21
$105
200
Tencent
$4
28
Alibaba
131
$2.4
$9.6
32
Deepseek
8
$1
Openai
$84
$420
Moonshot
$32
262
Baidu
bartowski
这是英伟达Qwen3-Nemotron-32B-RLBFF大语言模型的GGUF量化版本,使用llama.cpp工具进行多种精度量化,提供从BF16到IQ2_XXS共20多种量化选项,适用于不同硬件配置和性能需求。
nvidia
Nemotron-Flash-3B 是英伟达推出的新型混合小型语言模型,专门针对实际应用中的低延迟需求设计。该模型在数学、编码和常识推理等任务中展现出卓越性能,同时具备出色的小批量低延迟和大批量高吞吐量特性。
lmstudio-community
这是英伟达OpenReasoning Nemotron 14B的量化版本,由bartowski基于llama.cpp提供GGUF量化。
这是英伟达OpenReasoning Nemotron 7B模型的GGUF量化版本,专门用于文本生成任务。该模型通过LM Studio社区模型亮点计划提供,支持高效的推理和部署。
英伟达推出的高性能7B参数语言模型,专注于数学和代码推理任务,支持128k上下文长度。
基于英伟达AceReason-Nemotron-7B的GGUF量化版本,专注于数学与代码推理,支持128k tokens长上下文
基于英伟达AceReason-Nemotron-14B的GGUF量化版本,专注于数学与代码推理任务,支持128k tokens长上下文
DevQuasar
Cosmos-Reason1-7B是英伟达发布的7B参数规模的基础模型,专注于图文转文本任务。
Nemotron-Flash-3B是英伟达开发的新型混合小型语言模型,专为低延迟应用设计,在数学、编码和常识推理等任务上表现出色,具有优异的性能和效率平衡。
由英伟达发布的4B参数规模大语言模型,支持128k tokens上下文长度,专为推理、对话及RAG等任务优化
Nemotron-H-56B-Base-8K是英伟达开发的大型语言模型,采用混合Mamba-Transformer架构,支持8K上下文长度和多语言文本生成。
英伟达Isaac GR00T N1是全球首个面向通用人形机器人推理与技能的开源基础模型,具有20亿参数规模。
基于英伟达AceInstruct-7B模型的量化版本,使用llama.cpp进行量化,支持多种量化类型,适用于代码、数学和通用领域任务。
AceMath-7B-Instruct是英伟达推出的专为数学推理设计的指导模型,基于改进版Qwen架构开发,擅长通过思维链(CoT)推理解决英文数学问题。
Raj-Maharajwala
基于英伟达Llama 3 - ChatQA的保险领域特定语言模型的GGUF量化版本,针对保险相关的查询和对话进行了微调。
英伟达定制的大型语言模型,旨在提升大语言模型生成回复对用户查询的有用性。
Nemotron-Mini-4B-Instruct是英伟达开发的专为角色扮演、检索增强生成和函数调用优化的响应生成模型,基于Minitron-4B-Base微调,支持4096个token的上下文长度。