英伟达与香港大学联合发布Orchestrator模型,拥有8亿参数,能协调多种工具和大型语言模型解决复杂问题。该模型在工具使用基准测试中,以更低成本实现更高准确性,并能根据用户偏好智能选择工具。其训练采用名为ToolOrchestra的新强化学习框架,旨在提升小型模型的协调能力。
我国首个盲童无障碍AI伴读系统“小星”正式上线,由中国盲文出版社与科技公司联合研发。该系统搭载大语言模型,支持盲童通过手机或电脑免费使用,可随时提问书籍内容、词义和情节,满足视障读者特殊阅读需求。
Liquid AI 公司于2025年7月发布第二代 Liquid Foundation Models(LFM2),采用创新的“liquid”架构,旨在成为市场上最快的设备端基础模型。其高效的训练和推理能力使小模型能媲美云端大型语言模型。LFM2 最初提供350M、700M 和1.2B 参数的密集检查点版本。
NVIDIA推出ToolOrchestra方法,通过训练小型语言模型Orchestrator-8B作为“大脑”,提升AI系统选择合适模型和工具的能力,避免依赖单一大型模型。该方法旨在解决传统AI代理使用单一模型时可能出现的决策偏差问题,实现更高效的任务处理。
Radal是一个无代码平台,可使用您自己的数据微调小型语言模型。连接数据集,通过可视化配置训练,并在几分钟内部署模型。
小米首个推理大模型MiMo开源,专为推理任务设计,性能卓越。
ReaderLM v2是一个用于HTML转Markdown和JSON的前沿小型语言模型。
展示小型语言模型通过自我演化深度思考掌握数学推理能力的研究成果。
Openai
$2.8
输入tokens/百万
$11.2
输出tokens/百万
1k
上下文长度
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
$2
$20
Baidu
128
$6
$24
$8
$240
52
Bytedance
$1.2
$3.6
4
Clemylia
皮卡丘语言模型是Clemylia发起的一项独特的实验性语言项目,完全从零开始训练,仅基于'皮卡丘'的声音语料库,展示了小型语言模型创造原生语言身份的能力。
Trilogix1
Fara-7B是微软专门为计算机使用场景设计的高效小型语言模型,参数仅70亿,在网页操作等高级用户任务中表现出色,能与更大型的代理系统竞争。
Qsana-coder-base 是一个小型语言模型(SLM),专门为编码基础(Python、伪代码)的概念创意而设计。它不生成可执行的生产代码,而是为教育和快速原型设计场景生成编码逻辑片段,主要目标是激发初学者的逻辑思维和概念理解。
夏洛特-AMY是由Clemylia开发的精细调优小型语言模型,拥有5100万参数,专注于希望、友谊、伦理和支持领域。该模型秉持'训练质量优于参数数量'的理念,在语义清晰度和连贯性方面表现优异,提供高质量的伦理咨询和情感支持服务。
DarwinAnim8or
Prima-24B是一个240亿参数的大语言模型,通过GGUF格式进行量化优化,专门针对角色扮演和创意写作任务进行了优化。该模型基于原始Prima-24B模型转换而来,采用Q4_K_M量化级别,在保持良好性能的同时显著减小了模型大小和内存需求。
梅尔塔是一款基于Discord机器人Melta27开发的独特小型语言模型,具有可爱、迷人和充满热情的个性特点,专门用于生成原创、独特且可爱的文本内容。
Lam-3是Lamina系列的一个小型语言模型(SLM),基于Clemylia/lamina-suite-pretrain进行微调。该模型能够回答问题,具有创造性,但有时回答可能比较奇特。模型从零开始创建,在包含1358个问答对的Clem27sey/Nacid数据集上训练了3小时。
microsoft
Fara-7B是微软研究院开发的专为计算机使用场景设计的小型语言模型,仅有70亿参数,在同规模模型中实现卓越性能,能够执行网页自动化、多模态理解等计算机交互任务。
mlx-community
Granite-4.0-H-1B-8bit 是 IBM Granite 系列的小型语言模型,专门针对 Apple Silicon 芯片优化,采用 8 位量化技术,参数量为 1B,具有高效推理和低资源消耗的特点。
Lam-2是基于自定义架构Aricate V4开发的第二代小型语言模型(SLM),在问答任务中表现出色,具有卓越的语言连贯性和创造力。相比前代产品,Lam-2在语法正确性和文本生成质量上有显著提升。
LAM-1是lamina系列中的首个完整版本的小型语言模型,由Clemylia开发。该模型专注于创造性内容生成,经过优化能够生成富有想象力、诗意和叙事性的回答,而非事实性信息。
nvidia
Nemotron-Flash-3B 是英伟达推出的新型混合小型语言模型,专门针对实际应用中的低延迟需求设计。该模型在数学、编码和常识推理等任务中展现出卓越性能,同时具备出色的小批量低延迟和大批量高吞吐量特性。
NikolayKozloff
UserLM-8b-Q8_0-GGUF 是基于微软 UserLM-8b 模型转换的 GGUF 格式版本,专门针对用户对话场景优化的大语言模型。该模型采用 8 位量化技术,在保持性能的同时显著减小了模型体积,便于在各种硬件上部署运行。
ibm-granite
Granite 4.0 H-Small (FP8) 是IBM开发的Granite系列语言模型的小型FP8量化版本,专为提供专业、准确和安全的回复而设计。该模型采用FP8精度格式,在保持性能的同时优化了推理效率。
prithivMLmods
trlm-135m是一个拥有1.35亿参数的研究原型小型语言模型,基于SmolLM2-135M-Instruct构建,经过三阶段微调流程,旨在探索小型语言模型如何获得逐步推理能力。
foreverlasting1202
QuestA是一个通过问题增强方法提升大语言模型推理能力的创新框架。它在强化学习训练过程中融入部分解决方案,显著提升了模型在数学推理等复杂任务上的表现,特别是在小参数模型上实现了最优结果。
XiaomiMiMo
MiMo Audio是小米开发的音频语言模型,通过大规模预训练展现出强大的少样本学习能力。该模型突破了传统模型依赖特定任务微调的局限,在语音智能、音频理解等任务中表现出色,在开源模型中达到先进水平。
mradermacher
基于腾讯 Hunyuan-MT-Chimera-7B 的多语言翻译模型的量化版本,提供多种量化精度选择,支持36种语言的翻译任务,包括主流和小众语言,为多语言交流提供高效工具。
mispeech
MiDashengLM-7B-0804是小米发布的7B参数多模态语音语言模型,支持音频理解和文本生成任务,适用于通用场景的推理和微调。
allura-forge
MiMo是小米专为推理任务从头开始训练的大语言模型系列,通过优化预训练和后训练策略,在数学和代码推理任务上展现出卓越性能。项目开源了7B参数规模的多个版本,包括基础模型、SFT模型和RL模型。