阶跃星辰开源多模态视觉语言模型Step3-VL-10B,仅10B参数却在多项基准测试中表现卓越,解决了小模型智能水平不足的痛点。该模型在视觉感知、逻辑推理和数学竞赛等维度达到同规模最优,甚至超越规模大10至20倍的开源及闭源旗舰模型。
Liquid AI推出新一代小型基础模型LFM2.5,专为边缘设备和本地部署设计。该系列包括基础版和指令版,并扩展了日语、视觉语言及音频语言变种。模型基于LFM2混合架构,针对CPU和NPU优化,实现快速高效推理。开源权重已发布在Hugging Face平台。
英伟达与香港大学联合发布Orchestrator模型,拥有8亿参数,能协调多种工具和大型语言模型解决复杂问题。该模型在工具使用基准测试中,以更低成本实现更高准确性,并能根据用户偏好智能选择工具。其训练采用名为ToolOrchestra的新强化学习框架,旨在提升小型模型的协调能力。
我国首个盲童无障碍AI伴读系统“小星”正式上线,由中国盲文出版社与科技公司联合研发。该系统搭载大语言模型,支持盲童通过手机或电脑免费使用,可随时提问书籍内容、词义和情节,满足视障读者特殊阅读需求。
Radal是一个无代码平台,可使用您自己的数据微调小型语言模型。连接数据集,通过可视化配置训练,并在几分钟内部署模型。
小米首个推理大模型MiMo开源,专为推理任务设计,性能卓越。
ReaderLM v2是一个用于HTML转Markdown和JSON的前沿小型语言模型。
展示小型语言模型通过自我演化深度思考掌握数学推理能力的研究成果。
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
Baidu
128
$2
$20
$6
$24
$8
$240
52
Bytedance
$1.2
$3.6
4
Clemylia
皮卡丘语言模型是Clemylia发起的一项独特的实验性语言项目,完全从零开始训练,仅基于'皮卡丘'的声音语料库,展示了小型语言模型创造原生语言身份的能力。
Trilogix1
Fara-7B是微软专门为计算机使用场景设计的高效小型语言模型,参数仅70亿,在网页操作等高级用户任务中表现出色,能与更大型的代理系统竞争。
Arko007
Zenyx_114M-Tiny-Edu-Instruct 是一个实验性的小型指令微调语言模型,拥有约1.14亿参数。它基于TinyEdu-50M基础模型构建,在FineWeb-Edu数据集上预训练,并在OpenHermes-2.5和CodeFeedback-Filtered混合数据集上进行了指令微调。该模型旨在探索极小架构下指令微调的极限,验证损失收敛至约1.04。
Qsana-coder-base 是一个小型语言模型(SLM),专门为编码基础(Python、伪代码)的概念创意而设计。它不生成可执行的生产代码,而是为教育和快速原型设计场景生成编码逻辑片段,主要目标是激发初学者的逻辑思维和概念理解。
夏洛特-AMY是由Clemylia开发的精细调优小型语言模型,拥有5100万参数,专注于希望、友谊、伦理和支持领域。该模型秉持'训练质量优于参数数量'的理念,在语义清晰度和连贯性方面表现优异,提供高质量的伦理咨询和情感支持服务。
DarwinAnim8or
Prima-24B是一个240亿参数的大语言模型,通过GGUF格式进行量化优化,专门针对角色扮演和创意写作任务进行了优化。该模型基于原始Prima-24B模型转换而来,采用Q4_K_M量化级别,在保持良好性能的同时显著减小了模型大小和内存需求。
DavidAU
本模型是基于Qwen3-Coder-30B-A3B-Instruct混合专家模型,通过Brainstorm 20x技术进行深度微调生成的GGUF格式模型。它专为编程和通用目的设计,支持256K长上下文,并针对主流及小众编程语言的代码生成和理解进行了优化。
梅尔塔是一款基于Discord机器人Melta27开发的独特小型语言模型,具有可爱、迷人和充满热情的个性特点,专门用于生成原创、独特且可爱的文本内容。
Lam-3是Lamina系列的一个小型语言模型(SLM),基于Clemylia/lamina-suite-pretrain进行微调。该模型能够回答问题,具有创造性,但有时回答可能比较奇特。模型从零开始创建,在包含1358个问答对的Clem27sey/Nacid数据集上训练了3小时。
LLM-CLEM
Lam-3是Lamina系列的一个小型语言模型(SLM),基于Clemylia/Lamina-suite-pretrain进行微调。该项目从头开始构建,具有独特的创意文本生成能力,有时会产生新颖甚至看似荒谬但独特的回复。
microsoft
Fara-7B是微软研究院开发的专为计算机使用场景设计的小型语言模型,仅有70亿参数,在同规模模型中实现卓越性能,能够执行网页自动化、多模态理解等计算机交互任务。
mlx-community
Granite-4.0-H-1B-8bit 是 IBM Granite 系列的小型语言模型,专门针对 Apple Silicon 芯片优化,采用 8 位量化技术,参数量为 1B,具有高效推理和低资源消耗的特点。
Lam-2是基于自定义架构Aricate V4开发的第二代小型语言模型(SLM),在问答任务中表现出色,具有卓越的语言连贯性和创造力。相比前代产品,Lam-2在语法正确性和文本生成质量上有显著提升。
LAM-1是lamina系列中的首个完整版本的小型语言模型,由Clemylia开发。该模型专注于创造性内容生成,经过优化能够生成富有想象力、诗意和叙事性的回答,而非事实性信息。
nvidia
Nemotron-Flash-3B 是英伟达推出的新型混合小型语言模型,专门针对实际应用中的低延迟需求设计。该模型在数学、编码和常识推理等任务中展现出卓越性能,同时具备出色的小批量低延迟和大批量高吞吐量特性。
NikolayKozloff
UserLM-8b-Q8_0-GGUF 是基于微软 UserLM-8b 模型转换的 GGUF 格式版本,专门针对用户对话场景优化的大语言模型。该模型采用 8 位量化技术,在保持性能的同时显著减小了模型体积,便于在各种硬件上部署运行。
ibm-granite
Granite 4.0 H-Small (FP8) 是IBM开发的Granite系列语言模型的小型FP8量化版本,专为提供专业、准确和安全的回复而设计。该模型采用FP8精度格式,在保持性能的同时优化了推理效率。
prithivMLmods
trlm-135m是一个拥有1.35亿参数的研究原型小型语言模型,基于SmolLM2-135M-Instruct构建,经过三阶段微调流程,旨在探索小型语言模型如何获得逐步推理能力。
foreverlasting1202
QuestA是一个通过问题增强方法提升大语言模型推理能力的创新框架。它在强化学习训练过程中融入部分解决方案,显著提升了模型在数学推理等复杂任务上的表现,特别是在小参数模型上实现了最优结果。
XiaomiMiMo
MiMo Audio是小米开发的音频语言模型,通过大规模预训练展现出强大的少样本学习能力。该模型突破了传统模型依赖特定任务微调的局限,在语音智能、音频理解等任务中表现出色,在开源模型中达到先进水平。