俄勒冈州作家伊丽莎白·莱昂对Adobe提起集体诉讼,指控其训练轻量化语言模型SlimLM时,使用了包含其盗版作品在内的非法数据集。SlimLM专为移动设备文档辅助任务优化,Adobe称其基于开源数据集SlimPajama-627B训练。莱昂认为该数据集包含未经授权的作品,侵犯了作者权益。
谷歌发布轻量化旗舰模型Gemini3Flash,主打极速与低成本,全面取代前代产品,成为谷歌搜索AI模式及Gemini应用的默认底层引擎。实测显示,其速度提升3倍,价格大幅降低,为企业和开发者带来高性价比选择。
腾讯发布1B参数开源模型HunyuanOCR,基于混元多模态架构,在OCR应用中达到SOTA水平。模型采用端到端设计,一次推理即可获得最优结果,包含原生分辨率视频编码器、自适应视觉适配和轻量化混元语言三大核心组件。
腾讯混元开源10亿参数OCR模型HunyuanOCR,采用端到端设计,集成视频编码器、视觉适配器和轻量化语言模型,在多项榜单获SOTA成绩,以体积小、部署便捷为核心优势,提供高效OCR解决方案。
SmolVLM2 是一个专注于视频内容分析和生成的轻量化语言模型。
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
Baidu
128
$2
$20
$6
$24
catalystsec
本项目对MiniMax-M2模型进行4位量化处理,使用DWQ(动态权重量化)方法,借助mlx-lm库达成。该模型是MiniMax-M2的轻量化版本,在保持较好性能的同时大幅减小模型体积。
这是一个基于ByteDance Seed-OSS-36B-Instruct模型通过DWQ量化为4位的轻量化版本,使用mlx-lm 0.27.1从BF16教师模型中蒸馏而来,支持中英双语文本生成任务。
kawaimasa
专为日语小说创作优化的轻量化大语言模型,基于Mistral架构,提供创意生成、正文续写等功能
DevQuasar
这是慧慧AI基于Qwen3-14B模型的量化版本,旨在通过模型压缩技术让大语言模型更加轻量化,降低硬件需求,使知识获取更加普及和便捷。
阿里巴巴PAI发布的轻量化版本Qwen2.5大语言模型,专注于高效文本生成任务
naver-hyperclovax
HyperCLOVAX-SEED-Vision-Instruct-3B是由NAVER开发的轻量化多模态模型,具备图文理解和文本生成能力,特别优化了韩语处理能力。
pytorch
这是一个基于微软Phi-4-mini-instruct模型进行量化处理的轻量化版本,采用INT8嵌入和INT8动态激活加INT4权重线性量化方案,专门为移动设备部署优化。
briaai
BRIA 3.1 是一款基于完全授权数据训练的高质量文本生成图像模型,提供高视觉保真度与强提示对齐能力,同时保持40亿参数的轻量化设计。
efficient-speech
Lite-Whisper 是采用 LiteASR 技术压缩的 OpenAI Whisper 轻量化版本,在保持较高识别准确率的同时显著减小模型体积。
AdamCodd
基于YOLO架构的轻量化人脸检测模型,专为高效人脸检测设计,在WIDERFACE数据集上训练。
NimVideo
为genmoai mochi-1模型蒸馏的变换器,由42个模块组成(原版48个模块),通过迭代删除MSE值最小的模块实现轻量化
NbAiLab
挪威国家图书馆开发的挪威语自动语音识别模型的轻量化加速版本,通过蒸馏过程减少参数量,同时保持转录质量。
zai-org
GLM-Edge-4B-Chat是智谱AI开发的一个40亿参数的中英双语对话模型,专门针对边缘设备优化,支持高效的文本生成任务。该模型基于Transformer架构,具有轻量化、高效率的特点,适合在资源受限的环境中部署。
taobao-mnn
基于Qwen2.5-0.5B-Instruct通过llmexport工具导出的MNN模型的4位量化版本,专为文本生成和聊天场景优化,具有轻量化和高效推理的特点。
LightEmbed
荷兰法医研究所RobBERT-2022荷兰语句嵌入模型的ONNX版本,专为高速和轻量化性能优化。
urchade
GLiNER是一个通用的命名实体识别模型,能够识别任何实体类型,为传统NER模型和大型语言模型提供了轻量化替代方案。
Aryanne
本项目基于mistralai/Mistral-7B-Instruct-v0.2模型进行精简处理,将中间层大小从14336缩减至3072,参数量从约70亿减少至约28.1亿,是一个轻量化的大语言模型。由于精简后生成内容为乱码,需要进行预训练恢复性能。
Falconsai
基于DistilBERT的轻量化意图分类模型,高效识别用户文本意图
diffusers
基于Stable Diffusion XL的轻量化ControlNet深度控制模型,使用深度条件进行训练,比原始XL ControlNet检查点小7倍,能够根据深度图生成高质量的图像。
nota-ai
BK-SDM是通过架构压缩的稳定扩散模型,用于高效通用文生图合成,通过移除U-Net中的残差和注意力块实现轻量化。