百度推出多模态AI模型ERNIE-4.5-VL-28B-A3B-Thinking,能深度融合图像进行推理。该模型在多项基准测试中表现优异,有时超越谷歌Gemini2.5Pro和OpenAI GPT-5High等顶尖商业模型。虽总参数量280亿,但采用路由架构,仅激活30亿参数,实现轻量高效推理。
【AI日报】报道月之暗面开源AI代理框架Kosong,具备异步工具编排、插件化设计及开箱即用Python支持,显著提升开发者自由度。该框架通过灵活架构助力技术探索与产品创新。详情可访问aibase.com获取最新AI动态。
百度发布多模态模型ERNIE-4.5-VL-28B-A3B-Thinking,新增“图像思考”功能,显著提升图像理解与处理能力。模型采用3B激活参数,计算高效灵活,支持多任务处理,推动AI技术发展。
文心ERNIE-5.0-Preview-1022模型在LMArena大模型竞技场最新排名中,成为国内文本能力冠军,全球并列第二。该模型在创意写作、复杂问题理解等方面表现突出,标志着中国在大模型技术上取得新突破,展现人工智能发展的强劲潜力。
Baidu
$1
输入tokens/百万
$4
输出tokens/百万
64
上下文长度
$3
$9
128
$0.8
$3.2
-
$10
32
$0.1
$0.4
8
4
cyankiwi
ERNIE-4.5-VL-28B-A3B-Thinking AWQ - INT8是基于百度ERNIE-4.5架构的多模态大语言模型,通过AWQ量化技术实现8位精度,在保持高性能的同时大幅降低内存需求。该模型在视觉推理、STEM问题解决、图像分析等方面表现出色,具备强大的多模态理解和推理能力。
wekW
本模型是百度ERNIE-4.5-21B-A3B-Thinking模型的GGUF量化版本,采用Q8_0量化格式,通过llama.cpp工具转换而成,支持在兼容GGUF格式的推理框架中使用。
nightmedia
这是百度ERNIE-4.5-21B-A3B-Thinking模型的MLX格式转换版本,使用mlx-lm 0.27.1工具转换,专为Apple Silicon设备优化,支持高效推理。
Mungert
ERNIE-4.5-21B-A3B-PT是基于MoE架构的先进文本生成模型,具有210亿参数和高效的多模态处理能力。
unsloth
ERNIE-4.5-300B-A47B 是一款文本 MoE 后训练模型,拥有 3000 亿的总参数,每个标记有 470 亿的激活参数。该模型具备多模态异构 MoE 预训练、高效扩展基础设施和特定模态后训练等先进技术,能在文本理解与生成、图像理解及跨模态推理等任务中表现出色。
ERNIE-4.5-21B是一款强大的文本生成模型,基于先进的技术创新,在文本理解、生成等多方面表现出色。
gabriellarson
ERNIE-4.5-300B-A47B 是一款基于 MoE 架构的多模态预训练模型,具备强大的文本理解和生成能力,支持视觉-语言联合推理。
ERNIE-4.5-0.3B-PT是一个基于ERNIE 4.5技术的文本生成模型,参数规模为0.36B,能够高效处理文本生成任务。
lmstudio-community
基于百度ERNIE-4.5-21B-A3B模型的社区版本,采用MLX实现8位量化优化,专门针对苹果芯片设备进行性能优化,适用于文本生成任务。
百度ERNIE-4.5-21B-A3B是基于ERNIE-4.5-21B-A3B-PT基础模型的社区版本,采用MLX进行6位量化,专门为苹果芯片优化。该模型在LM Studio社区模型亮点计划中展示,具有高效的推理性能和良好的兼容性。
ERNIE-4.5-21B-A3B是百度开发的大语言模型,经过LM Studio团队的MLX 4位量化优化,专门针对苹果芯片进行了优化。该模型具有210亿参数,支持中文和英文,采用Apache-2.0开源许可证。
mlx-community
ERNIE-4.5-21B-A3B-PT-8bit 是百度 ERNIE-4.5-21B-A3B-PT 模型的 8 位量化版本,转换为 MLX 格式,适用于苹果芯片设备。
ERNIE-4.5-0.3B-PT-bf16 是由百度开发的 ERNIE 系列模型的一个版本,参数规模为 0.3B,使用 bf16 精度进行训练。
bartowski
百度ERNIE-4.5-21B-A3B-PT模型的量化版本,通过llama.cpp进行量化处理,提升在不同硬件环境下的运行效率和性能。
基于百度ERNIE-4.5-0.3B-PT模型的量化版本,通过llama.cpp工具进行优化,减少模型大小并提升运行效率。
百度ERNIE 4.5 0.3B是基于Transformer架构的双语文本生成模型,在通用语言理解和生成任务上表现优异,支持中英双语处理,上下文长度达128k token。
wqerrewetw
该模型是百度ERNIE-4.5-0.3B-PT的GGUF格式转换版本,支持中英文文本生成任务。
multimolecule
ERNIE-RNA是一个基于无监督学习的RNA语言模型,在非编码RNA序列上进行预训练,采用掩码语言模型目标。该模型能够理解RNA语言的语法,为RNA结构和功能预测等下游任务提供支持。
baidu
ERNIE-Code是一个统一的大型语言模型,连接了116种自然语言和6种编程语言,支持多种跨语言任务。
MoritzLaurer
支持100种语言的自然语言推理模型,适用于多语言零样本分类任务