百度推出多模態AI模型ERNIE-4.5-VL-28B-A3B-Thinking,能深度融合圖像進行推理。該模型在多項基準測試中表現優異,有時超越谷歌Gemini2.5Pro和OpenAI GPT-5High等頂尖商業模型。雖總參數量280億,但採用路由架構,僅激活30億參數,實現輕量高效推理。
【AI日報】報道月之暗面開源AI代理框架Kosong,具備異步工具編排、插件化設計及開箱即用Python支持,顯著提升開發者自由度。該框架通過靈活架構助力技術探索與產品創新。詳情可訪問aibase.com獲取最新AI動態。
百度發佈多模態模型ERNIE-4.5-VL-28B-A3B-Thinking,新增“圖像思考”功能,顯著提升圖像理解與處理能力。模型採用3B激活參數,計算高效靈活,支持多任務處理,推動AI技術發展。
文心ERNIE-5.0-Preview-1022模型在LMArena大模型競技場最新排名中,成爲國內文本能力冠軍,全球並列第二。該模型在創意寫作、複雜問題理解等方面表現突出,標誌着中國在大模型技術上取得新突破,展現人工智能發展的強勁潛力。
Baidu
$1
輸入tokens/百萬
$4
輸出tokens/百萬
64
上下文長度
$3
$9
128
$0.8
$3.2
-
$10
32
$0.1
$0.4
8
4
cyankiwi
ERNIE-4.5-VL-28B-A3B-Thinking AWQ - INT8是基於百度ERNIE-4.5架構的多模態大語言模型,通過AWQ量化技術實現8位精度,在保持高性能的同時大幅降低內存需求。該模型在視覺推理、STEM問題解決、圖像分析等方面表現出色,具備強大的多模態理解和推理能力。
wekW
本模型是百度ERNIE-4.5-21B-A3B-Thinking模型的GGUF量化版本,採用Q8_0量化格式,通過llama.cpp工具轉換而成,支持在兼容GGUF格式的推理框架中使用。
nightmedia
這是百度ERNIE-4.5-21B-A3B-Thinking模型的MLX格式轉換版本,使用mlx-lm 0.27.1工具轉換,專為Apple Silicon設備優化,支持高效推理。
Mungert
ERNIE-4.5-21B-A3B-PT是基於MoE架構的先進文本生成模型,具有210億參數和高效的多模態處理能力。
unsloth
ERNIE-4.5-300B-A47B 是一款文本 MoE 後訓練模型,擁有 3000 億的總參數,每個標記有 470 億的激活參數。該模型具備多模態異構 MoE 預訓練、高效擴展基礎設施和特定模態後訓練等先進技術,能在文本理解與生成、圖像理解及跨模態推理等任務中表現出色。
ERNIE-4.5-21B是一款強大的文本生成模型,基於先進的技術創新,在文本理解、生成等多方面表現出色。
gabriellarson
ERNIE-4.5-300B-A47B 是一款基於 MoE 架構的多模態預訓練模型,具備強大的文本理解和生成能力,支持視覺-語言聯合推理。
ERNIE-4.5-0.3B-PT是一個基於ERNIE 4.5技術的文本生成模型,參數規模為0.36B,能夠高效處理文本生成任務。
lmstudio-community
基於百度ERNIE-4.5-21B-A3B模型的社區版本,採用MLX實現8位量化優化,專門針對蘋果芯片設備進行性能優化,適用於文本生成任務。
百度ERNIE-4.5-21B-A3B是基於ERNIE-4.5-21B-A3B-PT基礎模型的社區版本,採用MLX進行6位量化,專門為蘋果芯片優化。該模型在LM Studio社區模型亮點計劃中展示,具有高效的推理性能和良好的兼容性。
ERNIE-4.5-21B-A3B是百度開發的大語言模型,經過LM Studio團隊的MLX 4位量化優化,專門針對蘋果芯片進行了優化。該模型具有210億參數,支持中文和英文,採用Apache-2.0開源許可證。
mlx-community
ERNIE-4.5-21B-A3B-PT-8bit 是百度 ERNIE-4.5-21B-A3B-PT 模型的 8 位量化版本,轉換為 MLX 格式,適用於蘋果芯片設備。
ERNIE-4.5-0.3B-PT-bf16 是由百度開發的 ERNIE 系列模型的一個版本,參數規模為 0.3B,使用 bf16 精度進行訓練。
bartowski
百度ERNIE-4.5-21B-A3B-PT模型的量化版本,通過llama.cpp進行量化處理,提升在不同硬件環境下的運行效率和性能。
基於百度ERNIE-4.5-0.3B-PT模型的量化版本,通過llama.cpp工具進行優化,減少模型大小並提升運行效率。
百度ERNIE 4.5 0.3B是基於Transformer架構的雙語文本生成模型,在通用語言理解和生成任務上表現優異,支持中英雙語處理,上下文長度達128k token。
wqerrewetw
該模型是百度ERNIE-4.5-0.3B-PT的GGUF格式轉換版本,支持中英文文本生成任務。
multimolecule
ERNIE-RNA是一個基於無監督學習的RNA語言模型,在非編碼RNA序列上進行預訓練,採用掩碼語言模型目標。該模型能夠理解RNA語言的語法,為RNA結構和功能預測等下游任務提供支持。
baidu
ERNIE-Code是一個統一的大型語言模型,連接了116種自然語言和6種編程語言,支持多種跨語言任務。
MoritzLaurer
支持100種語言的自然語言推理模型,適用於多語言零樣本分類任務