Recentemente, a família de modelos de linguagem ERNIE da Baidu sofreu uma grande atualização: o ERNIE-4.5-21B-A3B-Thinking foi oficialmente aberto ao público e rapidamente chegou à primeira posição na lista de modelos de geração de texto no Hugging Face, ocupando também a terceira posição na lista geral de modelos. Este modelo leve de Mixture-of-Experts (MoE) atraiu ampla atenção da indústria com sua excepcional capacidade de raciocínio e eficiência de parâmetros, marcando mais um marco na ecologia de código aberto da inteligência artificial chinesa.

Especificações principais e design inovador do modelo

O ERNIE-4.5-21B-A3B-Thinking utiliza uma arquitetura avançada de MoE, com um tamanho total de parâmetros de 21B, mas ativa apenas 3B parâmetros por token. Essa mecanismo de ativação esparsa reduz significativamente o custo computacional, mantendo ao mesmo tempo uma saída de alto desempenho. O modelo suporta uma janela de contexto longo de 128K, sendo especialmente adequado para tarefas complexas de texto longo, como raciocínio lógico, resolução matemática e análise acadêmica.

image.png

Diferente dos modelos principais que dependem do framework PyTorch, a série ERNIE-4.5 foi treinada e otimizada com base no framework de aprendizado profundo PaddlePaddle, desenvolvido pela própria Baidu. Esse design com framework independente não apenas aumenta a compatibilidade do modelo em tarefas multimodais, mas também garante uma adaptação eficiente aos hardware. Atualmente, apenas a Baidu e o Google utilizam frameworks próprios para treinar grandes modelos, destacando assim sua autenticidade tecnológica e profundidade de inovação.

Desempenho: Raciocínio eficiente desafia gigantes da indústria

De acordo com os testes mais recentes, o modelo se destaca em tarefas como raciocínio lógico, matemática, ciência, codificação e geração de texto, até mesmo superando ou se aproximando de modelos como Gemini 2.5 Pro e GPT-5 em alguns indicadores. Apesar de possuir apenas 21B de parâmetros (cerca de 70% do Qwen3-30B), seus resultados em benchmarks de raciocínio matemático como BBH e CMATH já superaram os concorrentes, demonstrando uma alta eficiência de parâmetros.

Além disso, o modelo possui uma função integrada de chamada eficiente de ferramentas, suportando chamadas de funções estruturadas e integração com APIs externas, adequando-se a cenários como síntese de programas, raciocínio simbólico e fluxos de trabalho com múltiplos agentes. No aspecto de compreensão de contexto longo, após treinamento especializado, ele pode processar informações em massa de forma estável, gerando conteúdo sintético de nível acadêmico, reduzindo significativamente o problema de "falsificações". O modelo também suporta otimização em dois idiomas (chinês e inglês), sendo adequado para desenvolvedores e aplicações corporativas globais.

O feedback da comunidade de código aberto indica que o download e o índice de tendência do modelo no Hugging Face subiram rapidamente, tornando-se uma escolha popular na área de geração de texto. Os desenvolvedores podem integrá-lo facilmente usando ferramentas como vLLM, Transformers 4.54+ e FastDeploy, realizando implantação local ou inferência em nuvem.

Significado do código aberto: impulsionando a democratização da IA e a construção da ecologia

O ERNIE-4.5-21B-A3B-Thinking foi lançado sob a licença Apache 2.0, permitindo uso comercial, o que reduz ainda mais as barreiras para o acesso à tecnologia de IA. Após a divulgação pública de outras 10 versões da família ERNIE 4.5 em junho, esta publicação reforçou sua posição de liderança no setor de IA de código aberto. Atualmente, muitos dos modelos nas primeiras posições no Hugging Face são resultados de código aberto chinês, refletindo a competitividade global da China na arquitetura MoE e na otimização de raciocínio.

Como a nova iteração da família de modelos WENXIN, este modelo não só melhorou o desempenho em tarefas de seguimento de instruções e conhecimento intenso, mas também reforçou seu "modo de pensamento" por meio de aprendizado reforçado em várias rodadas. Na tarefa de visão e linguagem, sua variante VL também mostrou excelente desempenho, fechando a lacuna com o OpenAI-o1 nos benchmarks MathVista e MMMU.

Impacto na indústria e perspectivas futuras