A plataforma de aprendizado profundo PaddlePaddle, subsidiária da Baidu, anunciou recentemente o lançamento oficial de sua nova geração de framework, o PaddlePaddle 3.0. Esta versão 3.0 apresenta cinco inovações tecnológicas principais, incluindo o "paralelismo automático unificado estático e dinâmico", com o objetivo de reduzir eficazmente os custos de desenvolvimento e treinamento de grandes modelos e apoiar a construção de infraestrutura para a era dos grandes modelos.

Como infraestrutura básica essencial para o treinamento e inferência de grandes modelos, o framework PaddlePaddle 3.0 apresenta excelente desempenho em termos de otimização. Este framework já suporta vários grandes modelos populares, incluindo Wenxin 4.5 e Wenxin X1, e graças à implantação monolítica otimizada do DeepSeek-R1, melhora significativamente a taxa de transferência, com um aumento de até 100%.

Baidu (4)

Em termos de velocidade de cálculo, o framework PaddlePaddle 3.0, graças ao seu compilador de redes neurais CINN, teve seu desempenho consideravelmente aprimorado. A velocidade de execução de alguns operadores foi multiplicada por quatro, e a velocidade de treinamento de ponta a ponta dos modelos foi melhorada em 27,4%, reduzindo assim significativamente o tempo de treinamento de grandes modelos.

Em termos de adaptação de hardware, o PaddlePaddle 3.0 oferece uma solução de adaptação unificada para vários chips, suportando mais de 60 chips comuns e cobrindo muitos cenários de aplicação, incluindo clusters de treinamento, direção autônoma e terminais inteligentes. Os desenvolvedores precisam escrever o código apenas uma vez para realizar uma migração transparente entre os chips, reduzindo assim significativamente os custos de adaptação de hardware, até 80%.

O lançamento do PaddlePaddle 3.0 representa, sem dúvida, uma grande inovação tecnológica para frameworks de aprendizado profundo, oferecendo suporte mais eficiente e flexível para o desenvolvimento e implantação de modelos de inteligência artificial em larga escala.