Em 15 de abril, a OpenAI anunciou oficialmente em seu blog oficial o lançamento do modelo GPT-4.1, que inclui três submodelos: GPT-4.1, GPT-4.1 mini e GPT-4.1 nano. Esta série apresenta avanços significativos em capacidade de programação, compreensão de instruções e processamento de textos longos, superando amplamente seus antecessores, GPT-4o e GPT-4o mini. A janela de contexto do modelo foi expandida para 1 milhão de tokens, e o banco de dados de conhecimento foi atualizado até junho de 2024, fornecendo suporte aprimorado para tarefas complexas.
A série GPT-4.1 está atualmente disponível apenas para desenvolvedores por meio de uma API. Usuários comuns ainda não podem experimentar diretamente por meio da interface do ChatGPT. A OpenAI revelou que o GPT-4.1 apresenta uma velocidade de geração de código 40% mais rápida em comparação com o GPT-4o, além de uma redução de 80% no custo das consultas, otimizando significativamente a eficiência e o custo de desenvolvimento.
Desempenho: Novos recordes em vários testes de referência
- Capacidade de programação: No teste SWE-bench Verified, o GPT-4.1 alcançou uma pontuação de 54,6%, um aumento de 21,4 pontos percentuais em relação ao GPT-4o;
- Obediência a instruções: Melhora de 10,5 pontos percentuais no teste MultiChallenge;
- Processamento multimodal: Nova pontuação máxima de 72,0% no teste Video-MME.
O GPT-4.1 mini apresentou desempenho próximo ou superior ao GPT-4o em vários testes, com uma redução de quase 50% na latência e 83% na redução de custos. Já o GPT-4.1 nano, como versão leve, com uma janela de contexto de 1 milhão de tokens e uma pontuação de 80,1% no MMLU, tornou-se uma opção econômica para tarefas de classificação e preenchimento automático. Graças à otimização da pilha de inferência e à tecnologia de cache de prompts, o tempo de resposta inicial da série de modelos foi significativamente reduzido, oferecendo aos desenvolvedores soluções eficientes e de baixo custo.
Resultados significativos em cenários de aplicação prática
- Eficiência de programação: O teste Windsurf mostrou uma melhoria de 30% na eficiência de programação do GPT-4.1 e uma redução de 50% em edições ineficazes;
- Área jurídica: Após a integração do GPT-4.1, o assistente jurídico de IA CoCounsel da Thomson Reuters apresentou uma melhoria de 17% na precisão da revisão de vários documentos.
O custo de entrada do GPT-4.1 é de US$ 2 por 1 milhão de tokens (aproximadamente R$ 14,6), e o custo de saída é de US$ 8 (aproximadamente R$ 58,3). Em cenários de consulta moderada, o GPT-4.1 oferece um aumento de desempenho em relação ao GPT-4o, além de uma redução de custos de 26%. O GPT-4.1 nano, com sua latência e custos extremamente baixos, é atualmente a opção de modelo mais econômica da OpenAI.