Recentemente, a empresa de inteligência artificial Anthropic lançou seu novo produto: a API de processamento em lote de mensagens (Message Batches API). Essa nova tecnologia reduz em 50% os custos para empresas que processam grandes volumes de dados, o que sem dúvida é uma ótima notícia para o processamento de big data.

image.png

Com essa API, as empresas podem processar de forma assíncrona até 10.000 consultas em 24 horas, tornando os modelos de IA de ponta mais acessíveis.

Com o desenvolvimento contínuo da tecnologia de IA, os desafios enfrentados pelas empresas também aumentam, especialmente no processamento de dados. A API de processamento em lote lançada pela Anthropic é 50% mais barata que o processamento em tempo real, tanto nos custos de tokens de entrada quanto de saída.

image.png

Precificação detalhada

Alta taxa de transferência com metade do custo

Desenvolvedores frequentemente usam o Claude para processar grandes quantidades de dados — desde analisar feedback de clientes até traduzir idiomas — dados que não requerem resposta em tempo real.

De acordo com a empresa, os desenvolvedores não precisam gerenciar sistemas de fila complexos ou se preocupar com limites de taxa. Eles podem usar a API de Lotes para enviar grupos de até 10.000 consultas e deixar a Anthropic processá-las com 50% de desconto. Os lotes serão processados em 24 horas, mas geralmente muito mais rápido. Outras vantagens incluem:

  • Maior taxa de transferência: aproveite limites de taxa mais altos para lidar com volumes maiores de solicitações, sem afetar seus limites de taxa de API padrão.

  • Escalabilidade de big data: processe tarefas em larga escala, como análise de conjuntos de dados, classificação de grandes conjuntos de dados ou avaliação ampla de modelos, sem se preocupar com problemas de infraestrutura.

A API de Lotes abre novas possibilidades para o processamento de dados em larga escala, possibilidades que antes eram pouco práticas ou muito caras. Por exemplo, usando o desconto da API de Lotes, analisar todo o repositório de documentos de uma empresa (que pode envolver milhões de arquivos) se torna economicamente mais viável.

Isso não apenas facilita o uso da tecnologia de IA por empresas médias, mas também dá à Anthropic uma vantagem na competição com outras empresas de IA, especialmente a OpenAI. A OpenAI lançou um recurso de processamento em lote semelhante anteriormente, tornando a ação da Anthropic ainda mais significativa.

image.png

Curiosamente, essa mudança não é apenas uma simples estratégia de redução de preços, mas uma transformação na filosofia de precificação do setor. Ao oferecer descontos para processamento em larga escala, a Anthropic cria economia de escala para a computação de IA e pode impulsionar a adoção da IA por empresas médias. Imagine a análise de dados em larga escala, antes considerada cara e complexa, agora se tornando tão simples e acessível.

Vale mencionar que a API de processamento em lote da Anthropic já está disponível para seus modelos Claude3.5Sonnet, Claude3Opus e Claude3Haiku. No futuro, esse recurso também será expandido para o Vertex AI do Google Cloud e o Amazon Bedrock.

Embora o processamento em lote seja mais lento que os aplicativos que exigem resposta em tempo real, em muitos cenários de negócios, o processamento "oportuno" costuma ser mais importante que o processamento "em tempo real". As empresas estão começando a priorizar o equilíbrio entre custo e velocidade, o que terá um novo impacto na implementação da IA.

No entanto, apesar das vantagens óbvias do processamento em lote, ele também levanta algumas questões. À medida que as empresas se acostumam com o processamento em lote de baixo custo, isso afetará o desenvolvimento futuro da tecnologia de IA em tempo real? Para manter um ecossistema de IA saudável, é necessário encontrar um equilíbrio adequado entre o avanço do processamento em lote e a capacidade de processamento em tempo real.

Pontos importantes:

✅ A nova API de processamento em lote de mensagens da Anthropic reduz em 50% os custos para empresas que processam grandes volumes de dados.

✅ A nova API suporta até 10.000 consultas assíncronas, melhorando a acessibilidade do processamento de big data.

✅ As empresas estão começando a priorizar o processamento "oportuno" em aplicativos de IA, o que pode representar um desafio para o desenvolvimento de IA em tempo real.