Segundo a revista Wired, a empresa de inteligência artificial Anthropic já cancelou o acesso à sua série de modelos de inteligência artificial Claude da OpenAI, uma decisão que destaca as relações cada vez mais tensas entre competidores no setor de inteligência artificial.

Segundo fontes informadas, a OpenAI vinha usando os modelos Claude para testes comparativos internos, avaliando o desempenho do Claude em várias dimensões, como programação, escrita e segurança, em comparação com seus próprios modelos, por meio de ferramentas especializadas. Essa prática deixou a Anthropic insatisfeita, considerando que a OpenAI violou os termos de serviço.

O porta-voz da Anthropic declarou: "A equipe técnica da OpenAI também usava nossas ferramentas de programação antes do lançamento do GPT-5, o que viola diretamente nossos termos de serviço." Segundo os termos comerciais da Anthropic, é proibido que outras empresas utilizem o Claude para construir serviços concorrentes.

Claude3 Claude

Ainda assim, a Anthropic disse que continuará fornecendo acesso à OpenAI para "testes de benchmark e avaliações de segurança". Essa reserva indica que, mesmo diante de um aumento na competição comercial, as duas empresas mantêm algum tipo de cooperação no campo de avaliação de segurança de IA.

Diante das acusações da Anthropic, a OpenAI defendeu seu comportamento, dizendo que essa prática é "padrão da indústria". A OpenAI também expressou decepção com a decisão da Anthropic e reforçou que "nossa API ainda está aberta para eles", sugerindo que sua atitude em relação à cooperação é mais aberta.

Este incidente não é isolado. Os executivos da Anthropic já haviam demonstrado resistência em fornecer acesso tecnológico a competidores. O cientista-chefe da empresa, Jared Kaplan, já havia explicado a decisão de cortar o acesso ao editor de código Windsurf, dizendo: "Vender o Claude para a OpenAI era algo estranho." Vale notar que o Windsurf era dito ser alvo potencial de aquisição da OpenAI, mas foi posteriormente comprado pela empresa Cognition.

Essa disputa reflete profundas mudanças na paisagem competitiva da indústria de IA. À medida que as tecnologias de grandes modelos de linguagem se tornam cada vez mais maduras, as empresas estão se esforçando para proteger suas vantagens tecnológicas e evitar que os concorrentes obtenham vantagens injustas. Ao mesmo tempo, isso revela a relação complexa entre as empresas de IA, que tanto competem quanto colaboram.

Do ponto de vista comercial, a decisão da Anthropic tem significado estratégico importante. Ao limitar o acesso dos concorrentes ao Claude, a empresa tenta proteger sua barreira tecnológica, evitando que a OpenAI utilize as vantagens do Claude para melhorar seus próprios modelos. Essa abordagem pode ser compreendida no ambiente competitivo da IA, mas pode afetar a tradição de cooperação aberta da indústria.

Para a OpenAI, a perda do acesso direto ao Claude pode impactar seu desenvolvimento de modelos e trabalho de benchmarking. Acredita-se que o Claude tenha vantagens únicas em algumas tarefas, e a perda dessa referência pode fazer com que a OpenAI fique sem dados importantes para otimizar seus produtos.

Este episódio também levanta reflexões sobre os modelos de cooperação na indústria de IA. Na fase inicial de desenvolvimento tecnológico rápido, a cooperação relativamente aberta entre as empresas beneficiou o progresso da indústria. No entanto, com o aumento do valor comercial e da competição, essa abertura está sendo colocada em xeque.

É interessante notar que, apesar das restrições à cooperação comercial, as duas empresas mantêm cooperação na avaliação de segurança. Isso indica que a segurança da IA é considerada uma preocupação comum que vai além da competição comercial, mostrando a indústria's atenção à desenvolvimento responsável de IA.

Do ponto de vista mais amplo da indústria, esse conflito pode incentivar outras empresas de IA a revisarem suas políticas de cooperação. À medida que a diferenciação tecnológica se torna cada vez mais importante, mais empresas podem adotar medidas protetivas semelhantes, limitando o acesso de concorrentes às tecnologias fundamentais.