[Reportagem da AIbase] Recentemente, uma pequena empresa de San Francisco, pouco conhecida mas de grande destaque, a Deep Cogito, lançou sua série de modelos de linguagem de grande porte (LLM) Cogito v2, tentando se destacar no competitivo cenário de IA de código aberto. Ao contrário das estratégias tradicionais de empilhamento de parâmetros, esta empresa fundada por engenheiros ex-Google apostou na "intuição da máquina" e em capacidades de raciocínio de autoaperfeiçoamento, criando um modelo de IA que realmente "aprende enquanto é usado".
O modelo não apenas responde perguntas, mas também aprende "como responder"
A série Cogito v2 inclui quatro modelos, com escalas de parâmetros variando de 70B a 671B, divididos em modelos densos (Dense) e modelos mistos de especialistas (MoE), todos disponíveis para uso nos plataformas Hugging Face e Together AI. O modelo principal Cogito v2-671B MoE é chamado de "IA de raciocínio com a maior eficiência", com caminhos de raciocínio 60% mais curtos do que o DeepSeek R1, enquanto sua performance pode ser comparável ou até superar o Qwen1.5-72B e o Claude4Opus.
Sua tecnologia central reside no fato de que o modelo não apenas realiza "raciocínio introspectivo" durante a execução, mas também extrai esses caminhos de raciocínio para dentro dos pesos do modelo, formando uma intuição interna. Este mecanismo permite que o modelo "fique mais inteligente" a cada raciocínio, assim como o AlphaGo aprimora suas estratégias através de partidas.
Capacidade de raciocínio testada na prática: mais rápido, caminho mais curto
A Deep Cogito publicou vários exemplos de teste para validar sua "intuição da máquina":
Em problemas matemáticos, o Cogito671B chegou à conclusão com uma cadeia de raciocínio de apenas 100 tokens, enquanto o DeepSeek R1 usou mais de 200 tokens.
Na razão jurídica, ele usou uma estrutura lógica de duas etapas para produzir conclusões claras, superando muitos modelos, até mesmo o desempenho de estudantes de direito reais.
Na clássica questão de lógica familiar "Alice é avó de Charlie?", o Cogito v2 evitou com sucesso o armadilhão de ambiguidade de pronomes e respondeu corretamente "avó".
Rotas de treinamento com menor custo, desafiando o mito de orçamentos de milhões
Ainda que o tamanho do modelo Cogito v2 seja enorme, a Deep Cogito afirma que o custo total para treinar os oito modelos foi inferior a 3,5 milhões de dólares, contrastando fortemente com os gastos de centenas de milhões de dólares de empresas como a OpenAI e a Anthropic.
O CEO da empresa, Drishan Arora, disse: “Melhores modelos não são feitos treinando mais dados, mas treinando dados mais significativos.” Esta é exatamente a chave para o avanço dos modelos Cogito nas tarefas de raciocínio.
Continuação do conceito de código aberto, construindo um sistema de modelos "evolutivos"
Os modelos Cogito v2 já podem ser baixados ou acessados via API nas plataformas Hugging Face, Baseten, RunPod e Unsloth. Para cenários de implantação leve, o Cogito671B também oferece uma versão quantificada FP8, permitindo que grandes modelos funcionem com requisitos menores de hardware, aumentando a eficiência de raciocínio, com apenas uma leve redução na precisão.
Mais importante ainda, a Deep Cogito promete que todos os modelos serão abertos e continuarão sendo iterados e otimizados, formando uma nova rota de treinamento de modelos baseada no "feedback da cadeia de raciocínio + autoaperfeiçoamento".