O modelo WizardMath, desenvolvido por uma equipe totalmente chinesa da Microsoft, é um modelo de código aberto de 70 bilhões de parâmetros. Utilizando instruções geradas por IA para ajuste fino, superou modelos como ChatGPT, Claude Instant 1 e PaLM 2-540B em capacidade matemática.
O código-fonte e o artigo do modelo WizardMath já foram publicados no GitHub, recebendo ampla atenção da comunidade acadêmica e de desenvolvedores. A metodologia empregada utiliza a técnica "Evil Instruction", gerando automaticamente instruções de domínio aberto com diversos níveis de dificuldade para aprimorar o processamento do modelo.
Os autores também desenvolveram modelos para outras áreas usando este método, como o WizardCoder, focado em habilidades de codificação.
A equipe de pesquisa é composta por diversos cientistas chineses, incluindo pesquisadores do Microsoft Internet Engineering Institute da Ásia e do Microsoft Research.