DeepSeek-Coder-V2 é um modelo de linguagem de código aberto baseado em Mixture-of-Experts (MoE), com desempenho comparável ao GPT4-Turbo, mostrando-se excepcional em tarefas específicas de código. Baseado no DeepSeek-Coder-V2-Base, ele foi pré-treinado com um corpus multi-fonte de alta qualidade de 6 trilhões de tokens, o que aprimorou significativamente sua capacidade de codificação e raciocínio matemático, mantendo o desempenho em tarefas de linguagem geral. O suporte a linguagens de programação expandiu de 86 para 338, e o comprimento do contexto aumentou de 16K para 128K.