DeepSeek-Coder-V2 es un modelo mixto de expertos (MoE) de código abierto, diseñado específicamente para lenguajes de código, con un rendimiento comparable a GPT4-Turbo. Destaca en tareas específicas de código, manteniendo un rendimiento considerable en tareas de lenguaje general. En comparación con DeepSeek-Coder-33B, la versión V2 muestra una mejora significativa en tareas relacionadas con código y capacidad de razonamiento. Además, la cantidad de lenguajes de programación compatibles se ha ampliado de 86 a 338, y la longitud del contexto de 16K a 128K.