DeepSeek-Coder-V2
Open-Source Code Sprachmodell zur Verbesserung der Programmierintelligenz.
Premium-NeuproduktProgrammierungCodegenerierungProgrammierunterstützung
DeepSeek-Coder-V2 ist ein Open-Source Mixture-of-Experts (MoE) Code-Sprachmodell mit einer Leistung vergleichbar zu GPT-4-Turbo, das in codespezifischen Aufgaben hervorragende Ergebnisse erzielt. Basierend auf DeepSeek-Coder-V2-Base wurde es durch ein weiteres Pretraining mit einem 6 Billionen Token umfassenden, hochwertigen, mehrsprachigen Datenkorpus deutlich verbessert. Dies führte zu einer signifikanten Steigerung der Fähigkeiten in den Bereichen Codierung und mathematisches Schließen, während die Leistung in allgemeinen Sprach-Aufgaben erhalten blieb. Die unterstützten Programmiersprachen wurden von 86 auf 338 erweitert, die Kontextlänge von 16K auf 128K erhöht.
DeepSeek-Coder-V2 Neueste Verkehrssituation
Monatliche Gesamtbesuche
485459945
Absprungrate
35.86%
Durchschnittliche Seiten pro Besuch
6.1
Durchschnittliche Besuchsdauer
00:06:25