Yi-Coder ist eine Reihe quelloffener, großer Sprachmodelle (LLMs) für Code, die selbst mit weniger als 10 Milliarden Parametern modernste Codierungsleistung bieten. Es gibt zwei Größen – 1,5 Milliarden und 9 Milliarden Parameter – mit Basis- und Chat-Versionen, die auf effizientes Inferencing und flexibles Training ausgelegt sind. Yi-Coder-9B wurde zusätzlich mit 2,4 Billionen hochwertigen Tokens auf einem Code-Corpus auf GitHub-Repositories und aus CommonCrawl gefilterten codebezogenen Daten trainiert. Yi-Coder zeichnet sich in verschiedenen Programmieraufgaben aus, darunter Basis- und Wettkampfprogrammierung, Code-Editing und Repository-Level-Completion, Verständnis langer Kontexte und mathematisches Schlussfolgern.