Mistral-22B-v0.2 ist ein leistungsstarkes Modell, das herausragende mathematische und Programmierfähigkeiten demonstriert. Im Vergleich zu V1 wurde die Kohärenz und die Fähigkeit zu mehrstufigen Dialogen in V2 deutlich verbessert. Das Modell wurde neu trainiert und die Zensur entfernt, sodass es alle Fragen beantworten kann. Die Trainingsdaten umfassen vorwiegend mehrstufige Dialoge mit besonderem Schwerpunkt auf Programmierinhalten. Darüber hinaus verfügt das Modell über Agentenfähigkeiten und kann reale Aufgaben ausführen. Es wurde mit einer Kontextlänge von 32k trainiert. Bei der Nutzung ist das GUANACO-Prompt-Format zu beachten.