Nemotron-4-340B-Base ist ein von NVIDIA entwickeltes großes Sprachmodell mit 340 Milliarden Parametern und einer Kontextlänge von 4096 Token. Es eignet sich zur Generierung synthetischer Daten und unterstützt Forscher und Entwickler beim Aufbau eigener großer Sprachmodelle. Das Modell wurde mit 9 Billionen Token vortrainiert und umfasst über 50 natürliche Sprachen und über 40 Programmiersprachen. Die NVIDIA Open-Model-Lizenz erlaubt die kommerzielle Nutzung sowie die Erstellung und Verbreitung abgeleiteter Modelle. Es wird keine Eigentumsansprüche an den Output geltend gemacht, der mit dem Modell oder abgeleiteten Modellen erzeugt wird.