DBRX ist ein universelles großes Sprachmodell (LLM), das vom Mosaic-Forschungsteam von Databricks entwickelt wurde und in Standard-Benchmarks alle bestehenden Open-Source-Modelle übertrifft. Es verwendet eine Mixture-of-Experts (MoE)-Architektur mit 36,2 Milliarden Parametern und verfügt über hervorragende Fähigkeiten in den Bereichen Sprachverständnis, Programmierung, Mathematik und logisches Denken. DBRX zielt darauf ab, die Entwicklung hochwertiger Open-Source-LLMs voranzutreiben und Unternehmen die einfache Anpassung des Modells an ihre eigenen Daten zu ermöglichen. Databricks bietet Unternehmen Nutzern die Möglichkeit, DBRX interaktiv zu verwenden, mit seiner Fähigkeit zu langen Kontexten retrieval-augmented Systeme zu erstellen und eigene, auf ihren Daten basierende DBRX-Modelle zu entwickeln.