DRT-o1-7B ist ein Modell, das sich der erfolgreichen Anwendung von langfristigem, überlegtem Schlussfolgern (Long-Thought Reasoning) in der neuronalen Maschinenübersetzung (NMT) widmet. Das Modell extrahiert englische Sätze, die sich für Übersetzungen mit langfristigem Denken eignen, und schlägt einen Multi-Agenten-Framework mit drei Rollen – Übersetzer, Berater und Bewerter – vor, um NMT-Beispiele zu synthetisieren. DRT-o1-7B und DRT-o1-14B werden mit Qwen2.5-7B-Instruct und Qwen2.5-14B-Instruct als Backbone-Netzwerke trainiert. Der Hauptvorteil des Modells liegt in seiner Fähigkeit, komplexe Sprachstrukturen und tiefere semantische Zusammenhänge zu verarbeiten, was für die Verbesserung der Genauigkeit und Natürlichkeit der Maschinenübersetzung entscheidend ist.