Das Massachusetts Institute of Technology (MIT) präsentierte diese Woche ein völlig neues Robotertrainingsmodell. Anstatt sich wie bisher auf spezifische Datensätze zu konzentrieren, verwendet es eine riesige Datenmenge, ähnlich wie bei der Ausbildung großer Sprachmodelle (LLMs).

Forscher weisen darauf hin, dass Imitationslernen – bei dem ein Agent durch Nachahmung von Individuen, die eine Aufgabe ausführen, lernt – bei kleinen Herausforderungen scheitern kann. Diese Herausforderungen können unterschiedliche Lichtverhältnisse, verschiedene Umgebungseinstellungen oder neue Hindernisse umfassen. In solchen Fällen verfügen die Roboter nicht über genügend Daten, um sich an diese Veränderungen anzupassen.

Roboter schreibt Prüfung - Roboter-Abitur

Bildquelle: Das Bild wurde mit KI generiert und stammt von Midjourney.

Das Team orientierte sich an Modellen wie GPT-4 und verwendete eine grob datengetriebene Methode zur Problemlösung.

„Im Bereich der Sprache sind Daten Sätze“, sagt Lirui Wang, Hauptautor der Studie. „Im Bereich der Robotik, angesichts der Vielfalt der Daten, benötigen wir für ein ähnliches Pretraining eine andere Architektur.“

Das Team führte eine neue Architektur namens Heterogeneous Pretraining Transformer (HPT) ein, die Informationen von verschiedenen Sensoren und verschiedenen Umgebungen integriert. Ein Transformer verarbeitet dann die Daten in das Trainingsmodell. Je größer der Transformer, desto besser das Ergebnis.

Der Benutzer gibt dann das Design und die Konfiguration des Roboters sowie die gewünschte Aufgabe ein.

„Unser Traum ist es, ein universelles Robotergehirn zu haben, das man herunterladen und für seinen Roboter verwenden kann, ohne ihn trainieren zu müssen“, sagt David Held, außerordentlicher Professor an der Carnegie Mellon University, über die Forschung. „Wir stehen zwar noch am Anfang, aber wir werden weiter daran arbeiten, in der Hoffnung, dass die Skalierung, ähnlich wie bei großen Sprachmodellen, einen Durchbruch für Roboterstrategien bringen wird.“

Die Forschung wurde teilweise vom Toyota Research Institute (TRI) finanziert. Im vergangenen Jahr präsentierte TRI auf der TechCrunch Disrupt eine Methode zum Trainieren von Robotern über Nacht. Kürzlich ging es eine wegweisende Partnerschaft ein, die seine Robotik-Lernforschung mit der Hardware von Boston Dynamics verbindet.