Microsofts Open-Source-Framework FP8-LM hat bemerkenswerte Erfolge beim Training großer Sprachmodelle erzielt. Das Framework nutzt FP8-Mixed-Precision-Training und ist beim Training des GPT-175B-Modells um 64% schneller als BF16 und spart gleichzeitig 42% Speicherplatz. Mit dem FP8-LM-Framework lässt sich die Größe trainierbarer Modelle deutlich erhöhen – ein wichtiger Durchbruch im Bereich des Trainings großer Modelle.
Microsoft veröffentlicht FP8-LM Framework: 64% schnelleres & 42% speichereffizienteres Training großer Sprachmodelle

机器之心
Dieser Artikel stammt aus dem AIbase-Tagesbericht
Willkommen im Bereich [KI-Tagesbericht]! Hier ist Ihr Leitfaden, um jeden Tag die Welt der künstlichen Intelligenz zu erkunden. Jeden Tag präsentieren wir Ihnen die Hotspots im KI-Bereich, konzentrieren uns auf Entwickler und helfen Ihnen, technologische Trends zu erkennen und innovative KI-Produktanwendungen zu verstehen.