MoE-LLaVA
Experten-Mix-Modell basierend auf einem großskaligen Bild-Sprach-Modell
Normales ProduktBildGroßes SprachmodellMultimodales Lernen
MoE-LLaVA ist ein Experten-Mix-Modell, das auf einem großskaligen Bild-Sprach-Modell basiert und im multimodalen Lernen herausragende Leistungen zeigt. Es zeichnet sich durch eine geringe Anzahl an Parametern bei gleichzeitig hoher Performance aus und kann in kurzer Zeit trainiert werden. Das Modell unterstützt eine Gradio Web-Oberfläche und CLI-Inferenz und bietet Funktionen wie Modellbibliothek, Anforderungen und Installation, Training und Validierung, Anpassung, Visualisierung und API.
MoE-LLaVA Neueste Verkehrssituation
Monatliche Gesamtbesuche
513197610
Absprungrate
36.07%
Durchschnittliche Seiten pro Besuch
6.1
Durchschnittliche Besuchsdauer
00:06:32