Eine KI-Chip-Startup namens EnCharge AI hat einen KI-Accelerator namens EN100 auf Basis der Technologie der analogen Speicherrechnung vorgestellt. Das Produkt ist darauf ausgelegt, die Abhängigkeit von Rechenzentren für KI-Berechnungen zu brechen und fortschrittliche KI-Funktionen direkt auf Laptops und Edge-Geräten bereitzustellen.
Technologischer Durchbruch: 20-fache Energieeffizienzsteigerung
Der EN100 nutzt die einzigartige analoge Speicherrechnungsarchitektur von EnCharge AI und bietet im Vergleich zu Wettbewerbslösungen bis zu 20-mal bessere Leistung pro Watt bei verschiedenen KI-Arbeitslasten. Der Chip benötigt für die Ausführung fortschrittlicher KI-Modelle nur so viel Energie wie eine Glühbirne, was das herkömmliche KI-Rechnungsmuster vollständig revolutioniert.
„EN100 stellt eine grundlegende Umstellung der Architektur der KI-Berechnung dar“, sagte Naveen Verma, CEO von EnCharge AI. „Das bedeutet, dass fortschrittliche, sichere und personalisierte KI-Unterstützung lokal laufen kann, ohne auf Cloud-Infrastrukturen angewiesen zu sein. Wir hoffen, dass dies die Anwendungsbereiche von KI grundlegend erweitern wird.“
Zwei Versionen für unterschiedliche Bedürfnisse
EN100 bietet zwei Varianten, um verschiedene Anwendungsfälle abzudecken:
M.2-Version für Laptops: In einem Stromverbrauch von 8,25 Watt bietet sie eine AI-Berechnungsleistung von über 200 TOPS, sodass komplexe AI-Anwendungen auf Laptops laufen können, ohne die Batterielaufzeit oder Portabilität zu beeinträchtigen.
PCIe-Version für Workstations: Mit vier NPU bietet sie eine Rechenleistung von etwa 1 PetaOPS und kombiniert dabei geringe Kosten und Energieverbrauch mit GPU-artiger Leistungsfähigkeit. Sie ist speziell für komplexe Modelle und große Datensätze in professionellen AI-Anwendungen konzipiert.
Herausragende Rechen-Dichte
Die analoge Speicherrechnungsmethode von EnCharge AI ermöglicht ihrer Chiparchitektur eine Rechen-Dichte von etwa 30 TOPS/mm², im Vergleich dazu erreichen herkömmliche digitale Architekturen lediglich 3 TOPS/mm². Diese Vorteile ermöglichen OEM-Herstellern, starke AI-Funktionen in Geräten zu integrieren, ohne auf Größe, Gewicht oder Design einzubüßen.
Festes Kapital und technisches Hintergrund
Bisher hat EnCharge AI 144 Millionen US-Dollar an Kapital gesammelt, unter anderem von renommierten Investoren wie Tiger Global Management, Samsung Ventures und IQT. Das Unternehmen wurde 2022 von Princeton University abgespalten und basiert auf den siebenjährigen Forschungsergebnissen des Gründer-Teams in der Entwicklung nächster Generationen von Rechenarchitekturen.
Im März 2024 bekam das Unternehmen außerdem eine Förderung von 18,6 Millionen US-Dollar von DARPA durch die Zusammenarbeit mit Princeton University, um schnelle, energieeffiziente und skalierbare Speicherrechnerbeschleuniger zu entwickeln.
Lösung für Branchenschmerzen
Während KI-Modelle in ihrer Komplexität exponentiell wachsen, stoßen traditionelle Rechenarchitekturen an ihre Grenzen. Die Internationale Energie-Agentur prognostiziert, dass der Stromverbrauch von Rechenzentren bis 2026 auf das Doppelte steigen wird, mit einer Vorhersage von 10 Millionen Terawatt, was dem aktuellen Energieverbrauch Japans entspricht. Die Technologie von EnCharge AI bietet hierfür eine Lösung.
Marktdeployment-Planung
Obwohl die erste Runde des Early Access-Programms bereits ausgebucht ist, können interessierte Entwickler und OEM-Hersteller unter www.encharge.ai/en100 registrieren, um über die bevorstehende zweite Runde zu informieren. Partner im Rahmen des Early Access-Programms arbeiten bereits eng mit EnCharge zusammen, um die Anwendungen von EN100 in Bereichen wie immer-aktivierten multimodalen AI-Agenten und erweiterten Gaming-Anwendungen zu planen.
Derzeit mit 66 Mitarbeitern stark, konzentriert sich EnCharge AI auf das schnell wachsende Marktsegment von AI-PCs und Edge-Geräten, wo ihr Energieeffizienzvorteil am stärksten zum Tragen kommt und die Art und Weise, wie KI-Berechnungen erfolgen und verteilt werden, grundlegend verändern könnte.