Kürzlich haben sich die MoDa-Community, vLLM und FastChat zusammengeschlossen, um chinesischen Entwicklern schnellere und effizientere LLM-Inferenz- und Bereitstellungsdienste anzubieten. Entwickler können vLLM als Inferenz-Engine in FastChat verwenden, um eine hohe Durchsatzleistung bei der Modellinferenz zu erzielen. FastChat ist eine offene Plattform zum Trainieren, Bereitstellen und Bewerten von Chatbots auf Basis von LLMs. vLLM ist ein von Forschern der University of California, Berkeley, der Stanford University und der University of California, San Diego entwickeltes LLM-Servicessystem. Mit FastChat und vLLM können Entwickler die Modelle von MoDa schnell zum Inferenzieren laden.
Modak Community kooperiert mit vLLM und FastChat, um effiziente LLM-Inferenz- und Bereitstellungsdienste anzubieten

站长之家
Dieser Artikel stammt aus dem AIbase-Tagesbericht
Willkommen im Bereich [KI-Tagesbericht]! Hier ist Ihr Leitfaden, um jeden Tag die Welt der künstlichen Intelligenz zu erkunden. Jeden Tag präsentieren wir Ihnen die Hotspots im KI-Bereich, konzentrieren uns auf Entwickler und helfen Ihnen, technologische Trends zu erkennen und innovative KI-Produktanwendungen zu verstehen.