Récemment, la communauté ModelScope a collaboré avec vLLM et FastChat pour fournir aux développeurs chinois des services d'inférence et de déploiement de LLM plus rapides et plus efficaces. Les développeurs peuvent utiliser vLLM comme moteur d'inférence dans FastChat, offrant ainsi une inférence de modèles à haut débit. FastChat est une plateforme ouverte pour l'entraînement, le service et l'évaluation de ChatBots basés sur les LLM. vLLM est un système de service LLM développé par des chercheurs de l'Université de Californie à Berkeley, de l'Université de Stanford et de l'Université de Californie à San Diego. Grâce à FastChat et vLLM, les développeurs peuvent rapidement charger et utiliser les modèles ModelScope pour l'inférence.
Modèles de langage de grande taille (LLM) : collaboration entre la communauté ModelScope, vLLM et FastChat pour des services d'inférence et de déploiement performants

站长之家
Cet article provient d'AIbase Daily
Bienvenue dans la section [AI Quotidien] ! Voici votre guide pour explorer le monde de l'intelligence artificielle chaque jour. Chaque jour, nous vous présentons les points forts du domaine de l'IA, en mettant l'accent sur les développeurs, en vous aidant à comprendre les tendances technologiques et à découvrir des applications de produits IA innovantes.