Nuevo modelo base de 8x7B expertos mixtos (MoE) de MistralAI para generación de texto. Este modelo utiliza una arquitectura de expertos mixtos para generar texto de alta calidad. Sus ventajas incluyen la generación de texto de alta calidad aplicable a diversas tareas de generación de texto. El precio se determina según el uso; consulte el sitio web oficial para obtener más detalles. Su objetivo es resolver problemas en tareas de generación de texto.