AIbase基地
Publicado elNoticias de IA · 6 minutos de lectura · Jun 8, 2025 < p > El 6 de junio, el equipo de Mindaide Intelligence lanzó oficialmente su última creación: la serie MiniCPM4.0, que ha sido apodada como "el cañón ligero más imaginativo de todos los tiempos". Esta serie no solo ha logrado un salto cuantitativo en rendimiento en el lado del dispositivo, sino que también ha establecido un nuevo hito en innovación tecnológica. < /p > < p > La serie MiniCPM4.0 incluye dos productos destacados: uno es una versión ligera de 8B con arquitectura de escasez innovadora, que ha desatado una tormenta eficiente gracias a su estructura de escasez innovadora; el otro es una versión compacta de solo 0.5B, conocida como "el cañón ligero más potente". Ambos modelos han demostrado un excelente rendimiento en términos de velocidad, eficiencia, desempeño y aplicaciones prácticas. < /p > < p > En cuanto a la velocidad, MiniCPM4.0 ha logrado una mejora de hasta 220 veces en situaciones límite y 5 veces en condiciones normales. Este avance se debe a las capas de aceleración de la innovación de escasez a nivel de sistema. Mediante la tecnología de cambio de marchas dual de alta eficiencia, el modelo puede cambiar automáticamente entre mecanismos de atención dispersa y densa según la longitud del texto, asegurando un procesamiento rápido y eficiente de textos largos y reduciendo significativamente el almacenamiento en el lado del dispositivo. En comparación con el modelo Qwen3-8B, solo necesita una cuarta parte del espacio de almacenamiento en caché. < /p > < p style = "text-align:center" > < img src = "https://upload.chinaz.com/2025/0608/6388497352726253514384248.png" title = "微信截图_20250608095812.png" alt = "微信截图_20250608095812.png" /> < /p > < p > En términos de eficiencia, MiniCPM4.0 ha contribuido con la primera innovación de eficiencia sistémica de escasez de contexto completamente abierta de la industria, alcanzando una aceleración extrema con una escasez extremadamente alta del 5%, además de integrar tecnologías innovadoras autodevelopadas para optimizar integralmente desde el nivel de arquitectura, sistema,推理 hasta los niveles de datos, logrando un aterrizaje eficiente de software y hardware de escasez a nivel sistemático. < /p > < p > En términos de rendimiento, MiniCPM4.0 ha continuado con la tradición de "pequeño pero poderoso". La versión de 0.5B solo requirió el 2.7% del costo de entrenamiento para alcanzar la mitad de los parámetros y duplicar el rendimiento; mientras que la versión de 8B con escasez logró una efectividad equivalente o superior a Qwen3 y Gemma312B con un costo de entrenamiento del 22%, consolidando así su liderazgo en el campo del lado del dispositivo. < /p > < p > En términos de implementación práctica, MiniCPM4.0 ha mostrado una capacidad impresionante. A través del marco de inferencia CPM.cu autodesarrollado de extremo a extremo, combinado con innovaciones como el muestreo especulativo, la compresión y cuantificación de modelos y el marco de implementación en extremo, ha logrado reducir el tamaño del modelo en un 90% mientras maximiza la velocidad al máximo, garantizando una experiencia fluida desde el inicio hasta el final en la inferencia del extremo. < /p > < p > Actualmente, este modelo ya se ha adaptado exitosamente a chips principales como Intel, Qualcomm, MTK y Huawei Ascend, y ha logrado implementarse en varias plataformas de marcos de código abierto, expandiendo aún más su potencial de aplicación. < /p > < p > Colección de modelos: < /p > < p > https://www.modelscope.cn/collections/MiniCPM-4-ec015560e8c84d < /p > < p > Github: < /p > < p > https://github.com/openbmb/minicpm < /p >