Recientemente, la plataforma SiliconCloud de SiliconBase lanzó una nueva versión con aceleración de inferencia basada en la potencia computacional nacional, llamada DeepSeek-R1-0528. Esta versión mejorada presenta un aumento significativo en el rendimiento, alcanzando 5 millones de TPM (tokens máximos por minuto), lo que satisface las necesidades de alta concurrencia en escenarios complejos. Además, el RPM (número máximo de solicitudes permitidas por minuto) de la versión Pro R1 también se ha incrementado a 30 mil, asegurando una experiencia de uso fluida.

image.png

Los usuarios que utilizaban la primera versión de DeepSeek-R1 podrán disfrutar automáticamente de la experiencia del nuevo modelo sin necesidad de modificar la configuración de los parámetros de la API. La nueva versión soporta funciones como Function Calling, JSON Mode, Prefix y FIM. Para garantizar una transición suave para los usuarios empresariales, el servicio de la versión inicial DeepSeek-R1-0120 seguirá disponible hasta el 28 de junio.

DeepSeek-R1-0528 destaca por una mejora significativa en la reducción de alucinaciones, disminuyendo su tasa en un 45% a 50%. En aplicaciones como la reescritura de textos, resúmenes y comprensión lectora, la nueva versión ofrece resultados más precisos y confiables. En la escritura creativa, esta versión optimiza aún más el procesamiento de estilos literarios como ensayos, novelas y prosa, generando obras más largas con estructuras más completas y un estilo más cercano al humano.

image.png

En cuanto a la capacidad de invocación de herramientas, DeepSeek-R1-0528 es comparable con OpenAI o1-high. Además, este modelo también ha mostrado mejoras significativas en áreas como la generación de código front-end y el rol de personajes. En múltiples pruebas benchmark, la nueva versión destacó en matemáticas, programación y lógica general, siendo comparable con modelos internacionales de vanguardia como o3 y Gemini-2.5-Pro.

Los usuarios han reportado que la versión R1 mejorada es más inteligente y humana. Algunos desarrolladores señalaron que en los desafíos de codificación, el sistema construyó exitosamente un sistema de puntuación de palabras y el código y archivos de prueba generados funcionaron correctamente en su primera ejecución, convirtiéndose en el segundo caso exitoso después de o3. Además, DeepSeek-R1-0528 muestra una capacidad de adaptación lingüística e inferencia más notable, brindando una experiencia de usuario agradable.

Actualmente, los usuarios pueden invocar DeepSeek-R1-0528 a través de la API de la plataforma SiliconCloud de SiliconBase. La empresa se dedica a proporcionar APIs de modelos grandes eficientes y estables a los desarrolladores, ayudándoles a implementar mejores aplicaciones de IA generativa.

Resaltado clave:

🌟 TPM aumentado a 5 millones, compatible con altas demandas de concurrencia.

💡 Reducción del 45%-50% en la tasa de alucinaciones, ofreciendo salidas más precisas.

🚀 El nuevo modelo muestra inteligencia y características más humanizadas.