El motor de火山引擎, perteneciente a ByteDance, ha lanzado recientemente la versión 1.6 del modelo grande Douba. Este es el primer modelo de lenguaje grande en China que admite nativamente la regulación por niveles de longitud de pensamiento. La nueva versión ofrece cuatro opciones de profundidad de pensamiento: Minimal, Low, Medium y High, permitiendo a los usuarios ajustar flexiblemente el proceso de razonamiento del modelo según la complejidad de la tarea, logrando un equilibrio entre la calidad de salida y la velocidad de respuesta.
Desde el punto de vista técnico, la longitud de pensamiento ajustable es la función principal de esta actualización. En los modos de bajo nivel de pensamiento, el consumo de tokens al generar contenido con Douba 1.6 se reduce en un 77,5% en comparación con el modo único, y el tiempo de razonamiento se acorta en un 84,6%, manteniendo la misma calidad de salida. Este mecanismo permite al modelo ajustarse dinámicamente según las necesidades del escenario: para tareas como preguntas simples o bocetos rápidos, se puede elegir un modo de bajo nivel para mejorar la velocidad de respuesta; mientras que para tareas de razonamiento complejo o análisis profundo, se puede cambiar a un modo alto para garantizar la calidad de salida.
Además de la versión estándar, Volcán Engine también lanzó simultáneamente la versión ligera Douba 1.6. Esta versión está principalmente orientada a escenarios empresariales, optimizada en velocidad de razonamiento y control de costos. Según los datos de evaluación oficial, la versión ligera Douba 1.6 mostró un rendimiento general mejorado en un 14% en pruebas empresariales en comparación con la versión anterior, Douba 1.5pro. En términos de costos, para el intervalo de entrada más utilizado, 0-32k, el costo total de uso fue reducido en un 53,3% en comparación con Douba 1.5pro, lo cual tiene un significado práctico para clientes empresariales con altas necesidades de llamadas.
Desde la perspectiva de la posición del producto, el mecanismo de pensamiento por niveles de Douba 1.6 aborda las痛点 de eficiencia en aplicaciones reales. Los grandes modelos tradicionales suelen utilizar una profundidad fija de razonamiento, lo que lleva a un exceso de cálculo en tareas simples, causando desperdicio de recursos, y en tareas complejas, puede afectar la calidad debido a un razonamiento insuficiente. El mecanismo de niveles permite a los usuarios elegir la cantidad adecuada de recursos computacionales según las necesidades específicas, optimizando costos y tiempo manteniendo la calidad de salida.
No obstante, cabe señalar que la implementación técnica específica del concepto "longitud de pensamiento" aún no ha sido revelada en detalle por el oficial. Según la descripción del efecto, podría implicar ajustes en la cantidad de pasos de razonamiento, la profundidad del pensamiento interno en cadena o las estrategias de asignación de recursos computacionales. Los usuarios deben encontrar mediante pruebas la relación óptima entre diferentes tipos de tareas y los niveles de pensamiento en el uso real, lo que también implica un cierto costo de aprendizaje.






