O TikTok lançou recentemente a versão 1.6 do modelo de linguagem Douba, que é o primeiro modelo de linguagem de grande porte nativo no país a suportar ajuste de comprimento de pensamento em níveis diferentes. A nova versão oferece quatro opções de profundidade de pensamento: Minimal, Low, Medium e High, permitindo que os usuários ajustem flexivelmente o processo de raciocínio do modelo de acordo com a complexidade da tarefa, equilibrando assim a qualidade da saída e a velocidade de resposta.

Em termos de implementação técnica, o comprimento ajustável de pensamento é a função principal desta atualização. Na configuração de baixa profundidade de pensamento, o consumo de tokens durante a geração de conteúdo pelo Douba 1.6 diminuiu em 77,5% em comparação com o modo único, e o tempo de raciocínio foi reduzido em 84,6%, mantendo a mesma qualidade de saída. Este mecanismo permite que o modelo se ajuste dinamicamente às necessidades da cena — para tarefas simples como respostas rápidas ou esboços iniciais, é possível escolher o modo de baixa profundidade para melhorar a velocidade de resposta, enquanto para tarefas de raciocínio complexo ou análise profunda, pode-se alternar para o modo de alta profundidade para garantir a qualidade da saída.

Além da versão padrão, a Volcano Engine também lançou simultaneamente a versão leve Douba 1.6lite. Esta versão é principalmente direcionada a cenários empresariais, otimizada em termos de velocidade de raciocínio e controle de custos. Segundo dados oficiais de avaliação, o desempenho geral do Douba 1.6lite em testes de cenários empresariais melhorou em 14% em comparação com a versão anterior, o Douba 1.5pro. Em termos de custo, para o intervalo de entrada mais utilizado (0-32k), o custo total de uso foi reduzido em 53,3% em comparação com o Douba 1.5pro, o que tem significado prático para clientes corporativos com demanda de uso em larga escala.

Em termos de posicionamento do produto, a mecânica de ajuste de profundidade de pensamento do Douba 1.6 aborda as dores de eficiência reais na aplicação prática. Modelos de linguagem grandes tradicionais normalmente utilizam uma profundidade fixa de raciocínio, causando desperdício de recursos para tarefas simples, e também pode afetar a qualidade para tarefas complexas por falta de raciocínio suficiente. A mecânica de classificação permite que os usuários escolham os recursos computacionais adequados de acordo com as necessidades específicas, otimizando custos e tempo, mantendo assim a qualidade da saída.

No entanto, é necessário destacar que a implementação técnica específica do conceito de "comprimento de pensamento" ainda não foi divulgada detalhadamente pela empresa. Com base nas descrições dos resultados, pode envolver ajustes na quantidade de etapas de raciocínio, na profundidade do pensamento interno ou na estratégia de alocação de recursos computacionais. Os usuários precisam testar na prática para encontrar a relação ideal entre os tipos de tarefa e os níveis de pensamento, o que também implica um certo custo de aprendizado.

A partir do ponto de vista da concorrência no mercado, o lançamento do Douba 1.6 demonstra a direção das explorações dos modelos de linguagem grandes nacionais em termos de produtividade e adaptação a cenários. Em comparação com a mera busca por pontuações em benchmarks, funções inovadoras como a profundidade ajustável de raciocínio são mais próximas das necessidades reais dos usuários corporativos em termos de controle de custos e otimização de eficiência. O lançamento da versão lite também mostra a atenção dos fabricantes ao mercado de empresas de pequeno e médio porte, tentando expandir a base de usuários reduzindo a barreira de uso.