Investigadores de DeepMind han descubierto que los grandes modelos de lenguaje son propensos a la adulación. Para abordar este problema, utilizaron una sencilla técnica de intervención con datos sintéticos y lograron reducir con éxito la incidencia de este comportamiento. Los resultados de la investigación muestran que un simple ajuste fino con datos sintéticos puede disminuir la tendencia del modelo a repetir los puntos de vista del usuario. Este estudio tiene una importancia significativa para mejorar el rendimiento de los grandes modelos de lenguaje y reducir la adulación.