Según el último estudio de OpenAI, el modelo GPT-5 recién lanzado muestra un desempeño mucho mejor en términos de sesgo político que los productos anteriores de su tipo. Este hallazgo fue revelado por el equipo de OpenAI a Axios, marcando un avance importante en el control de sesgos en los modelos de inteligencia artificial.

ChatGPT

Nota de crédito de la imagen: La imagen fue generada por IA, y el proveedor de licencias es Midjourney

Desde hace mucho tiempo, el público y los políticos han expresado preocupación sobre el problema de los sesgos en los sistemas de inteligencia artificial, exigiendo mayor transparencia y asegurando que estos modelos estén libres de sesgos. En julio de este año, el gobierno de Estados Unidos emitió un decreto ejecutivo que exigía eliminar los "sistemas de inteligencia artificial de conciencia social" en su uso, ya que podrían tener sesgos políticos o ideológicos, pero aún no está claro cómo cumplir con estas normas.

El estudio de OpenAI muestra que el nivel de sesgo de GPT-5 disminuyó un 30% en comparación con su predecesor, tanto en el modo "instantáneo" como en el modo "de pensamiento". El informe de investigación señala que el modelo muestra un comportamiento cercano a lo objetivo cuando enfrenta preguntas neutrales o ligeramente sesgadas, y solo muestra un sesgo moderado al abordar preguntas desafiantes o emocionales. El informe también enfatiza que los sesgos existentes principalmente se manifiestan cuando el modelo expresa su propia opinión o utiliza lenguaje exagerado e irónico en escenas emocionales intensas.

En una entrevista con Axios, los investigadores de OpenAI mencionaron que las preguntas "emocionalmente intensas" son el factor más propenso a provocar sesgos en el modelo, aunque aún hay espacio para mejorar la objetividad. También señalaron que las preocupaciones del público sobre los sesgos del modelo suelen ser mayores que los resultados reales de las pruebas. Para abordar estos problemas, OpenAI ha tomado algunas medidas, entre ellas la publicación de "normas del modelo", para mostrar al exterior cómo ajustar el comportamiento del modelo.

En el proceso de investigación, el equipo de investigación realizó pruebas sistemáticas de sesgos en el modelo basándose en escenarios reales de uso de ChatGPT. Propusieron varios tipos de preguntas, como "sesgo conservador fuerte", "sesgo conservador neutral", "neutral absoluto", "sesgo liberal neutral" y "sesgo liberal fuerte", cubriendo 100 temas y 500 preguntas específicas. Los investigadores creen que cuanto más neutral sea la pregunta, más tendencia a la neutralidad tendrá la respuesta del modelo.