Anthropic está realizando importantes cambios en la forma en que maneja los datos de sus usuarios. La empresa anunció que, a partir de ahora, todos los usuarios de Claude deben decidir antes del 28 de septiembre si permiten que sus conversaciones se utilicen para entrenar modelos de inteligencia artificial. Antes, Anthropic había prometido no utilizar los datos de chat de los consumidores para el entrenamiento de modelos y eliminaría automáticamente las consultas y respuestas de los usuarios después de 30 días.

Resumen del cambio de política

Esta nueva política se aplica a todos los usuarios de Claude Free, Pro y Max, incluidos aquellos que usan Claude Code. Esto significa que las conversaciones y sesiones de programación de los usuarios ahora podrían utilizarse para entrenar los sistemas de inteligencia artificial de Anthropic. Además, el período de retención de los datos de los usuarios que no hayan optado por no participar se extenderá a cinco años. Es importante destacar que los clientes empresariales que utilizan Claude Gov, Claude for Work, Claude for Education o acceso a la API no están afectados por esta política, algo similar a lo que hace OpenAI con sus clientes empresariales.

Claude

¿Por qué Anthropic está cambiando?

En su artículo de blog, Anthropic indicó que este cambio tiene como objetivo "ayudarnos a mejorar la seguridad del modelo, haciendo que nuestros sistemas para detectar contenido dañino sean más precisos", y ayudar a futuros modelos de Claude a "mejorar habilidades como programación, análisis y razonamiento". En resumen, la empresa afirma que esto es para ofrecer mejores modelos.

Sin embargo, una razón más profunda podría ser la urgente necesidad de datos. Al igual que todas las empresas de grandes modelos de lenguaje, Anthropic necesita grandes cantidades de datos de conversaciones de alta calidad para entrenar sus modelos de inteligencia artificial, con el fin de mejorar su competencia frente a rivales como OpenAI y Google. El acceso a millones de interacciones de usuarios de Claude puede proporcionar a Anthropic contenido valioso del mundo real.

Cambio en las políticas de datos de la industria y confusión de los usuarios

El ajuste de la política de Anthropic refleja un amplio cambio en las políticas de datos de la industria. Debido a la creciente revisión sobre la retención de datos, las empresas de inteligencia artificial están reevaluando sus acuerdos de privacidad. Por ejemplo, OpenAI actualmente enfrenta una orden judicial debido a una demanda de publicaciones como The New York Times, que le exige mantener indefinidamente todas las conversaciones de ChatGPT de los consumidores. El director operativo de OpenAI, Brad Lightcap, describió esto como una "solicitud innecesaria" y consideró que contradice los compromisos de privacidad que la empresa había hecho a sus usuarios.

Este constante cambio en las políticas de uso causa mucha confusión entre los usuarios. Muchos usuarios no se dieron cuenta de que los criterios que habían aceptado estaban cambiando silenciosamente. Destaca especialmente que los nuevos usuarios pueden elegir configuraciones de preferencias al registrarse, mientras que los usuarios antiguos reciben una ventana grande con "actualización de términos y políticas de consumidores", junto con un botón destacado de "aceptar", y el interruptor para la autorización de entrenamiento está diseñado de manera más pequeña y predeterminado en "activado". Este patrón de diseño, según The Verge, podría llevar a los usuarios a hacer clic rápidamente en "aceptar" sin darse cuenta de la opción de consentimiento para compartir datos.