Riesgos de privacidad en modelos de lenguaje

Un grupo reciente de investigadores ha probado modelos de lenguaje de compañías como OpenAI, Meta, Google y Anthropic. Los resultados revelaron que estos modelos pueden inferir con precisión información personal de usuarios, como raza, profesión y ubicación, a partir de texto anónimo, con una precisión del 85% al 95%.

Los investigadores advierten sobre el riesgo de uso malicioso de estos modelos de lenguaje, lo que podría violar la privacidad de usuarios anónimos. Se recomienda a las compañías involucradas que implementen medidas de protección de privacidad más amplias, limiten la capacidad de inferencia de los modelos de lenguaje y mejoren la concienciación sobre seguridad de la información de los usuarios, para evitar la divulgación involuntaria de información privada al usar chatbots.