Google actualizó recientemente sus términos de uso para la IA generativa, aclarando que los clientes pueden implementar sus herramientas de IA generativa para la "toma de decisiones automatizada" en áreas de "alto riesgo", como la atención médica, pero solo bajo supervisión humana.

Según la última versión de la "Política de uso prohibido de IA generativa" publicada por Google el martes, los clientes pueden utilizar la IA generativa de Google para tomar "decisiones automatizadas" que puedan tener un "impacto adverso significativo" en los derechos individuales. Siempre que exista algún tipo de supervisión humana, los clientes pueden usar la IA generativa de Google para decidir asuntos relacionados con el empleo, la vivienda, los seguros, los beneficios sociales y otras áreas de "alto riesgo".

En el campo de la IA, la toma de decisiones automatizada se refiere a las decisiones tomadas por un sistema de IA basándose en datos fácticos y datos inferidos. Por ejemplo, un sistema podría decidir automáticamente si aprueba una solicitud de préstamo o selecciona candidatos para un puesto de trabajo.

Google (3)

Anteriormente, el borrador de los términos de Google sugería una prohibición total del uso de su IA generativa en la toma de decisiones automatizadas de alto riesgo. Pero Google le dijo a TechCrunch que los clientes siempre pueden usar su IA generativa para la toma de decisiones automatizadas, incluso en aplicaciones de alto riesgo, siempre que haya supervisión humana.

"Para todas las áreas de alto riesgo, nuestro requisito de supervisión humana siempre ha estado presente en nuestras políticas", dijo un portavoz de Google en un correo electrónico. "Estamos reclasificando algunos elementos [en los términos] y enumerando ejemplos más explícitos para que los clientes tengan más claridad".

Los principales competidores de Google en IA, OpenAI y Anthropic, tienen regulaciones más estrictas sobre el uso de la IA en la toma de decisiones automatizadas de alto riesgo. Por ejemplo, OpenAI prohíbe el uso de sus servicios para la toma de decisiones automatizadas relacionadas con el crédito, el empleo, la vivienda, la educación, la calificación social y los seguros. Anthropic permite que su IA se utilice para la toma de decisiones automatizadas en derecho, seguros, atención médica y otras áreas de alto riesgo, pero solo bajo la supervisión de "profesionales cualificados", y requiere que los clientes revelen que están utilizando la IA para este fin.

La IA de toma de decisiones automatizadas que afecta a las personas está bajo el escrutinio de los reguladores, que están preocupados por los posibles resultados sesgados de esta tecnología. Las investigaciones muestran que, por ejemplo, la IA utilizada para aprobar solicitudes de crédito e hipotecas puede perpetuar la discriminación histórica.

La organización sin fines de lucro Human Rights Watch ha pedido la prohibición de los sistemas de "calificación social", que según la organización pueden socavar el acceso de las personas al apoyo social, perjudicar su privacidad y perfilarlos de manera sesgada.

En el Proyecto de Ley de Inteligencia Artificial de la UE, los sistemas de IA de alto riesgo (incluidos los que toman decisiones sobre crédito personal y empleo) enfrentan la regulación más estricta. Los proveedores de estos sistemas deben registrarse en una base de datos, implementar la gestión de calidad y riesgos, emplear supervisores humanos e informar a las autoridades pertinentes sobre los incidentes, entre otros requisitos.

En los Estados Unidos, Colorado recientemente aprobó una ley que requiere que los desarrolladores de IA divulguen información sobre los sistemas de IA de "alto riesgo" y publiquen declaraciones que resumen las funciones y limitaciones del sistema. Mientras tanto, la ciudad de Nueva York prohíbe a los empleadores utilizar herramientas automatizadas para evaluar a los candidatos para decisiones de empleo a menos que la herramienta haya sido auditada en busca de sesgos en el año anterior.

Esta aclaración de Google sobre los términos de uso de la IA muestra la postura de la compañía sobre la regulación de las aplicaciones de IA. Permitir la toma de decisiones automatizadas en áreas de alto riesgo, pero enfatizar la importancia de la supervisión humana, refleja tanto el potencial de aplicación de la tecnología de IA como la cautela ante los riesgos potenciales.