En la era digital actual, la seguridad online de los niños es una preocupación cada vez mayor. Recientemente, Roblox, Discord, OpenAI y Google se unieron para lanzar ROOST (Herramientas Abiertas y Robustas para la Seguridad Online), una organización sin fines de lucro destinada a construir una infraestructura de seguridad escalable e interconectada para la era de la IA. El objetivo de esta nueva organización es proporcionar herramientas de seguridad de código abierto a instituciones públicas y privadas para ayudarlas a reforzar la protección en sus propias plataformas, con especial atención a la seguridad de los niños.
Nota de la imagen: Imagen generada por IA, proveída por Midjourney
La creación de ROOST es una respuesta al rápido desarrollo de la IA generativa. A medida que el entorno online evoluciona, los riesgos para los niños aumentan, por lo que la necesidad de una "infraestructura de seguridad confiable y de fácil acceso" se vuelve más urgente. ROOST espera evitar que las pequeñas empresas u organizaciones tengan que empezar de cero al desarrollar estas herramientas, ofreciendo soluciones gratuitas y listas para usar.
En los planes de ROOST, la organización se centrará en proporcionar herramientas para la detección, revisión e informe de material de abuso sexual infantil (MASI). Esta iniciativa ayudará a diversas plataformas a identificar y gestionar contenidos inapropiados, protegiendo a los niños en el entorno online. Para ello, las empresas participantes no solo aportarán financiación, sino también recursos técnicos.
La seguridad online de los niños ha sido un tema de preocupación constante, especialmente durante la deliberación en el Congreso de la Ley de Protección de la Privacidad Online de Niños y Adolescentes y la Ley de Seguridad Online Infantil. Aunque estas leyes no lograron superar la votación en la Cámara de Representantes, las empresas tecnológicas participantes, incluidas Google y OpenAI, se han comprometido a dejar de usar la IA para generar material de abuso sexual infantil.
Para Roblox, la seguridad infantil es especialmente importante. Según datos de 2020, dos tercios de los niños estadounidenses de entre nueve y doce años utilizan Roblox. Esta plataforma ha enfrentado numerosos desafíos en materia de seguridad infantil. Ya en 2024, la revista Bloomberg Businessweek informó sobre problemas de "pedofilia" en la plataforma, lo que obligó a Roblox a reforzar las restricciones a los mensajes privados infantiles y a implementar nuevas políticas.
Si bien el lanzamiento de ROOST no resolverá todos los problemas, ofrece una solución más sencilla para Roblox y otras plataformas similares, esforzándose por garantizar la seguridad de los niños en la era de la IA.
Puntos clave:
🌐 ROOST es una organización sin fines de lucro lanzada por Roblox, OpenAI y Google, entre otras empresas, con el objetivo de proteger la seguridad online de los niños.
🔍 La organización proporcionará herramientas de seguridad de código abierto para ayudar a las plataformas a detectar e informar sobre material de abuso sexual infantil (MASI).
🛡️ Plataformas como Roblox enfrentan desafíos en materia de seguridad infantil, y la creación de ROOST ofrece una solución más eficaz.