Recentemente, defensores da segurança na internet do Reino Unido alertaram a agência reguladora de comunicações do país, o Ofcom, pedindo que limitassem o uso de inteligência artificial (IA) pela Meta (anteriormente conhecida como Facebook) em avaliações de risco críticas. Essa solicitação se baseia em um relatório que afirma que a Meta planeja atribuir até 90% das tarefas de avaliação de risco à automação por IA. Essa mudança gerou preocupações amplas sobre a segurança dos usuários, especialmente no que diz respeito à proteção de menores.
Fonte da imagem: Imagem gerada por IA, fornecida pelo provedor de licenciamento Midjourney.
De acordo com a Lei de Segurança Online do Reino Unido, as plataformas de mídia social têm a responsabilidade de avaliar os possíveis danos de seus serviços e implementar medidas mitigadoras. Esse processo de avaliação de risco é considerado uma parte essencial da lei, garantindo a segurança dos usuários, especialmente das crianças. No entanto, várias organizações, incluindo a Fundação Molly Rose, a instituição de caridade para crianças NSPCC e o Fundo de Observação da Internet, consideram que deixar a IA liderar essa avaliação é um "passo regredido e extremamente preocupante".
No carta endereçada à CEO do Ofcom, Melanie Dawes, os defensores afirmaram que instam fortemente a agência reguladora a esclarecer que avaliações de risco baseadas totalmente ou principalmente em automação gerada não devem ser vistas como "adequadas e suficientes". A carta também menciona que o Ofcom deve questionar a suposição de que as plataformas podem reduzir os padrões durante o processo de avaliação de risco. Em resposta, um porta-voz do Ofcom disse que a agência levará a sério as preocupações levantadas na carta e responderá no momento apropriado.
A Meta respondeu à carta destacando seu compromisso com a segurança. Um porta-voz da empresa declarou: "Não estamos usando IA para tomar decisões de risco, mas desenvolvemos uma ferramenta que ajuda nossas equipes a identificar os requisitos legais e políticos necessários para produtos específicos. Nossa tecnologia é usada sob supervisão humana para melhorar a capacidade de gerenciar conteúdo prejudicial, e nossas inovações tecnológicas melhoraram significativamente os resultados de segurança."
A Fundação Molly Rose, ao organizar a carta, citou um relatório da emissora de rádio e televisão americana NPR, que informa que as atualizações recentes nos algoritmos e novos recursos de segurança da Meta serão aprovados principalmente por sistemas de IA, sem revisão humana. Um ex-executivo da Meta, que preferiu permanecer anônimo, disse que essa mudança permitirá que a empresa lance mais rapidamente atualizações e novos recursos no Facebook, Instagram e WhatsApp, mas também aumentará os riscos, pois problemas potenciais podem não ser detectados antes do lançamento de novos produtos.
O NPR também menciona que a Meta está considerando automatizar a revisão de áreas sensíveis, como os riscos para jovens e a propagação de desinformação.
Resumo:
📉 Organizações de segurança na internet pedem ao Ofcom que limite o uso da IA pela Meta na avaliação de risco, preocupadas com os impactos na segurança dos usuários.
🔍 A Meta respondeu dizendo que não usa a IA para tomar decisões de risco, mas sim uma ferramenta supervisionada por humanos para melhorar o gerenciamento de conteúdo prejudicial.
⚠️ O relatório aponta que as mudanças recentes da Meta podem aumentar os riscos ao dificultar a detecção de problemas antes do lançamento de novas funcionalidades.
Reino Unido pede limites ao uso da Inteligência Artificial pela Meta para avaliações de risco

AIbase基地
Este artigo é do AIbase Daily
Bem-vindo à coluna [AI Daily]! Este é o seu guia para explorar o mundo da inteligência artificial todos os dias. Todos os dias apresentamos os destaques da área de IA, com foco nos desenvolvedores, para o ajudar a obter insights sobre as tendências tecnológicas e a compreender as aplicações inovadoras de produtos de IA.