Com o rápido desenvolvimento da tecnologia de inteligência artificial, desenvolvedores líderes de IA, como OpenAI e Anthropic, estão se esforçando para colaborar com os militares americanos, buscando melhorar a eficiência do Pentágono ao mesmo tempo em que garantem que sua tecnologia de IA não seja usada em armas letais.
A principal oficial digital e de IA do Pentágono, Dra. Radha Plumb, em entrevista à TechCrunch, disse que a IA atualmente não é usada em armas, mas oferece vantagens significativas ao Departamento de Defesa na identificação, rastreamento e avaliação de ameaças.
Observação da fonte: A imagem foi gerada por IA, fornecida pela Midjourney.
A Dra. Plumb mencionou que o Pentágono está acelerando a execução da "cadeia de morte", um processo que envolve a identificação, rastreamento e eliminação de ameaças, envolvendo sensores, plataformas e sistemas de armas complexos. A IA generativa mostra seu potencial na fase de planejamento e estratégia da cadeia de morte. Ela apontou que a IA pode ajudar os comandantes a reagir de forma rápida e eficaz diante de ameaças.
Nos últimos anos, o relacionamento entre o Pentágono e os desenvolvedores de IA tornou-se cada vez mais próximo. Em 2024, empresas como OpenAI, Anthropic e Meta relaxaram suas políticas de uso, permitindo que agências de inteligência e defesa americanas utilizassem seus sistemas de IA, mas ainda proibindo o uso dessas tecnologias de IA para prejudicar humanos. Essa mudança levou a uma rápida expansão da colaboração entre empresas de IA e empreiteiras de defesa.
Por exemplo, a Meta, em novembro, firmou parcerias com empresas como Lockheed Martin e Booz Allen para aplicar seu modelo de IA Llama na área de defesa. A Anthropic fez uma parceria semelhante com a Palantir. Embora os detalhes técnicos específicos dessas colaborações não sejam claros, a Dra. Plumb disse que o uso da IA na fase de planejamento pode entrar em conflito com as políticas de uso de vários desenvolvedores líderes.
Houve um debate acalorado sobre se as armas de IA devem ter a capacidade de tomar decisões de vida ou morte. O CEO da Anduril, Palmer Luckey, mencionou que os militares americanos têm um longo histórico de aquisição de sistemas de armas autônomos. No entanto, a Dra. Plumb negou isso, enfatizando que um ser humano deve estar envolvido na decisão de usar força em todas as circunstâncias.
Ela apontou que a ideia de sistemas automatizados tomando decisões de vida ou morte de forma independente é muito binária, e a situação real é muito mais complexa. Os sistemas de IA do Pentágono são uma colaboração entre humanos e máquinas, com a participação de líderes seniores no processo de tomada de decisão.
Destaques:
🌐 A IA está fornecendo vantagens significativas ao Pentágono na identificação e avaliação de ameaças, impulsionando a eficiência na tomada de decisões militares.
🤝 A colaboração entre desenvolvedores de IA e o Pentágono está se tornando cada vez mais estreita, mas sempre mantendo o compromisso de não usar a tecnologia de IA para prejudicar humanos.
🔍 A discussão sobre se as armas de IA devem ter a capacidade de tomar decisões de vida ou morte continua, e o Pentágono enfatiza que sempre haverá participação humana.