Pentágono investe em ferramentas de IA; questões éticas sensíveis ressurgem em nova versão
As Forças Armadas dos Estados Unidos entraram oficialmente na “fase dois” de sua integração com a inteligência artificial, focando agora em ferramentas de IA generativa capazes de estabelecer conversas e analisar grandes volumes de dados de inteligência.
Esse movimento, que segue a fase inicial centrada em visões computacionais para análise de imagens, sinaliza uma aceleração significativa na corrida armamentista tecnológica global.
Segundo James O’Donnell, colunista da MIT Technology Review, essa nova etapa envolve o uso de interfaces semelhantes a chatbots, como demonstrado em experimentos recentes no Pacífico, onde fuzileiros navais utilizaram IA generativa para vasculhar imagens de vigilância e identificar potenciais ameaças. A iniciativa é impulsionada por um esforço abrangente do Pentágono, com figuras como o secretário de Defesa Pete Hegseth defendendo a eficiência prometida pela IA.
Qual será o “fator humano” na tomada de decisões?
No entanto, a rápida adoção dessa tecnologia poderosa dispara alertas e levanta questões cruciais que ainda precisam ser respondidas. Uma das principais preocupações é o limite do conceito de “humano no circuito”.
Embora a ideia seja que a IA execute tarefas específicas e humanos revisem seu trabalho, especialistas questionam a viabilidade dessa supervisão. Conforme explica Heidy Khlaaf, cientista-chefe de IA no AI Now Institute, ex-líder de auditorias de segurança em sistemas de IA, um ser humano “no circuito” nem sempre resolve o problema.
Dada a complexidade dos modelos de IA baseados em milhares de pontos de dados, seria praticamente impossível para um ser humano verificar a precisão de máquina. O desafio da supervisão humana se torna ainda maior à medida que os sistemas de IA dependem de volumes de dados cada vez maiores.
Outra questão complexa reside na classificação de informações. A era do big data e da IA generativa subverte o paradigma tradicional de inteligência militar.
O problema conhecido como “classificação por compilação” emerge com força: informações não classificadas individualmente podem se tornar sensíveis ou ultrassecretas quando combinadas. Modelos de linguagem avançados são particularmente bons em fazer essas conexões que antes eram consideradas inviáveis para humanos.
Chris Mouton, engenheiro sênior da RAND, que testou a adequação da IA generativa para inteligência, afirma que “ninguém chegou a boas respostas sobre qual deveria ser a classificação apropriada de todos esses produtos”.
Empresas como a Palantir estão se posicionando para oferecer soluções de IA que ajudem a determinar a classificação de dados, inclusive em parceria com a Microsoft para modelos treinados com dados sigilosos.
Questões éticas e estratégicas estão em jogo
Há também o debate sobre o quão alto na cadeia de decisões militares a IA deve chegar. Historicamente, a adoção de IA pelas Forças Armadas tem espelhado as tendências do consumidor. Assim como a IA de consumidor evolui de análise para ação (IA agente) e personalização, espera-se que os modelos militares sigam essa trajetória.
Um relatório da Universidade de Georgetown indicou um interesse crescente de comandantes militares no potencial da IA para melhorar a tomada de decisões, especialmente no nível operacional da guerra. Embora o governo Biden tenha estabelecido salvaguardas, o futuro regulatório sob uma potencial administração Trump pode priorizar a inovação sobre a restrição. A IA está, portanto, movendo-se rapidamente para auxiliar em decisões mais críticas e sensíveis ao tempo.
Essa evolução, ainda segundo O’Donnell, aponta para um futuro onde a IA pode não apenas analisar, mas também sugerir ações – como gerar listas de possíveis alvos. Enquanto entusiastas argumentam que isso pode levar a maior precisão e menos mortes de civis, organizações de direitos humanos expressam preocupações sobre os óbvios riscos inerentes.
A aceleração da corrida pela supremacia em IA militar exige atenção redobrada aos impactos geopolíticos e às implicações éticas e de direitos humanos.
O Antagonista – Edição: Montedo.com
O post A inteligência militar é cada vez mais inteligência artificial apareceu primeiro em Montedo.com.br.