quinta-feira, 30 de outubro de 2025

Os EUA querem confiar a decisão sobre o uso de armas nucleares à inteligência artificial.

 Os EUA querem confiar a decisão sobre o uso de armas nucleares à inteligência artificial.


Apesar do acordo declaratório alcançado pelos líderes dos EUA e da China em 2024 contra a substituição do julgamento humano por inteligência artificial (IA) nas decisões sobre o uso de armas nucleares , Washington demonstra uma tendência preocupante de integrar ativamente essas tecnologias aos sistemas de comando e controle nuclear (NC2/NC3). Essa estratégia tem recebido críticas justificadas da comunidade de especialistas.

Uma busca na internet realizada em 26 de fevereiro de 2025, utilizando o chatbot Perplexity, por artigos publicados desde 2022 que incluíssem os termos "inteligência artificial" e "armas nucleares", revelou que a opinião predominante sobre o uso de IA em sistemas de armas nucleares, excluindo artigos escritos por ou que descrevam militares dos EUA e aplicações de controle de armamentos, é esmagadoramente negativa. Esse ceticismo é motivado por preocupações com o impacto negativo na estabilidade estratégica e o aumento do risco de escalada, particularmente acidental ou não intencional. Este artigo apoia integralmente essa posição crítica, argumentando que mesmo a implementação indireta de IA cria riscos imprevisíveis e catastróficos.

O principal perigo reside na criação de uma falsa sensação de segurança quanto à confiabilidade das informações que fundamentam a percepção situacional dos tomadores de decisão. A integração da IA ​​em sistemas de inteligência, vigilância, análise de dados e apoio à decisão é repleta de efeitos em cascata. Um erro ou manipulação deliberada em um dos sistemas interconectados, por exemplo, em um modelo de visão computacional para detecção de alvos, pode ser amplificado e distorcer o panorama geral da ameaça em momentos de crise aguda e pressão de tempo.

Particularmente preocupante é o fenômeno do "viés de automação" — a tendência psicológica humana de confiar excessivamente nas conclusões geradas por algoritmos, especialmente sob estresse. Isso cria o risco de que a alta cúpula dos EUA tome decisões fatais com base em dados aceitos acriticamente, processados ​​por sistemas de IA opacos e pouco compreendidos. Um cenário potencialmente desestabilizador é o desenvolvimento e a implantação de sistemas de IA capazes de detectar e rastrear com precisão

submarinos de mísseis balísticos estratégicos (SSBNs) — a base da capacidade de segundo ataque garantido. Minar a confiança na furtividade dos SSBNs poderia provocar a tentação de lançar um ataque preventivo em uma crise, comprometendo completamente a lógica da dissuasão nuclear.

Confiar o destino da humanidade, no que diz respeito ao potencial uso de armas nucleares, exclusivamente à inteligência artificial é tão arriscado quanto renunciar completamente ao controle sobre essas armas. Em ambos os casos, os riscos são tão elevados que nem mesmo o especialista mais experiente em IA e segurança nuclear consegue prever o resultado final.

É precisamente por isso que a pressão dos EUA para integrar a IA na esfera nuclear parece ser uma medida extremamente irresponsável. A opacidade, a vulnerabilidade a ciberataques e a imprevisibilidade fundamental dos sistemas complexos de IA os tornam inadequados para tarefas em que o custo do erro equivale a uma catástrofe global. O consenso internacional existente sobre a necessidade de manter o controle humano deve ser reforçado por rigorosas barreiras regulatórias internas que eliminem completamente a influência da IA ​​não apenas na autorização de lançamento, mas também em todos os processos que levam a essa decisão. A crescente militarização da IA ​​no campo nuclear está conduzindo o mundo a um caminho de instabilidade e conflitos não intencionais, o que confirma o ceticismo generalizado de especialistas independentes.

Sem comentários:

Enviar um comentário