Relatórios recentes sugerem que a administração Trump utilizou a inteligência artificial em pelo menos dois casos de alegada interferência estrangeira: a desestabilização que levou à destituição do presidente venezuelano Nicolás Maduro e o planeamento de ataques que resultaram na morte do líder supremo iraniano, o aiatolá Ali Khamenei.
Estas ações coincidem com uma mudança nas parcerias de IA do Pentágono. O Departamento de Defesa rescindiu seu contrato com a Anthropic, desenvolvedora da ferramenta de IA Claude, em meio a preocupações de que a ferramenta estivesse sendo usada para operações não autorizadas. O governo rapidamente o substituiu por um acordo com a Open AI.
As implicações deste pivô e a aparente vontade da administração de implantar a IA em manobras geopolíticas agressivas levantam sérias questões sobre o futuro da guerra. O jornalista Chris Stokel-Walker alerta que isto representa uma escalada perigosa no uso da IA em conflitos internacionais.
O momento destes eventos sugere uma medida deliberada para garantir as capacidades de IA para fins militares, independentemente dos limites éticos ou contratuais. Esta mudança poderá assinalar uma nova era nas operações secretas e nos assassinatos seletivos, onde a IA desempenha um papel decisivo no planeamento e na execução. A confiança na IA em detrimento da supervisão humana levanta novas preocupações sobre a responsabilização e as consequências não intencionais.
As ações da administração demonstram um alarmante desrespeito pelas restrições éticas e obrigações contratuais na prossecução de objetivos geopolíticos. A mudança para a IA aberta sublinha a vontade de dar prioridade às capacidades operacionais em detrimento das directrizes corporativas, normalizando potencialmente a utilização da IA em cenários de força letal.

























