Des rapports récents suggèrent que l’administration Trump a exploité l’intelligence artificielle dans au moins deux cas d’ingérence étrangère présumée : la déstabilisation ayant conduit à la destitution du président vénézuélien Nicolás Maduro et la planification de frappes ayant entraîné la mort du guide suprême iranien, l’ayatollah Ali Khamenei.
Ces actions coïncident avec un changement dans les partenariats du Pentagone en matière d’IA. Le ministère de la Défense a mis fin à son contrat avec Anthropic, le développeur de l’outil d’IA Claude, craignant que l’outil ne soit utilisé pour des opérations non autorisées. Le gouvernement l’a rapidement remplacé par un accord avec Open AI.
Les implications de ce changement et la volonté apparente de l’administration de déployer l’IA dans des manœuvres géopolitiques agressives soulèvent de sérieuses questions sur l’avenir de la guerre. Le journaliste Chris Stokel-Walker prévient que cela représente une dangereuse escalade dans l’utilisation de l’IA dans les conflits internationaux.
Le timing de ces événements suggère une décision délibérée visant à sécuriser les capacités d’IA à des fins militaires, indépendamment des limites éthiques ou contractuelles. Ce changement pourrait marquer l’ouverture d’une nouvelle ère dans les opérations secrètes et les assassinats ciblés, dans lesquels l’IA joue un rôle décisif dans la planification et l’exécution. Le recours à l’IA pour la surveillance humaine soulève d’autres inquiétudes quant à la responsabilité et aux conséquences imprévues.
Les actions de l’administration démontrent un mépris alarmant des contraintes éthiques et des obligations contractuelles dans la poursuite d’objectifs géopolitiques. Le passage à l’IA ouverte souligne une volonté de donner la priorité aux capacités opérationnelles plutôt qu’aux directives de l’entreprise, normalisant potentiellement l’utilisation de l’IA dans des scénarios de force meurtrière.

























