Pentagone : L'Intelligence Artificielle Déployée sur le Champ de Bataille, une Révolution Risquée
Par Futurism .Publié le
2025/03/07 02:18

Mars. 07, 2025
Le Pentagone a conclu un accord avec la société d'intelligence artificielle Scale AI, dans le cadre d'une initiative baptisée « Thunderforge », visant à intégrer des agents d'IA dans la planification et les opérations militaires.
Cette initiative, décrite comme un « programme phare », représente un développement notable dans un contexte de débat intense sur l'utilisation de l'IA dans les guerres, et les défis considérables que ce domaine continue de poser.
L'expansion croissante des technologies d'IA au sein des institutions militaires est indéniable. Google et OpenAI ont tous deux assoupli leurs restrictions sur l'utilisation de leurs technologies d'IA pour le développement d'armes et la surveillance, signalant ainsi l'ouverture de la Silicon Valley à l'idée que ses outils soient utilisés par l'armée.
Le mois dernier seulement, un haut responsable du Pentagone a déclaré à Defense One que l'armée américaine s'orientait vers l'abandon du financement de la recherche sur les robots tueurs autonomes, au profit d'investissements dans des armes alimentées par l'IA.
L'initiative ne se limite pas au Pentagone. Fin de l'année dernière, OpenAI a également annoncé un partenariat avec Anduril, une société de technologie de défense fondée par Palmer Luckey, pour développer des « systèmes de lutte contre les systèmes aériens sans pilote (CUAS) » et améliorer leur capacité à détecter, évaluer et répondre en temps réel aux menaces aériennes potentiellement mortelles.
L'idée maîtresse réside dans un slogan familier de l'industrie de l'IA. Dans le cadre de l'accord de plusieurs millions de dollars avec Scale AI, comme l'a rapporté CNBC, l'entreprise cherche à accélérer la capacité de l'armée à traiter des volumes massifs de données.
L'unité d'innovation de défense (DIU) du ministère américain de la Défense a déclaré dans un communiqué : « Thunderforge marque un tournant décisif vers une guerre axée sur l'IA et les données, garantissant que les forces américaines peuvent anticiper et répondre aux menaces avec rapidité et précision. »
Selon la DIU, le système permettra aux « planificateurs de synthétiser plus rapidement de vastes quantités d'informations, de générer de multiples plans d'action et de mener des simulations de guerre alimentées par l'IA pour anticiper et répondre aux menaces en constante évolution. »
Selon une déclaration de Bryce Goodman, responsable du programme, il existe un « décalage fondamental entre la vitesse de la guerre moderne et notre capacité à y répondre. »
Alexandr Wang, fondateur et PDG de Scale AI, a déclaré dans le communiqué : « Nos solutions d'IA transformeront le processus opérationnel militaire actuel et moderniseront la défense américaine. »
Il convient de noter que Scale AI avait déjà signé un contrat avec le bureau principal de l'IA et de la numérisation du ministère de la Défense l'année dernière pour tester et évaluer les grands modèles de langage.
Cette initiative soulève des questions cruciales sur l'avenir de la guerre. Les experts estiment que l'intégration de l'IA dans les opérations militaires offre d'immenses possibilités, mais comporte également des risques considérables :
Défis éthiques et juridiques : Les questions éthiques et juridiques liées à l'utilisation de l'IA dans les guerres, en particulier les questions de responsabilité et de transparence, constituent le principal défi. Qui est responsable des décisions prises par les systèmes d'IA sur le champ de bataille ? Comment garantir la transparence du fonctionnement de ces systèmes ?
Risques de biais et d'erreurs : Les risques de biais et d'erreurs dans les systèmes d'IA, qui pourraient avoir des conséquences catastrophiques sur le champ de bataille, ne peuvent être ignorés. Les systèmes d'IA sont alimentés par des données, et si ces données sont biaisées ou inexactes, les décisions prises par les systèmes seront également biaisées et inexactes.
Course à l'armement de l'IA : Certains craignent que cette initiative ne conduise à une nouvelle course à l'armement basée sur l'IA, ce qui accroîtrait les tensions mondiales. Avec l'accélération du développement technologique, les pays pourraient se précipiter pour développer des armes intelligentes plus avancées, ce qui augmenterait le risque de conflits armés.
Rôle de la surveillance internationale : Face à ces défis, il est nécessaire de mettre en place des cadres réglementaires internationaux pour contrôler l'utilisation de l'IA dans les guerres. Ces cadres doivent inclure des normes éthiques et juridiques claires, ainsi que des mécanismes de surveillance et d'inspection, afin de garantir une utilisation responsable de ces technologies.
Transparence et responsabilité : Il est essentiel de souligner l'importance de la transparence dans l'utilisation de ces technologies, ainsi que la responsabilité en cas d'erreurs ou de conséquences involontaires. La transparence contribue à instaurer la confiance entre les nations, et la responsabilité garantit qu'aucune partie n'échappe à la sanction en cas d'erreur.
Impact de l'IA sur l'avenir de la guerre : Il ne fait aucun doute que les technologies d'IA transformeront la nature de la guerre à l'avenir. La communauté internationale doit se préparer à ces changements et élaborer des stratégies pour y faire face.
Source : Futurism.
Notez ce sujet