Les défis militaires de l’intelligence artificielle
Pour les armées modernes, « l’intelligence artificielle (IA) se présente comme la voie principale de la supériorité tactique » et elle est devenue « un enjeu de défense prioritaire pour les puissances militaires du XXIe siècle ». Dans une étude que publie l’Institut français des relations internationales (IFRI) sur cette nouvelle révolution, un ancien pilote de l’armée de l’air, Jean-Christophe Noël, évoque un « humanisme militaire » menacé. Il n’est pas certain, selon lui, que les robots pourront toujours, en accord avec le « modèle de l’équipier fidèle », rester « étroitement associé(s) à un homme en charge d’un système d’armes comme un avion de chasse, un blindé ou un navire ».
Les applications militaires de l’IA deviennent accessibles et semblent sans limites. Elles sont rendues possibles par les gigantesques quantités de données (images, sons, etc.) désormais accumulées – un Rafale produit plusieurs téraoctets de données par heure de vol, et chacun des trois satellites d’observation français successeurs d’Helios 2 permettra de produire, à partir de 2019, cent fois plus d’informations que l’ensemble de ceux utilisés aujourd’hui par les armées. De plus, les algorithmes acquièrent la capacité nouvelle d’apprendre seuls selon les situations qu’ils rencontrent. Préparation au combat par la simulation, renseignement, ciblage, optimisation du soldat… La course a démarré.
« Hyperwar »
Le département de la défense américain a lancé près de 600 projets intégrant l’IA, un domaine où il vient d’annoncer 2 milliards de dollars (1,7 milliard d’euros) d’investissement dans les cinq prochaines années.
- « Une IA surnommée ALPHA, qui fit ses classes en affrontant des programmes informatiques de combats aériens de l’Air Force Research Lab, a systématiquement triomphé d’un pilote de chasse chevronné en octobre 2015 », rappelle l’expert de l’IFRI.
Le pilote américain a témoigné : « ALPHA semblait consciente de mes intentions et réagissait instantanément à celles-ci et au départ de mes missiles. Elle savait contrer les tirs que je faisais. Elle passait instantanément d’un mode défensif à un mode offensif quand il y en avait besoin. » Autre exemple, le projet « Marven » a permis de tester des algorithmes de reconnaissance, fin 2017, dans les plans de frappe contre l’organisation Etat islamique en Irak et en Syrie : « Les logiciels sont parvenus à reconnaître, dans 80 % des cas, les personnes, véhicules ou bâtiments recherchés. »
- L’IFRI souligne aussi que « le but énoncé par la Chine est de devenir le premier centre d’innovation pour l’IA dans les années 2030 ».
Les initiatives de Pékin pour scanner sa population à des fins de sécurité intérieure, après les manipulations individuelles de la firme Cambridge Analytica dans les élections américaines, ont achevé de démontrer le terrible champ des possibles.
- En termes militaires, « la surveillance des opinions subversives en vue d’assurer la solidité des arrières est aussi un usage stratégique à portée de main », souligne M. Noël. Au niveau du champ de bataille, « ce type d’usage peut être exploité pour intoxiquer les membres d’une unité en l’incitant à dévoiler sa position ou à déserter ». Au-delà, « il peut s’agir de cibler des relais d’opinion chez l’adversaire en les incitant à diffuser de fausses nouvelles et à semer la discorde sur ses arrières ».
Le directeur chinois de la recherche militaire, Wang Weixing, a théorisé « la guerre à la vitesse de la lumière », totalement robotisée. Tout comme le général américain John Allen a pensé « l’hyperwar », où le processus humain de décision aura disparu. Les Français refusent une telle perspective et Paris a pris position contre l’automatisation totale des robots tueurs. « La place de l’homme dans la boucle n’est pas uniquement justifiée par des considérations éthiques », mais indispensable pour analyser l’environnement changeant des opérations militaires et rendre celles-ci efficaces, a illustré dans la Revue Défense nationale le colonel Jérôme Bernier, du Centre interarmées de concepts, de doctrines et d’expérimentations.
Préserver « la demi-seconde d’avance sur l’adversaire »
Le ministère des armées a annoncé un plan de 100 millions d’euros par an pendant sept ans. Dans ce cadre, les premiers projets portent sur des domaines non létaux : la logistique terrestre, la maintenance prédictive, la cartographie augmentée du champ de bataille, le renseignement multimédia, le suivi du soldat (la détection de signes post-traumatiques par exemple, l’état cognitif des pilotes dans leur machine…). On évoque aussi la navigation automatique de véhicules non armés, des minidrones de surveillance entrant dans un bâtiment pour en ressortir avec une carte, par exemple, ou un essaim de drones sous-marins détecteurs de mines testés en 2020. « Un travail de priorisation a été fait », indique le cabinet de la ministre Florence Parly, qui évoque une « pédagogie des risques ». Car tout est à défricher, les doctrines d’usage des robots, la traçabilité des algorithmes, la capacité des hommes à encaisser la nouveauté…
Les limites de la technologie sont connues – les automates peuvent toujours se tromper, à l’instar des batteries Patriot américaines qui avaient abattu un Tornado anglais en 2003 en Irak. Le vrai défi est politique. D’accord pour que les armées préservent avec l’IA « la demi-seconde d’avance sur leur adversaire », mais pour quoi faire, dans quelle guerre ?
- Comme le souligne l’IFRI, l’IA associée à l’automatisation des armes « pourrait accélérer significativement le rythme des opérations, faisant émerger une nouvelle version de la guerre éclair où l’adversaire, étouffé, passif, n’aura d’autres options que de subir ». L’IA « favorisera sans aucun doute l’attaque, dans l’avenir, en fragilisant les tactiques de retardement, de déni (fortifications, dispersion, camouflage) et de manœuvre du défenseur ».
Par Nathalie Guibert.
Lire l'article sur Le Monde.fr
Média
Partager