Tous les passionnés et spécialistes de l’aéronautique contemporaines de défense savaient bien que ce jour arriverait tôt ou tard. L’US Department of Defense vient d’annoncer son intention d’acquérir à court ou moyen terme des avions sans pilote dont le guidage serait assurée par une intelligence artificielle. Plus besoin désormais d’un ou deux télépilotes à des centaines de kilomètres dans un confortable shelter bien protégé, ce serait cette-fois ci le drone lui-même qui se piloterait ! Pour autant cette première étude sérieuse, baptisé Skyborg, ne concerne pas encore des machines de combat.

Et plusieurs avionneurs plus ou moins spécialisés dans les drones seraient déjà sur les rangs pour livrer leur vision du Skyborg. On parle de Boeing, General Atomics, Kratos, Lockheed-Martin, ou encore Northrop-Grumman. Mais il n’est pas impossible que d’autres les rejoignent très prochainement. Chacun de ces constructeurs à jusqu’à début 2020 pour rendre sa copie au Pentagone. L’objectif des décideurs et militaires américains est d’obtenir un premier vol de ce démonstrateur technologique dans le courant de l’année 2023.

Organiquement c’est le 412th Test Wing de l’US Air Force qui sera en charge de l’évaluation des propositions et aussi des essais sur le ou les programmes retenus. C’est donc depuis Edwards AFB, la Mecque des tests aériens américains, que le projet sera étudié.
Pour l’instant on sait que le cahier des charges prévoit que le Skyborg se repose sur un avion sans pilote doté d’un ou de deux petits réacteurs, qu’il soit furtif, et qu’il puisse remplir des missions de reconnaissance tactique et/ou stratégique. Aucune adaptabilité à l’emport d’armement n’est pour l’instant (officiellement) envisagé par les généraux américains. Mais tout le monde se doute bien que c’est la prochaine étape.

Même si technologiquement le programme Skyborg s’annonce comme passionnant il pose une question éthique fondamentale : peut-on se passer de l’homme dans la machine ? Sans tomber dans le trop facile cliché du Skynet de la saga cinématographique Terminator le recours à une intelligence artificielle pour piloter un avion pose de sérieuses questions sur la place de l’être humain dans la défense du 21ème siècle. Car ne nous y trompons pas si les États-Unis ouvrent aujourd’hui la boite de Pandore d’autres nations vont s’y engouffrer. Chinois, Européens, ou encore Russes n’attendent certainement pas grand chose pour emboiter le pas aux Américains.
Un drone de combat piloté par une intelligence artificielle, c’est à dire un véritable robot tueur volant, est-il envisageable à l’horizon 2030 ? La question est entière.

Illustration © Kratos Defense & Security Solutions

Publicité

7 COMMENTAIRES

  1. On peut aussi dire, en poussant le résonnement, que les tours du world trade center on été détruite par des avions sans pilote à « l’intelligence » largement artificielle puisque quasiment dépourvue d’humanité, si la catastrophe peut arriver, il est clair qu’un jour elle arrivera. A nous de voir pour qu’elle n’arrive pas trop vite!

  2. Cela fait déjà quelques décennies que l’IA (du moins des algorithmes de traitement) ont investi les opérations. L’AEGIS en mode auto agit et prend ses décisions seul (ouverture et répartitions des plans de feu, homme hors de la boucle). Les IA analysent de millions de kilomètres carrés d’image satellites sans un oeil humain derrière elles. L’IA des CME et des CCME d’un avion de combat prend ses décisions seule en fonction de la menace parce que le pilote n’aura guère le temps ni le loisir de choisir le mode à appliquer.
    En suite, un équipage de drone, c’est 4 personnes à minima (pilotes, opérateurs de charge utile, chef de mission, interprètes-analystes) et ça cause pas mal de soucis dans la chaîne de recrutement, là où un avion de combat classique consomme 1 à 2 personnes (hors mécaniciens, MCO ou mise en oeuvre).. L’IA peut soulager toutes les fonctions liées au pilotage pour laisser aux humains le contrôle de la mission au sens général (objectifs, zones d’intérêts).
    Ensuite, il y a aussi la fragilité des liaisons entre une machine et son équipage situé à des milliers de km, des liens qui peuvent être brouillés, rompus … L’IA est une solution pour poursuivre la mission ou ramener l’appareil…
    Techniquement, on peu se passer de l’homme dans la boucle. En pratique, l’IA commet des erreurs, les algorithmes se trompent, peuvent être trompés, leurrés, pervertis, corrompus (c’est déjà amplement documenté) ; donc l’homme reste une autorité de contrôle.
    Le scénario est moins celui d’un Terminator qu’une hybridation homme-machine, comme un système symbiotique (quand on regarde les choses par ce prisme c’est exactement la manière dont va fonctionner le SCAF).

    • Oui Steph, Dutertre l’a sûrement pas bien exprimé sur la forme mais dans le fond on est obligé d’être d’accord avec vous. Essayez dans vos commentaires d’avoir moins recours aux initiales ou alors de les expliquer. Certains de nos lecteurs n’ont peut être pas votre haut niveau d’expertise.

    • Steph me corrigera si besoin
      CME pour Contre-Mesures Électroniquesur comme par ex, s’échapper d’une radar qui essaie de vous verrouiller
      CCME pour Contre Contre-mesures Electroniques comme par ex. détecter une cible malgré un brouillage pour masquer la cible
      MCO pour Mise en Conditions Opérationnelles

  3. Pour ce but (un robot autonome qui ferait la même chose que s’il y avait un pilote aux commandes), il faudrait bien sûr une intelligence de décision qui remplace celle du pilote mais aussi les informations issues de ses sens, y compris ses sensations, voire ses intuitions.

LAISSER UN COMMENTAIRE

Merci d'écrire votre commentaire !
Merci de renseigner votre nom