Drones militaires autonomes : ce n'est plus de la science-fiction

28/07/2017

Voir un jour des machines non directement contrôlées par l'homme décider de qui peut vivre et de qui doit mourir est désormais une possibilité à prendre au sérieux. Depuis quelques années, on constate une évolution rapide des technologies liées aux drones, dont l'autonomie ne cesse de croître. Bien qu'à notre connaissance, aucun système de drone autonome homologué ne soit opérationnel, les technologies font l'objet d'essais et de développements. Certains voient les nouvelles possibilités et les avantages potentiels qu'offre l'utilisation de drones autonomes, tandis que d'autres considèrent comme fondamentalement immoral tout développement ou emploi de ces technologies. De grands noms – comme Stephen Hawking, Elon Musk et Steve Wozniak – ont déjà appelé à l'interdiction des armes autonomes ou de l'intelligence artificielle dans les pratiques de guerre. Dès lors, où en est-on et quels sont les principaux problèmes juridiques et éthiques ?

Vers des drones autonomes

À ce jour, il n'existe aucune définition ni agréée ni juridique du terme « drone autonome ». L'industrie use abondamment du terme « autonome » car il véhicule l'idée d'une technologie extrêmement moderne et sophistiquée. Toutefois, certains pays ont adopté une définition plus précise de ce qu'il faut entendre par drone autonome. Ainsi, le Royaume-Uni qualifie d'autonome l'aérodyne « capable de comprendre des intentions et des consignes à un niveau élevé » (ministère britannique de la Défense, The UK Approach to Unmanned Aircraft Systems, 2011). La plupart des autorités militaires et du secteur de l'aviation quant à elles désignent généralement un drone sous le terme d'« aéronef piloté à distance » (RPA, Remotely Piloted Aircraft), afin de bien montrer que ces appareils volent sous le contrôle direct d'opérateurs humains.

Le « Bat », de Northrop Grumman (l'ancien KillerBee de Raytheon) est un drone de moyenne altitude capable d'opérer sur de longues distances. Doté de toute une série de capteurs et de charges utiles, il embarque probablement au minimum des capacités de guerre électronique (photo reproduite avec l'aimable autorisation de Northrop Grumman).

La majeure partie des gens assimileront probablement le concept de « drone autonome » à un appareil sophistiqué pouvant agir en fonction de son propre choix d'options (ce que l'on appelle couramment l'« initiative système » ou l'« autonomie totale » dans la terminologie militaire). Ces drones sont programmés avec un nombre important de solutions possibles leur permettant de faire face aux différentes situations qu'ils pourraient rencontrer dans l'accomplissement de leur mission. Il ne s'agit pas de science-fiction : la technologie est largement développée, même si – à notre connaissance – aucun système de drone autonome homologué n'est encore opérationnel. Le facteur limitant n'est pas tant la technologie que la volonté politique de développer ou d'accepter cette technologie politiquement sensible, qui permettrait à des machines disposant d'armes létales d'opérer sans être sous le contrôle direct d'un opérateur humain.

L'un des problèmes majeurs concernant le développement et l'homologation d'aéronefs embarquant ces technologies est qu'il est extrêmement difficile de mettre au point des systèmes de validation satisfaisants, qui garantiraient que la technologie est sûre et qu'elle agit comme le ferait un opérateur humain. Dans la pratique, ces drones sophistiqués nécessiteraient la programmation d'un tel nombre de combinaisons de modes d'action différents qu'il serait impossible de les vérifier ou de les tester au niveau habituel des aéronefs habités. Par ailleurs, il en est pour qui autonomie signifie « intelligence artificielle » : les systèmes apprennent, voire développent eux-mêmes, des modes d'action possibles face à des situations inconnues qui se présentent. On ignore si cette technologie est sur le point de percer, mais nombreux sont ceux qui craignent que ce soit effectivement le cas.

Les drones autonomes – au sens de drones sophistiqués programmés avec des algorithmes correspondant à d'innombrables modes d'action définis par l'homme pour faire face à des difficultés nouvelles – font déjà l'objet d'essais au sein de plusieurs universités civiles et instituts de recherche militaires. Sont ainsi soumis à essais des « essaims de drones » (des drones qui reçoivent et suivent les ordres d'autres drones), qui sont a fortiori entièrement autonomes, ainsi que des drones autonomes opérant aux côtés d'aéronefs habités, que ce soit les « Loyal Wingman » (inhabités) comme les appelle l'armée de l'air des États-Unis ou le système de surveillance maritime de zones étendues (BAMS, Broad Area Maritime Surveillance), déjà largement testé, qui se compose d'avions de patrouille maritime P-8 Poséidon et d'aéronefs inhabités Triton. On voit également se développer des systèmes inhabités conçus pour être déployés depuis un aéronef habité et fonctionner en solo ou en allonge d'un « avion mère », par exemple, les micro-drones Perdix, PERDIX nano drones, dont une centaine ont été largués depuis un F-18 lors d'un essai conduit récemment. Ces drones opéreraient nécessairement avec un degré d’autonomie élevé. Ces nombreuses évolutions et ambitions sont bien décrites dans le document de planification de défense publié par les États-Unis en 2014 sous le titre USAF RPA Vector – Vision and Enabling Concepts 2013-2038 USAF RPA Vector - Vision and Enabling Concepts 2013-2038, et d'autres documents ; par ailleurs, on trouvera même de nombreuses vidéos sur ces recherches. Les perspectives ouvertes par ces machines autonomes, qu'il s'agisse de drones aériens, de véhicules sous-marins ou d'autres systèmes d'armes létales, offrent clairement de nouvelles possibilités aux forces militaires.

Le Perdix est un micro-drone capable de voler en essaim développé conjointement avec le MIT Lincoln Laboratory pour le NAVAIR (Naval Air Systems Command/département de la Défense des États-Unis) (WarLeaks).

Visionner la video du largage de cet essaim d'une centaine de drones depuis un « avion mère » américain F-18.

Concernant les aéronefs, il est avéré que la formation des pilotes et des opérateurs prend beaucoup de temps. Un des changements majeurs qui découlera de l'essor des drones autonomes est que les forces militaires pourront, dans un avenir plus ou moins proche, générer une grande puissance de combat dans des délais bien plus courts qu'auparavant. Il importe cependant de noter – ce que beaucoup ont fait – qu'il n'est pas plus économique ni plus facile de mettre en place les infrastructures ou de former les personnels au sol nécessaires à la mise en œuvre des drones que d'assurer la formation des équipages de bord. Toutefois, une fois opérationnels, les personnels et les centres d'opérations pourront déployer des nuées de drones. Dans le même ordre d'idée, les aéronefs habités d'ancienne génération seront au cœur d'un système de combat ou de renseignement déployé localement et précédé par des drones servant, par exemple, de moyens d'appui au brouillage, de plateformes armées ou de systèmes de plateformes multicapteurs. Dépasser les limites qui ont toujours existé, à savoir un pilote pour un aéronef ou un équipage pour un drone, et parvenir à une situation où un équipage pourra contrôler une multitude de drones constituera en soi une véritable révolution.

Ces perspectives de nouveaux types de systèmes d'armes haute technologie – et les craintes qu'ils suscitent – sont à la base de nos recherches sur les drones et les systèmes d'armes autonomes. Il est pratiquement impossible de prévoir quand ces technologies connaîtront un déploiement à grande échelle ; cela dépendra de la situation et des besoins des États. Cependant, nous nous risquerions à dire qu'étant donné que ces technologies sont de plus en plus accessibles et de plus en plus au point, les débats complexes sur les enjeux juridiques et éthiques devraient avoir lieu au plus vite.

Aspects juridiques

  • Les règles générales s'appliquent, mais les choses sont plus complexes qu'il n'y parait

En cas d'utilisation pendant un conflit armé, le drone autonome sera soumis aux règles et principes généraux du droit des conflits armés. De fait, il n'y a pas lieu de distinguer le drone autonome des autres armes, systèmes d'armes ou plateformes d'armes. Comme pour tout « moyen de guerre », le drone autonome doit uniquement être dirigé contre des cibles légitimes (objectifs militaires et combattants) et respecter le principe selon lequel une attaque ne doit pas causer de dommages collatéraux excessifs.

Le drone aérien de combat (UCAS) X-47B, développé par Northrop Grumman en coopération avec la DARPA, est souvent qualifié de « semi-autonome » (photo reproduite avec l'aimable autorisation de Northrop Grumman).

Certaines caractéristiques particulières du drone autonome pourraient toutefois compliquer l'application du droit des conflits armés. En effet, le drone autonome, quelle que soit la définition que l'on finira par lui donner, pourra – dans une certaine mesure – opérer seul dans le temps et dans l'espace. Cette absence (potentielle) d'interface entre l'homme et l'arme ou le système d'arme pendant une attaque soulève la question de savoir où et quand le droit exigera une présence humaine dans le cycle décisionnel. Avant de fournir des éléments de réponse à ces questions, il convient de rappeler certains aspects des obligations juridiques qui incombent au commandant au moment de prendre la décision.

  • Le droit impose au commandant raisonnable d'agir de bonne foi

Plusieurs des obligations juridiques applicables pendant un conflit armé sont faites pour s'adapter au « brouillard de la guerre ». Certaines de ces règles juridiques contiennent ainsi des formules souples offrant au commandant militaire une certaine marge de liberté au moment d'interpréter et de décider, par exemple, ce qui constitue un « avantage militaire » et l'importance que cet avantage revêt pour l'attaque dans son ensemble. Par ailleurs, le commandant doit mettre en balance l'importance relative de cet avantage avec les dommages collatéraux attendus (principe de proportionnalité).

Cette marge de liberté va de pair avec le fait que l'on attend du commandant militaire qu'il agisse de bonne foi et évalue l'avantage militaire (ainsi que les dommages collatéraux) sur la base des informations raisonnablement disponibles sur le moment. Dans le cadre de sa décision d'attaquer, le commandant militaire participant à la planification ou à l'exécution de l'attaque doit prendre toutes les « précautions possibles » pour « vérifier » que celle-ci n'est pas dirigée contre des personnes ou des objets protégés, et qu'elle ne viole normalement pas le principe de proportionnalité. Comment cette marge de liberté s'applique-t-elle à l'emploi de drones autonomes ?

  • Dans quelle mesure faut-il une présence humaine ?

Les drones autonomes ne sont pas capables de raisonner comme peut le faire un être humain car ils sont dépourvus de conscience. Dans l'état actuel des choses, ces aéronefs (ou tout autre système autonome) ne peuvent pas remplacer l'homme aux termes du droit. Les exigences énoncées plus haut semblent présupposer un « homme dans la boucle » du cycle décisionnel. À un moment donné dans la prise de décision d'attaquer, un homme doit décider de la cible et de l'importance de celle-ci. Toute la question est de savoir combien d'étapes doit compter le cycle décisionnel.

Le présent article s'appuie sur des recherches dont les résultats ont été publiés en Norvège en 2016 :


Når dronene våkner: Autonome våpensystemer og robotisering av krig” (Oslo; CappelenDamm, 2016)

À l'évidence, les opérateurs humains peuvent être secondés par des machines autonomes (et par des animaux « autonomes ») assorties de limites dans le temps et dans l'espace. Mais où faut-il fixer des limites ? Comme pour toute question juridique portant sur les pratiques de guerre, la réponse est obligatoirement circonstancielle. Si l'environnement est densément peuplé (comme c'est le cas en zone urbaine), les limites doivent nécessairement être plus strictes que dans les zones moins peuplées (comme en haute mer ou sous l'eau). Ici comme ailleurs, le diable se cache dans les détails : dans certaines circonstances, un système d’arme autonome pourra (légalement) être « laissé à lui-même » en opération pendant plusieurs heures ou plusieurs jours, tandis que dans d'autres, il faudra se passer de machine autonome et compter sur le jugement de l'homme, avec le risque d'erreur que cela comporte.

Du droit à l'éthique

Il faut par ailleurs souligner l'importance de l'éthique dans le débat sur les drones autonomes. Le respect du droit est au centre de toute prise de décisions militaires ou politiques, notamment en ce qui concerne le développement et l'emploi de drones autonomes. Même si le droit et l'éthique se rejoignent souvent, le droit en vigueur pourrait ne pas tenir dûment compte de certains enjeux éthiques importants, particulièrement dans le cas des technologies militaires émergentes. Autrement dit, une réflexion sur l'éthique pourrait venir compléter le droit en offrant des orientations normatives pour ces « zones grises ». Elle pourrait également être utile pour préciser le moment où les obligations éthiques doivent l'emporter sur les obligations juridiques dans l'intérêt de la bonne gouvernance politique.

  • Aspects éthiques

La délégation, à un agent non humain, du pouvoir décisionnel de laisser en vie ou de tuer est fréquemment source de récriminations chez les opposants aux systèmes d'armes autonomes, ceux-ci redoutant essentiellement qu'autoriser une machine à « décider » de tuer un être humain revient à nier la valeur de la vie humaine. Vue sous cet angle, la vie humaine est si précieuse qu'il serait indécent qu'une machine puisse un jour décider d'y mettre fin. En d'autres termes, il y a quelque chose de foncièrement immoral à développer et à employer des drones autonomes.

On peut difficilement faire valoir que les drones autonomes peuvent satisfaire le critère de distinction du jus in bello énoncé dans la « doctrine de la guerre juste ». En effet, il est compliqué, même pour un soldat de chair et de sang, de porter un jugement moral sur les personnes qui peuvent être légitimement prises pour cible dans le « brouillard de la guerre ». D'aucuns craignent que le fait de laisser des drones autonomes établir ce genre de distinction entraîne fort probablement des victimes civiles et des dommages collatéraux inacceptables. Même si un système d'arme parvenait à distinguer les combattants des non-combattants, il resterait à savoir si un drone autonome pourrait juger de la proportionnalité d'une attaque, c'est-à-dire si elle causerait ou non des souffrances inutiles. Toutefois, au-delà de l'incertitude entourant les capacités technologiques dont les drones autonomes seront dotés à l'avenir pour établir ce genre de distinction, on peut affirmer que, si ces systèmes d'armes sont incapables d'opérer dans le respect des règles du jus in bello, il est peu probable qu'ils soient déployés, du moins dans des environnements opérationnels où il existe un risque élevé de causer un dommage excessif à des civils.

En revanche, on pourrait aussi avancer que, sur le plan moral, il est non seulement acceptable, mais surtout préférable d'utiliser des drones autonomes en lieu et place de soldats humains. Comparativement à ces derniers, les drones autonomes seraient à même de traiter une plus grande quantité d'informations recueillies par leurs capteurs et ainsi de prendre des décisions plus éclairées. Et puisque le jugement de la machine ne serait pas obscurci par des émotions comme la peur ou la colère, cet emploi des drones pourrait réduire le risque de crimes de guerre qu'auraient pu commettre des soldats.

L'emploi de drones autonomes pourrait également améliorer certains aspects des missions humanitaires : il profiterait aux civils à qui une aide est apportée et réduirait les risques courus par les soldats. L'utilisation de systèmes autonomes pour ratisser des zones dangereuses ou accomplir des missions très risquées, comme la neutralisation de bombes ou le nettoyage de locaux, permettrait d'éliminer le risque que des soldats soient blessés ou tués.

Le « Triton » – développé par Northrop Grumman pour la marine des États-Unis dans le cadre du programme BAMS – est un système de mission de renseignement, de surveillance et de reconnaissance à la pointe de la technologie. Il peut évoluer sous le contrôle d'un opérateur ou de manière autonome (photo reproduite avec l'aimable autorisation de Northrop Grumman).

Là encore, ces évolutions pourraient avoir des incidences sur les critères du jus ad bellum énoncés dans la « doctrine de la guerre juste ». Le fait de limiter les risques courus par les soldats en les désengageant purement et simplement du champ de bataille pourrait rendre la guerre trop « facile » et la réduire à une opération technologique à bas coût qui ne nécessite plus aucun engagement public ou moral.

Où en est-on aujourd'hui et quelle direction faudrait-il prendre ?

Il est difficile de prédire l'avenir, mais le potentiel technologique des drones autonomes, fait déjà l'objet d'essais et de développements. Leur importance en tant que technologies militaires dépendra des besoins des pays, qui seront alors définis en fonction des conditions de sécurité. Il serait donc préférable d'établir un cadre juridique et éthique dès à présent.

De toute évidence, les drones autonomes soulèvent d'importantes questions juridiques et éthiques quant à la responsabilité en cas de dommage non intentionnel. Ces technologies créent en effet des vides dans la chaîne de responsabilité morale. Lorsque l'on déploie des systèmes militaires autonomes, le principe d'imputabilité devient moins évident. Il faut combler ces vides par des solutions techniques et des règles juridiques adéquates. L'OTAN et les Alliés devraient donc engager un débat international sur ces sujets. Parallèlement, la technologie continuera d'évoluer, mais un drone autonome, aussi sophistiqué soit-il, restera un produit, un outil entre les mains de l'homme. Notre responsabilité fondamentale dans le domaine de la guerre et dans la manière de combattre ne saurait, à aucun moment, être « externalisée » sur le plan moral, et surtout pas à des machines.


Co-auteurs : colonel Gjert Lage Dyndal, actuellement membre de la Section Capacité d'analyse stratégique au siège de l'OTAN et ancien doyen de l’École de l’armée de l’air norvégienne, lieutenant-colonel Tor Arne Berntsen et Mme Sigrid Redse-Johansen (chargée de cours), tous deux de l'Université de défense norvégienne. Le présent article s'appuie sur leurs recherches conjointes et sur leur ouvrage publié récemment en Norvège (voir image).

ll est à noter que les articles publiés dans la Revue de l’OTAN ne reflètent pas nécessairement les positions ou politiques officielles des pays membres, ni celles de l’OTAN.

A propos de l'auteur

Co-auteurs : colonel Gjert Lage Dyndal, actuellement membre de la Section Capacité d'analyse stratégique au siège de l'OTAN et ancien doyen de l’École de l’armée de l’air norvégienne, lieutenant-colonel Tor Arne Berntsen et Mme Sigrid Redse-Johansen (chargée de cours), tous deux de l'Université de défense norvégienne. Le présent article s'appuie sur leurs recherches conjointes et sur leur ouvrage publié récemment en Norvège (voir image).