Non classé

Perspectives et enjeux des armes autonomes.

Les SALA (Systèmes à Armes Létales Autonome) encore connus sous le nom effrayant de Robots tueurs. Qu’est-ce ? Pourquoi veut-on créer des robots qui tuent ? Comment s’opposer à de telles pratiques ? Telles étaient les questions à l’ordre du jour à l’atelier de formation des capacités des experts en intelligence artificielle sur les robots tueurs organisé par les organisations WOMEN’S INTERNATIONAL LEAGUE FOR PEACE & FREEDOM (WILPF), WOMEN PEACE INITIATIVE (WPI), FEMME POUR LA PROMOTION DU LEADERSHIP MORAL (FEPLEM), YOUTH FOR PEACE à laquelle J’ai participé en tant que représentant de La startup camerounaise Will & Brothers.
Il faudrait déjà savoir que Wikipédia défini un robot comme étant un dispositif mécatronique (alliant mécanique, électronique et informatique) conçu pour accomplir automatiquement des tâches imitant ou reproduisant, dans un domaine précis, des actions humaines. A partir de cette définition nous pouvons dire qu’un robot est de facto une machine automatique, c’est-à-dire un système préprogrammé pour accomplir une ou plusieurs tâches spécifiques dans un environnement prédéfini et contrôlé. Un robot devient donc autonome c’est-à-dire un système intelligent qui décide si et quand accomplir une ou plusieurs tâches dans un environnement changeant et imprévisible, uniquement lorsqu’il se voit doté d’une intelligence en l’occurrence ici une intelligence artificielle. Il est donc important de comprendre qu’un robot autonome est différent d’un robot classique en ce sens qu’il est doté de la capacité de penser et d’agir par lui-même. Il en existe donc de plusieurs types, autant (ou presque) qu’il existe de types de robots. Ils devraient être capables une fois mis en marche d’effectuer des attaques mieux ciblées, plus rapides, sur des durées inhumaines et à une échelle encore inconnues.
Au vu de la description faite on pourrait être tenté de se poser la question « Mais pourquoi fabriquer des armes pareilles ? ». Les machines autonomes ne connaissent pas la faim, la soif, la fatigue, n’ont pas de sentiments et surtout nous évitent d’envoyer des Hommes risquer leur vie dans des opérations militaires. En d’autres termes elles auront le potentiel d’être des armes de terreur. La première raison pour laquelle des Etats s’y intéressent est donc une raison impérialiste. Les SALA compte tenu de la redoutable efficacité qu’on leur prédit sont inévitablement des armes de dissuasion au même rang que l’arme nucléaire. C’est la raison pour laquelle le département de recherche militaire américain (Darpa) a un budget de 15 milliards d’euros pour le seul développement des robots militaires. Selon le New York Times, ce département a déjà testé des drones autonomes pouvant décider quelle cible attaquer “sans aucune aide humaine”. Côté russe, un robot humanoïde a été dévoilé en 2016, censé aider les cosmonautes sur la station spatiale internationale, mais une vidéo le montrant en train de tirer sur des cibles avec deux armes à feu semble plutôt indiquer que Fedor (Final Experimental Demonstration Object Research) n’a pas vocation à se cantonner seulement à de la maintenance dans l’espace.
Une autre raison qu’on pourrait citer est la raison économique. Le marché de l’armement en Europe par exemple représente près d’un demi-million d’emplois directs (et deux fois plus d’emplois indirects) dans plus de 1 300 entreprises, pour un chiffre d’affaires avoisinant les 100 milliards d’euros par an. C’est un marché colossal et nul doute que détenir une technologie comme celle-là pourrait faire de ses auteurs de personnes très riches. Les enjeux économiques font aussi parti des raisons pour lesquelles il sera compliqué de stopper l’évolution des recherches en matière de SALA.
La dernière raison que nous évoquerons ici et qui semble être la plus noble est celle de l’intérêt scientifique. L’intérêt scientifique est à prendre en compte dans la mesure où il est impossible de prédire ce que les recherches actuelles sur les SALA nous permettraient de découvrir, qui pourraient être au service de la population civile ou même de la médecine. L’exemple le plus connu est celui d’internet, qui comme plusieurs autres technologies a d’abord été un projet du département de la défense et son objectif n’était pas commercial, ni social. Alors qui sait ? Peut-être dans un avenir lointain ou proche des SALA pourraient être utilisés à la place des pesticides ou pour détruire des cellules cancéreuse ? Seul l’avenir nous le dira. En attendant puisqu’il semble difficile voire impossible de lutter contre les recherches sur elles, quels sont les problèmes qu’elles soulèvent et les moyens à utiliser pour tout au moins contrôler ou encadrer la mise sur pied des armes autonomes ?
Commençons par les problèmes. La création des armes autonomes suscite de nombreux problèmes du fait justement de leur autonomie. les armes autonomes sont des armes dotées d’une intelligence artificielle (IA) qui leur donne la capacité d’apprendre des données qui leurs sont présentées mais aussi de leurs expériences. Le souci se trouve exactement à ce niveau. Apprendre. Si vous êtes en charge de l’éducation d’un enfant et que vous lui montrer des voitures en lui disant que ça s’appelle avion, ce dernier intègrera que ça s’appelle avion. C’est exactement le même problème qu’il y’a avec les IA. Si pendant leur période d’apprentissage elles sont soumises à des données manipulées par ceux en charge de gérer cet apprentissage cela devient problématique. Des biais cognitifs malsains pourraient être transmis et appris conduisant ainsi à la création d’armes autonomes pouvant être racistes, misogynes, antisémites etc… Il devient donc important d’avoir un contrôle sur le processus d’apprentissage de machines tueuses afin qu’elles ne soient pas instrumentalisées pour soutenir les opinions de certaines personnes.
L’autre chose qu’il faut mettre en évidence c’est la responsabilité. Nous parlons d’IA et cet aspect ne saurait manquer d’autant plus qu’il s’agit d’armes létales. Un robot qui a la capacité de penser, à qui on a apprît des choses mais qui a aussi la capacité d’apprendre par lui-même serait-il responsable s’il élimine la mauvaise personne ? Bien-sûr que non parce qu’il n’a pas d’âme, pas de remord pas de conscience. Sur qui faudra-t-il alors rejeter la faute ? Au fabricant qui a respecté les normes préétablies pour la programmation des IA ou à l’utilisateur qui n’aura pas forcément donné son accord à l’action entreprise par l’arme. Nous sommes dans une impasse parce que ces machines sont justement conçues pour être capables d’apprendre et de prendre des décisions d’elles-mêmes.
Il est très difficile de prévoir les comportements collectifs de machines autonomes. Il est possible d’arriver à quelque chose d’aléatoire et non-maîtrisable. La foule n’a pas de conscience a-t-on l’habitude de dire. Alors imaginons une foule armée et destinée à tuer… Les armes autonomes capables de comprendre leur environnement auraient des actions, des mouvements non prédictibles par l’Homme, et pourraient ainsi être capables (dans un avenir lointain certes) d’apprendre de nouvelles choses et de désobéir à leur créateurs. Sachant que leur fonction première et unique est de tuer, cela laisse imaginer le chaos que pourraient créer des armes pensantes.
Elon MUSK met en évidence lorsqu’il dit« Les armes autonomes permettront de faire la guerre plus vite et à une échelle encore jamais connue. Elles auront le potentiel d’être des armes de terreur. Despotes et terroristes pourraient l’utiliser contre des populations innocentes.» le fait que si nous arrivons à avoir la maîtrise de cette technologie elle pourrait malheureusement ne servir qu’à des personnes mal intentionnées suffisamment riches pour s’en procurer.
Les problèmes ayant été cités nous proposerons maintenant des esquisses de solution à apporter pour encadrer le développement des SALA. La solution générale qui contient toute les autres consiste à créer un cadre juridique qui impose certaines règles aux constructeurs et aux utilisateurs de SALA. Ces règles devraient permettre de :
– Contraindre les programmeurs d’IA à respecter la déclaration universelle des droits de l’Homme pendant la période d’apprentissage des IA,
– Contraindre les fabricants à faire des mises à jour régulières sur leur système de sécurité pour éviter d’éventuelles intrusions,
– Restreindre l’autonomie de ces armes en les obligeant à avoir recours à l’autorisation humaine avant de tuer.
– Créer un organisme indépendant dont le rôle sera d’homologuer et de contrôler les robots dotés d’une IA
Will & Brothers à travers son programme algo drone travaille sur des robots intelligents mais pas des robots destinés à tuer. Ce n’est pas une surprise de dire que la startup s’est positionnée depuis un moment déjà sur la fabrication de drones made in Cameroun. Ces drones se voient donc désormais équipés d’une IA de reconnaissance d’image nommée CYCLOPE dans le but de donner une véritable plus-value au service de location et vente de drones. Elle propose donc une alternative utile aux drones intelligents notamment dans les domaines de l’agriculture (détection de maladies sur les plantes, irrigation des cultures, plantation des cultures, analyse des champs et du sol, etc…) et de la défense (cartographie, sécurisation des espaces sensibles, protection des espaces maritimes et des frontières ).
L’intelligence artificielle a ses avantages et ses inconvénients. Les robots tueurs étant une application de l’IA dans le cadre militaire, Ils peuvent eux aussi (comme beaucoup d’autres technologies militaires avant elle) avoir des hacks intéressants et utiles à la société. Pour le moment ils sont plus craints par l’opinion publique qu’appréciés, c’est la raison pour laquelle il est urgent de légiférer en la matière afin d’éviter que le développement de cette technologie ne serve à des intérêts malsains.
Comment avez-vous trouvé l’article ? Ces règles vous semblent-elles suffisantes ? Quelles sont celles que vous souhaiteriez ajouter, enlever, éclaircir ? Donnez-nous vos avis en commentaire.
Auteur de l’article –  WILL MPOH LOBE – Stagiaire Will and Brothers / Algo Drone

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *