Armes autonomes: vers des morts sans meurtriers?
En 2019, 11 principes directeurs pour encadrer les armes autonomes ont été adoptés à Genève par 88 pays. Ils affirment notamment que le droit international humanitaire s’applique à ces systèmes, que la décision pour les activer doit toujours relever d’une responsabilité humaine, et que les Etats doivent examiner la licéité de ces armes lorsqu’elles sont développées. Sauf qu’aujourd’hui il n’existe pas d’armes «autonomes». Mais les systèmes semi-autonomes, eux, se sont développés. Sans aucune régulation. La différence entre les deux? «Une arme autonome serait capable de comprendre son environnement et de déterminer elle-même la cible à abattre. Un système semi-autonome, comme les drones armés utilisés actuellement en Ukraine, est capable d’identifier un objectif si celui-ci lui est assigné. Par exemple, un radar à partir de la signature électromagnétique qu’il produit», détaille Jean-Marc Rickli, responsable des risques globaux et émergents au Centre de politique de sécurité de Genève (GCSP).
Un contexte transformatif
Depuis une décennie, les conflits syrien, libyen et ukrainien ont été des terrains d’entraînement de ces systèmes à autonomie croissante, facilitant leur développement devenu exponentiel… Le tout dans un contexte «transformatif». Parce que ces technologies militaires se nourrissent d’innovations, basées sur des algorithmes par ailleurs plébiscités dans le secteur civil, notamment la reconnaissance faciale. Avec elle, des drones pourraient identifier et poursuivre une cible humaine. Mais le flou subsiste sur l’existence et l’utilisation de cette possibilité, à ce stade. C’est d’ailleurs la caractéristique des technologies cyber : la communication des acteurs autour de leurs capacités réelles reste – à dessein – très opaque, «parce dans le digital et le cybernétique, communiquer sur ses moyens, c’est communiquer sur ses vulnérabilités», éclaire Jean-Marc Rickli. Contrairement au nucléaire, où l’enjeu est d’afficher clairement sa capacité de dissuasion, ici, les menaces sont moins claires. Pouvant conduire à des perceptions erronées… et donc à l’escalade! Dans ce contexte, limiter les systèmes d’armement semi-autonomes semble impossible. D’autant que ces outils, permettant des prises de décision à la milliseconde (quand c'est à la seconde ou à la demi-seconde pour un humain), ne servent pas qu’à attaquer, mais nourrissent des systèmes de défense dont aucun acteur ne souhaiterait aujourd’hui se priver. Le Dôme de fer israélien (bouclier antimissiles) repose ainsi déjà largement sur des algorithmes.
Des sujets responsables?
Difficile, donc, de se passer de ces systèmes, qui prospèrent dans un vide juridique. Leur utilisation ouvre, par contre, une ère toute nouvelle de dilemmes moraux, notamment l’audit des algorithmes «d’un point de vue éthique: ces systèmes peuvent-ils avancer des raisons pour lesquelles ils ont ‹décidé› et ‹agi› de telle manière et pas autrement? Les systèmes technologiques sont-ils donc des sujets responsables au sens juridique et éthique du terme?», interroge le théologien Frank Mathwig, responsable de théologie et d’éthique pour l’Eglise évangélique réformée de Suisse (EERS).
La marge d’appréciation de ces systèmes, même semi-autonomes, pose question: «Peuvent-ils procéder à une évaluation non seulement rationnelle, mais aussi éthique de la situation?», questionne l’éthicien. Et de pointer l’incompatibilité fondamentale entre ces outils et l’éthique, en citant la philosophe américaine Martha Nussbaum: «La connaissance morale n’est pas une simple saisie intellectuelle de propositions; elle n’est même pas une simple saisie intellectuelle de faits particuliers; elle est une perception.»