Toujours pas d’interdiction des robots tueurs, l’ex-CEO de Google Eric Schmidt conseille à Biden de s’opposer à l’interdiction
Le groupe d’experts de l’ONU sur la Libye vient de publier un rapport1 ,2 , dénonçant la totale inefficacité de l’embargo sur les armes imposé à la Libye en 2011 par le Conseil de sécurité. Un précédent rapport des experts de l’ONU avait notamment dénoncé les violations de l’embargo par la Turquie et le comportement d’une de ses frégates escortant un cargo suspecté d’ acheminer des armes, qui avait eu un comportement hostile vis à vis d’une frégate française souhaitant contrôler ce cargo. L’OTAN avait dissimulé les résultats de son enquête3 sur cet incident en raison de l’importance géostratégique de la Turquie, qui profite de cette situation en général, et en méditerranée orientale en particulier, au mépris du droit maritime international.
Mais dans les 500 pages du dernier rapport des experts, c’est un élément beaucoup plus préoccupant qui a été mis en évidence par Laurent Lagneau4 : le Gouvernement d’union nationale a utilisé des drones turcs Kargu-2 en mode d’autoguidage automatique contre les forces du maréchal Haftar5 ,6 . Autrement dit, des armes autonomes utilisant l’intelligence artificielle ont été utilisées pour tuer dans un mode excluant l’intervention humaine.
Dans son rapport 2019 sur l’émergence des armes autonomes7 , l’ONG néerlandaise Pax dénonçait déjà ce drone produit par la société d’État turque SMT, en raison de son utilisation de l’intelligence artificielle (SMT décrit l’usage d’algorithmes d’apprentissage automatique), qui fait de la Turquie le premier pays à utiliser des drones capables de trouver, suivre et tuer des gens sans aucune intervention humaine.
La dynamique des risques émergents classiquement décrite s’applique ici: une innovation technologique réalisée par certains acteurs crée des déficits de connaissances chez les autres acteurs. En particulier chez les acteurs en charge de la production des règles et lois, ce qui retardera les actions visant à combler les déficits réglementaires créés par cette innovation. Par ailleurs la faible circulation de l’information relative à cette innovation, en particulier dans les grands medias, crée un déficit d’information du public, ce qui en pratique n’encourage pas les décisions politiques qui en l’espèce pourraient mener à l’obtention d’un accord sur l’interdiction des armes autonomes. Enfin, la question éthique est centrale : qui peut raisonnablement estimer éthique de créer et disséminer des robots tueurs capables de tuer des humains de façon autonome? En 2019 António Guterres estimait que ces robots tueurs sont « politiquement inacceptables » et « moralement répugnants »8 .
Dès 2012 une coalition d’ONG s’était formée dans le but faire interdire les armes autonomes, et avait lancé une campagne « Stop Killer Robots« . Fin 2012 Human Right Watch avait publié le rapport « Loosing Humanity: The Case against Killer robots« . Puis en 2015 Stuart Russel, Directeur du Center for Intelligent Systems à Berkeley, lançait une lettre ouverte demandant l’interdiction des systèmes d’armes autonomes. Cette lettre a été signée par 30.000 personnes, dont 4.500 chercheurs en robotique ou intelligence artificielle.
A l’ONU, la Convention sur certaines armes classiques (CCAC) a consacré plusieurs réunions au sujet de la menace posée par le développement des robots tueurs, et plusieurs États ont demandé que soit négociée une interdiction des systèmes d’armes démunis d’un contrôle humain, mais quelques États dont les États-unis et la Russie y font obstruction, la position de la Franceapparaissant ambigüe, même si Emmanuel Macron s’est clairement opposé aux robots tueurs. Cela étant les experts français ayant participé à la réunion du CCAC d’août 2019semblent vouloir adopter une définition restrictive des systèmes d’armes létaux autonomes, ce qui pourrait créer une controverse si cela devait exclure les drones autonomes turcs utilisés en Libye du champ de cette définition et permettre d’affirmer9 que les systèmes d’armes létaux autonomes « n’existent pas« .
Il y a là une disparité de perception majeure, puisque cette affirmation française est frontalement contredite par le rapport du groupe d’experts de l’ONU sur la Libye, qui affirme: « les unités des forces affiliées à Haftar qui battaient en retraite ont été pourchassés et pris à partie à distance par des drones de combat ou des systèmes d’armes létaux autonomes tels que le Kargu-2« .
Human Right Watch indique par ailleurs que la réunion du CCAC prévue à Genève en août 2020 avait été annulée en raison de la pandémie, Reaching Critical Will remarquant que pour d’autres sujets les réunions de l’ONU avaient pu avoir lieu sur Internet.
En soi, la situation globale face au risque de dissémination de systèmes d’armes létales autonomes est conflictuelle : plusieurs États s’opposent à une interdiction, sans doute par peur de perdre une course aux armements qui a pu s’installer précisément en raison de l’absence d’interdiction. Eric Schmidt, l’ancien CEO de Google, développe justement cette idée dans son dernier rapport au Président Biden, incitant à refuser toute interdiction de façon à être prêt face à la Chine ou la Russie dès 2025. Par ailleurs les intérêts économiques des complexes militaro-industriels, en particulier aux États-unis, sont suffisament importants pour infléchir les décisions politiques. Face à ces positions, les mobilisations des sociétés civiles souffrent d’une relative absence de couverture médiatique, eu égard à l’importance des enjeux, ce qui suggère la nécessité d’une réflexion sur la responsabilité, les priorités et l’éthique de l’industrie des médias.
Source : http://www.ifrei.org/