Social Anthropology - Robots, AI & Society

jeudi 6 février 2014

À propos des drones...

La robotique est parvenue aujourd'hui à s'imposer dans le domaine de l'action militaire. Cet intérêt pour les robots s'est constitué à partir de recherches autour des moyens d'accroitre l'efficacité au niveau opérationnel dans une économie marquée par la réduction des effectifs, les difficultés liées au paiement des retraites, au soin des blessés ou à la réinsertion. La robotique militaire s'est également constituée autour d'un souci pour l'extension des limites de l'action humaine. Ces machines concourent à robotiser progressivement le champ de bataille mais elles tendent aussi à transformer les représentations de la guerre et du métier de soldat. L'intégration de ces machines s'appuie en réalité sur différentes approches, constituées à partir de problèmes spécifiques. On peut d'emblée distinguer les machines restant sous le contrôle direct d'un opérateur humain des machines autonomes agissant selon leur programme en fonction des informations qu'ils perçoivent dans leur environnement.

Article extrait de la revue Popular Science (Août 1930)
Il a fallu près d'un siècle après les démonstrations de télémécanique d'Édouard Branly et les expérimentations de Max Boucher et Maurice Percheron [1] sur l'aéroplane Detable pour que les avions sans pilote parviennent à s'imposer comme un instrument de guerre de premier ordre. L'apparition de cette technologie et son utilisation systématique en Afghanistan, au Pakistan ou au Yémen au cours de dix dernières années soulève de nombreuses questions et critiques. Les drones militaires imposeraient une nouveauté radicale, allant jusqu'à remettre en cause la notion de guerre en mettant à distance (et en latence) l'opérateur et l'opération, en écrasant les niveaux de prise de décision et les chaînes de compétence, ou en justifiant le ciblage de personnes, par delà les frontières nationales, sans être toujours en mesure de déterminer leur statut de combattant. Cette nouveauté s'inscrirait paradoxalement dans la continuité des pratiques modernes de la guerre. L'usage de cette arme cherche en effet ses connections avec les principes d'une guerre juste, à partir de l'impératif de préserver les combattants nationaux. Au delà des rhétoriques du changement et de la continuité dans l'éthique de la guerre mises en exergue à travers la controverse sur l'usage des drones militaires, ces machines portent aussi les principes d'un effacement progressif des frontières entre le monde civil et le monde militaire [2], ouvrant une fenêtre sur la possibilité d'une guerre open source où à peu près n'importe qui peut être en mesure de fabriquer et d'utiliser de telles technologies. À l'asymétrie induite par l'usage controversé des drones, se laisse entrevoir la possibilité d'une réappropriation non seulement par des combattants irréguliers [3], mais aussi par des membres de la société civile [4].

En réalité, si l'usage des drones télé-opérés pose question, c'est surtout autour de leur autonomie que se cristallisent aujourd'hui les débats. Avec le développement de l'intelligence artificielle il est désormais envisageable de déployer des robots, seuls ou en essaims, dans le cadre d'opérations de surveillance ou de reconnaissance, ou encore d'impliquer directement des machines dans des zones de combat. La conception et l'emploi de telles machines, capables de prendre seules l'initiative d'un tir, repose en des termes encore inédits les questions relatives aux armes frappant sans discrimination [5]. Comment une machine peut-elle faire la différence entre un combattant et un non-combattant à l'endroit même ou un soldat humain n'y parvient pas toujours ? À qui imputer la responsabilité d'un crime de guerre si la machine seule a pris la décision d'ouvrir le feu ? À quelles conditions une telle machine pourrait-elle respecter des règles élémentaires de morale ? À l'heure où aucun mécanisme de responsabilité pénale ne peut être appliqué à ces robots, des chercheurs en intelligence artificielle, en robotique, en droit ou en sciences sociales ont souligné l'urgence d'ouvrir le débat. Regroupés pour certains au sein de l'International Commitee for Robot Arms Control en 2009, ils œuvrent pour une meilleure connaissance des risques associés au développement de l'autonomie des « robots tueurs » et plaident pour leur interdiction auprès des instances internationales [6].

Ces débats récents soulignent l'importance, pour les chercheurs et plus largement pour les membres de la société civile, de s'emparer des nombreuses questions morales et légales que soulèvent l'autonomie des machines de guerre. 

Notes
[1] Percheron publie L'Aviation de Demain, Télémécanique, La direction des avions par TSF en 1921.
[2] Cet effacement des frontières suit de près le développement des technologies issues de la robotique. Fondées principalement sur un bouclage entre senseurs et actionneurs (selon la définition de l'agent idéal donnée par Stuart Russel et Peter Norvig) les technologies embarquées sur les robots militaires diffèrent à peine de celles des robots dits sociaux ou médicaux.
[3] Le Guardian du 17 septembre 2009 rapporte par exemple que des insurgés irakiens auraient intercepté les signaux vidéo non-cryptés de drones transitant par satellite en utilisant un logiciel de piratage de chaînes de télévision à péage ne coutant que 26 dollars.
[4] Les développements récents du drone journalism vont en ce sens.
[5] Comme les mines antipersonnel ou certaines armes classiques régies par la convention d'Ottawa ou la convention sur les armes inhumaines. Les robots létaux autonomes n'entrent pas, pour l'heure, dans les armes ciblées par ces conventions internationales. 
[6] Les débats débuteront à l'Office des Nations Unies à Genève, à partir du 13 mai 2014, dans le cadre de la Convention sur l'interdiction ou la limitation de l'emploi de certaines armes classiques qui peuvent être considérées comme produisant des effets traumatiques excessifs ou comme frappant sans discrimination.