L’intelligence artificielle (IA) ne manque pas d’applications : finance, santé, justice, éducation, opérations militaires. Or, bien qu’elle soit reçue à bras ouverts dans le monde civil, l’utilisation de cette technologie dans l’arène militaire suscite de vifs débats. Au centre de la polémique : les implications éthiques et juridiques des systèmes d’armes autonomes, également connues sous le nom de systèmes d’armes létales autonomes (SALA), un sujet de grande controverse.
L’encadrement juridique des systèmes d’armes autonomes relève de chaque État; si certains jugent nécessaire de légiférer, d’autres se limitent à des mesures et lignes directrices d’ordre politique, moins contraignantes. Les positions débattues vont de la stricte interdiction de créer, de produire et d’utiliser ces systèmes, ceux-ci étant incapables d’user de jugement humain et d’observer la loi, à leur déploiement, gage d’interventions plus précises et, croit-on, de vies épargnées lors de conflits armés.
Cela dit, soulignons que la communauté internationale ne s’est entendue sur aucune définition de systèmes d’armes autonomes ou de SALA. Il en existe donc plusieurs. Ainsi, le terme « système d’armes autonomes » s’entend de ce qui suit aux fins des présentes :
« Système d’armes autonome pour ce qui est de ses fonctions essentielles — c’est-à-dire capable de choisir (chercher, détecter, identifier, suivre ou choisir) et d’attaquer (neutraliser, endommager, détruire quelque chose, ou recourir à la force contre elle) une cible sans intervention humaine. »
Les prochaines pages donnent un aperçu des grandes questions du débat sur les systèmes d’armes autonomes en droit international, et présentent des avenues de réglementation.
Poursuivre la lecture (le reste de l’article n’est disponible qu’en anglais).