L’intelligence artificielle (IA) ne manque pas d’applications : finance, santĂ©, justice, Ă©ducation, opĂ©rations militaires. Or, bien qu’elle soit reçue Ă bras ouverts dans le monde civil, l’utilisation de cette technologie dans l’arène militaire suscite de vifs dĂ©bats. Au centre de la polĂ©mique : les implications Ă©thiques et juridiques des systèmes d’armes autonomes, Ă©galement connues sous le nom de systèmes d’armes lĂ©tales autonomes (SALA), un sujet de grande controverse.
L’encadrement juridique des systèmes d’armes autonomes relève de chaque État; si certains jugent nĂ©cessaire de lĂ©gifĂ©rer, d’autres se limitent Ă des mesures et lignes directrices d’ordre politique, moins contraignantes. Les positions dĂ©battues vont de la stricte interdiction de crĂ©er, de produire et d’utiliser ces systèmes, ceux-ci Ă©tant incapables d’user de jugement humain et d’observer la loi, Ă leur dĂ©ploiement, gage d’interventions plus prĂ©cises et, croit-on, de vies Ă©pargnĂ©es lors de conflits armĂ©s.
Cela dit, soulignons que la communautĂ© internationale ne s’est entendue sur aucune dĂ©finition de systèmes d’armes autonomes ou de SALA. Il en existe donc plusieurs. Ainsi, le terme « système d’armes autonomes » s’entend de ce qui suit aux fins des prĂ©sentes :
« Système d’armes autonome pour ce qui est de ses fonctions essentielles — c’est-Ă -dire capable de choisir (chercher, dĂ©tecter, identifier, suivre ou choisir) et d’attaquer (neutraliser, endommager, dĂ©truire quelque chose, ou recourir Ă la force contre elle) une cible sans intervention humaine. »
Les prochaines pages donnent un aperçu des grandes questions du dĂ©bat sur les systèmes d’armes autonomes en droit international, et prĂ©sentent des avenues de rĂ©glementation.
Poursuivre la lecture (le reste de l’article n’est disponible qu’en anglais).