
Guerre au Moyen-Orient: l'intelligence artificielle pour identifier des cibles en Iran?
TVA Nouvelles
L’utilisation présumée de l’intelligence artificielle pour sélectionner des cibles et lancer des attaques contre l’Iran soulève de nombreuses questions, faisant craindre une érosion du contrôle humain sur la machine de guerre, selon un spécialiste de l’IA.
Les États-Unis et Israël ont effectué des milliers de frappes en Iran depuis le déclenchement de leur offensive, le 28 février.
Peter Asaro, qui a notamment réalisé des travaux sur l’IA et la robotique, a affirmé cette semaine à l’AFP qu’il semblait probable que ces deux pays aient utilisé l’IA pour identifier des cibles en Iran.
Mais si l’IA permet d’accélérer les choses, elle soulève aussi une foule de questions morales et juridiques, a dit ce professeur à l’université The New School de New York.
Avec l’IA, « vous pouvez rapidement préparer de longues listes de cibles, bien plus vite que des humains », a relevé M. Asaro, qui préside le Comité international pour le contrôle des armes robotisées, une ONG.
Il préside également depuis janvier la campagne « Stop Killer Robots », un groupement mondial de plus de 250 organisations, qui lutte depuis des années pour empêcher l’arrivée de « robots tueurs » sur le champ de bataille.
Se pose, selon lui, une question éthique et juridique centrale : « dans quelle mesure les humains examinent-ils réellement les cibles identifiées, en vérifiant leur légalité et leur valeur militaire avant d’en autoriser la frappe ? ».
L’objectif, avec l’IA, « est de pouvoir prendre des décisions et d’agir plus vite que votre ennemi », mais « sommes-nous vraiment encore aux commandes ? », s’interroge-t-il.
À l’ONU, des discussions sont en cours depuis une dizaine d’années à Genève en vue de mettre au point une règlementation sur ces systèmes d’armes létales autonomes (SALA), surnommés « robots tueurs », mais les pays ne sont jamais arrivés à trouver un consensus pour entamer de véritables négociations.













