L’Onu s’est réunie, ce mois-ci, pour discuter d’une définition des armes autonomes. Certains pays, Etats-Unis et Russie en tête, misent déjà sur ces technologies développées grâce à l’intelligence artificielle pour changer la face de la guerre. Plusieurs ONG et personnalités demandent, elles, un moratoire, voire une interdiction.

Qu’est-ce qu’un système d’armes létales autonome (Sala) ou, pour le dire plus crûment, un « robot tueur » ? L’Onu s’est réunie du 9 au 13 avril, à Genève en Suisse, et se rassemblera à nouveau fin août, pour esquisser une réponse. L’enjeu est de savoir à partir de quel stade on peut considérer qu’une machine de guerre prend seule la décision de tuer, et si ce choix peut être fait sans intervention humaine. De cette définition dépendra, à terme, un éventuel moratoire ou accord de non-prolifération que de nombreux chercheurs et spécialistes des technologies appellent de leurs voeux.

Dès 2015, une première lettre ouverte appelant à une interdiction des armes autonomes avait été rendue publique par le Future of Life Institute, un think tank basé à Boston. Elle avait été signée par de grands noms de la science tels que feu Stephen Hawking, physicien, et Noam Chomsky, linguiste au MIT, ainsi que de grands chercheurs en intelligence artificielle comme Demis Hassabis (Google DeepMind), Yann LeCun (Facebook AI Research) ou Yoshua Bengio (université de Montréal). Signataire également, Elon Musk, patron de Tesla et SpaceX, ne cesse depuis de mettre en garde contre les dangers de l’intelligence artificielle : « Pour une IA, il n’y aurait pas de mort. Elle vivrait toujours, et vous auriez une dictatrice immortelle »,  a-t-il déclaré dans le documentaire «  Do You Trust this Computer ?  » sorti en ligne début avril.

Sourced through Scoop.it from: www.lesechos.fr