Le risque ultime de l’IA ? L’extinction humaine… Il y a presque un air de science-fiction dans la lettre ouverte signée par des experts de la technologie.

Une douzaine de collaborateurs actuels et anciens d’OpenAI, derrière le célébrissime ChatGPT, et deux de Google tirent la sonnette d’alarme. Ils mettent en garde contre les risques liés à l’IA qui vont du renforcement des inégalités existantes à la manipulation et à la désinformation, ou encore la perte de contrôle des systèmes d’intelligence artificielle autonomes, qui pourrait entraîner… l’extinction de l’humanité. Des risques potentiels déjà connus par les entreprises d’IA, les experts et les gouvernements, rappellent-ils.

Ce courrier signé par plusieurs professionnels – anonymement ou avec leurs noms – est approuvé par Yoshua Bengio, professeur reconnu de l’Université de Montréal , Geoffrey Hinton, professeur émérite à l’Université de Toronto, ainsi que Stuart Russell, professeur émérite de Berkeley, considérés parmi les pères de l’IA.

Eviter une surveillance efficace
Ils expliquent que les entreprises d’IA ont de fortes incitations financières à éviter une surveillance efficace. Et « nous ne pensons pas que les structures de gouvernance d’entreprise habituelles soient suffisantes pour changer cette situation ».
Les entreprises du secteur possèdent, selon eux, de nombreuses informations sur les capacités et les limites de leurs systèmes, sur l’adéquation de leurs mesures de protection et sur les risques, mais elles n’ont que de faibles incitations à les partager. « Dans la mesure où ces sociétés ne sont pas soumises à la supervision des autorités, les employés actuels ou anciens font partie des rares personnes qui peuvent leur demander des comptes », expliquent les 13 signataires de cette lettre ouverte, publiée mardi.
Mais, ils sont soumis à des accords de confidentialité et craignent « diverses formes de représailles ».

Vers davantage de transparence
Ils demandent donc à ce que les entreprises de l’IA s’engagent à ne prendre aucune mesure de rétorsion à l’égard d’éventuels lanceurs d’alerte, à instaurer des processus permettant de signaler les problèmes et dangers et à encourager une culture de la « critique ouverte ».

Ces dernières semaines, OpenAI a été confronté à une controverse concernant son approche de la protection de l’intelligence artificielle, après avoir dissous l’une de ses équipes de sécurité les plus en vue et avoir été touchée par une série de départs.
Un porte-parole d’OpenAI s’est défendu auprès de l’agence Bloomberg : « nous convenons qu’un débat rigoureux est crucial compte tenu de l’importance de cette technologie et nous continuerons à nous engager avec les gouvernements, la société civile et d’autres communautés dans le monde entier ». La société a également indiqué qu’elle disposait notamment d’une « hotline d’intégrité » anonyme pour les employés et les sous-traitants.

Ce n’est pas la première fois que des experts tirent la sonnette d’alarme. L’an dernier, Elon Musk et des centaines d’experts mondiaux avaient signé un appel à une pause de six mois dans la recherche sur les intelligences artificielles, s’inquiétant des menaces sur l’emploi, de la désinformation et même du risque de perdre le contrôle de notre civilisation.

Lire l’article complet sur : www.lesechos.fr