Que nous réserve l’intelligence artificielle ? Avec l’émergence de ChatGPT, qui a cumulé plus de 4 milliards de visites depuis ses débuts, jamais l’intelligence artificielle n’a été si présente dans nos vies, suscité tant d’inquiétude et posé tant de questions. Le débat fait même rage parmi les spécialistes. La démission de Google de Geoffrey Hinton, pionnier de l’intelligence artificielle moderne, faisant part de ses inquiétudes, a même sonné comme un signal d’alerte.

Depuis le début de l’IA, une question lancinante ne cesse de tarauder les chercheurs : sera-t-elle un jour l’égal de l’être humain ? Pour l’heure, nous sommes encore loin, explique aux « Echos » Yann Le Cun, considéré comme l’un des inventeurs de l’apprentissage profond et qui a reçu le prix Turing 2018 : « Malgré les progrès fulgurants de ces dernières années, notamment en matière de systèmes de dialogue, nous sommes loin d’avoir des machines qui puissent apprendre aussi vite que les humains ou les animaux, qui possèdent un certain sens commun, comprennent comment fonctionne le monde, raisonnent et soient capables de planifier. »

L’absence de sens commun
De fait, cette technologie est loin de posséder les qualités les plus banales d’un humain. Un assistant virtuel serait bien incapable d’appeler un pompier pour venir réparer une fuite ou d’organiser un voyage. Les tâches à enchaîner, qui nous paraissent, à nous humains, d’une simplicité biblique, sont en réalité très complexes et exigent un minimum de connaissance du monde qui nous entoure.
Le principal handicap de l’IA ? L’absence de sens commun. Une étude publiée récemment dans la revue « Cognition » a montré que des bébés de 11 mois étaient bien supérieurs dans ce domaine à des IA. Soumis au même « Baby Intuitions Benchmark » (BIB), qui évalue la capacité à comprendre ce qui motive les actions des autres, le logiciel a été battu à plate couture.

L’étonnement
Fondée sur l’utilisation de réseaux de neurones et l’apprentissage profond (deep learning), une intelligence artificielle, dopée aux statistiques, n’est à l’aise que sur des opérations précises pour lesquelles elle a été entraînée. Une IA a regardé plusieurs fois des milliers d’images de chat avant d’en reconnaître un à coup sûr quand un petit enfant identifie cet animal familier après l’avoir vu une seule fois. Tout en étant capable ensuite de le distinguer facilement d’un écureuil ou d’un lapin.
La capacité à s’étonner constitue une différence encore plus fondamentale entre l’IA et l’humain, note Jean-Louis Dessalles, chercheur en intelligence artificielle et maître de conférences à Télécom Paris : « L’étonnement est un des fondements de l’intelligence humaine. C’est une capacité qui permet de détecter l’inattendu, d’éveiller l’intérêt, de repérer les dangers ou de corriger ses erreurs. Une IA numérique entraînée grâce à l’apprentissage profond, elle, ne s’étonne de rien. »
Les exemples abondent pour illustrer le phénomène. Ainsi, devant une photo de chat auquel il manque une oreille, un système de reconnaissance d’images verra un chat, quand un enfant se focalisera sur l’anomalie que constitue l’oreille manquante. Même chose pour une représentation de saint Denis portant sa tête coupée. Elle interpelle évidemment n’importe quel être humain « tandis qu’une IA n’y voit qu’un être humain normal sauf si une centaine d’exemples identifiés de saint Denis tenant sa tête figurent dans le jeu de données qui ont servi à son entraînement », précise Jean-Louis Dessalles.

Ecrire une chose, puis l’inverse
Autre difficulté, l’intelligence artificielle ne connaît pas la logique. C’est particulièrement flagrant avec ChatGPT qui, sans mémoire ni cohérence, peut de se contredire d’une phrase à l’autre. « ChatGPT génère du texte mot à mot et forme des phrases qui n’ont aucun sens pour lui. Il peut donc écrire quelque chose et dire l’inverse quelques lignes plus bas, car il reprend toutes les erreurs qu’on trouve sur la Toile », insiste Jean-Louis Dessalles.
Dès lors, à quelles conditions une IA serait-elle capable d’égaler l’être humain ? Une bonne partie des spécialistes, souvent surpris face aux progrès de ChatGPT, s’avouent désormais incapables de fixer une limite théorique aux possibilités de l’IA. « Aujourd’hui, je ne saurais pas désigner les capacités cognitives qu’on ne saurait pas, un jour, reproduire avec une machine », résume Jean-Gabriel Ganascia, informaticien, philosophe et spécialiste de l’intelligence artificielle.
D’autant que la machine réserve bien des surprises. Même s’il s’est révélé un piètre joueur, ChatGPT est capable de jouer aux échecs. « Ce n’était pas prévu, car c’est un programme fait pour générer du texte, pas pour jouer aux échecs. Et encore plus inattendu, il est capable d’avoir une représentation en deux dimensions de l’échiquier », assure Jean-Louis Dessalles.

L’apprentissage autosupervisé
Le débat sur les capacités de l’IA dépend beaucoup de la conception que l’on a de l’intelligence. Pour Yann Le Cun, cela ne fait pas de doute, l’intelligence artificielle dépassera un jour celle de l’homme, notamment grâce aux progrès de l’apprentissage autosupervisé (SSL pour self-supervised learning) qui consiste à masquer une partie des données d’apprentissage, et à entraîner le modèle à prédire et identifier ces données cachées. Depuis 2019, cette technologie a déjà permis des avancées dans tous les domaines, depuis la modération de contenus, la traduction ou encore la reconnaissance de la parole et d’images.
« Cette approche pourrait notamment conduire les machines à apprendre comment fonctionne le monde en s’entraînant à prédire ce qui va se passer dans des vidéos. Ce faisant, les machines pourraient acquérir une forme de sens commun. Cela constituera peut-être la base de la prochaine révolution en IA. Mais il y a encore du pain sur la planche pour en arriver là », prédit Yann Le Cun.

Lire l’article complet sur : www.lesechos.fr