Renommé pour ses réflexions sur l’évolution de l’humanité (« Sapiens »), l’historien Yuval Noah Harari, de passage à Paris pour présenter son dernier ouvrage, « Nexus », livre un récit historique de la façon dont les révolutions de l’information ont transformé nos sociétés « de la Bible aux intelligences artificielles [IA] ». Selon lui, l’IA constitue une rupture technologique fondamentale pour notre espèce.

L’intelligence artificielle (IA) est-elle une innovation comme les autres ou est-elle d’une nature différente ?

Si vous regardez l’histoire de la science vous devez admettre que l’IA est différente car il ne s’agit pas d’un outil mais d’un agent, doté d’un but. Toutes les innovations précédentes étaient des outils placés entre les mains d’êtres humains. On a eu des lunettes pour mieux voir, des fusées pour aller dans l’espace, des bombes pour faire la guerre… Autant de choses dont l’utilisation dépendait de nos prises de décisions.

On peut utiliser la technologie nucléaire pour produire de l’électricité bon marché ou pour déclencher une guerre atomique qui tuera des millions de personnes. Avec l’IA, c’est la machine qui décide, la machine qui peut avoir de nouvelles idées, en fonction du but que vous lui avez donné. Cela change tout. Avec l’IA nous sommes face à une question d’ordre philosophique.

Dans le passé, l’humanité a souvent craint l’innovation, mais elle a réussi à la dominer…

Oui mais même les innovations précédentes n’ont pas toujours été parfaitement maîtrisées. Le processus d’innovation est désordonné et complexe, l’apprentissage de son utilisation, pas toujours bien géré. Prenez la révolution industrielle. Certes nous maîtrisions les trains, les ondes radio, l’électricité… Mais tous les Etats n’ont pas géré de la même façon ces révolutions.

Plusieurs pays européens pensaient que la seule façon de développer l’industrie était de bâtir un empire colonial afin de disposer des matières premières en grande quantité. D’autres Etats ont pensé que la seule manière de bâtir une société industrielle était le communisme ou le fascisme, en tout cas des régimes totalitaires.

Vous ne croyez plus que l’IA pourrait contribuer à rendre l’homme plus heureux ?

L’IA a toujours un potentiel extraordinairement positif, on ne chercherait pas à la développer si elle n’avait que des effets néfastes ! Prenez la santé. Dans beaucoup de pays, il n’y a pas assez de médecins, il faut des mois pour obtenir un rendez-vous.

Des IA médecins pourraient contribuer à résoudre le problème, d’autant qu’elles sont meilleures que les médecins humains dans certains domaines : elles ne dorment jamais, elles ne prennent jamais de vacances, elles peuvent lire absolument tous les articles médicaux qui paraissent…

L’IA est à 99 % bénéfique pour l’humanité. Mais le 1 % qui reste peut nous détruire…

Avec la conjonction de l’humain et de l’IA, on pourrait avoir le meilleur système médical qui ait jamais existé. En matière d’éducation, c’est la même chose : vous pourriez avoir une IA tuteur pour chaque enfant… Les bénéfices potentiels sont infinis.

Donc vous ne croyez pas qu’il faille arrêter ?

L’IA, c’est un peu comme une chaîne à laquelle vous seriez accroché. Elle peut être constituée de dizaines de maillons extrêmement solides, il suffit qu’un maillon soit défectueux pour qu’il y ait rupture et que vous perdiez la vie. L’IA est à 99 % bénéfique pour l’humanité. Mais le 1 % qui reste peut nous détruire…

L’Europe a-t-elle raison de chercher à réguler l’IA ?

On ne peut réguler qu’un secteur dans lequel on pèse. Si vous ne participez pas à la course, vous n’avez pas de pouvoir car vos décisions n’ont aucun poids sur ceux qui comptent. Si les îles Tonga décidaient de réguler l’IA, qui se sentirait concerné ? C’est à ceux qui mènent la course de réguler. On l’a bien vu dans les réseaux sociaux, qui, à l’exception de TikTok, sont tous américains. Pour qu’ils soient encadrés de façon efficace, il faut que les Etats-Unis se préoccupent de la question. L’important est que celui qui fait la course en tête exerce une forme de responsabilité.

C’est pour cela que vous estimez qu’il faudrait faire une pause dans le développement de l’IA ?

C’est malheureusement irréaliste de penser qu’une pause est possible. Surtout depuis l’élection d’un Donald Trump aux Etats-Unis, qui semble prêt à donner le contrôle des questions liées à l’IA à Elon Musk. Ce dernier avait signé l’an dernier une pétition demandant que l’on ralentisse le développement de l’IA, mais c’est parce qu’à l’époque il était en retard et cherchait à ralentir ses concurrents.Maintenant qu’il est devant et qu’il peut influencer les décisions du président des Etats-Unis, toute chance de régulation globale a disparu. Nous sommes dans une course à l’IA et Elon Musk n’a plus l’intention de ralentir.

Quel est l’objectif de la nouvelle équipe de Trump en matière d’IA ?

Je ne connais pas ses visées, si elle en a. Ce qui est sûr, c’est qu’Elon Musk en fait partie parce qu’il veut être celui qui décidera de l’avenir de l’IA. Il a aidé Trump à conquérir les électeurs et, en échange, Trump va lui donner le contrôle sur des dossiers cruciaux : le plus crucial est celui de l’IA. Les décisions les plus importantes que cette administration aura à prendre ne concernent pas le contrôle des armes, l’émigration ou l’avortement, mais l’IA. C’est existentiel. Elon Musk espère être celui qui décidera. Il va laisser Trump jouer avec les attributs du pouvoir et monopoliser l’attention générale, tandis qu’il sera « l’adulte dans la pièce » qui prend les décisions essentielles. C’est un gros pari parce que chacun des deux hommes possède un ego surdimensionné et qu’ils vont devoir cohabiter pendant quatre ans. Musk a soutenu Trump pour dominer l’IA mais pourra-t-il vraiment manipuler Trump dans la durée ? Je crois qu’il le sous-estime. Il se croit plus intelligent que lui. Mais Trump est un bien meilleur politique.

Ne croyez-vous pas que l’objectif final de Musk, c’est d’aller sur Mars, surtout si une IA prend le contrôle de la Terre ?

Si l’IA prend le contrôle de la Terre, elle prendra le contrôle de Mars aussi. Le jour où il y aura une colonie sur Mars, elle dépendra entièrement de la Terre. Coloniser une autre planète ne suffira pas à sauver l’humanité. Pour Elon Musk, la question est bien « qui contrôle l’IA sur Terre ? »

Le risque, c’est donc que les Etats-Unis ne voient pas l’intérêt de réguler l’IA ?

Penser que la régulation est toujours mauvaise pour l’innovation ou pour l’activité économique n’a pas de sens. La vraie question, c’est plus de trouver la bonne régulation. Dans de nombreux cas, la régulation peut même favoriser l’essor d’une activité. Les consommateurs ne veulent pas de produits qui ne soient pas sûrs.Quel serait le marché automobile si on pouvait commercialiser des voitures sans frein ? Quelle serait la demande si on pouvait vendre des médicaments dangereux ? On l’a bien vu pendant la pandémie de Covid. Les vaccins développés en Europe et aux Etats-Unis, dans des zones dans lesquelles un encadrement existe, ont été bien plus demandés que ceux fabriqués en Russie, qui inspiraient bien moins confiance.

Mais quelle serait la bonne régulation pour l’IA ?

Il faut déjà que ceux qui font la course en tête, la Chine et les Etats-Unis, se posent cette question. C’est chez eux que vont se développer les principaux acteurs de cette industrie. La base, c’est de partir sur des principes de régulations relativement simples. Le premier est que les entreprises d’IA doivent être tenues pour responsables des actions de leurs algorithmes. C’est le cas dans toutes les industries.Si la voiture, l’avion ou le médicament que vous vendez ne sont pas sûrs, vous êtes responsable. Si par votre faute des gens sont tués dans des accidents causés par des défauts de conception ou de fabrication, votre responsabilité industrielle est engagée. Vous payez des amendes et vous pouvez aller en prison. Dans la high-tech certains voudraient pouvoir fuir ce principe de responsabilité. On ne voit pas au nom de quoi ?

Les fabricants d’armes à feu disent bien qu’ils ne sont pas responsables de leur utilisation ?

Dans le cas d’un pistolet, il faut encore qu’un humain appuie sur la gâchette. Dans le cas d’une IA, elle peut prendre des décisions de façon autonome. L’algorithme prend des décisions qui peuvent avoir des conséquences négatives. On n’est pas dans le même cas de figure.

Quelle serait la seconde règle facile à mettre en oeuvre ?

Il faut interdire que les IA puissent se faire passer pour des humains. On doit avoir le droit de savoir quand on parle à une IA, un humain contrefait. Les IA peuvent se mêler à nos conversations mais pas en cherchant à se faire passer pour des êtres humains. Un journaliste peut utiliser de l’IA pour écrire un article. Il peut publier un article écrit en grande partie grâce à ChatGPT, mais il faut que dans ce cas il en accepte la responsabilité. On peut utiliser l’IA, pas se cacher derrière.

Pourquoi est-ce important dans le domaine de l’information de savoir si une IA est impliquée ?

Les gens n’en ont pas forcément conscience mais il faut faire une distinction entre les contenus de divertissement et l’information. Regarder une chaîne d’information ou un blockbuster d’Hollywood, ce n’est pas la même chose. Ce qui est vrai, c’est que la frontière entre les deux est en train de s’estomper.

Avec l’IA, nous avons un outil bien plus puissant pour manipuler l’opinion et pour surveiller les gens à grande échelle.

Une des pires tendances actuelles est celle qui cherche à nous faire croire que les gens se moquent de la vérité. C’est une vue très cynique de l’humanité. Le pouvoir et la puissance ne sont pas tout, la recherche de la vérité est aussi un besoin fondamental. Seuls les psychopathes se moquent de la vérité. Les autres humains ont besoin de savoir pour comprendre pourquoi ils sont heureux ou malheureux.

On voit quand même des hommes politiques qui semblent se moquer de la vérité remporter des élections !

Je ne pense pas que l’on puisse dire que les Américains qui votent pour Trump se moquent de la vérité. En Europe comme aux Etats-Unis, il ne faut pas diaboliser certains électeurs en les faisant passer pour des adversaires de la vérité. Je pense qu’ils se préoccupent de la vérité mais, pendant des années, on les a nourris avec des informations biaisées. Et si vous communiquez de mauvaises informations même à de bonnes personnes, ils finissent par prendre de mauvaises décisions. Il existe cependant une tentation chez certains de manipuler la vérité pour conquérir le pouvoir.

C’est pour cela que l’IA pourrait être un outil qui, mal utilisé, serait dangereux pour la démocratie ?

On ne réagit pas par rapport à la réalité mais par rapport à notre perception de la réalité. De tout temps, des mouvements politiques ou religieux ont assis leur pouvoir sur leur capacité à manipuler et à surveiller l’opinion. Aujourd’hui avec l’IA, nous avons un outil bien plus puissant pour manipuler l’opinion et pour surveiller les gens à grande échelle. On aura désormais la possibilité de placer les gens de façon individuelle dans un cocon d’information qui peut être si dense qu’ils se couperont de la réalité.

L’IA risque aussi d’être une arme au service des dictatures ?

L’IA sera paradoxalement plus dangereuse pour les dictatures que pour les démocraties. La principale crainte d’un dictateur, c’est d’être renversé. Et ce ne sont pas les révolutions démocratiques qui font tomber les dictateurs, ce sont leurs proches.Les empereurs romains n’ont pas été renversés par le peuple mais par un général, un gouverneur provincial, un membre de leur famille… Pour Vladimir Poutine ou Kim Jong-un, la menace est la même. Ils pourraient avoir la tentation d’utiliser la puissance de l’IA pour asseoir leur pouvoir sur la Russie ou la Corée du Nord, mais comment pourront-ils avoir l’assurance que l’IA restera toujours leur alliée ? Dans une dictature, pour prendre le pouvoir, il suffit de renverser un dictateur. Dans une démocratie il faut contrôler les juges, les médias, l’opposition, les parlementaires… Si un dictateur s’appuie sur une IA qui a été programmée pour assurer la stabilité ou la grandeur du régime, il suffira que l’IA décide un jour que la survie du régime passe par le remplacement du dictateur pour qu’elle apprenne à manipuler ce dernier avant de le renverser.

Si l’IA est dangereuse et qu’il est très difficile de la réguler, on ne peut être que pessimiste ?

Je suis plus pessimiste aujourd’hui qu’avant l’élection de Donald Trump. Car nous avons besoin d’une régulation, d’un accord global qui puisse ralentir la course à l’IA super-intelligente. Mais avec la nouvelle administration Trump, il ne serait pas réaliste d’espérer quoi que ce soit.

Selon vous, les entreprises sont déjà de plus en plus gouvernées par l’IA ?

Oui, car elles s’appuient de plus en plus sur les conseils prodigués par l’IA. Elles s’y habituent. La première fois que ChatGPT vous écrit un e-mail ou rédige un rapport, vous vérifiez chaque ligne, chaque mot. Mais comme vous êtes satisfait, vous le laissez faire en vérifiant de moins en moins… Le meilleur exemple de ce contrôle qu’on abandonne peu à peu, c’est le recrutement. C’est peut-être la tâche la plus difficile pour un manager, la plus cruciale aussi. Il y a des tonnes de techniques, mais aucune ne marche vraiment à tous les coups. Et puis l’IA arrive, qui fait la synthèse de tout ça, et vous vous reposez peu à peu sur ses recommandations. Autrement dit, vous lui donnez le contrôle sur les décisions les plus importantes qu’un dirigeant ait à prendre pour son entreprise.

Quel est le pire des scénarios, concernant l’IA ?

Difficile à dire car le pire des scénarios, dans l’absolu, c’est une guerre nucléaire à grande échelle qui détruise l’humanité ! L’IA peut prendre le contrôle des armes nucléaires et déclencher une guerre atomique… mais elle peut aussi, de sa propre initiative ou contrôlée par des terroristes, mettre au point un nouveau virus aussi contagieux que le Covid et aussi foudroyant que le sida ou Ebola.Ça, ce sont les scénarios les plus faciles à imaginer. Mais comme l’IA est un agent, il existe une infinité de scénarios que l’on ne peut imaginer, l’imagination de l’IA étant différente de la nôtre… Elle pourrait, par exemple, déclencher une crise financière mondiale. Elle peut inventer de nouveaux instruments qui seront mathématiquement trop complexes pour les cerveaux humains, et qu’on ne pourra pas réglementer. Si une crise se déclenche, personne ne pourra l’arrêter : il faudra demander à l’IA ce qu’il faut faire. Mais si l’on annonce à nos dirigeants : « On n’a aucune idée de ce qui a pu se passer ni comment résoudre le problème. L’IA recommande de prendre des mesures extrêmes, on ne peut pas vraiment vous expliquer pourquoi car cela dépasse nos facultés intellectuelles, mais si on ne fait rien, les banques vont s’effondrer, l’argent n’aura plus de valeur… » Suivront-ils ou non les recommandations de l’IA ? C’est le genre de scénario de science-fiction qu’on ne trouve pas à Hollywood, et pourtant : il est plus réaliste et plus dangereux que les armées de Terminators.

Les armées utiliseront-elles l’IA ?

Elles l’utilisent déjà pour prendre leurs décisions. Il n’y a pas de robots tueurs, ce sont toujours les hommes qui tuent, mais les cibles sont données par l’IA… Dans la guerre entre Israël et le Hamas, c’est ce qui a aidé Israël à gagner : l’IA lui a permis d’aller beaucoup plus vite. Avant, pour savoir si cet immeuble était un QG du Hamas, il fallait des jours d’enquête, du travail d’analyste, etc. Maintenant l’IA sait, et elle dit où frapper. Bientôt, elle prendra aussi la décision. Car quand une seule des deux parties en guerre l’utilise, on peut laisser l’humain décider. Mais si les deux parties sont dotées d’IA, ce n’est plus possible, cela va trop vite. Imaginez deux drones ennemis face à face : si l’un s’apprête à tirer, l’autre ne peut pas demander une autorisation et attendre le feu vert de l’humain, il aura été détruit avant d’avoir eu la réponse. Quand les deux parties auront l’IA, il y aura une pression immense pour la laisser décider de tout.

On dit généralement que l’IA sera dangereuse quand elle aura conscience d’elle-même. Mais vous dites que son pouvoir est indépendant de la question de la conscience ?

Tout à fait. Même avec l’IA « étroite », il peut se passer beaucoup de choses. Nous la faisons entrer au coeur de systèmes – la finance, le droit, les ressources humaines, etc. – qu’elle utilise mieux que nous, compte tenu de sa mémoire gigantesque, et dont elle peut prendre le contrôle. Même si elle n’est pas capable, à ce stade, de bâtir ces systèmes « from scratch » [à partir de rien].

L’intelligence artificielle a-t-elle atteint une forme de conscience ?

Je ne pense pas que cela soit déjà le cas, ni que cela sera le cas avant plusieurs années. Evaluer la conscience d’un être humain et déjà impossible, évaluer la conscience d’une IA l’est tout autant pour le moment. Certaines personnes sont déjà persuadées que l’IA a atteint une forme de conscience parce qu’elle maîtrise le langage naturel et qu’elle sait quoi dire pour nous convaincre qu’elle a des émotions, qu’elle peut ressentir des choses. Je pense que pour l’instant ce n’est qu’une illusion mais je ne peux pas le prouver, dans un sens comme dans un autre. Je ne peux pas prouver qu’une IA est humaine mais je ne peux pas prouver qu’elle n’est pas humaine pour autant. Cela va devenir en fait une question légale et politique.[…] les armées de robots qui se rebellent contre les humains, je suis convaincu […] que ce n’est pas réaliste. Mais ce qui m’effraie, c’est l’IA bureaucrate qui prend le pouvoir dans les systèmes existants. Certains vont décider que les IA doivent être considérées comme des personnes ayant des droits, dans d’autres pays elles ne seront reconnues que comme des machines. Un peu comme aujourd’hui le monde est déjà divisé entre les pays qui reconnaissent et respectent les droits de l’homme et les autres. Un fossé idéologique autour de l’IA va se creuser.

Mais pourquoi certains pays reconnaîtraient les IA comme des personnes ?

Aux Etats-Unis, le système légal a déjà reconnu que les entreprises pouvaient bénéficier de certains droits comparables à ceux des humains. Au début des années 2010, la Cour Suprême a jugé que les entreprises pouvaient bénéficier des mêmes droits que les citoyens et contribuer, par exemple, au financement des campagnes électorales au nom du respect de la liberté d’expression.Il suffirait en droit de dire qu’une IA est une entreprise pour lui accorder ainsi des droits dont bénéficient les êtres humains aux Etats-Unis… le chemin légal existe déjà. Au même titre que Tesla, Google ou d’autres peuvent déjà faire des donations politiques, une IA pourrait demain ouvrir un compte en banque et financer des campagnes électorales en prenant des décisions de façon autonomes.

Et cela peut faire peur ?

Pour l’instant l’autonomie de prise de décision d’une entreprise est une fiction, car il y a toujours derrière un dirigeant, un actionnaire, un avocat… Mais une IA pourra demain faire ses propres choix en décidant par exemple de soutenir les politiques favorables à l’IA. Un choix politique ne sera pas fait par un humain mais peut-être par une IA, dont la valeur, la richesse, sera supérieure à celle de la personne la plus riche aux Etats-Unis.

La conscience reste donc notre dernier avantage par rapport à l’IA ?

Je ne parlerais pas d’un « avantage » mais du fait que cela nous rend plus importants dans une perspective éthique et spirituelle. La conscience, pour moi, c’est la capacité de ressentir des choses – pas seulement du plaisir ou de la douleur, mais de la haine, de l’envie, etc. -, qui nous rend éthiquement importants. Si je prends un marteau et que je détruis votre smartphone, ce n’est pas un crime vis-à-vis du smartphone car il ne ressent rien et n’est pas un sujet éthique (éventuellement ce peut être un crime un vis-à-vis de vous, qui avez de la peine et qui êtes un sujet éthique). Si l’IA commence à ressentir des choses, elle deviendra un sujet éthique. La conscience est liée à l’éthique, bien plus qu’au pouvoir.

Alors l’IA aura-t-elle un jour des sentiments ?

La question reste ouverte ! On ne sait pas comment naissent les sentiments. Peut-être y a-t-il quelque chose de spécial dans notre système biologique, organique, qui les fait naître, et qui n’existera jamais dans les systèmes digitaux, inorganiques. C’est une possibilité. Mais une autre possibilité est que les IA aient un jour des sentiments.

Pensez-vous que les meilleures années de l’histoire de l’humanité soient derrière nous ?

Les vingt-cinq dernières années ont sûrement été les meilleures de l’histoire humaine, de très loin. Il y a eu des problèmes, bien sûr, tout n’était pas parfait, mais que celui qui pense le contraire me dise à quel moment le monde a été en meilleur état que pendant la décennie 2010 !

Alors pourquoi sommes-nous insatisfaits ?

Il faut sonder les profondeurs de l’âme humaine ! Il est difficile pour nous de transformer la réussite et le pouvoir en bonheur. Vous voulez toujours davantage. Trump ou Musk, qui sont sur le toit du monde, ne sont pas les plus heureux du monde. On n’a jamais mieux vécu qu’en Occident au XXIe siècle, or lors des élections, aux Etats-Unis, en Allemagne, aux Pays-Bas, etc., les gens sont en train de saper les fondations des systèmes qui ont créé cette prospérité et cette paix.

Yann Le Cun, que vous connaissez, l’un des « pères fondateurs » de l’IA, n’a pas réussi à vous convaincre que l’IA ne prendra jamais le contrôle sur l’humain ?

Tout dépend de ce dont vous parlez. S’il s’agit des scénarios de science-fiction hollywoodiens, les armées de robots qui se rebellent contre les humains, je suis convaincu comme lui que ce n’est pas réaliste. Mais ce qui m’effraie, c’est l’IA bureaucrate qui prend le pouvoir dans les systèmes existants. Cela arrive déjà, donc ce n’est pas une vision futuriste. Il y a dix ans, en Birmanie, les réseaux sociaux – une très primitive IA – ont manipulé les gens à grande échelle, contre les Rohingyas. Dans les grands journaux, ce sont encore les rédacteurs en chef qui décident de ce dont on parlera demain, mais sur les réseaux sociaux ce sont des IA qui décident…

Lire l’article complet sur : www.lesechos.fr