1 / Non, tout n’est pas intelligence artificielle
Gilles Savard : Aujourd’hui, tout le monde ferait de l’intelligence artificielle. Et on croit qu’il y a deux ans, personne n’en faisait. En ce qui me concerne, je développe des algorithmes depuis 35 ans. Par ailleurs, on a un problème de définition de l’intelligence artificielle : on mélange les méthodologies avec les algorithmes, avec les domaines d’application. Si vous allez sur le Web, vous trouverez une vingtaine de définitions différentes. L’IA relève de l’algorithmique et consiste en des logiciels qui réalisent afin de donner des capacités cognitives à des machines – un téléphone, un ordinateur, un robot. Pour y parvenir, il existe deux grandes familles : l’approche symbolique et l’approche sub-symbolique. La symbolique est basée sur des règles (on transmet des connaissances de base, et on demande à la machine de les appliquer en raisonnant, ndlr), ce qui est très proche de la façon de faire des humains. On y travaille depuis 1950 et on devrait encore y travailler en 2050. On est encore loin du robot autonome avec des intentions.

Joëlle Pineau : Le discours autour de l’intelligence artificielle n’est pas toujours très correct (scientifiquement, ndlr). Nous sommes nombreux à faire des efforts pour bien en parler. Mais on est dans un tel contexte de société que les discours polarisés portent beaucoup plus. La bataille n’est pas gagnée.

L’IA au sommet de la hype, selon Gartner
Simon Lacoste-Julien : Il y a définitivement un effet bulle, une hype autour de l’intelligence artificielle. Je fais régulièrement des interventions de médiation scientifique pour expliquer pourquoi tout le monde parle d’IA en ce moment. Je préfère parler d’« apprentissage automatique ». Il est important de gérer les attentes pour ne pas créer un phénomène de déception si on ne les atteint pas. Ce qui se passe en ce moment ressemble à ce qu’il s’est passé avec le Big Data, il y a dix ans. Le Big Data était la hype précédente. À raison. Grâce aux données, on peut réellement améliorer des processus, imaginer des applications utiles à la société. Ça, ça ne retombera pas.

# 2 – Non, l’IA n’est pas magique
Sasha Luccioni : En intelligence artificielle, il reste des domaines où on n’arrive pas à atteindre le niveau atteint par des êtres humains. J’ai travaillé, il y a quelques années, sur le traitement automatique des langues. On traduit moyennement du français vers l’anglais, mais dès qu’on travaille sur une autre langue, ça ne marche pas vraiment bien. Quant à la génération de texte, elle reste basique…

# 3 – Non, il ne faut pas avoir peur de l’IA… mais de la souveraineté de nos données
Gilles Savard : Aujourd’hui, quand le politique parle d’intelligence artificielle, sur quoi met-il l’accent ? Sur sa dangerosité. Mais l’IA, c’est quoi ? Ce sont des algorithmes, développés par des humains, implantés par des entreprises qui sont tenues responsables. Honnêtement, ce n’est pas ce qui me fait le plus peur. Ces algorithmes-là sont des aides à la décision. La vraie question qu’on devrait se poser, c’est la question de la souveraineté des données. (…) Chez nous, on appelle ça le syndrome de la saucisse Hygrade (une saucisse de hotdog très populaire au Canada, ndlr) : elle est la meilleure parce que tout le monde en mange et tout le monde en mange parce qu’elle est la meilleure.

C’est un peu ça avec Google. Plus ils ont des données, plus ils peuvent monétiser ces données, plus ils peuvent offrir des applications gratuites, plus ils peuvent obtenir des données. C’est l’effet réseau de données. Il y a eu une concentration de données chez les GAFA, un peu comme il y a eu une concentration par Standard Oil au début du XXe siècle quand ils ont découvert le pétrole, puis la transformation du pétrole en essence et en carburant utile. Tout était concentré chez Standard Oil. Les gouvernements ont vu que ça allait changer le monde et ont décidé qu’il ne fallait pas garder ça dans une seule entreprise.

… et de rater la transformation numérique des industriels
Gilles Savard : Ceux pour qui cette hype de l’IA est la plus dommageable, ce sont les industriels. Ils voient l’arbre, mais pas la forêt. L’intelligence artificielle est un ajout de techniques. Elle n’est en aucun cas le cœur de la transformation numérique. On oublie l’importance des données. On a cette idée d’une intelligence artificielle qui s’auto-développerait et pourrait devenir dangereuse.

Il y a deux ans, j’ai entendu des présentations de gens qui disaient aux industriels : « Préparez-vous, l’an prochain, il n’y aura plus aucun technicien dans vos usines ». Oui, il y aura des robots plus sophistiqués, mais les robots, c’est très cher. Il faudrait les produire en masse. Et ce n’est pas intelligent, un robot. Il fait des choses répétitives. Il faudrait des robots adaptatifs et agiles. On n’en est pas encore là…

#5 – Oui, contre la peur, la publication des modèles est une solution
Joëlle Pineau : Je vous donne mon regard personnel sur le sujet, pas celui de Facebook (nous lui avons demandé de réagir au fait que l’institut OpenAI s’est refusé à publier ses recherches sur un générateur de textes jugé bien trop évolué pour ne pas être dangereux , ndlr). Ça vient nourrir une forme d’hystérie. OpenAI s’est refusé à publier son modèle. Ils étaient en train de générer des données de langage de très bonne qualité. De ce qu’on a compris du modèle décrit – ils n’ont pas publié le code –  il n’y avait rien de vraiment nouveau. En tout cas, rendre un modèle public est un antidote en soi. Si le modèle devient public, on est capable de déterminer d’où proviennent les données générées. Lorsqu’on lit un texte de nouvelles générées par une IA, il est difficile de savoir si c’est un vrai ou un faux. Donc mon point de vue est qu’on gagnerait à mettre les modèles en open source pour vérifier.

Sourced through Scoop.it from: usbeketrica.com