Une équipe de chercheurs du Massachusetts Institute of Technology (MIT) a développé une intelligence artificielle psychopathe en utilisant des descriptions d’images issues d’un groupe de discussions ultra glauque du site Reddit. Baptisée Norman en l’honneur du personnage de Norman Bates dans le film Psychose d’Alfred Hitchcock, cette IA nous éclaire sur le biais des données utilisées pour nourrir les algorithmes.
Il n’y a pas si longtemps, quand une IA répondait à côté ou ne se comportait pas de la manière attendue, les chercheurs blâmaient l’algorithme. Pour enseigner à une IA ce qu’elle doit savoir, les chercheurs ont recours au machine learning : les algorithmes analysent des données, en extraient des modèles, font des prédictions et prennent des décisions en conséquence. Mais que se passe-t-il si l’IA est entraînée avec un « mauvais » ensemble de données ? C’est exactement ce qu’a voulu savoir l’équipe de chercheurs du MIT qui a développé Norman.
Une IA nourrie à mort
Au départ, Norman est une IA entraînée pour décrire des images. Sauf que pour apprendre à les décrire, Norman a été nourri des légendes et descriptions qui accompagnent les images d’un groupe de discussion sur Reddit dédié à la documentation et à l’observation de la dérangeante réalité de la mort, qu’elle soit violente ou non.
Une fois cet apprentissage terminé, les chercheurs du MIT ont fait passer le test de Rorschach à Norman. Utilisé en psychiatrie pour détecter les troubles psychiques sous-jacents, ce test consiste à présenter une série de dix planches qui contiennent des taches d’encre dont le dessin est symétrique. Ils ont ensuite comparé les réponses de Norman avec celles données par une IA identique, entraînée avec des images plus neutres comportant des photos de personnes et d’animaux.
Sourced through Scoop.it from: usbeketrica.com
Leave A Comment