En pratique, il devient de plus en plus clair que les algorithmes peuvent intégrer des biais vis-à-vis de minorités, d’objectifs pécuniaires ou de valeurs morales. Ces biais sont parfois transmis inconsciemment par les créateurs de l’IA, mais le plus souvent ils résident dans les données d’entraînement. Qui n’a jamais été surpris ou déçu par les recommandations automatiques de Youtube ?

La pertinence de l’IA repose donc essentiellement sur la qualité des données d’entraînement, données fournies par l’intelligence collective. Et c’est une bonne nouvelle. Car, plus nous en sommes conscients, plus nous pouvons intégrer à l’IA des composantes humaines et éthiques. Le projet MoralMachine du MIT en témoigne : il propose aux internautes de résoudre des dilemmes moraux et donc participer à construire des bases de données éthiques.

Puisqu’il est possible et pratiquement nécessaire d’enseigner nos valeurs aux premières générations d’IA, n’avons-nous pas le devoir de les éduquer avec fermeté et bienveillance comme nous le faisons avec les nouvelles générations d’humains ? Un beau projet… collectif.

Sourced through Scoop.it from: www.tom.travel