Le rapport publié vendredi par la CNIL propose des règles éthiques pour le développement des algorithmes et de l’intelligence artificielle, tout en estimant qu’il n’est pas nécessaire de les réguler.

Le 6 janvier 1978, la France votait sa loi « informatique et libertés ». Quarante ans plus tard, une loi « intelligence artificielle et éthique » ne semble pas à l’ordre du jour. C’est ce qui ressort du  rapport publié vendredi par la CNIL (Commission nationale de l’informatique et des libertés) intitulé « Les enjeux éthiques des algorithmes et de l’intelligence artificielle. » Ce document de 75 pages, fruit de près d’un an de colloques, auditions et autres consultations publiques, formule six recommandations précises (lire ci-contre/ci-dessous). Mais il écarte aussi, à ce stade, l’idée d’une loi, et même d’une régulation spécifique.

Dans sa première partie, le document explique les différents enjeux posés par les algorithmes, dont l’utilisation dans le monde informatique est déjà ancienne, et par les outils d’intelligence artificielle, remis au goût du jour par « une série de succès spectaculaires ces dernières années », en particulier pour l’apprentissage automatique (machine learning). « Dans un cas comme dans l’autre, note la CNIL, la finalité […] consiste à automatiser des tâches autrement accomplies par des humains, voire à déléguer à ces systèmes automatisés des prises de décision plus ou moins complexes. »

Sourced through Scoop.it from: www.lesechos.fr