Elle veut profiter de ses opportunités tout en se prémunissant contre ses dangers. Mercredi, la Commission européenne a présenté sa stratégie pour l’Intelligence artificielle (IA), bataille dans laquelle elle veut se lancer avec une approche éthique dont elle entend faire  son marqueur et son atout . « Nous voulons que l’application de ces nouvelles technologies soit digne de la confiance de nos citoyens […] Nous encourageons une approche responsable de l’IA centrée sur l’homme », a insisté la présidente, Ursula von der Leyen.

Cela passe avant tout par une approche proportionnelle au risque : plus l’utilisation sera dangereuse, pour la santé, pour la sécurité ou pour les droits fondamentaux, plus les règles et les contrôles seront stricts, a résumé la vice-présidente en charge du digital, Margrethe Vestager. « L’IA n’est ni bonne ni mauvaise en soi : tout dépend du pourquoi et du comment elle est utilisée », a-t-elle insisté.

Dans les domaines ou certains usages sont jugés « à haut risque », les systèmes d’IA devraient « être transparents, traçables et garantir un contrôle humain », insiste le Livre blanc publié mercredi, première étape avant une législation plus détaillée en fin d’année, après consultations des parties prenantes.

Quatre « secteurs critiques » sont définis : la santé, les transports, la police et la justice. S’y ajoutent trois types d’« utilisations critiques », celles qui impliquent des « effets juridiques » (comme lors de procédures de recrutement) et qui présentent des « dangers mortels » ou des « risques de dégâts et de blessures ». Ce canevas sera la base d’une étude des usages au cas par cas devant aboutir à une dentelle fine pour les activités classées au final « à risques ».

Sourced through Scoop.it from: www.lesechos.fr