Intelligence artificielle : Bruxelles promet un encadrement bien réel
Elle veut profiter de ses opportunités tout en se prémunissant contre ses dangers. Mercredi, la Commission européenne a présenté sa stratégie pour l'Intelligence artificielle (IA), bataille dans laquelle elle veut se lancer avec une approche éthique dont elle entend faire son marqueur et son atout . « Nous voulons que l'application de ces nouvelles technologies soit digne de la confiance de nos citoyens […] Nous encourageons une approche responsable de l'IA centrée sur l'homme », a insisté la présidente, Ursula von der Leyen.Cela passe avant tout par une approche proportionnelle au risque : plus l'utilisation sera dangereuse, pour la santé, pour la sécurité ou pour les droits fondamentaux, plus les règles et les contrôles seront stricts, a résumé la vice-présidente en charge du digital, Margrethe Vestager. « L'IA n'est ni bonne ni mauvaise en soi : tout dépend du pourquoi et du comment elle est utilisée », a-t-elle insisté.Dans les domaines ou certains usages sont jugés « à haut risque », les systèmes d'IA devraient « être transparents, traçables et garantir un contrôle humain », insiste le Livre blanc publié mercredi, première étape avant une législation plus détaillée en fin d'année, après consultations des parties prenantes.Quatre « secteurs critiques » sont définis : la santé, les transports, la police et la justice. S'y ajoutent trois types d'« utilisations critiques », celles qui impliquent des « effets juridiques » (comme lors de procédures de recrutement) et qui présentent des « dangers mortels » ou des « risques de dégâts et de blessures ». Ce canevas sera la base d'une étude des usages au cas par cas devant aboutir à une dentelle fine pour les activités classées au final « à risques ».