Le 8 décembre 2023, l’Europe est parvenue à un accord politique sur l’intelligence artificielle. De nombreuses étapes techniques doivent encore être franchies avant l’application effective de cet “AI Act”, prévue aux alentours de 2026. Ce règlement représente une avancée significative, bien que les détails, toujours en discussion, détermineront son efficacité finale. Décryptage avec Gérôme Billois, associé en cybersécurité au cabinet de conseil Wavestone et auteur du livre “Cyberattaques : les dessous d’une menace mondiale” (éd. Hachette).
Sciences et Avenir : Quelle importance revêt l’AI Act dans le contexte actuel ?
Gérôme Billois : L’intelligence artificielle représente une avancée technologique cruciale, combinant des bénéfices manifestes avec des risques inhérents. Il est louable qu’avec l’AI Act le législateur européen aborde ces questions en amont, avant une stabilisation complète du marché.
Cette initiative permet de définir une stratégie réfléchie face aux usages et risques de l’intelligence artificielle. Contrairement aux réglementations numériques antérieures, souvent tardives et réactives, l’AI Act s’inscrit dans une démarche proactive, coïncidant avec l’émergence de cette technologie. Cela engendre une réflexion préventive significative au sein des entreprises concernées par l’intelligence artificielle.
N’est-ce pas une erreur de parler d’intelligence artificielle en général, alors que c’est l’intelligence artificielle générative qui créé l’emballement actuel ?
Effectivement, depuis l’avènement de ChatGPT qu’OpenAI a mis sur la place publique en novembre 2022, l’IA générative a grandement influencé la perception publique de l’IA. Il est cependant impératif qu’un traité comme l’AI Act encadre tous les usages de l’IA. Aujourd’hui, l’accent est sur l’IA générative, mais demain d’autres formes pourraient émerger.
Le but est de réglementer la vaste catégorie de l’intelligence artificielle, car une réglementation limitée à l’IA générative serait insuffisante face aux innovations futures, telles que des systèmes avancés de reconnaissance faciale.
“Les usages à haut risque de l’IA désignent ceux avec une incidence sur les droits fondamentaux des personnes ou sur la sécurité”
Justement, la reconnaissance faciale est-elle interdite par l’AI Act ?
La réponse est à nuancer. L’AI Act interdit spécifiquement la reconnaissance faciale de masse. Impossible par exemple de filmer par drone une manifestation, pour savoir qui y participe.
En revanche, le traité laisse la voie libre à certains usages liés à la sécurité nationale. L’objectif est de délimiter clairement les utilisations autorisées, en veillant à respecter la vie privée de la population, tout en prohibant le suivi intrusif des citoyens.
Le traité autorise les applications de l’IA qui ne sont pas explicitement interdites, en imposant des restrictions sur les usages à haut risque, tels que le recrutement automatisé et les applications dans le domaine de la justice, de la santé, de l’éducation… Ces usages à haut risque désignent tout ce qui peut avoir une incidence sur les droits fondamentaux des personnes ou sur la sécurité.
Sur la question du recrutement, imaginez-vous être une société qui veut embaucher des personnes : vous pourriez vouloir, demain, mettre au point un système d’intelligence artificielle qui va automatiquement regarder les CV, croiser leurs données avec celles de Facebook, LinkedIn… et puis poser des questions au candidat. Celui-ci répond et c’est l’IA qui analyse tout cela et donne un score pour dire s’il faut le recruter ou pas.
Avec l’IA act, ce type de dispositif n’est pas forcément interdit, mais il est considéré comme étant un usage à haut risque et donc devant être très encadré, transparent et fiable.
“L’IA ne peut pas être fournie par le seul monde anglo-saxon”
L’AI Act est-il une initiative pionnière à l’échelle mondiale ?
Débuté en 2018, l’AI Act positionne l’Europe en tant que leader dans la réglementation de l’IA, même si d’autres pays s’activent sur le sujet. Comme la Chine, ou les Etats Unis, qui ont publié un executive order voulu par Joe Biden récemment. Cela n’a pas autant de poids qu’une loi votée au Congrès mais c’est quand même quelque chose qui doit être respecté juridiquement.
Certains condamnent néanmoins les excès de la régulation, a l’instar du président Macron qui s’est récemment exprimé sur le sujet. Quels sont leurs arguments ?
Ce sont des arguments liés à la capacité de l’Europe à innover. Il ne faudrait pas que la réglementation fasse qu’on ne puisse pas tirer des bénéfices de l’intelligence artificielle. Par exemple, Gemini, le nouveau programme d’AI de Google dévoilé aux Etats-Unis il y a une semaine n’est pas accessible en Europe. Pourquoi ? Parce que la réglementation est trop complexe et il faut du temps pour se mettre en conformité. Cela a été la même chose pour Bard, également de Google, ou pour Claude, de la start-up Anthropic.
Ce retard peut être dommageable s’il empêche nos entreprises de tirer profit de l’IA. Par ailleurs, un autre effet pernicieux de la réglementation serait que la conception des intelligences artificielles ne puisse se faire qu’en dehors de l’Europe. Or, l’IA ce sont les algorithmes mais aussi les données avec lesquelles on les entraîne.
Aujourd’hui cet apprentissage et le “fine tuning” sont biaisés par le fait que tous les grands modèles de langage viennent des Etats-Unis. Ils reflètent une philosophie, une manière de fonctionner, des réflexes qui sont plutôt anglo-saxons.
Lire l’article complet sur : www.sciencesetavenir.fr
Leave A Comment