L’encre du règlement européen sur l’intelligence artificielle (IA) n’est pas encore sèche que nombre de responsables politiques, à Bruxelles comme à Paris, se félicitent bruyamment de cette « première réglementation » au monde qui, selon eux, sera imitée par-delà nos frontières. Il est vrai que certaines normes européennes ont exercé une profonde influence en dehors de l’Union, à l’instar du fameux RGPD sur les données personnelles. Mais cet effet est-il assuré pour l’IA Act ? Rien n’est moins sûr.

D’abord, parce que cet ensemble de textes privilégie une approche « par les risques » identifiant, à juste titre, des utilisations de l’IA interdites car inacceptables en Europe, comme le « scoring social » à la chinoise. Pour les autres usages acceptés mais à « hauts risques », l’IA Act déploie de nombreuses obligations, notamment documentaires et de conformité.

Précaution et déclinaison
Mais cette mise en exergue des dangers sous-estime structurellement les opportunités de l’IA. En d’autres termes, l’approche par les risques est une déclinaison du principe de précaution. Or, tous les pays impliqués dans la course de l’IA ne partagent pas cette prudence. Au contraire, certains misent davantage sur les gains et les bienfaits de l’IA ou mobilisent d’autres critères d’analyse.
Il en est ainsi aux Etats-Unis où l’Executive Order d’octobre 2023 du président Biden procède d’une double logique géopolitique et économique. Il s’agit d’abord de protéger la sécurité nationale, par exemple en obligeant les entreprises américaines de cloud à notifier aux autorités toute utilisation de leurs capacités informatiques par un client étranger susceptible d’être menée à des fins hostiles de cybercriminalité. A cela s’ajoutent des objectifs de croissance et de soutien à l’innovation au travers de mesures destinées à développer des partenariats public-privé et le financement fédéral des projets, notamment dans les biotechs et la cybersécurité. On le voit, cette approche est moins « systémique » que celle de l’UE.
Elle est aussi plus ciblée et flexible alors qu’écueil nous guette de ce côté-ci de l’Atlantique : l’IA Act déploie une architecture de gouvernance à la complexité byzantine. Déjà focalisé sur les risques, le législateur européen a souhaité, en plus, prendre en considération des réglementations sectorielles applicables en cas de recours à l’IA (par exemple en matière de dispositifs médicaux ou d’aviation civile). Cela aboutit à la multiplication et à l’enchevêtrement des régulateurs concernés. Dans un Etat fédéral comme l’Allemagne, plus d’une trentaine de régulateurs seraient potentiellement concernés… A cela s’ajoute une conséquence prévisible de cette complexité : la mauvaise qualité rédactionnelle de ce règlement.

Imprévisible
Plus ou moins ouvertement, des responsables européens font désormais le même constat. Certains font même de l’IA Act l’exemple typique de ce que ne devrait pas être une réglementation en termes de clarté, d’intelligibilité et donc de prévisibilité. Mais ce seront nos entreprises qui en paieront le prix, en particulier les PME innovantes. Et ce prix s’ajoutera au coût de la mise en conformité à l’IA Act, ainsi qu’à ses nombreuses obligations documentaires. Etait-ce vraiment le résultat souhaité ?
Pour réaliser la singularité et la fragilité du choix européen, il suffisait pourtant d’écouter les dirigeants et certains fondateurs des quatre entreprises les plus importantes dans les modèles d’IA générative (dont une française, Mistral), à la conférence récemment organisée à Rome par la présidence italienne du G7. Le caractère globalisé du phénomène de l’IA, associé à sa vitesse de déploiement, fait que tout choix régulateur figé et prescriptif prend le risque de l’obsolescence programmée à très court terme. Dans cette compétition globale, entre entreprises mais aussi entre systèmes de régulation, l’Europe pourrait avoir à réévaluer ses choix plus rapidement que prévu.

Lire l’article complet sur : www.lesechos.fr