Le monde de la cybersécurité ne sait plus où donner de la tête sur la question de l’intelligence artificielle générative. Au Forum InCyber (FIC) de Lille, le plus gros Salon du secteur, qui se tenait cette semaine, les exposants n’avaient que ce mot à la bouche, pour alerter des nouveaux dangers qui en découlent mais aussi pour vanter de nouvelles techniques de protection. De leur côté, les clients entendent garder leur sang-froid.

« Il y a peut-être de l’intelligence artificielle générative dans les attaques, mais on ne voit pas la différence », souligne Alain Bouillé, le délégué général du Cesin, une association de responsables de la sécurité informatique dans les grandes entreprises et administrations. Il n’empêche, l’IA capable de générer du texte, des images ou du code informatique fait froid dans le dos.

Quand l’IA cherche la faille…
« Le plus inquiétant, ce sont les logiciels malveillants qui se reconfigurent tout seul jusqu’à trouver la faille pour entrer chez leur cible », pointe Guillaume Tissier, l’organisateur du FIC. « L’IA est davantage un pistolet qu’un sabre. Même un idiot peut tuer instantanément avec un pistolet, mais il faut des années de pratique pour être bon avec un sabre », image Duncan Stewart, directeur de la recherche chez Deloitte. Dans un récent rapport, le département du Trésor américain craint aussi un accroissement du nombre de fraudes via des fausses vidéos deepfake.

Mais ces méthodes restent rares. Pour l’essentiel, l’IA permet surtout aux criminels de multiplier à moindre coût les variantes et les traductions de leurs messages destinés à collecter insidieusement des données, bien qu’ils n’aient pas attendu l’IA pour soigner leur orthographe et la personnalisation. « Les cyberattaquants n’ont pas besoin d’IA pour lancer avec succès de grands volumes d’attaques. Pourquoi iraient-ils plus vite que la musique ? », reconnaît Pascal Le Digol, le patron en France de l’éditeur de logiciels de sécurité Watchguard.

Des ChatGPT de la cyber
En riposte, les spécialistes de la protection informatique ne manquent pas d’imagination pour mieux défendre avec de l’IA générative. En entraînant leur programme face à des attaques lancées par des IA génératives, les professionnels pensent pouvoir détecter plus rapidement l’adversaire. D’autres, à l’image du cabinet de conseil Headmind, développent des chatbots capables de répondre aux questions des analystes à partir de la documentation d’institutions comme l’Anssi ou la CNIL.
La tendance vient de loin. Alors que les logiciels de cybersécurité regorgent depuis plusieurs années déjà d’automatisation et d’intelligence artificielle prédictive, « l’IA pour la cybersécurité ne date pas de ChatGPT en 2022 », reprend Alain Bouillé. « L’IA plus ancienne est très utile pour automatiser le traitement des petites alertes et résoudre une partie du problème de manque de talent. Mais les IA plus récentes ne révolutionnent pas la panoplie des spécialistes cyber », griffe-t-il.

Nouveau champ d’expertise
Néanmoins, les professionnels de la cybersécurité auraient tort de confondre les outils et les compétences. Si la sécurité des IA génératives vendues sur étagère par Microsoft, Google et leurs rivaux est assurée par ces derniers, les IA que les entreprises sont en train de développer devront être blindées en interne. Or, c’est un tout nouveau champ d’expertise.

Lire l’article complet sur : www.lesechos.fr