Dans un groupe international aussi divers que LVMH le défi est de pouvoir réutiliser les algorithmes d’intelligence artificielle selon ses différentes Maisons, tout en respectant l’ADN du luxe. C’est à cet enjeu que répondent Aurélien Gascon, Groupe Head of Enterprise Architecture & Data Technology chez LVMH et Axel de Goursac, Group Head of Data Science chez LVMH.
Alibaba Cloud pour l’Asie et GCP pour le reste du monde
La démarche de l’équipe Data et IA est de centraliser les développements d’algorithmes d’IA tout en permettant leur personnalisation par chacune des Maisons du groupe, le tout sur une infrastructure ad hoc. En Asie, LVMH s’appuie sur Alibaba Cloud et pour le reste du monde, le groupe fait appel à BigQuery de GCP (Google Cloud Platform). Les algorithmes et les flux de données sont organisés sur la plateforme Dataiku.
Pour une transformation et IA, il faut mettre en place un certain nombre de fondamentaux
« Dans ce monde du luxe assez divers qu’est LVMH, on a pu déployer à l’échelle un certain nombre d’algorithmes » explique Aurélien Gascon. LVMH comprend aussi bien de la distribution spécialisée avec Sephora et ses 5600 magasins dans le monde que les boutiques Louis Vuitton, ou les marques de vins et spiritueux. Les tailles des maisons composant LVMH sont très différentes. Les business sont différents, ainsi que les géographies et les modèles de fonctionnement « B to B to C ». « Donc quand on veut engager une transformation data et pouvoir faire de l’IA, forcément, on ne part pas du même point. Et puis surtout, il faut mettre en place un certain nombre de fondamentaux » détaille Aurélien Gascon.
Chaque maison a sa plateforme Data. « C’est ce qui progressivement permet de rassembler toutes les données à un endroit et de pouvoir bénéficier de toutes ces données » poursuit-il. Il faut associer une gouvernance adaptée à cette collecte des données. « C’est bien d’avoir plein de données, mais si on ne la gouverne pas, si on n’a pas des définitions très claires pour chaque ensemble de données que l’on a pu récupérer et digérer, ce n’est pas très utile » prévient le responsable. Sinon, « on fait de l’IA, on fait de la statistique, etc. mais la pertinence est énormément améliorée à partir du moment où on est très clair et qu’on peut faire des corrélations, faire de l’inférence avec des données bien définies et bien claires. Nous avons démarré, c’est une longue journée » relate Aurélien Gascon.
Obtenir de l’impact business sur la chaîne de valeur
A partir de ces fondamentaux, LVMH mène depuis plusieurs années une transformation IA pour le groupe et pour ses Maisons afin d’obtenir de l’impact business sur différentes parties de la chaîne de valeur et donc générer de la valeur à l’échelle. « Mais on ne veut pas utiliser n’importe quelle IA et de n’importe quelle manière » intervient Axel de Goursac, Group Head of Data Science chez LVMH.
« Nous avons choisi de construire une stratégie d’IA custom construite par nous, qui va être adaptée au luxe«
« Nous voulons une IA qui va conserver notre ADN de luxe et qui va préserver l’image de nos marques. C’est pour cela que nous avons choisi de construire une stratégie d’IA custom construite par nous, qui va être adaptée au luxe et de nouer un partenariat avec l’université de Stanford sur la dimension human-centric AI, une IA, centrée sur l’humain » présente-t-il. Par exemple, LVMH développe une IA pour « augmenter » ses conseillers clients et que ses conseillers clients soient au centre de l’expérience de luxe de ses clients. De même pour « augmenter » ses employés par de l’IA, celle ci va respecter l’expertise et le savoir- faire de ces employés.
« Nous construisons des algorithmes qui vont être adaptés au luxe et nous les souhaitons réutilisables pour pouvoir les déployer, pour en faire bénéficier toutes les Maisons » présente-t-il. LVMH préfère cette approche à des solutions d’IA sur étagère. « Cela permet de choisir l’ensemble des sources de données dont on a besoin pour son cas d’usage, des sources de données qui sont dans cette data plateforme et de faire une modélisation qui va être adaptée aux besoins métiers spécifiques dans le luxe » détaille Axel de Goursac. « Cela nous permet aussi de construire une IA qui va satisfaire la philosophie de LVMH, de l’IA pour LVMH, donc une IA responsable et une IA centrée sur l’humain »insiste-t-il. « Et cela permet enfin d’utiliser un algorithme pour des activations différentes et donc pour avoir une cohérence multi-canal » ajoute-t-il.
Les IA du commerce retail ne sont pas adaptées au luxe
Par exemple, l’équipe IA de LVMH a construit un algorithme de recommandation personnalisée de produits avec des techniques avancées de Deep Learning. Ce développement a été réalisé parce que les algorithmes de recommandation qui sont peut- être plus standards pour le commerce retail ne sont pas adaptés au monde du luxe. « Nous avons des patterns de données assez différentes, ne serait-ce que par exemple la fréquence d’achat de nos clients et le panier moyen, pour n’en citer que quelques- uns » explique-t-il. « Cet algorithme qui est spécifique au luxe peut être utilisé dans les différentes divisions » poursuit-il. « Cette recommandation [de produit] va être utilisée dans le clienteling, dans les newsletters personnalisés, pour de l’activation média et dans le e-commerce, pour avoir vraiment une cohérence dans ces recommandations » détaille-t-il.
« Il va y avoir une utilisation dans des contextes très différents et on va vouloir customiser l’IA à chaque environnement d’utilisation«
Cette démarche de construction « custom » d’IA, est une démarche conséquente en termes de ressources. « Donc nous allons focaliser cette démarche sur des algorithmes qui vont toucher le cœur de notre business pour une utilisation stratégique » établit Axel de Goursac. « On va aussi le vouloir réutilisable pour en bénéficier le plus possible à l’échelle. Et enfin, on va demander à ces algorithmes d’être personnalisables. Donc, il va y avoir une utilisation dans des contextes très différents et on va vouloir customiser l’IA à chaque environnement d’utilisation » établit-il.
Afin de réaliser sa stratégie d’IA, les équipes de LVMH s’appuient sur la plateforme de développement logiciel Dataiku. Elle intègre nativement les algorithmes via les plugins. Elle permet un déploiement facilité des algorithmes dans les différentes Maisons de LVMH, sur les différents canaux, dans les différents marchés. Elle assure la data préparation, le feature engineering, le modèle de Machine Learning, le post-processing et même le formatage d’output pour l’utilisation dans des systèmes tierces. C’est une plateforme collaborative, ce qui fait que les Data Analysts, les Data Scientists, les Data Engineers, etc, peuvent s’approprier tous ces résultats. « Cela amène une meilleure adoption. Et l’adoption, en définitive, c’est ça qui va permettre de générer de la valeur » résume Axel de Goursac.
Packaging d’algorithmes réalisé de manière centralisée
LVMH réalise du packaging d’algorithmes de manière centralisée via Daitaku. La première étape va être par rapport à un besoin spécifique. Et souvent, c’est en collaboration avec les Maisons les plus matures du groupe LVMH qui ont déjà certains algorithmes. « Nous prenons ces briques et nous les packagerons. Nous en faisons des briques modulaires en utilisant parfois, quand le besoin s’en fait sentir, des librairies d’IA avancées » explique-t-il.
La plateforme associe du Deep Learning, du Computer Vision, du Natural Language Processing et les LLM (Large Language Model)
Il s’agit par exemple de librairies d’IA telles que du Deep Learning, de la Computer Vision (vision par ordinateur) ou des transformers pour le Natural Language Processing (traitement du langage naturel). LVMH adopte également les LLM (grands modèles de langage) et des algorithmes de diffusion. « Donc, nous packageons avec, nous essayons les bonnes pratiques de code. Ensuite, nous intégrons cela dans Dataiku via des plugins. Et cela va nous permettre de déployer [l’IA] dans des Maisons de manière facilitée » dit-il.
« Cela va permettre aussi une démocratisation, un usage par des personnes qui ne sont pas forcément Data Scientists via la capacité de ‘low code’ et ‘no code’ de Dataiku. Cela est vraiment un catalyseur d’utilisation à l’échelle » se félicite-t-il. « L’utilisateur qui n’est pas forcément Data Scientist, qui va déployer cet algorithme, va ensuite pouvoir le personnaliser par rapport à ses besoins » poursuit-il. Quant à la mise en production, elle utilise les capacités des « hyperscalers » – Alibaba Cloud ou Google Cloud Platform – de la plateforme Data.
Personnalisation de l’algorithme par chaque Maison
La plateforme permet ainsi de partager des algorithmes packagés et réutilisables. Par exemple, un algorithme de personnalisation de newsletter est déployé dans l’environnement de la Maison, en le connectant aux datas de la Maison. « Les utilisateurs de la Maison vont pouvoir le customiser par rapport à leurs datas, par rapport à leur contexte business spécifique et par rapport aux besoins de l’activation » décrit-il. Cela fait gagner du temps par rapport à des développements spécifiques menés par chaque Maison. Autre atout de cette méthode, « le core code » de l’algorithme est centralisé, dès lors les évolutions sont beaucoup plus faciles.
« Nous envisageons les algorithmes vraiment pas comme des ‘one shot’ ni comme des pilotes, mais dans le temps, sur plusieurs années » insiste Axel de Goursac. Toutefois, lorsqu’il y a parfois des spécificités business, il est alors inutile d’envisager la réplication d’algorithme quand un cas est complètement spécifique à un marché ou à une Maison. « Tout l’enjeu pour nous est d’avoir cette approche de packaging et une vision centrale, mais aussi adaptable au contexte de la Maison, de sa région, de son magasin, qui puisse être aussi intégrée avec un ‘core’ [cœur de logiciel] réutilisable » conclut Aurélien Gascon.
Lire l’article complet sur : www.larevuedudigital.com
Leave A Comment