HOSPITALITY LAB & PRACTICE FOR BRANDS

Blog2017-10-23T13:43:48+00:00

GDPR : L’hospitalité des marques fait loi en Europe.

GDPR : L’hospitalité des marques fait loi en Europe.

En imposant aux marques de privilégier l’intérêt de leurs clients dans la gestion des données qu’elles détiennent, l’Europe fait de l’hospitalité le vecteur principal de leur croissance.

1. AUJOURD’HUI, LA CROISSANCE DES MARQUES PASSE PAR LA QUALITÉ DE LEUR RELATION CLIENTS.

Dans un monde digital, « Les Marchés sont des Conversations ».

Dès 1999, Doc Searls et ses co-auteurs avaient mis cette idée au coeur de leur “Clue Train Manifesto” (Manifeste des Evidences) (1), démontrant alors avec brio comment le développement du “capital relationnel” de la marque pouvait devenir le principal moteur de la croissance des entreprises.

L’arrivée des sites internet dans la fin des années 1990 avait eu en effet le mérite de faire prendre conscience qu’il pouvait se nouer une relation directe entre l’entreprise et ses clients, sans passer par un distributeur ; et que ces nouveaux liens produisaient énormément de données qu’il était probablement intéressant d’exploiter : ainsi, pour développer plus loin l’idée du “Clue Train”, lorsqu’il s’agit de générer une croissance durable des ventes et des profits, les meilleurs atouts de la marque sont sa légitimité à susciter des échanges autour de son coeur de métier (Conversation), son intelligence à les analyser (Curation), sa capacité à apporter des réponses adaptées aux besoins exprimés (Customization), et finalement son empathie relationnelle, propre à mettre le client en résonance avec la marque (Communion). Autant d’atouts qui précèdent dorénavant la simple « qualité des produits » mis au catalogue, autrefois le principal fer de lance des entreprises.
Une vision depuis partagée par Interbrand(2), qui dans sa publication annuelle du classement de la valeur des marques insiste sur le fait que “la croissance est la conséquence d’une stratégie claire et d’expériences exceptionnelles délivrées au consommateur”.
Voici donc venu le temps pour les marques soucieuses de croissance durable de passer un nouveau contrat relationnel avec leurs consommateurs, où l’achat et la livraison du produit n’est plus la fin mais le début de la relation : un contrat qui couvre d’abord l’usage, et l’expérience qui l’accompagne. Un contrat qui est aussi l’occasion de proposer de nouveaux moments de consommation, de nouveaux services, qui sont autant de chiffre d’affaires supplémentaire pour les marques. Mais un contrat relationnel d’abord fondé sur le respect de l’intérêt du client, notamment en matière d’utilisation de ses données.

 

2. GDPR : UNE RÉGLEMENTATION POUR SAISIR DE NOUVELLES OPPORTUNITÉS DE CROISSANCE.

Selon une étude récente de la Commission Européenne(3), 72% des Européens s’inquiètent en effet de laisser trop de données personnelles aux entreprises, souvent à leur insu, et surtout de ne pas en recevoir de réelle contrepartie. D’ailleurs, la connaissance plus précise du client semble ne faciliter en rien la capacité de l’entreprise à mieux cibler ses offres : selon tous les indicateurs(4), le taux d’ouverture des mails diminue alors que les désabonnements (opt-out) augmentent, ce qui fragilise largement la rentabilité des investissements lourds consentis dans le CRM.
La Commission souligne également que le marché en ligne est constitué à 57% d’échanges avec des opérateurs américains, alors que seulement 4% des échanges se font au travers d’opérateurs pan-européens. Elle estime que si les 100 plus grosses entreprises Européennes faisaient un usage judicieux de leurs données clients, le PNB Européen pourrait s’octroyer 1,9% de progression supplémentaire d’ici 2020, soit plus de 200 Milliard d’Euros de gain potentiel.
C’est avant tout à cette opportunité de croissance que la GDPR s’attaque : permettre une meilleure utilisation des données pour les entreprises grâce à un consentement avéré des consommateurs, favoriser les échanges intra-européens au sein d’un univers mieux sécurisé. Loin d’être une contrainte, la GDPR est une chance de développement de nouvelles sources de revenus pour les marques européennes : elle conduit à un modèle de croissance durable rendu possible par une approche choisie et non plus subie de la consommation. Avec la GDPR, les marques doivent négocier avec chacun de leurs clients un contrat relationnel : elles doivent se mettre à l’écoute, comprendre les besoins, proposer leurs services, et définir les modalités de la relation ; le tout dans la transparence ( accès aux données, droit de modification) qui établit la confiance, l’attachement. Les marques deviennent alors attachantes dans le bon sens du terme, et c’est de cet attachement que nait la croissance durable.
C’est à ce nouveau modèle relationnel qu’appellait lui-même Doc Searls dans son “Clue Train Manifesto” : il lui avait même trouvé un nom, la VRM (Vendor Relationship Management). Une approche basée sur le consentement avéré du client vis à vis de ses fournisseurs (vendeurs) avec un postulat simple : “un consommateur libre a plus de valeur qu’un consommateur captif – pour lui-même, pour les marques et pour l’économie en général”.
Encore faut-il s’entendre sur la définition du consommateur “libre”. Searls le définit en cinq points :
1. Il entre en relation avec les marques de manière indépendante et sans contrainte.
2. Il est le point d’intégration de sa propre donnée (c’est lui seul qui peut relier sa donnée à sa personne).
3. Il a le contrôle de la donnée qu’il génère et collecte. Il décide de ce qu’il veut partager, à qui et comment.
4. Il définit son propre niveau d’engagement avec les marques.
5. Il est libre d’exprimer ses exigences et ses intentions en dehors du contrôle de toute entreprise.
C’est ce consommateur “libre” que la GDPR souhaite aujourd’hui promouvoir, afin d’en faire le vecteur de croissance de l’économie.

3. L’HOSPITALITE DES MARQUES, PRINCIPAL VECTEUR DE LEUR PROPRE CROISSANCE.

Accueillir un consommateur “libre” est sans doute une perspective qui effraie bon nombre de marques, tant elle ont été construites sur la notion d’un marketing manipulateur et insidieux, capable d’influencer jusqu’aux émotions pour enfermer les clients dans un tunnel de vente dont la seule issue est l’achat du produit. Avec la GDPR, ce n’est plus le produit qu’il va falloir vendre, c’est la marque qui doit apprendre à se faire acheter. Et pour cela, il va falloir qu’elle se montre hospitalière vis à vis de ses clients : bienveillante, humaine et proche.
Le produit devient simplement la porte d’entrée à la marque, celui qui va forger les impressions de la première rencontre, et donc le début (et non la fin) de l’histoire. Le produit n’est plus qu’un prétexte, c’est la marque qui devient le réel support de l’expérience pour le consommateur : c’est d’ailleurs à elle qu’il va naturellement s’adresser s’il a besoin d’assistance ou s’il a simplement des remarques à formuler. À la marque de se montrer engageante, accueillante, généreuse et humaine pour fidéliser le consommateur au-delà du premier produit, et pour entretenir une relation proche, intime, qui permettra de continuer à vendre sans qu’il soit besoin de déployer la coûteuse armada publicitaire du premier jour : avoir une stratégie à long terme d’entretien de la relation, plutôt que de s’épuiser dans des efforts permanents de recrutement.
Autant le “tunnel de vente” était indifférencié et anonyme, donc étranger à toute notion d’hospitalité, autant le “cycle de décision d’achat” est personnalisé et fait appel à la relation humaine : c’est de la capacité de la marque à accueillir que dépend la fidélisation du client, et encore plus, sa propension à devenir activement promoteur vis à vis de ses pairs. Pour le dire différemment, c’est du niveau d’hospitalité de la marque que va découler l’amplitude de la réalisation du cycle d’achat, et donc le montant de la valeur créée.
Autant le “tunnel de vente” s’envisageait dans un temps le plus court possible, avec l’espoir de limiter la durée d’exposition nécessaire pour déclencher l’achat afin de réduire les coûts, autant le “cycle de décision d’achat” s’inscrit dans la durée la plus longue possible afin de maximiser les revenus. En se plaçant dans une notion de permanence, on met forcément en exergue la qualité de l’hospitalité, seule capable de générer de la pérennité dans la relation.
Plus le consommateur progresse avec la marque, plus la marque fait preuve de « disponibilité » vis à vis des demandes du consommateur, plus se crée la confiance dans la relation, le consommateur récupérant de plus en plus de valeur d’usage en retour de sa relation avec la marque, la marque obtenant de plus en plus de “permissions” qui lui permettent d’aller encore plus loin dans son service du consommateur.
C’est bien là le cercle vertueux de l’hospitalité des marques : un marketing “on demand” (inbound marketing), un marketing de l’échange, de la confiance, de la permission, du partage de la valeur, où les clients sont aussi des hôtes ; un marketing qui se définit d’abord par rapport au client pour qu’il puisse adopter lui-même la marque, la faire sienne et en devenir à son tour le porte-parole…
Alors que la GDPR fait des marques le gibier de consommateurs devenus madrés, l’hospitalité est la meilleure réponse pour faire de ces mêmes marques les plus désirables des proies : avec bienveillance, humanité et intimité. Assurant ainsi la pérennité de leur croissance.

4. QUELLES APPROCHES POUR LES MARQUES FACE A LA GDPR ?

Ce serait peine perdue pour les marques que de se contenter de « mettre en conformité » leur bases de données tout en espérant garder les mêmes pratiques relationnelles. Car la GDPR est d’abord une invitation à renverser ses pratiques relationnelles pour faire montre d’hospitalité vis à vis de ses clients ; et c’est ce renversement d’attitude qui est lui même porteur de croissance pour les marques. Avec la GDPR, l’hospitalité ouvre pour les marques de nouvelles perspectives de croissance.
Une étude publiée en Mai dernier par le gouvernement Britannique4 s’était alarmée sur le fait que seulement 30% des grandes entreprises du pays avaient commencé à prendre les mesures nécessaires à la mise en conformité de leurs pratiques d’utilisation des données, alors que la transcription dans la loi Britannique vient d’être réalisée en ce mois d’Août, et qu’elle survivra au Brexit. Les autres pays feront-ils preuve de la même insouciance, par rapport à une échéance qui dans la plupart des pays européens, a été fixée à Mai 2018 ?
La GDPR transforme radicalement la manière dont les entreprises utilisent les données. Il va falloir arrêter d’acheter des listes d’adresses, et même se débarasser des listes qu’on aura pu acheter auparavant. Contacter un client exigera d’avoir les permissions nécessaires, sauf à s’exposer à des amendes prévues pour atteindre jusqu’à 4% du chiffre d’affaires.
Il n’y aura donc pas d’échappatoires.
Mais n’est-ce pas justement l’opportunité d’une prise de conscience salutaire dans le futur de la relation client ? Quelle marque aujourd’hui a encore besoin d’avoir accès à des millions de noms dont simplement un infime pourcentage montre un intérêt pour ses propositions ? Ne vaudrait-il pas mieux établir une véritable relation avec moins de clients mais qui ont un véritabe intérêt à avoir un dialogue, un échange, une conversation avec la marque ?
N’est-il pas temps, tout simplement, que les marques apprennent à devenir hospitalières vis à vis de leurs clients ?
Et si la GDPR n’était qu’un manifeste pour l’hospitalité des marques ? Une manière de sauver les marques traditionnelles à l’heure du digital ? La dernière opportunité à saisir avant liquidation ou reprise par les acteurs de la nouvelle économie ?
En développant leur hospitalité pour se mettre en conformité avec la GDPR, ce n’est pas tant l’amende que les marques vont éviter, c’est leur futur qu’elle vont assurer.
Aucune raison d’attendre. Embrassons la GDPR en développant l’hospitalité des marques (5).

 

 

(1) Le Cluetrain Manifesto (Manifeste des évidences) est un texte rédigé par Rick Levine, Christopher Locke, Doc Searls, et David Weinberger. Il est d’abord diffusé sur le web en 1999 comme un ensemble de quatre-vingt-quinze thèses, puis est publié sous forme de livre en 2000 avec les thèses prolongées de sept essais. https://www.amazon.com/Cluetrain-Manifesto-End-Business-Usual/dp/0738204315
(2) Etude 2016 Interbrand : http://interbrand.com/best-brands/best-global-brands/2016/
(3) Etude de la Commission Européenne : https://ec.europa.eu/commission/publications/why-we-need-digital-single-market_en
(4) Citée par Tanya Joseph dans le magazine Marketing Week (UK) du 7 Août 2017, New data laws are a chance to reset customer relationships : https://www.marketingweek.com/2017/08/07/tanya-joseph-data-law/
(5) Cf, “Manifeste pour l’Hospitalité des Marques”, Georges-Edouard DIAS, Edition Netexplo : https://www.amazon.fr/dp/2954667230/

Black Friday, Cyber Monday, Travel Tuesday : quel intérêt pour le tourisme ?

By |December 2nd, 2024|Categories: Scoop.it|

Black Friday, Cyber Monday, Travel Tuesday…les journées de promotion se multiplient dans le e-commerce, donnant l’opportunité aux acteurs du tourisme de booster leurs ventes en ligne. Faut-il pour autant s’engager dans toutes ces opérations marketing ? Sont-elles forcément synonymes de surconsommation ? Demain, vendredi 29 novembre, aura lieu le Black Friday, cette journée commerciale qui a lieu le lendemain de Thanksgiving aux Etats-Unis. Cette journée est marquée par une abondance de promotions sur les sites e-commerce et concerne aussi bien l’achat de grille-pains que de voyage. Dans le secteur du tourisme, les réductions concernent principalement les offres packagées. Expedia, Booking, Voyage Privé, TUI, Carrefour Voyages et bien d’autres proposent des réductions allant jusqu’à 80%. Pour Bruno Delmas, CEO d’Elloha, cette journée de promotions est l’occasion pour les acteurs du tourisme de se refaire une santé après un été 2024 très décevant, notamment pour les hébergeurs. « Cela permet de s’ouvrir à une nouvelle clientèle et de pousser la vente additionnelle. Le Black Friday permet aussi de tester l’appétence pour certains produits ». Pour les consommateurs, ces réductions sont bienvenues dans un contexte de baisse de pouvoir d’achat. « On a beau vouloir manifester quelque résistance à ces « grandes foires commerciales », force est de constater que, d’année en année, elles rencontrent un succès croissant … corrélativement avec le sentiment de baisse du pouvoir d’achat qu’expriment les consommateurs. » observe l’entreprise Elloha sur son blog. Le Travel Tuesday gagne en popularité aux USA Après le Black Friday suivra le Cyber Monday, le 2 décembre, puis le Travel Tuesday, le 3 décembre. Le Cyber Monday a vu le jour en 2005, quand le Black Friday se déroulait principalement dans les magasins physiques. Il était alors le pendant numérique de cette opération marketing. Le Travel Tuesday, lui, est plus récent. C’est Hopper, plateforme de vente de billets d’avion, qui aurait inventé cette journée de réduction en 2017. « Hopper a remarqué que les ventes augmentaient le mardi suivant le Black Friday. Ce n’est pas étonnant car on n’achète pas un voyage comme on achète un jean. Les consommateurs prennent quelques jours de réflexion avant de passer à la caisse », explique Cédric Lopez, Directeur Commercial EMEA et Asie chez Sojern. Selon McKinsey, le volume des recherches Google pour le terme « Travel Tuesday » a plus que quintuplé sur une période de deux ans. Il faut préciser néanmoins que c’est aux Etats- Unis et au Canada que ces recherches ont le plus augmenté. Sojern observe que le Travel Tuesday a connu une augmentation notable des réservations en 2023 d’hôtels, de croisières et de billets d’avion par les voyageurs américains, par rapport aux deux semaines précédentes et aux deux semaines suivantes. Les recherches augmentent en Europe mais elles demeurent peu significatives dans l’esprit des Français et des Italiens. Y a-t-il trop de journées de promotion ? Selon Cédric Lopez, ces tendances marketing qui s’enchaînent peuvent amoindrir l’impact commercial des marques du tourisme. Difficile de savoir quelle journée prioriser. Mais selon lui, il faut néanmoins toutes les suivre. « Si le Travel Tuesday continue de gagner en popularité, il pourra prendre le pas sur le Black Friday. Les promotions pourront alors se concentrer le mardi », continue-t-il. « En Europe, nous avons encore 3-4 ans de retard sur les Etats-Unis », complète Bruno Delmas. Dans quelques années, le secteur pourrait donc avoir sa journée dédiée, indépendante du Black Friday. Et si le Travel Tuesday mettait en avant les offres durables ? Black Friday, Cyber Monday, Travel Tuesday : ces opérations marketing sont souvent considérées comme synonymes de surconsommation et génératrices de tourisme de masse. L’association Agir pour un Tourisme Responsable (ATR) publie chaque année un guide à l’occasion du Black Friday. Il permet de déterminer si un achat de voyage est responsable ou non. Selon ATR, il est important de redonner au voyage sa nature exceptionnelle. Le guide de Agir pour un Tourisme Responsable (ATR) Mais l’achat compulsif de voyage est-il toujours une mauvaise chose ? C’est la question que se pose le Directeur Commercial EMEA et Asie de Sojern : « Et si le Travel Tuesday devenait une journée dédiée à la mise en avant d’offres durables ? On pense que les consommateurs qui achètent des voyages durables sont contre ce genre d’opérations. Mais ce n’est pas antinomique. Pour pouvoir changer les choses de manière globale, il faut s’adresser à tout le monde ». Cédric Lopez est conscient que tout est une question d’image. Cela reviendrait à imaginer des soldes dans le secteur du luxe. Mais si les promotions proposées incitent les consommateurs à voyager plus durablement et que le système reste équitable, c’est une opportunité qui mérite d’être saisie.

KissKissBankBank passe dans le giron de son concurrent Ulule

By |December 2nd, 2024|Categories: Scoop.it|

Après plusieurs mois d'incertitudes, les salariés de KissKissBankBank sont enfin fixés sur leur sort. Cette start-up, qui avait été acquise à 100 % en 2017 par La Banque Postale, faisait figure de pionnière dans le financement participatif des entrepreneurs. Elle est reprise par Ulule, son concurrent depuis toujours. « Dans notre métier, les coûts dans la technologie, le produit et la conformité sont lourds et complexes, avec comme contrepartie de réaliser beaucoup de volume pour être rentable. Il était logique de concentrer ces volumes autour d'une même plateforme », indique Arnaud Burgot, le cofondateur d'Ulule, qui compte faire perdurer la marque. A elles deux, les plateformes cumulent depuis leur existence 80.000 projets financés et plus de 480 millions d'euros collectés. LIRE AUSSI : DECRYPTAGE - Les recettes de ces start-up pour réussir leur campagne de crowdfunding DECRYPTAGE - Dix ans après le buzz, le crowdfunding traverse une période délicate La banque publique avait dépêché une banque d'affaires pour se séparer de KissKissBankBank & Co, avait révélé « Les Echos » . Ce groupe rassemble plusieurs start-up de la finance solidaire, acquises ces dernières années. Le périmètre de vente comprenait KissKissBankBank, mais aussi Goodeed (régie publicitaire solidaire), Youmatter (média et formation RSE) et Lendopolis (financement dans les énergies renouvelables). Début novembre, cette dernière avait été la première filiale à être cédée, à son concurrent Lendosphere , dans une stratégie de vente à la découpe des filiales. La diversification de l'activité d'Ulule Pour KissKissBankBank, plusieurs acquéreurs potentiels avaient été approchés, et, selon nos informations, un salarié avait également essayé de reprendre la société. Les modalités de l'opération financière ne sont pas dévoilées. Aux 48 salariés d'Ulule se joignent une vingtaine de personnes venues de KissKissBankBank. Si la société reste discrète sur ses revenus, elle assure néanmoins être rentable sur les « trois derniers exercices ». Une rentabilité permise par la diversification de la plateforme, qui, au-delà du crowdfunding (40 % de ses revenus), s'est développée dans la formation. Elle a aussi lancé Ulule Boutique, une « place de marché des marques engagées ».  De son côté, l'activité crowdfunding de KissKissBankBank a réalisé moins de 2 millions d'euros de chiffre d'affaires en 2023. La plateforme accuse aussi des pertes. Le secteur du crowdfunding a été chahuté ces derniers mois, touché de plein fouet par les sujets d'inflation, de hausse des taux mais aussi d'incertitude politique. L'activité crowdfunding de KissKissBankBank a réalisé moins de 2 millions d'euros de chiffre d'affaires en 2023. La Banque Postale, elle, opère un « plan de transformation » et un « recentrage de ses activités bancaires ». Une mission confiée à son nouveau patron, Stéphane Dedeyan, nommé officiellement au printemps , après le départ de Philippe Heim. Ulule reste discret sur les ambitions stratégiques autour de la plateforme, mais indique préparer une « V2 de sa société », en proposant notamment un nouveau service via KissKissBankBank à la fin du premier trimestre 2025. Dans tous les cas, la start-up devra d'abord gérer l'intégration, et notamment celle des salariés, qui ont pu être affectés par l'incertitude sur l'avenir de la société. « C'est notre point d'attention numéro 1 », confie Arnaud Burgot.

Comment l’IA cherche à éviter le cauchemar énergétique

By |December 2nd, 2024|Categories: Scoop.it|

Ils s'appellent HawAI.tech, Illuin, Ampere Computing, Holigrail ou Sharp. Et ils partagent une conviction : quand Goliath apparaît insurmontable, David a tout intérêt à déplacer le terrain sur lequel l'affronter. En l'occurrence, quand les géants américains du numérique affichent une écrasante avance dans la course à l'intelligence artificielle (IA), ces start-up et ces centres de recherche se concentrent sur les moyens de mettre au point des technologies plus agiles et moins consommatrices de ressources. Une IA plus « frugale » ? L'idée semble aller à contre-courant de l'actuelle course au gigantisme. Le célèbre générateur de texte Chat GPT 4, avec ses 1.000 à 2.000 milliards de paramètres, est dix fois plus gros que son grand frère, GPT 3. Mais les limites de cette fuite en avant commencent à sauter aux yeux : sur une planète confrontée à un défi énergétique sans précédent, la généralisation de telles usines à gaz apparaît impensable - y compris en termes économiques. Voracité énergétique Une requête sur un « LLM » (large language model) comme Chat GPT consomme environ dix fois plus d'électricité qu'une recherche sur Google. Selon les projections de la banque Wells Fargo pour les Etats-Unis, l'IA consommera 80 fois plus d'électricité en 2030 qu'en 2024. Microsoft, Google et Amazon nouent donc des partenariats avec l'industrie nucléaire . A Three Miles Island, c'est un réacteur qui va être redémarré pour fournir Microsoft. En attendant, les émissions de gaz à effet de serre des Gafa explosent. LIRE AUSSI : ANALYSE - Chat GPT, un succès hallucinant ! Nucléaire : la centrale accidentée de Three Mile Island va revivre grâce à Microsoft Pour l'heure, les utilisateurs ne semblent pas obsédés par le problème. C'est ce que reconnaît Frédéric Brajon, cofondateur du cabinet Saegus, spécialisé en intelligence artificielle : « Beaucoup d'entreprises perçoivent les LLM comme des outils extrêmement puissants qu'elles se doivent de déployer pour être dans la course à l'innovation, et la plupart n'ont pas encore de recul sur la surconsommation énergétique que cela engendre. » Mais, ajoute le consultant, « cela va probablement devenir un vrai sujet en 2025 et 2026 ». Un industriel abonde : « Après une année 2023 où tout le monde a fait joujou avec cette technologie, les directions des services informatiques des sociétés commencent à se demander s'il est pertinent de déployer pour tous les collaborateurs des outils qui coûtent 20 euros par mois… » Retour de bâton D'autant que ce prix ne pourra qu'augmenter. Pour l'instant, les géants du secteur, croulant sous les financements, cassent les prix. Jeff Wittich fait partie de ceux qui mettent en garde contre le retour de bâton. Responsable du développement des produits chez la start-up américaine Ampere Computing, il estime que « le coût réel n'est pas payé par le consommateur final ». Il dresse le parallèle avec l'apparition du Web, « période où les entreprises cherchaient d'abord à recruter des clients ». Quitte à proposer leurs services à perte. On se souvient de ce jour de 2018 où Google Maps a subitement multiplié le prix de ses services aux entreprises par plus de dix… Et Jeff Wittich d'ajouter que là où il a fallu « une dizaine d'années pour qu'une normalisation apparaisse avec l'Internet », on peut s'attendre à une évolution « plus rapide cette fois, vu les contraintes énergétiques et les montants gigantesques investis ». Le retour sur investissement des usages bureautiques de l'IA n'est pas facilement démontrable. FRéDéRIC BRAJON, Cofondateur du cabinet Saegus Ce retour sur terre est d'autant plus inéluctable, prévient Frédéric Brajon, qu'un élément réglementaire va changer la donne, en Europe, dès 2025 : la directive européenne CSRD va obliger les entreprises à dévoiler des informations extra-financières. « L'IA va probablement devenir un des indicateurs clés qu'elles suivront pour évaluer leurs émissions de tonnes de carbone », estime le consultant. Or, face à ces émissions bien réelles, « le retour sur investissement des usages bureautiques de l'IA n'est, pour l'instant, pas facilement démontrable », assure-t-il. C'est dans cette brèche que cherchent à s'engouffrer de nombreux acteurs, convaincus qu'utiliser un gigantesque LLM pour tout faire revient à mobiliser une armée entière pour des missions que de petits commandos effectueraient au moins aussi bien. Une IA « hybride » La société Illuin, par exemple, a noué un partenariat avec l'école d'ingénieurs CentraleSupélec pour répondre à la question suivante, formulée par son PDG et cofondateur, Robert Vesoul : « Peut-on déployer des capacités d'IA générative avec des modèles beaucoup plus petits ? » Bilan : en se concentrant exclusivement sur l'anglais et le français, mais aussi en acceptant un résultat « un peu moins bien rédigé qu'un texte littéraire », elle a mis au point un modèle baptisé « Croissant LLM » qui utilise 200 fois moins de paramètres que la dernière version de Chat GPT. « Dans bien des cas d'usage, explique Robert Vesoul, la qualité stylistique est moins importante que l'objectif visé. » Exemple : la synthèse écrite des conversations téléphoniques d'un service clientèle, qui doit surtout faire figurer toutes les idées clés. « Nous avons écarté certaines fonctionnalités en nous recentrant sur les tâches du quotidien et en gardant la vision d'un usage industriel », ajoute Wacim Belblidia, cofondateur et directeur général adjoint de la société. Le nouveau data center de Meta's Facebook à Eagle Mountain, dans l'Utah. Le complexe couvre une surface égale à vingt terrains de football.GEORGE FREY/AFP Chez Hawai.tech, une start-up grenobloise, la nécessité de proposer des IA moins gourmandes en énergie découle d'abord de leur usage : déployée dans des systèmes embarqués (drones, robotique, voiture autonome…), l'IA doit fonctionner sans solliciter un serveur à distance. La solution consiste, pour chaque projet industriel, à comprendre le fonctionnement précis d'un système et à le modéliser de manière probabiliste. Cette IA dite « bayesienne », du nom du théorème mathématique qui la fonde, est donc différente d'un LLM : ce dernier va suivre un « apprentissage profond » (deep learning) sans supervision humaine, effectuant des milliards d'opérations itératives. La jeune pousse, elle, va « intégrer de l'expertise métier et modéliser les causalités qui sont en jeu en utilisant les probabilités », explique Raphael Frisch, CEO et cofondateur d'Hawai.tech. Pour effectuer des tâches spécifiques, pas besoin alors d'un « réseau de neurones » : très peu de données d'apprentissage et donc de ressources sont requises dans ces systèmes d'IA « hybride ». Pour créer un système d'assistance à la conduite, par exemple, un réseau de neurones utilise environ 50 fois plus de paramètres qu'un modèle probabiliste. Repenser les puces Mais pour minimiser la consommation d'énergie, Hawai.tech a aussi mis au point un microprocesseur 6 fois plus efficace que celui proposé par le géant Nvidia pour les technologies embarquées. De fait, c'est aussi dans le « hardware » que sont attendues des avancées en termes de frugalité. La société Ampere Computing, aux Etats-Unis, est l'une de celles qui se focalisent sur cet enjeu en partant d'un constat : les processeurs qui font tourner l'IA aujourd'hui sont souvent les fameux GPU , pensés à l'origine pour assurer l'interface graphique des ordinateurs. Lorsque la nouvelle génération d'IA est apparue, ses concepteurs ont en effet constaté que son entraînement reposait sur des milliards d'opérations simples effectuées en parallèle, chose que les GPU faisaient à merveille pour assurer, pixel par pixel, l'affichage d'un écran. LIRE AUSSI : DECRYPTAGE - L'IA est-elle une bulle spéculative ? INTERWIEW - IA : « La France est face à une opportunité qui ne se produit qu'une fois par siècle » Mais pour Jeff Wittich, le responsable du développement des produits de la société, « ce côté extrêmement répétitif perd une partie de sa pertinence lorsque la phase d'entraînement du modèle est terminée et qu'il faut répondre aux requêtes des utilisateurs ». Or, on le sait désormais, « l'électricité consommée par une IA générative durant son utilisation pourrait être cinq à dix fois supérieure à celle mobilisée pour son entraînement ». En s'affranchissant de l'architecture des GPU, Ampere Computing a donc conçu, pour la phase de fonctionnement d'une IA, un microprocesseur qui affiche un rendement deux à cinq fois supérieur aux GPU du leader, Nvidia. Au final, c'est toute une chaîne de fonctionnement qui va devoir être améliorée. Le but : « faire travailler ensemble ceux qui conçoivent les modèles, ceux qui en déclinent l'exécution informatique et les concepteurs des microprocesseurs optimisés pour cet usage », explique Cédric Auliac, qui dirige le programme IA à la direction de la recherche technologique du CEA (Commissariat à l'énergie atomique). Il va au moins falloir multiplier par 1.000 l'efficacité énergétique des IA génératives. François Terrier, Codirecteur du PEPR-IA C'est aussi le point de vue de François Terrier, l'un des trois directeurs de l'ambitieux projet français baptisé « PEPR-IA » (Programme et équipements prioritaires de recherche pour l'IA). Réunissant l'Inria, le CNRS et le CEA, ce projet doté de 73 millions d'euros par l'Etat français réunit 9 programmes de recherche sur l'IA. « Il va au moins falloir multiplier par 1.000 l'efficacité énergétique des IA génératives », prévient le chercheur. La France bien positionnée Sur ce chemin, le programme du PEPR-IA baptisé « Holigrail » vise par exemple à « améliorer le codage des milliards de paramètres d'un réseau de neurones, un peu comme le MP3 a compressé les fichiers musicaux », explique François Terrier. A ce stade, les chercheurs arrivent couramment à diviser par dix la complexité. D'autres recherches sont menées, sur le matériel, pour utiliser des réseaux de neurones génériques, en adaptant uniquement leurs dernières « couches » en fonction de la tâche à accomplir - de quoi multiplier par 1.000 l'efficacité énergétique dans la recherche d'images. Les requêtes Internet qui utilisent l'IA consomment cinq à dix fois plus d'énergie que sur un moteur de recherche classique.iStock Dans cette quête de frugalité, les modèles « open source », qui permettent de rendre accessible le code d'un programme, ont le vent en poupe. En mutualisant les efforts, ils permettent de capitaliser sur les innovations déjà établies pour les adapter à un contexte précis, sans repartir de zéro. Cette approche peut aussi permettre à une entreprise de faire tourner une IA sur sa propre infrastructure informatique, sans mobiliser des serveurs lointains. A plus long terme, les réflexions et les recherches ne manquent pas, notamment pour s'inspirer du fonctionnement du cerveau, véritable sommet d'efficacité énergétique - il consomme « en moyenne 20 watts, contre 700 watts pour un GPU », résume Cédric Auliac. La crainte d'un « effet rebond » Stratégiquement, ajoute François Terrier, « la France a une carte à jouer, forte notamment de son école de mathématiques qui parvient à travailler avec les informaticiens sur ce sujet, le PEPR-IA en étant une illustration ». Première au monde dans cette démarche, l'Association française de normalisation (Afnor) vient de publier un référentiel permettant d'évaluer la frugalité d'une IA. Pour François Terrier, « la bataille sur le marché de l'IA industrielle n'a pas démarré et nous avons encore l'opportunité de prendre de l'avance sur les enjeux de frugalité et de confiance qui y sont associés ». Reste une sourde inquiétude : ce que les économistes appellent « l'effet rebond ». Les technologies plus économes en train d'être élaborées, plutôt que de rendre l'IA moins vorace, risquent surtout de banaliser son utilisation jusque dans le moindre téléphone. Comme l'explique un scientifique, « certains chercheurs se refusent à utiliser Chat GPT par conviction écologique, mais redoutent d'être en train de mettre au point les technologies qui contribueront en fait à l'accélérer ».

Le plan en trois temps d’Intermarché pour rivaliser avec Leclerc et Carrefour

By |December 2nd, 2024|Categories: Scoop.it|

« Pour rester dans la course, un groupe de distribution doit au moins réaliser 200 milliards de francs de chiffre d'affaires » affirmait Georges Plassat en 1997, quand l'euro n'avait pas encore remplacé le franc. Celui qui était à l'époque patron opérationnel de Casino affrontait le nouvel actionnaire de référence du distributeur stéphanois : Jean-Charles Naouri. Le financier venait à la rescousse de la famille fondatrice Guichard attaquée par Promodès. Georges Plassat perdra la partie. Et Casino finira par être démantelé. Aujourd'hui, la barre de la taille critique est fixée à 20 % de parts de marché. Et c'est pour l'atteindre qu'Intermarché, un quart de siècle plus tard, a racheté l'essentiel des supermarchés et hypermarchés Casino. Avec 294 nouveaux magasins, Les Mousquetaires de la distribution aiguillonnée par le d'Artagnan Thierry Cotillard ont dépassé les 18 %. La relance des points de vente - déjà 10 % de hausse des ventes un an après le changement d'enseigne, 40 % visés à terme - hissera le réseau d'indépendant au niveau de Leclerc et de Carrefour, le premier approchant les 25 % et le second montant à plus de 21 % après le rachat de Cora. Pour réussir son pari à deux milliards d'euros d'investissement, le président du Groupement Les Mousquetaires a procédé en trois temps. Saturer le pôle industriel D'abord, dès le lendemain de son élection, début 2023, Thierry Cotillard a lancé une série d'économies de coûts. Les filiales étrangères (Pologne Portugal, Belgique) ont été priées d'autofinancer leur développement. Un gros chantier informatique a été raboté. Le pôle industriel Agromousquetaires a poursuivi sa restructuration. Deux usines ont été vendues. Deux autres vont l'être. Le sort de l'armement de pêche, très déficitaire, a été mis en suspens. En gonflant la rentabilité des structures centrales du réseau d'indépendants, Thierry Cotillard a pu financer l'opération Casino par la dette. LIRE AUSSI : INTERVIEW - « Les magasins Casino, c'est quinze ans de développement en une seule année pour Intermarché » Thierry Cotillard, le patron très atypique d'Intermarché Dans un deuxième temps, il a enclenché une dynamique de croissance pour tenir l'équilibre. Fort de leur relance commerciale à base de baisse des prix (18 % en moyenne), les 294 ex-Casino ont pour objectif de passer leur chiffre d'affaires global de 3 milliards à 4,5 milliards. Ils s'approvisionneront en produits à marques propres auprès d'Agromousquetaires. Parallèlement, Intermarché a décidé de passer ses « MDD » de 35 % à 40 % des ventes, soit un total de 2 milliards d'euros de chiffre d'affaires qui ira alimenter les usines maison, lesquelles espèrent aussi récupérer les commandes d'Auchan. De quoi saturer les lignes de production et abaisser leur coût. Meilleures conditions d'achat L'acquisition des Casino ayant été réalisée en commun avec Auchan, Intermarché a noué un partenariat étroit avec le distributeur de la famille Mulliez. Ensemble ils ont constitué Aura, une centrale d'achat sur laquelle Monoprix et Franprix se sont greffés, qui pèsera plus de 30 % du marché français et pourra prétendre à des conditions d'achat équivalentes à celles de Leclerc et Carrefour. Cela permettra de baisser les prix, de conquérir de nouveaux clients et d'accroître encore la part de marché. LIRE AUSSI : Alimentation : Intermarché tourne ses 56 usines vers le frais et le végétal Intermarché a dessiné un cercle vertueux. Son succès dépendra de la réussite des anciens Casino. La hausse des ventes doit se poursuivre. Un grand concurrent affirme que ses magasins situés face aux ex-Casino ne voient pas leur activité baisser. Le gonflement des ventes sera nécessaire pour permettre aux adhérents, dans la logique des indépendants, de racheter les fonds de commerce aux structures centrales. Seule la bascule vers les adhérents parachèvera l'opération. Pour faciliter cette passation de pouvoir financière, Thierry Cotillard a changé les règles et permis la copropriété entre deux ou trois adhérents. Une façon de mettre toutes les chances de son côté. C'est le troisième temps du pari Casino.

Cinq établissements de La Réunion classés parmi les 1 000 meilleurs restaurants du monde

By |December 2nd, 2024|Categories: Scoop.it|

Qui sont les 5 restaurants péï ? Cinq tables réunionnaises sont présentes dans le palmarès 2025 et figurent donc dans le top 1 000 des meilleurs restaurants au monde : Le Blue Margouillat (Saint-Leu) L’Ambéric (Le Tampon) L’Atelier de Ben (Saint-Denis) La case Pitey (Saint-Louis) La Villa Fleurié (Saint-Denis) Les cinq restaurants ont une moyenne de 75.5/100 et sont classés dans les 900e. En 2023, six établissements étaient dans La Liste. En plus des cinq que l'on retrouve cette année, figurait le Diana Déa Lodge, qui lui, est donc sorti du classement.

Ces Français qui comptent chez OpenAI

By |December 2nd, 2024|Categories: Scoop.it|

Les Français ont depuis longtemps intégré les Gafa et à des postes parfois prestigieux, comme celui de Yann LeCun, vice-président et « monsieur » intelligence artificielle de Meta. On retrouve aussi ce phénomène dans de « grosses » start-up dont OpenAI, qui vient de boucler une levée de fonds record de 6,6 milliards de dollars . Portrait de trois personnalités qui comptent chez la star de l'IA générative. · Olivier Godement, le touche-à-tout Lors de sa conférence consacrée aux développeurs, il y a quelques jours, OpenAI a multiplié les annonces et fait, comme d'habitude, quelques démonstrations. Parmi les intervenants, on trouvait Olivier Godement, responsable produit API (interface de programmation d'application). Cette technologie, qui est centrale dans le secteur, permet aux développeurs de créer des applications à partir des grands modèles de langage. Olivier Godement connaît bien ce monde puisqu'il était auparavant chez Stripe, la fintech américaine valorisée 70 milliards de dollars, connue pour son API qui permet d'ajouter, entre autres, des modules de paiement sur des sites. LIRE AUSSI : Les chiffres affolants d'OpenAI, la star de l'IA générative OpenAI, ByteDance, SpaceX : ces start-up aux valorisations XXL Il avait été recruté en 2014 à Paris par Guillaume Princen, alors chargé de lancer Stripe en Europe. « Il avait un boulot très hybride. Il parlait aux juristes, il structurait le support, il faisait des partenariats avec des incubateurs et des banques… c'était un peu l'homme à tout faire », se souvient un employé de Stripe. « Il a fait du business, du produit et de l'opération, c'est rare », souligne un autre. Il faut dire qu'il a dû mettre les mains dans le cambouis quand il a créé sa start-up en 2012. Son nom ? Sparkup, une plateforme de crowdfunding en actions. · Romain Huet, le « showman » Romain Huet était sur la même scène qu'Olivier Godement, il y a quelques jours. Cet ingénieur a montré comment un nouvel outil d'OpenAI pouvait parler au téléphone avec un humain pour lui demander de commander de la nourriture pour un événement. Prendre la parole devant des centaines de personnes est une formalité pour Romain Huet, aujourd'hui responsable de l'expérience des développeurs chez OpenAI. Il faisait cet exercice quand il était chez Stripe (lui aussi !). « Il est devenu notre showman. Il animait nos conférences externes et internes », rapporte un salarié de Stripe. Romain Huet est aujourd'hui responsable de l'expérience des développeurs chez OpenAI.Samuli Pentti Romain Huet a commencé sa carrière chez Netvibes (big data) avant de cofonder en 2008 avec Tariq Krim, Jolicloud, un des pionniers français du cloud. Cinq ans plus tard, il est recruté par Twitter à Londres pour s'occuper des relations avec les développeurs. « A l'époque, Twitter ne savait pas comment faire pour encourager les développeurs à créer des applications à partir de ses données », se souvient un ancien salarié. Romain Huet s'est alors engouffré dans le sujet des API, ce qui lui a permis de croiser la route des fondateurs de Stripe. · Julie Lavet, la spécialiste de la politique « L'IA est un enjeu de compétitivité, pour la France et pour l'Europe ! » Cette citation ne vient pas d'une start-up française d'IA, mais d'OpenAI, et plus précisément de Julie Lavet, sa responsable des affaires publiques pour l'Europe. Dans un portrait que « Les Echos Start » lui ont consacré au moment de sa nomination en mai dernier, la jeune femme explique qu'elle agit pour l'intérêt général. Julie Lavet, responsable des affaires publiques pour l'Europe.DR Rien de très surprenant pour celle qui a travaillé plusieurs années en politique (toujours sous des responsables socialistes), que ce soit au niveau local (ville d'Argenteuil) puis au niveau national, au ministère du Logement, à l'Assemblée nationale - où elle était assistante - puis à Matignon, comme conseillère parlementaire de Manuel Valls. Après la politique, elle travaille deux ans en tant que directrice des affaires publiques pour le Comité national olympique et sportif français (CNOSF) avant de rejoindre Apple pour exercer les mêmes fonctions pour la France et le Benelux. Avec OpenAI, Julie Lavet va relever de nouveaux gros défis, notamment la mise en oeuvre de l'AI Act en Europe .

OpenAI dégaine ChatGPT Search et lance la grande offensive contre Google

By |December 2nd, 2024|Categories: Scoop.it|

« Allez directement à la source. » OpenAI, la maison mère du célèbre chatbot ChatGPT, a dégainé son propre moteur de recherche. Baptisé ChatGPT Search, il se positionne à la croisée des chemins, entre son chatbot dopé à l'intelligence artificielle générative, et un moteur de recherche classique. Google pour ne pas le nommer. Alors que le marché attendait un nouveau produit, baptisé SearchGPT - l'entreprise a déjà reconnu que trouver des noms n'était pas son fort… -, elle a finalement décidé de l'intégrer à sa plateforme vedette. Il faut dire que celle-ci rassemble déjà pas moins de 200 millions d'utilisateurs actifs mensuels à travers le monde. La start-up ne dit pas si son moteur de recherche consacré doit toujours voir le jour. Le meilleur des deux mondes ? ChatGPT Search est réservé aux abonnés payants (Plus et Team), et aux personnes inscrites sur la liste d'attente à SearchGPT. Il se pose en alternatives aux requêtes classiques dans le célèbre chat. « ChatGPT choisira de rechercher sur le Web en fonction de ce que vous demandez, ou vous pouvez choisir manuellement de rechercher en cliquant sur l'icône de recherche Web », explique l'entreprise dans un communiqué. LIRE AUSSI : EN CHIFFRES - Les chiffres affolants d'OpenAI, la star de l'IA générative OpenAI courtise les entreprises Concurrent frontal de Perplexity AI et de Google AI Overviews (non disponible en Union européenne, mais déjà déployé dans une centaine de pays), ChatGPT Search met en scène l'information de façon plus riche et intelligente qu'un moteur de recherche qui ne liste que des liens. Contrairement à ChatGPT - dont l'IA répond « à sa sauce », sans forcément bien citer ses sources et avec un grand risque d'erreur, lié à son modèle probabiliste -, ce moteur de recherche doit s'appuyer sur des sources fiables. Il doit ainsi répondre à la principale critique faite aux chatbots propulsés à l'IA, qui invitent constamment à « vérifier les informations importantes ». De premiers tests montrent cependant que ce moteur n'est pas forcément pertinent. Concurrent frontal de Perplexity AI Cette nouvelle approche vise aussi à mieux mettre en valeur les éditeurs de contenus, comme les médias. Ils se sentent parfois spoliés par les robots des start-up de l'IA qui peuvent entraîner leurs modèles sur leurs articles sans autorisation. NewsCorp est en procès contre Perplexity AI et le « New York Times » contre OpenAI et Microsoft. LIRE AUSSI : Perplexity AI, cette ambitieuse start-up qui veut remplacer Google DECRYPTAGE - Google : la recherche en ligne est-elle vraiment menacée par l'IA ? Dans son interface, ChatGPT Search propose ainsi un volet dans lequel son IA met en scène l'information, en s'appuyant à la fois sur son algorithme et sur des sources partenaires. Comme sur Perplexity AI , il peut enrichir l'information de photos, de cartes ou de graphiques. Pour mieux mettre en valeur ses sources, le moteur liste également les liens dans un second volet à droite, façon Google. Soigner ses relations avec les médias « Nous sommes convaincus que la recherche par IA sera, dans un avenir proche et pour les prochaines générations, un moyen privilégié d'accès à l'information, et notre partenariat avec OpenAI place 'Le Monde ' à l'avant-garde de cette évolution. Il nous permet de tester les innovations à un stade précoce tout en préservant les valeurs fondamentales et l'intégrité du journalisme », assure Louis Dreyfus, PDG et éditeur du « Monde », dans un communiqué. LIRE AUSSI : Ce qu'implique l'accord entre OpenAI et « Le Monde » DECRYPTAGE - OpenAI : pas d'accord global en vue avec les médias français Le quotidien vespéral est partenaire de la start-up américaine depuis mars 2024 , au sein d'une liste de groupes médias désormais assez longue, comprenant Associated Press, Axel Springer, Condé Nast, le « Financial Times », Hearst, Prisa, Reuters ou encore Vox Media. Cette nouvelle concurrence pour le roi Google, et ses 90 % de parts de marché mondiale dans la recherche en ligne, n'inquiète pas les experts . Pour eux, la firme de Mountain Vieux a non seulement les bonnes armes dans ce domaine. Surtout, elle contrôle les principaux points d'accès au Web, avec le navigateur Chrome et les mobiles Android - un bel avantage compétitif. De son côté, OpenAI propose maintenant une extension Chrome pour faire de ChatGPT Search... son moteur de recherche par défaut.

IA : la troisième étape de la révolution numérique

By |December 2nd, 2024|Categories: Scoop.it|

Jamais produit ne s'était répandu aussi vite. Deux mois après le lancement de ChatGPT, 200 millions de femmes et d'hommes l'avaient testé. Maintenant, deux ans plus tard, un demi-milliard de femmes et d'hommes ont manié ChatGPT ou un autre outil d'intelligence artificielle générative. Cette incroyable accélération n'aurait pas dû nous surprendre. Car c'est la troisième fois qu'elle se produit dans la révolution numérique. A un moment bien précis : celui où une technologie majeure cantonnée à un petit cercle devient grand public. Pression souterraine La première fois, c'était avec l'ordinateur. Apparu dans les années 1940, il a longtemps été utilisé uniquement par des informaticiens dans des laboratoires ou des grandes entreprises. Avec le lancement commercial des micro-ordinateurs en 1977, la machine est passée du bureau à la maison. Avec l'iPhone en 2007, elle a glissé de la maison à la poche. Le parc ne se compte plus en millions mais en milliards. LIRE AUSSI : ANALYSE - ChatGPT, un succès hallucinant ! ChatGPT pousse l'industrie à plonger dans l'intelligence artificielle La deuxième fois, c'était avec Internet. Apparu dans un programme militaire au cours des années 1960, le réseau a d'abord servi seulement à échanger des travaux entre chercheurs. Avec les protocoles du World Wide Web au début des années 1990, il a brutalement basculé dans le grand public, et gonflé au passage une bulle boursière. L'intelligence artificielle, elle, a été lancée comme un slogan publicitaire pour attirer des scientifiques dans un séminaire universitaire sur la cybernétique, en 1956. Elle a progressé souterrainement et par à-coups jusque dans les années 2010, où elle a commencé à se diffuser en entreprise sous la houlette de spécialistes. Le lancement de ChatGPT l'a soudain rendue accessible à tout le monde ou presque. Fuite d'informations précieuses Sauf que ChatGPT et ses cousins sont allés beaucoup plus vite que l'ordinateur et Internet. Car ils ont profité de leurs capacités de calcul colossales et de la transmission instantanée et quasi gratuite de flux d'informations qui a permis d'alimenter d'immenses lacs de données. Les entreprises sont souvent désarçonnées par cette nouvelle intelligence. Les salariés se sont joyeusement emparés de ces outils, au risque parfois de laisser fuiter des informations précieuses pour leur firme. Les dirigeants redoutent des coûts supérieurs aux gains. Ils devront, eux aussi, accélérer. Comme leurs prédécesseurs qui ne voyaient pas à quoi pourrait servir un ordinateur ou Internet dans leur entreprise ; une entreprise où il est aujourd'hui impossible de travailler sans l'un et l'autre. Il ne faut pas s'y tromper : le défi est existentiel.

IA : deux ans après ChatGPT, les limites du « toujours plus »

By |December 2nd, 2024|Categories: Scoop.it|

Plus de données. Plus de paramètres. Plus de puissance de calcul. Appliquée à l'intelligence artificielle, l'approche « toujours plus » a donné ces dernières années des résultats spectaculaires. Elle est à l'origine des grands modèles de langage (LLM, « large language models ») dits « modèles de fondation », comme GPT d'OpenAI, Gemini de Google ou Claude d'Anthropic, qui représentent aujourd'hui le nec plus ultra de l'IA. Mais, deux ans après le lancement de ChatGPT, la course à la taille pourrait marquer le pas. La dernière version majeure du modèle d'OpenAI, GPT-4, remonte à mars 2023. Depuis, son successeur GPT-5 ne cesse d'être retardé, et Sam Altman a reconnu fin octobre, lors d'une session de questions-réponses sur Reddit, qu'il n'arriverait pas cette année. Le patron d'OpenAI explique ce délai par la priorité donnée à des variations du modèle actuel, avec des versions spécialisées dans le raisonnement ou la résolution de problèmes, comme GPT o1, lancé en septembre dernier. « Tous ces modèles sont devenus très complexes, et nous ne pouvons pas lancer autant de choses en même temps que nous le souhaiterions », a-t-il justifié sur Reddit. Des délais qui s'allongent Mais ce n'est probablement pas la seule raison. Selon une enquête du site américain The Information, le délai serait dû avant tout à des performances insuffisantes, notamment pour la génération de code informatique, et à une amélioration globale jugée bien plus faible que le saut qualitatif observé entre GPT-3 (175 milliards de paramètres) et GPT-4 (plus de 1.000 milliards), pour des coûts d'entraînement bien supérieurs. Après plusieurs années de progrès constants, certains experts estiment que les grands modèles arrivent aujourd'hui à un plateau. LIRE AUSSI : ANALYSE - ChatGPT, un succès hallucinant ! RECIT - ChatGPT, deux ans déjà : le roman mouvementé du prophète de l'IA OpenAI n'est pas le seul acteur de l'IA générative confronté à ce phénomène. Dario Amodei, CEO d'Anthropic, a récemment reconnu que la prochaine version majeure de son LLM Claude était repoussée à une date inconnue. Selon Bloomberg, Google ferait face lui aussi à des performances décevantes avec le successeur de Gemini 1.5. Ces retards viennent remettre en question une théorie jusqu'ici très répandue chez les pionniers de l'IA générative, connue sous le nom de « scaling laws » (« lois de passage à l'échelle ») : l'augmentation exponentielle de la puissance de calcul, du nombre de paramètres du modèle, de la durée d'entraînement et de la quantité de données fournies au modèle doit se traduire par une augmentation équivalente des performances. « Les gens parlent de lois, mais ce terme est trompeur, car il s'agit plutôt d'une observation empirique », expliquait mi-octobre Dario Amodei. Des « lois » remises en cause Outre qu'elle entraîne une explosion des besoins de processeurs spécialisés (pour le plus grand bonheur de Nvidia), et donc d'énergie et de capital, la mise en oeuvre des « scaling laws » se heurte à un autre obstacle : le manque de données de qualité pour entraîner les modèles de fondation. La génération précédente de LLM s'était appuyée sur de gigantesques jeux de données publiques et sur la richesse des contenus accessibles sur le Web (textes, mais aussi photos, vidéos, etc.), quitte à les aspirer sans respecter les ayants droit. Or, pour alimenter la prochaine génération, les données produites par des humains ne seraient plus disponibles en quantité suffisante. LIRE AUSSI : ENQUETE - Comment l'IA cherche à éviter le cauchemar énergétique DECRYPTAGE - L'IA est-elle une bulle spéculative ? Certains acteurs, dont OpenAI, tentent d'y répondre en nouant des accords avec des éditeurs pour accéder à des contenus de qualité sans risquer de procès - mais cela nécessite plus de temps et d'argent que de simplement récolter les données sur le Web. En parallèle, il est aussi possible de répondre à la pénurie en entraînant les nouveaux modèles sur des données dites « de synthèse », produites grâce à l'IA générative, mais cela peut se traduire par une dégradation des performances ou une augmentation du temps de vérification. Pour OpenAI et ses concurrents, la course à l'innovation ne se fait donc plus seulement sur la taille du modèle, mais sur ses capacités dans des domaines précis, comme le raisonnement ou la planification de tâches. Le développement des agents d'intelligence artificielle, capables de coordonner et d'automatiser différentes actions, par exemple pour rédiger un rapport ou planifier des voyages, fait partie de cette stratégie. Des modèles plus petits Beaucoup de start-up et d'acteurs de l'open source misent aussi sur des modèles de taille réduite (SLM, « small language models ») et très spécialisés, donc nécessitant moins de ressources, qui peuvent se montrer tout aussi performants que les grands modèles pour des utilisations basiques, comme les résumés de documents, l'analyse d'images ou la reconnaissance vocale. Comme l'expliquait l'an dernier aux « Echos » Clément Delangue, cofondateur de la plateforme de modèles open source Hugging Face : « Des modèles plus petits, donc moins coûteux et plus rapides, peuvent convenir à la plupart des cas d'usage. Si l'on veut développer un chatbot de relation client pour une banque, ce n'est pas nécessaire qu'il sache parler de Shakespeare ou du sens de la vie ! »

Load More Posts