HOSPITALITY LAB & PRACTICE FOR BRANDS

Blog2017-10-23T13:43:48+00:00

GDPR : L’hospitalité des marques fait loi en Europe.

GDPR : L’hospitalité des marques fait loi en Europe.

En imposant aux marques de privilégier l’intérêt de leurs clients dans la gestion des données qu’elles détiennent, l’Europe fait de l’hospitalité le vecteur principal de leur croissance.

1. AUJOURD’HUI, LA CROISSANCE DES MARQUES PASSE PAR LA QUALITÉ DE LEUR RELATION CLIENTS.

Dans un monde digital, « Les Marchés sont des Conversations ».

Dès 1999, Doc Searls et ses co-auteurs avaient mis cette idée au coeur de leur “Clue Train Manifesto” (Manifeste des Evidences) (1), démontrant alors avec brio comment le développement du “capital relationnel” de la marque pouvait devenir le principal moteur de la croissance des entreprises.

L’arrivée des sites internet dans la fin des années 1990 avait eu en effet le mérite de faire prendre conscience qu’il pouvait se nouer une relation directe entre l’entreprise et ses clients, sans passer par un distributeur ; et que ces nouveaux liens produisaient énormément de données qu’il était probablement intéressant d’exploiter : ainsi, pour développer plus loin l’idée du “Clue Train”, lorsqu’il s’agit de générer une croissance durable des ventes et des profits, les meilleurs atouts de la marque sont sa légitimité à susciter des échanges autour de son coeur de métier (Conversation), son intelligence à les analyser (Curation), sa capacité à apporter des réponses adaptées aux besoins exprimés (Customization), et finalement son empathie relationnelle, propre à mettre le client en résonance avec la marque (Communion). Autant d’atouts qui précèdent dorénavant la simple « qualité des produits » mis au catalogue, autrefois le principal fer de lance des entreprises.
Une vision depuis partagée par Interbrand(2), qui dans sa publication annuelle du classement de la valeur des marques insiste sur le fait que “la croissance est la conséquence d’une stratégie claire et d’expériences exceptionnelles délivrées au consommateur”.
Voici donc venu le temps pour les marques soucieuses de croissance durable de passer un nouveau contrat relationnel avec leurs consommateurs, où l’achat et la livraison du produit n’est plus la fin mais le début de la relation : un contrat qui couvre d’abord l’usage, et l’expérience qui l’accompagne. Un contrat qui est aussi l’occasion de proposer de nouveaux moments de consommation, de nouveaux services, qui sont autant de chiffre d’affaires supplémentaire pour les marques. Mais un contrat relationnel d’abord fondé sur le respect de l’intérêt du client, notamment en matière d’utilisation de ses données.

 

2. GDPR : UNE RÉGLEMENTATION POUR SAISIR DE NOUVELLES OPPORTUNITÉS DE CROISSANCE.

Selon une étude récente de la Commission Européenne(3), 72% des Européens s’inquiètent en effet de laisser trop de données personnelles aux entreprises, souvent à leur insu, et surtout de ne pas en recevoir de réelle contrepartie. D’ailleurs, la connaissance plus précise du client semble ne faciliter en rien la capacité de l’entreprise à mieux cibler ses offres : selon tous les indicateurs(4), le taux d’ouverture des mails diminue alors que les désabonnements (opt-out) augmentent, ce qui fragilise largement la rentabilité des investissements lourds consentis dans le CRM.
La Commission souligne également que le marché en ligne est constitué à 57% d’échanges avec des opérateurs américains, alors que seulement 4% des échanges se font au travers d’opérateurs pan-européens. Elle estime que si les 100 plus grosses entreprises Européennes faisaient un usage judicieux de leurs données clients, le PNB Européen pourrait s’octroyer 1,9% de progression supplémentaire d’ici 2020, soit plus de 200 Milliard d’Euros de gain potentiel.
C’est avant tout à cette opportunité de croissance que la GDPR s’attaque : permettre une meilleure utilisation des données pour les entreprises grâce à un consentement avéré des consommateurs, favoriser les échanges intra-européens au sein d’un univers mieux sécurisé. Loin d’être une contrainte, la GDPR est une chance de développement de nouvelles sources de revenus pour les marques européennes : elle conduit à un modèle de croissance durable rendu possible par une approche choisie et non plus subie de la consommation. Avec la GDPR, les marques doivent négocier avec chacun de leurs clients un contrat relationnel : elles doivent se mettre à l’écoute, comprendre les besoins, proposer leurs services, et définir les modalités de la relation ; le tout dans la transparence ( accès aux données, droit de modification) qui établit la confiance, l’attachement. Les marques deviennent alors attachantes dans le bon sens du terme, et c’est de cet attachement que nait la croissance durable.
C’est à ce nouveau modèle relationnel qu’appellait lui-même Doc Searls dans son “Clue Train Manifesto” : il lui avait même trouvé un nom, la VRM (Vendor Relationship Management). Une approche basée sur le consentement avéré du client vis à vis de ses fournisseurs (vendeurs) avec un postulat simple : “un consommateur libre a plus de valeur qu’un consommateur captif – pour lui-même, pour les marques et pour l’économie en général”.
Encore faut-il s’entendre sur la définition du consommateur “libre”. Searls le définit en cinq points :
1. Il entre en relation avec les marques de manière indépendante et sans contrainte.
2. Il est le point d’intégration de sa propre donnée (c’est lui seul qui peut relier sa donnée à sa personne).
3. Il a le contrôle de la donnée qu’il génère et collecte. Il décide de ce qu’il veut partager, à qui et comment.
4. Il définit son propre niveau d’engagement avec les marques.
5. Il est libre d’exprimer ses exigences et ses intentions en dehors du contrôle de toute entreprise.
C’est ce consommateur “libre” que la GDPR souhaite aujourd’hui promouvoir, afin d’en faire le vecteur de croissance de l’économie.

3. L’HOSPITALITE DES MARQUES, PRINCIPAL VECTEUR DE LEUR PROPRE CROISSANCE.

Accueillir un consommateur “libre” est sans doute une perspective qui effraie bon nombre de marques, tant elle ont été construites sur la notion d’un marketing manipulateur et insidieux, capable d’influencer jusqu’aux émotions pour enfermer les clients dans un tunnel de vente dont la seule issue est l’achat du produit. Avec la GDPR, ce n’est plus le produit qu’il va falloir vendre, c’est la marque qui doit apprendre à se faire acheter. Et pour cela, il va falloir qu’elle se montre hospitalière vis à vis de ses clients : bienveillante, humaine et proche.
Le produit devient simplement la porte d’entrée à la marque, celui qui va forger les impressions de la première rencontre, et donc le début (et non la fin) de l’histoire. Le produit n’est plus qu’un prétexte, c’est la marque qui devient le réel support de l’expérience pour le consommateur : c’est d’ailleurs à elle qu’il va naturellement s’adresser s’il a besoin d’assistance ou s’il a simplement des remarques à formuler. À la marque de se montrer engageante, accueillante, généreuse et humaine pour fidéliser le consommateur au-delà du premier produit, et pour entretenir une relation proche, intime, qui permettra de continuer à vendre sans qu’il soit besoin de déployer la coûteuse armada publicitaire du premier jour : avoir une stratégie à long terme d’entretien de la relation, plutôt que de s’épuiser dans des efforts permanents de recrutement.
Autant le “tunnel de vente” était indifférencié et anonyme, donc étranger à toute notion d’hospitalité, autant le “cycle de décision d’achat” est personnalisé et fait appel à la relation humaine : c’est de la capacité de la marque à accueillir que dépend la fidélisation du client, et encore plus, sa propension à devenir activement promoteur vis à vis de ses pairs. Pour le dire différemment, c’est du niveau d’hospitalité de la marque que va découler l’amplitude de la réalisation du cycle d’achat, et donc le montant de la valeur créée.
Autant le “tunnel de vente” s’envisageait dans un temps le plus court possible, avec l’espoir de limiter la durée d’exposition nécessaire pour déclencher l’achat afin de réduire les coûts, autant le “cycle de décision d’achat” s’inscrit dans la durée la plus longue possible afin de maximiser les revenus. En se plaçant dans une notion de permanence, on met forcément en exergue la qualité de l’hospitalité, seule capable de générer de la pérennité dans la relation.
Plus le consommateur progresse avec la marque, plus la marque fait preuve de « disponibilité » vis à vis des demandes du consommateur, plus se crée la confiance dans la relation, le consommateur récupérant de plus en plus de valeur d’usage en retour de sa relation avec la marque, la marque obtenant de plus en plus de “permissions” qui lui permettent d’aller encore plus loin dans son service du consommateur.
C’est bien là le cercle vertueux de l’hospitalité des marques : un marketing “on demand” (inbound marketing), un marketing de l’échange, de la confiance, de la permission, du partage de la valeur, où les clients sont aussi des hôtes ; un marketing qui se définit d’abord par rapport au client pour qu’il puisse adopter lui-même la marque, la faire sienne et en devenir à son tour le porte-parole…
Alors que la GDPR fait des marques le gibier de consommateurs devenus madrés, l’hospitalité est la meilleure réponse pour faire de ces mêmes marques les plus désirables des proies : avec bienveillance, humanité et intimité. Assurant ainsi la pérennité de leur croissance.

4. QUELLES APPROCHES POUR LES MARQUES FACE A LA GDPR ?

Ce serait peine perdue pour les marques que de se contenter de « mettre en conformité » leur bases de données tout en espérant garder les mêmes pratiques relationnelles. Car la GDPR est d’abord une invitation à renverser ses pratiques relationnelles pour faire montre d’hospitalité vis à vis de ses clients ; et c’est ce renversement d’attitude qui est lui même porteur de croissance pour les marques. Avec la GDPR, l’hospitalité ouvre pour les marques de nouvelles perspectives de croissance.
Une étude publiée en Mai dernier par le gouvernement Britannique4 s’était alarmée sur le fait que seulement 30% des grandes entreprises du pays avaient commencé à prendre les mesures nécessaires à la mise en conformité de leurs pratiques d’utilisation des données, alors que la transcription dans la loi Britannique vient d’être réalisée en ce mois d’Août, et qu’elle survivra au Brexit. Les autres pays feront-ils preuve de la même insouciance, par rapport à une échéance qui dans la plupart des pays européens, a été fixée à Mai 2018 ?
La GDPR transforme radicalement la manière dont les entreprises utilisent les données. Il va falloir arrêter d’acheter des listes d’adresses, et même se débarasser des listes qu’on aura pu acheter auparavant. Contacter un client exigera d’avoir les permissions nécessaires, sauf à s’exposer à des amendes prévues pour atteindre jusqu’à 4% du chiffre d’affaires.
Il n’y aura donc pas d’échappatoires.
Mais n’est-ce pas justement l’opportunité d’une prise de conscience salutaire dans le futur de la relation client ? Quelle marque aujourd’hui a encore besoin d’avoir accès à des millions de noms dont simplement un infime pourcentage montre un intérêt pour ses propositions ? Ne vaudrait-il pas mieux établir une véritable relation avec moins de clients mais qui ont un véritabe intérêt à avoir un dialogue, un échange, une conversation avec la marque ?
N’est-il pas temps, tout simplement, que les marques apprennent à devenir hospitalières vis à vis de leurs clients ?
Et si la GDPR n’était qu’un manifeste pour l’hospitalité des marques ? Une manière de sauver les marques traditionnelles à l’heure du digital ? La dernière opportunité à saisir avant liquidation ou reprise par les acteurs de la nouvelle économie ?
En développant leur hospitalité pour se mettre en conformité avec la GDPR, ce n’est pas tant l’amende que les marques vont éviter, c’est leur futur qu’elle vont assurer.
Aucune raison d’attendre. Embrassons la GDPR en développant l’hospitalité des marques (5).

 

 

(1) Le Cluetrain Manifesto (Manifeste des évidences) est un texte rédigé par Rick Levine, Christopher Locke, Doc Searls, et David Weinberger. Il est d’abord diffusé sur le web en 1999 comme un ensemble de quatre-vingt-quinze thèses, puis est publié sous forme de livre en 2000 avec les thèses prolongées de sept essais. https://www.amazon.com/Cluetrain-Manifesto-End-Business-Usual/dp/0738204315
(2) Etude 2016 Interbrand : http://interbrand.com/best-brands/best-global-brands/2016/
(3) Etude de la Commission Européenne : https://ec.europa.eu/commission/publications/why-we-need-digital-single-market_en
(4) Citée par Tanya Joseph dans le magazine Marketing Week (UK) du 7 Août 2017, New data laws are a chance to reset customer relationships : https://www.marketingweek.com/2017/08/07/tanya-joseph-data-law/
(5) Cf, “Manifeste pour l’Hospitalité des Marques”, Georges-Edouard DIAS, Edition Netexplo : https://www.amazon.fr/dp/2954667230/

Cession de Chrome : le gouvernement américain ne cache plus sa volonté de démanteler Google

By |November 21st, 2024|Categories: Scoop.it|

Cette fois-ci ce n'est plus une simple rumeur ou spéculation. Le gouvernement américain vient de demander officiellement en justice un démantèlement de Google. Et notamment de céder son navigateur Chrome. Dans un document judiciaire, le ministère de la Justice (DOJ) réclame une scission des activités de la filiale du groupe Alphabet, interdisant également à Google de signer des accords avec les constructeurs pour imposer l'utilisation par défaut de son moteur de recherche sur les smartphones. Une audition spéciale en avril prochain Si la justice suit cette demande, ce serait alors une sanction historique pour le géant technologique qui a déjà été épinglé par le passé pour ses pratiques anticoncurrentielles. De fait, même si les intentions du futur gouvernement de Donald Trump à ce sujet restent inconnues, cette requête marque un changement profond de la part des autorités américaines de la concurrence. Puisqu'elles ont essentiellement laissé tranquilles les géants des technologies depuis leur échec à démanteler Microsoft il y a une vingtaine d'années. Le ministère de la Justice veut que Google se sépare de Chrome, le navigateur Internet le plus utilisé au monde, parce qu'il constitue un point d'accès majeur au moteur de recherche, sapant ainsi les chances de potentiels concurrents. Selon le site StatCounter, Google pesait, en septembre, 90 % du marché mondial de la recherche en ligne et même 94 % sur les smartphones. LIRE AUSSI : DECRYPTAGE - Procès Google : les mesures potentielles pour mettre fin au monopole DECRYPTAGE - Google, Microsoft : les derniers combats de l'antitrust américain avant l'arrivée de Trump « Le comportement illégal de Google a privé ses concurrents non seulement de canaux de distribution essentiels, mais aussi de partenaires de distribution qui pourraient autrement leur permettre d'entrer sur ces marchés par des moyens nouveaux et innovants » indique notamment le DOJ. Après avoir reçu la requête officielle des autorités mercredi, le juge attend désormais les propositions de Google le mois prochain avant d'entendre les deux parties lors d'une audition spéciale prévue en avril. Mais si le juge retient les propositions des autorités, celles-ci pourraient remodeler le marché de la recherche en ligne. L'inconnue liée à l'arrivée de Trump à la Maison-Blanche Mais les changements, s'ils ont lieu, prendront sans doute des années, Google ayant prévu de faire appel et dénonçant l'hypothèse d'un démantèlement comme « radicale ». L'affaire risque de finir entre les mains de la Cour suprême et reste suspendue à l'arrivée au pouvoir en janvier de Donald Trump. LIRE AUSSI : Après la victoire de Trump, les espoirs et les craintes de la Big Tech ENQUETE - Présidentielle américaine : l'avenir incertain de Lina Khan, icône de l'antitrust Le milliardaire républicain va placer une nouvelle équipe à la tête des autorités de la concurrence et a soufflé le chaud et le froid sur ses intentions concernant la puissance des géants technologiques. Il a nommé, pour diriger le régulateur américain des télécoms, la FCC, Brendan Carr , qui veut « démanteler le cartel de la censure » imposé selon lui par les géants de la tech que sont Facebook, Google, Apple ou encore Microsoft. Mais le président élu a aussi signalé qu'un démantèlement serait excessif.

Google Maps lance la recherche par photo –

By |November 20th, 2024|Categories: Scoop.it|

Google Maps s’inspire d’Instagram et Snapchat pour lancer une nouvelle fonctionnalité : la recherche locale par photo. Désormais, les utilisateurs peuvent trouver des produits ou des lieux en parcourant un carrousel d’images, facilitant la prise de décision. Google Maps lance une nouvelle fonctionnalité : la recherche locale par photo. Il est désormais possible de chercher des produits spécifiques en fonction des photos publiées par d’autres utilisateurs (on parle alors d’UGC, de contenu créé par l’utilisateur). Si un touriste cherche un lieu pour manger une pizza par exemple, il pourra parcourir le carrousel pour sélectionner celle qui lui donne le plus envie. Il accèdera ainsi à l’itinéraire pour se rendre dans le restaurant en question. Le processus de recherche est le même si l’on cherche un musée à visiter par exemple. Une fonctionnalité inspirée des réseaux sociaux Avec cette nouvelle fonctionnalité, Google Maps s’appuie sur une interface visuelle inspirée des réseaux sociaux comme Snapmap ou Insta Map. Sur Instagram, la recherche se fait avant tout via les photos postées par les utilisateurs de l’application. Google s’aligne donc sur ces usages afin de rendre la recherche plus inspirationnelle et immersive. « Google passe d’une approche par activité à une approche par produit. Cela s’inscrit dans sa volonté de créer un Internet visuel dans lequel on interagit avec l’image plus qu’avec le texte« , explique Thibault Renouf, CEO de Partoo. Un enjeu stratégique pour les professionnels Pour les restaurants et les acteurs touristiques, cette nouvelle fonctionnalité met en lumière l’importance de soigner sa présence en ligne et notamment les photos de sa page Google. Or, la plupart d’entre elles sont ajoutées par des utilisateurs et non pas par les professionnels eux-mêmes. Selon Thibault Renouf cela est dû à un détail technique : « Aujourd’hui, il n’est pas possible d’ajouter une photo dans sa page Google via mobile. Les photos doivent être téléchargées sur ordinateur », détaille-t-il. Il faut donc que le professionnel opère un transfert, ce qui n’est pas très pratique. « Sauf si vous passez par notre application mobile qui est directement connecté à Google par une API », conclut le CEO de Partoo.

Dogecoin (DOGE), le retour en fanfare de la crypto fétiche d’Elon Musk

By |November 20th, 2024|Categories: Scoop.it|

Sur les cryptos, la bouffonnerie rapporte plus que jamais. Le dogecoin (DOGE), conçu à l'origine comme une plaisanterie , a encore fait tache d'huile. La crypto, au 6e rang mondial (soit 59 milliards de dollars), a fait parler d'elle grâce à son autoproclamé parrain, Elon Musk, qui a fait son entrée dans l'équipe de Trump à la Maison-Blanche. Il a fait bondir, cette fois involontairement, le cours de la crypto dont l'acronyme (DOGE) est le même que celui de l'agence dont il a désormais la charge. Son Department of Government Efficiency (DOGE) est chargé de tailler dans les dépenses. Le thème de l'Etat tentaculaire et inefficace est très porteur dans le monde des cryptos, qui se voit comme une alternative décentralisée. L'annonce de la création du DOGE, mardi, a provoqué une envolée des recherches sur le dogecoin sur Google. Elles ont été multipliées par 8 en 24 heures selon le site cases.gg. Les spéculateurs et les algorithmes de trading ont pris le relais en constatant ce regain d'intérêt et en achetant massivement la crypto. Son cours a bondi de 25 % en quelques heures à 0,4355 dollar et n'a que modérément baissé depuis. Cette envolée a entraîné un bond de 8 % d'une autre crypto à la tête de chien, le Shiba Inu (SHIB) , pourtant sans aucun lien avec le dogecoin. Elon Musk a totalement assumé ce « crypto gag » et cette confusion chaotique. Le lendemain, il jubilait sur son réseau X en publiant un dessin ressemblant à la mascotte du dogecoin posant fièrement sous l'enseigne du nouveau département à l'efficacité gouvernementale. LIRE AUSSI : DECRYPTAGE - Comment Elon Musk a usé de Twitter pour manipuler les cryptos A 0,37 dollar lundi, le dogecoin, est coutumier de ces montagnes russes. Avec un gain de 315 % cette année, elle est la plus performante des 15 premières cryptos. C'est aussi la troisième crypto la plus volatile. Son cours a évolué dans son histoire entre 0,000085 et 0,73 dollar (record en mai 2021). Il n'a pas encore établi de nouveau record, à la différence du bitcoin, qui lorgne les 100.000 dollars cette année. L'envolée de la crypto parodique peut être le signe que le marché, en manque d'idées d'investissement nouvelles, est mûr pour une correction après son ascension électorale parabolique. Elle serait aussi la manifestation de l'immaturité et de l'inefficience de pans entiers du marché des cryptos qui continuent d'évoluer selon les lois de la société du spectacle . La crypto la plus performante du Top 15 Populaire sur les réseaux sociaux et chez les influenceurs , utilisée dans le monde des jeux virtuels, la crypto fait régulièrement partie du Top 10 ou du Top 20 des cryptos. Une prouesse dans un marché où le taux de mortalité est élevé. Madoff du dogecoin La crypto à l'effigie de chien est-elle la meilleure amie de l'homme, ou du moins du spéculateur ? La plus inflationniste des cryptos (offre illimitée) est en tout cas bien plus performante que la plus austère d'entre elles, le bitcoin à l'offre limitée (21 millions d'unités). Sur les 5 dernières années (2020-novembre 2024), son cours a été multiplié par 200 alors que celui de la leader des cryptos a été multiplié par 12. En 2022, Elon Musk a été accusé d'avoir manipulé le cours de la crypto. Un reproche fantaisiste selon la justice.Bloomberg Cette année, un juge avait débouté un plaignant qui réclamait pas moins de 258 milliards de dollars à Elon Musk pour manipulation du cours de la crypto. Le dirigeant de Tesla était accusé d'être le Madoff du dogecoin , un reproche fantaisiste et non fondé selon la justice. Pour elle, Elon Musk n'a pas spéculé sur la crypto pour en retirer un avantage financier au détriment des particuliers. L'homme d'affaires ne prend pas beaucoup de risques en s'amusant avec la crypto. Il aurait eu affaire depuis longtemps au régulateur des marchés américains, la Securities and Exchange Commission (SEC) s'il avait agi de même sur une action, comme Tesla.

La nouvelle tarification des transports franciliens sera appliquée le 1er janvier 2025

By |November 20th, 2024|Categories: Scoop.it|

La nouvelle tarification des transports en Ile-de-France prendra effet au 1er janvier 2025. Les voyageurs occasionnels bénéficieront de deux titres uniques. Un titre spécial sera néanmoins nécessaire pour accéder aux aéroports. Annoncée en septembre dernier, la nouvelle tarification a été votée par le Conseil d’administration le 12 novembre. Selon IDF Mobilités, dès le 1er janvier 2025, les voyageurs occasionnels n’auront plus que deux titres de transport pour leurs déplacements et le service Navigo Liberté + sera généralisé à l’ensemble de l’Ile-de-France. Après le dézonage du Pass Navigo en 2016, cette révolution tarifaire comprend deux offres : un ticket Métro-Train-RER à 2,50 euros, valable sur toutes les lignes du réseau ferré, hors Orlyval et un ticket de Bus-Tram à 2 euros, valable sur toutes les lignes de tramway, bus (hors Orlybus et Roissybus), cars, Noctilien, bus longues distance, et transports à la demande.  > A lire aussi : La ligne 14 relie désormais le centre de Paris à Orly en 25 minutes  Ces deux titres sont sans limite de distance, peu importe la gare de départ ou d’arrivée (du moment qu’elle est en Île-de-France) et la ligne empruntée. Elles permettent des correspondances Métro-Train-RER jusqu’à 2 heures après la première validation, et jusqu’à 1h30 pour le Bus-Tram (hors interruption et aller-retour pour ce dernier).  Un titre spécifique pour les aéroports franciliens En parallèle, un titre permettra de se rendre aux aéroports, le Ticket Paris Région Aéroports, quel que soit le point de départ par les modes Métro train, RER et Orlyval au tarif de 13€. Le service Navigo Liberté + sera également disponible pour l’ensemble du réseau francilien (hors Orlyval). IDF Mobilités précise que pour les abonnés Navigo annuel, mensuel ou hebdomadaire, aucun changement n’est à prévoir.

Rouen va accueillir sa première navette logistique urbaine fluviale

By |November 20th, 2024|Categories: Scoop.it|

La décarbonation du transport des marchandises est en marche. A Rouen, sur les quais de Seine, au pied du pont Guillaume-le-Conquérant, un nouvel acteur fluvial prépare sa venue. En contrebas du centre-ville, la société Urban Logistic Solutions (ULS), créée en 2022 et installée à Strasbourg, a été désignée pour y développer son projet de logistique urbaine fluvio-cyclable. « C'est tout l'enjeu de la logistique du dernier kilomètre, devenu pour les villes un point noir. Face aux camions, le bateau est le meilleur moyen d'arriver dans l'hypercentre, surtout si l'on y ajoute les vélos-cargos électriques pour livrer particuliers, magasins ou restaurants. C'est un nouveau modèle de supply chain », plaide Thomas Castan, le président-fondateur d'ULS. Une plateforme de dégroupage de 1.200 m2 pour commencer, située dans la métropole à moins de 30 minutes de navigation du quai Guillaume-le-Conquérant, réceptionnera les marchandises avant de les transformer en colis et de les disposer sur une navette fluviale équipée d'une grue autodéchargeante. Une fois arrivés sur l'aire de distribution urbaine, les colis seront acheminés à vélos électriques. Les premiers colis devraient voyager sur la Seine en 2025. Réduire la pollution Comme 33 autres sites, celui de Rouen s'inscrit dans le cadre d'un appel à manifestation d'intérêt pour le déploiement d'une telle logistique sur l'axe Seine, lancé en 2022 par les métropoles du Grand Paris et de Rouen Normandie, la Ville de Paris, Le Havre Seine Métropole, Voies navigables de France et Haropa. LIRE AUSSI : Du Havre à Paris, l'axe de la Seine fait affluer les projets industriels « C'est une première pour la métropole. Nous souhaitons donner du sens aux déplacements et au transport, notamment fluvial. Ce dernier, en lui accordant une place plus importante, présente plusieurs avantages majeurs comme minimiser les coûts sociaux du transport et réduire la pollution atmosphérique et la congestion des routes dues au transport de marchandises », se félicite Hugo Langlois, délégué à la gestion de la Seine à la métropole de Rouen, dont la participation financière s'élève à 400.000 euros (40 % du coût du projet). ULS, qui a réalisé un chiffre d'affaires de 1,3 million d'euros en 2023 et compte 57 salariés, a fait ses preuves sur les canaux de Strasbourg (avec 260.000 livraisons en 2022-2023) puis de Lyon, avant de séduire d'autres villes. Outre Rouen, une vingtaine de communes, dont Paris et Mulhouse, s'apprêtent à retenir la solution de la logistique urbaine fluviale et décarbonée. L'Allemagne, les Pays-Bas, la Belgique ou le Royaume-Uni regardent aussi de près sa solution, qui est « globalisée, industrialisée et intégrée », souligne le fondateur d'ULS, qui espère conclure une levée de fonds de 10 millions d'euros « pour nous accompagner sur notre développement en France et en Europe ».

Akamai, l’indispensable géant du Web que personne ne connaît

By |November 20th, 2024|Categories: Scoop.it|

C'est un peu comme si l'on arpentait quotidiennement les rayons d'un immense magasin sans jamais avoir entendu son nom. Ou plutôt : c'est comme si cet immense magasin habillait chacun de ses rayons aux couleurs de Carrefour, Ikea ou Decathlon, nous laissant dans l'ignorance du propriétaire des lieux. Rarement décalage aura été aussi perceptible entre la taille d'une entreprise et sa notoriété auprès du grand public. Akamai ? Il faut tomber sur le dernier rapport de l'autorité de régulation des télécommunications (Arcep) pour prendre la mesure de ce mastodonte. Sans grande surprise, on y apprend que Netflix est le premier utilisateur de bande passante sur Internet en France, avec 15,3 % du trafic. Mais en deuxième position, devant Google, Meta et Amazon, figure Akamai, avec 12,3 %. « Nous sommes le plus gros diffuseur de trafic Internet au monde », affirme même Jérôme Renoux, directeur général d'Akamai France. Qu'un internaute consulte le « New York Times », TF1 ou France Télévision, qu'il réserve un logement sur Airbnb, il y a de fortes chances pour qu'il soit en train d'interagir, sans le savoir, avec les serveurs d'Akamai. La probabilité en est encore plus élevée lorsqu'il suit en direct un événement faisant l'objet d'une forte audience mondiale. « Pendant la Coupe du monde de football ou la cérémonie d'ouverture des Jeux Olympiques, nos services ont permis d'assurer une diffusion sans faille tout en faisant face aux cyberattaques, massives », explique Jérôme Renoux. Diffuser en direct un contenu pour des centaines de millions de gens nécessite une infrastructure numérique hors de portée des médias traditionnels. Risque de saturation du réseau La plupart des clients d'Akamai gardent secret leur partenariat. Mais « si un e-commerçant tient le choc pendant le rush qui précède Noël, c'est souvent grâce à Akamai », résume Fatima Boolani, codirectrice de la recherche sur le secteur des entreprises de logiciel chez Citi. Car, veut croire Jérôme Renoux, « avec 350.000 serveurs, nous pouvons évidemment avoir des problèmes techniques, mais un black-out total de notre plateforme est impossible ». La plupart des clients d'Akamai gardent secret leur partenariat. Mais « si un e-commerçant tient le choc pendant le rush qui précède Noël, c'est souvent grâce à Akamai ».DR Il n'empêche : les quelque 20.000 sites qui, en juillet 2021, ont connu des difficultés allant jusqu'à la panne à la suite d'une mise à jour chez Akamai savent que la toute-puissance de la société américaine peut aussi avoir son revers de médaille. Ce jour-là, les problèmes ont concerné notamment BNP Paribas, Canal Plus, la FNAC ou encore, à l'étranger, British Airways, UPS, Oracle ou Amazon. LIRE AUSSI : L'autorité de la concurrence va mettre le secteur du cloud sous haute surveillance L'histoire du plus invisible des géants du Net, qui commence en 1995, témoigne de la façon dont une technologie pensée en Europe a pris son envol de l'autre côté de l'Atlantique. Cette année-là, celui qui est considéré comme le père du Web mondial, le Britannique Tim Berners-Lee lance un défi à ses collègues du Massachusetts Institute of Technology (MIT), à Boston : l'équipe qui trouvera les moyens de repenser l'acheminement des données sur Internet et de diminuer ainsi les risques d'engorgement remportera 50.000 dollars pour amorcer un projet entrepreneurial. Si Tim Berners-Lee voit se profiler un risque de saturation du réseau mondial, c'est que celui-ci est en plein essor, et que son armature, bâtie dans une forme d'anarchie, va bientôt être submergée. « Jusqu'au début des années 1990, les flux qui circulent sur Internet sont relativement modestes, et le réseau ne subit pas de grosse pression », rappelle Pascal Griset, professeur à Sorbonne Université et spécialiste de l'histoire de l'innovation. Mais, précise-t-il, une triple révolution va changer la donne dans la dernière décennie du millénaire : « la demande se met à exploser avec le développement du Web et des services commerciaux qui y sont associés, la montée en puissance de l'ordinateur personnel et le développement de la fibre optique qui vient démultiplier les possibilités de trafic par rapport au cuivre ». Francesca Musiani, directrice de recherches au Centre Internet et Société du CNRS, confirme : « Akamai est intervenu à un moment où la congestion et la mauvaise qualité de l'acheminement des données sur les réseaux se traduisaient par un ralentissement du trafic. » Akamai est particulièrement sollicité pour les événements retransmis en direct faisant l'objet d'une forte audience mondiale.Shutterstock Au MIT, un jeune professeur de mathématiques appliquées, Tom Leighton, crée une équipe de recherche pour résoudre le problème posé par Tim Berners-Lee. Ce spécialiste des algorithmes est rapidement rejoint par un autre mathématicien, Daniel Lewin. En s'appuyant sur le travail de leur équipe du MIT, ils mettent au point une technologie qui va révolutionner Internet : le CDN, pour « content delivery network ». Elle repose sur deux idées clés. D'une part, il s'agit de dupliquer les contenus numériques des entreprises clientes d'Akamai sur de multiples serveurs dans le monde afin de réduire drastiquement la distance entre chaque internaute et l'information qu'il va chercher - tout en soulageant les serveurs du client d'Akamai. Et d‘autre part, un calcul informatique se charge d'optimiser, en permanence, la façon dont les données de ce maillage sont sollicitées et acheminées. « C'est cette technologie que nous avons toujours protégée et qui constitue notre trésor de guerre », résume Jérôme Renoux. Course de vitesse La mécanique entrepreneuriale américaine se met en route : un nom habilement trouvé (Akamai signifie « intelligent » en hawaïen), des financements généreux et une équipe qui se forme « en mobilisant tout un réseau de compétences démontrant la puissance du tissu industriel américain », estime Pascal Griset. Celui-ci pointe également « l'écosystème porteur qui se développe alors aux Etats-Unis, cet humus qui fait défaut en Europe ». Le premier client d'Akamai, en 1999, sera un certain Yahoo !. LIRE AUSSI : Cybersécurité : la surveillance du gendarme financier bientôt étendue à des acteurs de la tech La suite est une course de vitesse. Grandir rapidement est doublement stratégique. D'abord parce que la multiplication des serveurs permet de rapprocher l'utilisateur de la donnée qu'il consulte - un enjeu toujours plus important, comme en témoigne aujourd'hui la très faible latence requise dans le jeu vidéo en ligne. Mais aussi, ajoute Jérôme Renoux, parce que l'algorithme d'Akamai permet à ces serveurs « de communiquer entre eux et de dresser en permanence une météo du web mondial en temps réel ». Plus la toile d'Akamai s'étend sur celle du Web, plus la société affine sa vue d'ensemble de l'architecture du réseau mondial et sa capacité à optimiser le transit des données d'un point à l'autre. Akamai va donc frapper à la porte de la plupart des opérateurs de télécommunications de la planète et revendique aujourd'hui 4.200 implantations géographiques dans le monde ainsi qu'une interconnexion avec plus de 1.400 réseaux d'opérateurs. Avec ses 350.000 serveurs, Akamai dispose d'une force de frappe avec peu d'équivalents.Wendy Sue Lamm/Contrasto-rea Sur ce chemin, difficile de ne pas mentionner la sombre date du 11 septembre 2001. Triste paradoxe : ce jour-là fut une tragédie chez Akamai en même temps qu'une première démonstration de force pour la société. Victime des terroristes, Daniel Lewin périt dans l'avion qui s'écrase sur le Pentagone. Au même moment, rappelle Jérôme Renoux, « la plupart des grands médias américains, trop sollicités, n'ont pas réussi à maintenir leur diffusion, tandis que CNN continuait d'assurer ses services au niveau mondial, grâce à Akamai ». Forte de son maillage sans équivalent dans le monde, Akamai est devenu incontournable à mesure que la quantité de données transférées autour de la planète explosait, que l'usage de la vidéo se banalisait et que les smartphones rendaient l'internet accessible à la poche de milliards d'êtres humains. « Dans les couches plus basses de l'infrastructure Internet, il y a des acteurs tout aussi dominants que Google », commente Francesca Musiani. Aujourd'hui, la société affirme être prestataire « des 10 plus grandes sociétés de streaming vidéo, des 10 plus grandes entreprises de jeux vidéo, des 10 plus grandes banques, des 10 plus grandes entreprises de logiciels ». Jérôme Renoux estime que sa société assure plus de 60 % du marché mondial du CDN, même si « la Chine fausse un peu la donne », étant largement en marge du reste du Web mondial. Ils gèrent autour de 20 % de l'Internet mondial mais ils n'ont pas de véritable capacité de fixation des prix, ce qui les distingue d'un monopole. Fatima Boolani Analyste chez Citi Bien sûr, des concurrents comme Cloudflare, Fastly, Limelight, ou Edgecast sont apparus, « parfois financés par des entreprises de télécommunications agacées de voir le savoir-faire d'Akamai se développer sur la base d'une infrastructure qu'elles-mêmes fournissaient », analyse Fatima Boolani. Mais, note le consultant en cybersécurité Allan Kinic, « aucun de leurs concurrents ne s'approche de leur taille et toute société qui voudrait se lancer sur le même marché aujourd'hui aurait intérêt à avoir les reins extrêmement solides ». Car en plus des investissements colossaux qui seraient nécessaires pour concurrencer une entreprise valorisée autour de 15 milliards de dollars, le marché du CDN n'est plus ce qu'il était. Après l'explosion du trafic au moment du Covid, s'est produit un affaissement de la croissance. En outre, « c'est en quelque sorte devenu un marché de matière première, avec un prix du gigaoctet qui n'a cessé de diminuer à mesure que le volume de données augmentait », résume Fatima Boolani. Malgré sa position dominante, Akamai n'a pas échappé à cette pression sur les prix. « Ils gèrent autour de 20 % de l'Internet mondial mais ils n'ont pas de véritable capacité de fixation des prix, ce qui les distingue d'un monopole », poursuit l'analyste chez Citi. LIRE AUSSI : Informatique : dans le « nuage d'or » du cloud, le vent souffle moins fort « Nous avons senti le vent tourner et nous avons effectué des mouvements assez radicaux », assure Jérôme Renoux. Depuis quelques années déjà, le groupe s'est fixé un nouvel objectif : capitaliser sur son métier historique pour diversifier ses savoir-faire. Le premier axe, amorcé il y a une dizaine d'années, porte sur la cybersécurité, tandis que le second concerne le « cloud computing », consistant à proposer aux clients d'effectuer des opérations de calcul informatique dans des serveurs situés à distance - mais au plus près des besoins. Petit Poucet La méthode a consisté, essentiellement, à acquérir des sociétés expertes dans ces domaines. Rachat, en 2014, de Prolexic, leader de la protection contre les très fréquentes cyberattaques de « déni de service distribué », pour 370 millions de dollars. Acquisition, en 2021, du spécialiste du cloud Linode pour 900 millions de dollars. Prise de contrôle de Guardicore, en 2022, pour 600 millions - cette fois dans le but de renforcer les compétences en cybersécurité. Un objectif également poursuivi en mettant la main sur Noname, cette année, pour 450 millions. Le virage est pris : « sur 3,8 milliards de dollars de chiffre d'affaires, plus de la moitié proviennent aujourd'hui du cloud et de la cybersécurité », explique Jérôme Renoux. Alors que, rappelle Fatima Boolani, « le CDN représentait 72 % de leur activité en 2019, et probablement près de 90 % il y a dix ans ». Reste à pérenniser ce nouveau modèle économique. En tenant le rôle, cette fois, du petit poucet face à des géants du cloud qui s'appellent Amazon , Microsoft et Google.

EDF, Flamanville : l’entretien testament du gendarme du nucléaire après un mandat « renversant »

By |November 20th, 2024|Categories: Scoop.it|

Son mandat à la tête de l'Autorité de sûreté nucléaire (ASN) aura été « renversant », selon ses propres mots. Avant de passer la main ce mercredi à Pierre-Marie Abadie, qui dirigeait jusqu'ici l'Agence nationale pour la gestion des déchets radioactifs (Andra), Bernard Doroszczuk se livre. Arrivé à la tête de l'Autorité de sûreté en 2018, il a vu la culture de l'atome redevenir centrale dans la politique énergétique française, ces dernières années. A la suite notamment des bouleversements de la crise énergétique engendrée par la guerre en Ukraine et à la mise à l'arrêt forcée de nombreux réacteurs d'EDF du fait de fissures (corrosion sous contrainte). Plus de 40 événements de sûreté à Flamanville Si cette décision a été prise par EDF et validée par l'ASN, rappelle Bernard Doroszczuk, pour lui, « la plus difficile » à prendre a été celle de juin 2019, lorsque l'ASN a demandé à EDF de réparer les fissures de traversée de l'enceinte de l'EPR de Flamanville, le premier réacteur construit en France depuis deux décennies. « Ce n'était pas la proposition d'EDF », rappelle le nouveau retraité, âgé de 67 ans. Et cela a engendré de nouveaux retards et surcoûts. LIRE AUSSI : EPR de Flamanville : retour sur un programme maudit Nucléaire : le petit réacteur du groupe Gorgé lance son homologation en France Alors que l'EPR a enfin été mis en service, il y a deux mois, l'ASN reste vigilante. « Il y a un nombre d'événements significatifs pour la sûreté qui est assez important, plus qu'une quarantaine depuis la divergence du réacteur », indique le président sortant de l'ASN. Le phénomène étant « attendu », « pour l'instant, on ne peut pas dire que nous sommes inquiets », affirme-t-il, mais « il y a plus d'événements que ce qu'on pensait », et un « certain nombre » sont liés à des « erreurs humaines ». La majorité des événements sont classés au niveau 0 sur l'échelle de l'ASN, donc sans importance du point de vue de la sûreté, et 14 relèvent d'une « anomalie » de niveau 1, précise l'Autorité. Alors que Flamanville tourne à 10 % de sa puissance pour le moment, « nous souhaitons qu'EDF vienne expliquer en audition au collège de l'ASN, au début de l'année prochaine, son retour d'expérience de cette montée en puissance », indique Bernard Doroszczuk. EDF pointe de son côté que l'EPR « nécessite une appropriation » et que les événements « de niveau 0 et 1 sont des anomalies sans impact réel sur la sûreté des installations ». Un potentiel angle mort La centrale de Flamanville devrait être connectée au réseau électrique avant la fin de l'automne, puis mise à l'arrêt dans un peu plus d'un an pour remplacer son couvercle. Défectueux dès l'origine, il deviendra un déchet nucléaire d'ampleur. LIRE AUSSI : EDF investit dans une usine pilote pour déconstruire ses vieux réacteurs La gestion de l'ensemble des déchets nucléaires semble d'ailleurs un potentiel angle mort de la nouvelle politique énergétique de la France. Bernard Doroszczuk pointe « un certain nombre de catégories de déchets pour lesquels il n'existe pas encore de politique sûre de gestion ». Par exemple, les déchets de faible activité mais à vie longue des réacteurs toujours en attente de démantèlement à Chinon, Saint-Laurent et au Bugey. Son successeur, Pierre-Marie Abadie, s'est déporté de ces sujets pour éviter tout conflit d'intérêts avec ses fonctions passées à l'Andra. Cela « n'empêchera pas l'ASN de prendre des décisions fortes » en la matière, assure son prédécesseur. La question des déchets est aussi capitale dans les réflexions en cours sur la faisabilité technique et l'acceptation sociale des futurs réacteurs. Autre grand défi de l'Autorité, selon son président sortant : la « fragilité des installations du cycle du combustible ». Une situation illustrée par la saturation du site de retraitement d'Orano à La Hague et sa dépendance au bon fonctionnement de l'usine de recyclage Orano Melox. Enfin, l'adaptation des centrales au réchauffement climatique est au coeur du réexamen, par l'ASN, des réacteurs de 900 MW d'EDF. Le possible allongement de leur durée de vie pose aussi des questions sur le partage futur de l'eau, avec les autres usagers.

Face à des IA trop humaines, le défi de l’identification

By |November 20th, 2024|Categories: Scoop.it|

« Blade Runner », le film culte de Ridley Scott sorti en 1982, comporte un test de Turing qui tourne mal : Leon Kowalski, l'androïde sur la sellette, assassine le policier qui tente de déterminer s'il est un humain ou un robot en l'interrogeant et en scrutant son iris. Quarante-deux ans plus tard, « il est devenu impossible de distinguer à l'oeil ou à l'oreille les contenus générés par certaines Intelligences Artificielles », s'inquiète Erwan Le Merrer, chercheur au sein de l'équipe Artishau (ARTificial Intelligence, Security, trutHfulness and Audit) d'Inria, à Rennes. « Certaines IA ont déjà passé mieux que des humains les tests de Turing, y compris les Captchas, utilisés sur Internet pour vérifier qu'un visiteur n'est pas un robot », ajoute Steven Smith, vice-président ingénierie chez TFH (Tools for Humanity), une entreprise de San Francisco qui propose une technologie permettant de s'assurer que la personne avec qui l'on discute sur Telegram ou Zoom n'est pas un bot : il suffit de se faire enregistrer comme humain auprès de TFH en faisant photographier son iris par l'Orb, sorte de gros oeil mécanique et bourré d'IA. L'objet est déjà programmé pour repérer les robots. L'ombre de Sam Altman Cynisme ? Intuition de ce que sera notre avenir ? Un des deux cofondateurs de TFH n'est autre que Sam Altman, également patron d'OpenAI, l'éditeur de ChatGPT. Cette GenAI (Intelligence Artificielle générative) qui fêtera ses deux ans à la fin du mois est à l'origine du grand carnaval actuel, où l'on ne peut plus distinguer un humain d'une IA. LIRE AUSSI : Les chiffres affolants d'OpenAI, la star de l'IA générative CHRONIQUE - IA : il faut protéger les enfants des chatbots « Les bots, ces logiciels qui se font passer pour des humains, représentent entre 50 et 60 % du trafic sur Internet », rappelle Christophe Lebrun, data scientist et adjoint scientifique à la Haute Ecole de Gestion de Genève où il s'occupe, entre autres, de plagiat (voir encadré). Sur le site de Harvard, Latanya Sweeney, professeur dans cette université, estime qu'à l'avenir, sur Internet « 90 % du contenu ne sera plus généré par des humains mais par des robots. » Déjà, la start-up américaine NewsGuard a identifié plus de 1.110 sites d'information, y compris en français, non fiables car entièrement rédigés par une IA. « Si nous ne faisons rien, les activités malveillantes permises par l'IA risquent de définitivement polluer le Web », avertissent trente-deux chercheurs d'OpenAI, Microsoft, Harvard, Berkeley, du MIT etc., dans un article scientifique paru en août. Ces juristes, informaticiens et spécialistes de l'éthique appartiennent à une nouvelle discipline, la « sécurité de l'IA ». « Ce domaine scientifique, qui explore de nouvelles méthodes pour s'assurer qu'un contenu n'a pas été généré par une GenAI, est à la jonction de la cybersécurité, l'algorithmique, la statistique, du traitement du signal, par exemple », détaille Erwan Le Merrer. Tests de Turing Même si ses travaux peuvent également protéger les humains, la sécurité de l'IA tente surtout de garantir sa propre intégrité : l'utilisation de data synthétiques pour l'entraînement des prochaines générations de ces algorithmes , provoquera un effondrement de leurs performances. « Dans ce cas, il pourrait y avoir à terme une baisse de la richesse linguistique des nouvelles données produites », prévient ainsi Chloé Clavel, directrice de recherche en IA, à Inria Paris. « Il faut donc une sorte de test de Turing inversé, afin de vérifier si les données présentes sur le web sont le fait d'humains ou, au contraire, de GenAI », insiste Erwan Le Merrer. LIRE AUSSI : OpenAI dégaine ChatGPT Search et lance la grande offensive contre Google CHRONIQUE - L'IA à vitesse grand V Même s'il s'agit des deux versants d'un même problème, prouver que l'on est bien un humain lors d'une visioconférence ou de l'ouverture d'un compte bancaire en ligne est une chose ; certifier l'origine - humaine ou synthétique - d'un contenu en est une autre, beaucoup plus difficile, car facilement contournable. Pour s'assurer de la réalité humaine de leurs clients, les sites en ligne recourent à des techniques de KYC (Know Your Customer) qui jusqu'à présent reposaient souvent sur des selfies. Pour distinguer le vrai (humain) du faux (généré par une IA), il faudrait pouvoir se livrer à une analyse spectrale de la photo envoyée et comparer les résultats à ceux d'une base de données la plus large possible. Première étape : des chercheurs du Huawei Noah's Ark Lab, à Montréal, au Canada, spécialisé dans l'IA, viennent de bâtir une photothèque comportant 1,3 million de vrais clichés et autant de faux. Identification biométrique L'identification biométrique, comme celle proposée par TFH, constitue également une solution fiable mais très longue à mettre en oeuvre à l'échelle planétaire : TFH n'a scanné que 7 millions d'iris, essentiellement, en Amérique du Sud ; en Europe, elle fait l'objet d'une enquête des CNIL locales. En attendant, les 32 chercheurs d'OpenAI, Microsoft, Harvard, Berkeley, du MIT etc., proposent de mettre en place des PHC (PersonHood Credentials), « des certificats numériques qui permettent aux utilisateurs de prouver qu'ils sont des personnes réelles aux services en ligne auxquels ils souhaitent s'inscrire, sans divulguer d'informations personnelles. ». Des tiers indépendants seront chargés de vérifier les preuves (papier d'identité…) apportées par les impétrants. Certifier l'origine Second problème, donc : la certification de l'origine des contenus. Pour l'instant, il n'existe pas de solutions. Jusqu'ici, la validation des textes, des photos ou des vidéos mis en ligne reposait soit sur la détection d'un tatouage, un filigrane invisible (suites de mots, pixels…) volontairement introduit au moment de leur génération, soit sur leur analyse par une autre IA, tentant d'y déceler le style typique d'une GenAI : construction du texte, vocabulaire utilisé… Exemple de tatouage : SynthID-text, partagé en open source fin octobre par des chercheurs de DeepMind, la filiale de Google spécialisée dans l'IA. « SynthID-text introduit des informations supplémentaires au moment de la génération du texte en modulant la probabilité que certains morceaux de phrase soient présents, sans compromettre la qualité du texte », explique, par mail, Pushmeet Kohli, en charge de la recherche chez DeepMind. Problème : il suffit le plus souvent de demander à une seconde IA de réécrire le texte rédigé par une première GenAI pour faire disparaître toute trace de filigrane ou tout style particulier… La chasse au plagiat La copie d'un contenu existant concerne aussi bien l'enseignement secondaire, le supérieur que les places de marché éditoriales. L'une de ces dernières, DCM Swiss, a collaboré avec Christophe Lebrun, de la Haute Ecole de Gestion de Genève, pour élaborer une méthode de validation des textes proposés par ses contributeurs. « Comme lorsque vous posez une question à ChatGPT, nous convertissons le texte en vecteurs, des points dans un espace numérique, qui permettent d'identifier des mots possédant le même sens, explique Christophe Lebrun. Cela permet de comparer le texte à une base de données, puis après traitement, de voir s'il y a plagiat ou pas. » À Aix-Marseille Université, des efforts sont menés pour repérer les « faussaires » non seulement parmi les productions des étudiants, mais aussi dans les publications du monde entier. « Certaines revues scientifiques prédatrices acceptent des articles générés par une IA, parfois enrichis de résultats expérimentaux fictifs, constate Ismail Badache, maître de conférences en informatique à l'Inspé (Institut national supérieur du professorat et de l'éducation) de cette université. Une liste noire de ces supports sans scrupule existe, mais un article bidonné peut aussi se glisser dans une revue sérieuse. » Rien ne remplace l'esprit critique.

Avec l’IA, l’avenir des enceintes intelligentes en question

By |November 20th, 2024|Categories: Scoop.it|

Elles avaient fait du bruit au cours de la dernière décennie. Pourtant, elles résonnent aujourd'hui comme un lointain souvenir. Les enceintes intelligentes, ces petits gadgets connectés présents chez un quart des foyers américains, ont-elles encore un avenir dans nos maisons ? Alexa, l'assistante vocale d'Amazon présente sur les enceintes Echo, fête ses dix ans ce mois-ci. Cet objet, vendu à plusieurs centaines de millions d'exemplaires à travers le monde, n'a pas rencontré le succès escompté par le géant de Seattle, qui n'a jamais dégagé de bénéfices sur cette gamme. Et ses concurrents, Google Home ou encore HomePod d'Apple, ne sont pas non plus parvenus à véritablement percer sur ce marché, Amazon restant encore, de loin, l'acteur dominant. Si les chiffres de ventes sont tout de même impressionnants, ces enceintes très grand public - dont le prix se situe pour la plupart autour de 100 euros - n'ont pas atteint les objectifs initiaux : devenir un indispensable du quotidien du foyer et révolutionner l'usage de la voix. Les ventes continuent de décliner depuis la fin de la période Covid et l'irruption de l'inflation, avec une estimation autour de 87 millions d'unités vendues cette année, contre 107 millions l'année dernière, d'après les données d'IDC. Des enceintes pas si intelligentes ? « Elles sont plutôt utilisées comme une enceinte connectée que comme une enceinte intelligente, observe Frédéric Cavazza, consultant spécialisé dans les usages du numérique. Ces objets permettent finalement d'écouter de la musique, de connaître la météo, le tout avec une bonne qualité de son. Mais elles ne sont pas devenues un terminal de référence dans les usages. Il n'y en a qu'une seule par foyer, alors que le mobile, lui, est dans la poche de tous les membres de la famille, toute la journée. » LIRE AUSSI : Apple relance son HomePod pour réveiller le marché des enceintes connectées DECRYPTAGE - Bousculé par la concurrence, Apple veut faire de Siri un super-assistant Ces enceintes sont arrivées aux prémices des assistants vocaux, il y a quinze ans. Les voix qui sortaient alors de ces petits objets n'étaient pas aussi fluides qu'aujourd'hui, et surtout, n'avaient pas la capacité de répondre aussi efficacement aux questions des utilisateurs. « Il fallait apprendre des commandes vocales, mémoriser des requêtes toutes faites. C'était beaucoup à l'époque », ajoute l'expert. Et face à des réponses moins performantes qu'espéré, les consommateurs ont fini par préférer les usages les plus basiques de l'enceinte. « On est loin de la révolution au sein du foyer, explique Thomas Husson, analyste chez Forrester. La domotique reste une application de niche : peu de gens ont une maison connectée. On est plutôt autour de profils geeks, habitués des objets tech. Il y a aussi eu un effet 'cadeau sous le sapin' au début qui n'est plus à l'ordre du jour ». Des familles clientes, en somme, mais pas si avides d'utiliser ces produits. Apple travaille actuellement sur une tablette capable de contrôler les fonctions de la maison qui pourrait voir le jour en 2025, d'après Bloomberg. Progrès de la voix La donne pourrait néanmoins changer avec les progrès liés à l'intelligence artificielle générative. En tout état de cause, les vendeurs ont bien l'intention de profiter de leurs progrès sur le sujet pour explorer cette hypothèse. LIRE AUSSI : L'IA générative relance la bataille des assistants vocaux IA : Kyutai, le laboratoire soutenu par Niel, se lance dans la bataille des assistants vocaux Google va déployer Gemini, son modèle d'IA, dans ses enceintes intelligentes moyennant un abonnement de 8 dollars par mois. Amazon devrait lui aussi lancer un abonnement spécifique pour Echo. Un moyen de rentabiliser davantage les très coûteuses recherches de chacun sur l'IA générative et les produits connectés à la maison. Peu de chances, toutefois, que cela suffise à relancer le marché. « Il suffira d'une mise à jour logicielle pour utiliser l'IA sur les enceintes connectées. Alors que pour les smartphones et les PC, c'est un nouvel argument de vente, puisqu'il faudra les renouveler pour accéder aux applications d'IA, note Frédéric Cavazza. Même s'il faut rendre à César ce qui est à César. Siri, lancé en 2011, et Alexa, en 2014, ont amené les prémices de l'IA dans les foyers ». Joséphine Boone

Load More Posts