HOSPITALITY LAB & PRACTICE FOR BRANDS

Blog2017-10-23T13:43:48+00:00

GDPR : L’hospitalité des marques fait loi en Europe.

GDPR : L’hospitalité des marques fait loi en Europe.

En imposant aux marques de privilégier l’intérêt de leurs clients dans la gestion des données qu’elles détiennent, l’Europe fait de l’hospitalité le vecteur principal de leur croissance.

1. AUJOURD’HUI, LA CROISSANCE DES MARQUES PASSE PAR LA QUALITÉ DE LEUR RELATION CLIENTS.

Dans un monde digital, « Les Marchés sont des Conversations ».

Dès 1999, Doc Searls et ses co-auteurs avaient mis cette idée au coeur de leur “Clue Train Manifesto” (Manifeste des Evidences) (1), démontrant alors avec brio comment le développement du “capital relationnel” de la marque pouvait devenir le principal moteur de la croissance des entreprises.

L’arrivée des sites internet dans la fin des années 1990 avait eu en effet le mérite de faire prendre conscience qu’il pouvait se nouer une relation directe entre l’entreprise et ses clients, sans passer par un distributeur ; et que ces nouveaux liens produisaient énormément de données qu’il était probablement intéressant d’exploiter : ainsi, pour développer plus loin l’idée du “Clue Train”, lorsqu’il s’agit de générer une croissance durable des ventes et des profits, les meilleurs atouts de la marque sont sa légitimité à susciter des échanges autour de son coeur de métier (Conversation), son intelligence à les analyser (Curation), sa capacité à apporter des réponses adaptées aux besoins exprimés (Customization), et finalement son empathie relationnelle, propre à mettre le client en résonance avec la marque (Communion). Autant d’atouts qui précèdent dorénavant la simple « qualité des produits » mis au catalogue, autrefois le principal fer de lance des entreprises.
Une vision depuis partagée par Interbrand(2), qui dans sa publication annuelle du classement de la valeur des marques insiste sur le fait que “la croissance est la conséquence d’une stratégie claire et d’expériences exceptionnelles délivrées au consommateur”.
Voici donc venu le temps pour les marques soucieuses de croissance durable de passer un nouveau contrat relationnel avec leurs consommateurs, où l’achat et la livraison du produit n’est plus la fin mais le début de la relation : un contrat qui couvre d’abord l’usage, et l’expérience qui l’accompagne. Un contrat qui est aussi l’occasion de proposer de nouveaux moments de consommation, de nouveaux services, qui sont autant de chiffre d’affaires supplémentaire pour les marques. Mais un contrat relationnel d’abord fondé sur le respect de l’intérêt du client, notamment en matière d’utilisation de ses données.

 

2. GDPR : UNE RÉGLEMENTATION POUR SAISIR DE NOUVELLES OPPORTUNITÉS DE CROISSANCE.

Selon une étude récente de la Commission Européenne(3), 72% des Européens s’inquiètent en effet de laisser trop de données personnelles aux entreprises, souvent à leur insu, et surtout de ne pas en recevoir de réelle contrepartie. D’ailleurs, la connaissance plus précise du client semble ne faciliter en rien la capacité de l’entreprise à mieux cibler ses offres : selon tous les indicateurs(4), le taux d’ouverture des mails diminue alors que les désabonnements (opt-out) augmentent, ce qui fragilise largement la rentabilité des investissements lourds consentis dans le CRM.
La Commission souligne également que le marché en ligne est constitué à 57% d’échanges avec des opérateurs américains, alors que seulement 4% des échanges se font au travers d’opérateurs pan-européens. Elle estime que si les 100 plus grosses entreprises Européennes faisaient un usage judicieux de leurs données clients, le PNB Européen pourrait s’octroyer 1,9% de progression supplémentaire d’ici 2020, soit plus de 200 Milliard d’Euros de gain potentiel.
C’est avant tout à cette opportunité de croissance que la GDPR s’attaque : permettre une meilleure utilisation des données pour les entreprises grâce à un consentement avéré des consommateurs, favoriser les échanges intra-européens au sein d’un univers mieux sécurisé. Loin d’être une contrainte, la GDPR est une chance de développement de nouvelles sources de revenus pour les marques européennes : elle conduit à un modèle de croissance durable rendu possible par une approche choisie et non plus subie de la consommation. Avec la GDPR, les marques doivent négocier avec chacun de leurs clients un contrat relationnel : elles doivent se mettre à l’écoute, comprendre les besoins, proposer leurs services, et définir les modalités de la relation ; le tout dans la transparence ( accès aux données, droit de modification) qui établit la confiance, l’attachement. Les marques deviennent alors attachantes dans le bon sens du terme, et c’est de cet attachement que nait la croissance durable.
C’est à ce nouveau modèle relationnel qu’appellait lui-même Doc Searls dans son “Clue Train Manifesto” : il lui avait même trouvé un nom, la VRM (Vendor Relationship Management). Une approche basée sur le consentement avéré du client vis à vis de ses fournisseurs (vendeurs) avec un postulat simple : “un consommateur libre a plus de valeur qu’un consommateur captif – pour lui-même, pour les marques et pour l’économie en général”.
Encore faut-il s’entendre sur la définition du consommateur “libre”. Searls le définit en cinq points :
1. Il entre en relation avec les marques de manière indépendante et sans contrainte.
2. Il est le point d’intégration de sa propre donnée (c’est lui seul qui peut relier sa donnée à sa personne).
3. Il a le contrôle de la donnée qu’il génère et collecte. Il décide de ce qu’il veut partager, à qui et comment.
4. Il définit son propre niveau d’engagement avec les marques.
5. Il est libre d’exprimer ses exigences et ses intentions en dehors du contrôle de toute entreprise.
C’est ce consommateur “libre” que la GDPR souhaite aujourd’hui promouvoir, afin d’en faire le vecteur de croissance de l’économie.

3. L’HOSPITALITE DES MARQUES, PRINCIPAL VECTEUR DE LEUR PROPRE CROISSANCE.

Accueillir un consommateur “libre” est sans doute une perspective qui effraie bon nombre de marques, tant elle ont été construites sur la notion d’un marketing manipulateur et insidieux, capable d’influencer jusqu’aux émotions pour enfermer les clients dans un tunnel de vente dont la seule issue est l’achat du produit. Avec la GDPR, ce n’est plus le produit qu’il va falloir vendre, c’est la marque qui doit apprendre à se faire acheter. Et pour cela, il va falloir qu’elle se montre hospitalière vis à vis de ses clients : bienveillante, humaine et proche.
Le produit devient simplement la porte d’entrée à la marque, celui qui va forger les impressions de la première rencontre, et donc le début (et non la fin) de l’histoire. Le produit n’est plus qu’un prétexte, c’est la marque qui devient le réel support de l’expérience pour le consommateur : c’est d’ailleurs à elle qu’il va naturellement s’adresser s’il a besoin d’assistance ou s’il a simplement des remarques à formuler. À la marque de se montrer engageante, accueillante, généreuse et humaine pour fidéliser le consommateur au-delà du premier produit, et pour entretenir une relation proche, intime, qui permettra de continuer à vendre sans qu’il soit besoin de déployer la coûteuse armada publicitaire du premier jour : avoir une stratégie à long terme d’entretien de la relation, plutôt que de s’épuiser dans des efforts permanents de recrutement.
Autant le “tunnel de vente” était indifférencié et anonyme, donc étranger à toute notion d’hospitalité, autant le “cycle de décision d’achat” est personnalisé et fait appel à la relation humaine : c’est de la capacité de la marque à accueillir que dépend la fidélisation du client, et encore plus, sa propension à devenir activement promoteur vis à vis de ses pairs. Pour le dire différemment, c’est du niveau d’hospitalité de la marque que va découler l’amplitude de la réalisation du cycle d’achat, et donc le montant de la valeur créée.
Autant le “tunnel de vente” s’envisageait dans un temps le plus court possible, avec l’espoir de limiter la durée d’exposition nécessaire pour déclencher l’achat afin de réduire les coûts, autant le “cycle de décision d’achat” s’inscrit dans la durée la plus longue possible afin de maximiser les revenus. En se plaçant dans une notion de permanence, on met forcément en exergue la qualité de l’hospitalité, seule capable de générer de la pérennité dans la relation.
Plus le consommateur progresse avec la marque, plus la marque fait preuve de « disponibilité » vis à vis des demandes du consommateur, plus se crée la confiance dans la relation, le consommateur récupérant de plus en plus de valeur d’usage en retour de sa relation avec la marque, la marque obtenant de plus en plus de “permissions” qui lui permettent d’aller encore plus loin dans son service du consommateur.
C’est bien là le cercle vertueux de l’hospitalité des marques : un marketing “on demand” (inbound marketing), un marketing de l’échange, de la confiance, de la permission, du partage de la valeur, où les clients sont aussi des hôtes ; un marketing qui se définit d’abord par rapport au client pour qu’il puisse adopter lui-même la marque, la faire sienne et en devenir à son tour le porte-parole…
Alors que la GDPR fait des marques le gibier de consommateurs devenus madrés, l’hospitalité est la meilleure réponse pour faire de ces mêmes marques les plus désirables des proies : avec bienveillance, humanité et intimité. Assurant ainsi la pérennité de leur croissance.

4. QUELLES APPROCHES POUR LES MARQUES FACE A LA GDPR ?

Ce serait peine perdue pour les marques que de se contenter de « mettre en conformité » leur bases de données tout en espérant garder les mêmes pratiques relationnelles. Car la GDPR est d’abord une invitation à renverser ses pratiques relationnelles pour faire montre d’hospitalité vis à vis de ses clients ; et c’est ce renversement d’attitude qui est lui même porteur de croissance pour les marques. Avec la GDPR, l’hospitalité ouvre pour les marques de nouvelles perspectives de croissance.
Une étude publiée en Mai dernier par le gouvernement Britannique4 s’était alarmée sur le fait que seulement 30% des grandes entreprises du pays avaient commencé à prendre les mesures nécessaires à la mise en conformité de leurs pratiques d’utilisation des données, alors que la transcription dans la loi Britannique vient d’être réalisée en ce mois d’Août, et qu’elle survivra au Brexit. Les autres pays feront-ils preuve de la même insouciance, par rapport à une échéance qui dans la plupart des pays européens, a été fixée à Mai 2018 ?
La GDPR transforme radicalement la manière dont les entreprises utilisent les données. Il va falloir arrêter d’acheter des listes d’adresses, et même se débarasser des listes qu’on aura pu acheter auparavant. Contacter un client exigera d’avoir les permissions nécessaires, sauf à s’exposer à des amendes prévues pour atteindre jusqu’à 4% du chiffre d’affaires.
Il n’y aura donc pas d’échappatoires.
Mais n’est-ce pas justement l’opportunité d’une prise de conscience salutaire dans le futur de la relation client ? Quelle marque aujourd’hui a encore besoin d’avoir accès à des millions de noms dont simplement un infime pourcentage montre un intérêt pour ses propositions ? Ne vaudrait-il pas mieux établir une véritable relation avec moins de clients mais qui ont un véritabe intérêt à avoir un dialogue, un échange, une conversation avec la marque ?
N’est-il pas temps, tout simplement, que les marques apprennent à devenir hospitalières vis à vis de leurs clients ?
Et si la GDPR n’était qu’un manifeste pour l’hospitalité des marques ? Une manière de sauver les marques traditionnelles à l’heure du digital ? La dernière opportunité à saisir avant liquidation ou reprise par les acteurs de la nouvelle économie ?
En développant leur hospitalité pour se mettre en conformité avec la GDPR, ce n’est pas tant l’amende que les marques vont éviter, c’est leur futur qu’elle vont assurer.
Aucune raison d’attendre. Embrassons la GDPR en développant l’hospitalité des marques (5).

 

 

(1) Le Cluetrain Manifesto (Manifeste des évidences) est un texte rédigé par Rick Levine, Christopher Locke, Doc Searls, et David Weinberger. Il est d’abord diffusé sur le web en 1999 comme un ensemble de quatre-vingt-quinze thèses, puis est publié sous forme de livre en 2000 avec les thèses prolongées de sept essais. https://www.amazon.com/Cluetrain-Manifesto-End-Business-Usual/dp/0738204315
(2) Etude 2016 Interbrand : http://interbrand.com/best-brands/best-global-brands/2016/
(3) Etude de la Commission Européenne : https://ec.europa.eu/commission/publications/why-we-need-digital-single-market_en
(4) Citée par Tanya Joseph dans le magazine Marketing Week (UK) du 7 Août 2017, New data laws are a chance to reset customer relationships : https://www.marketingweek.com/2017/08/07/tanya-joseph-data-law/
(5) Cf, “Manifeste pour l’Hospitalité des Marques”, Georges-Edouard DIAS, Edition Netexplo : https://www.amazon.fr/dp/2954667230/

JO de Paris 2024 : gare au quishing, l’arnaque au QR code –

By |July 28th, 2024|Categories: Scoop.it|

Depuis le Covid-19, le QR code a fait son grand retour. On l’utilise pour accéder au menu d’un restaurant, pour télécharger une application ou encore pour connaître les horaires de bus. Lors d’un voyage, on peut aussi l’utiliser pour obtenir des informations culturelles et historiques sur un lieu. L’usage de ce petit pictogramme noir et blanc et ancré dans notre quotidien, mais il ne vous veut pas toujours du bien. Ces derniers temps, une forme d’attaque se répand en France : le quishing. Cette pratique frauduleuse consiste à placer de faux QR code afin de renvoyer vers un faux site, infecter un appareil mobile ou encore récupérer des données sensibles personnelles et/ou financières. Ces faux QR code sont placés dans des lieux publics : parking, ascenseur, table de bar, affiche, etc. Et ils pourraient se multiplier dans le cadre des Jeux olympiques et paralympiques de Paris durant lesquels 15,3 millions de visiteurs sont attendus. « J’étais en terrasse d’un bar, j’ai passé ma commande via le QR code sur la table, mais ma commande n’est jamais arrivée au barman et ma carte a bien été débitée ! », témoigne une victime vivant en Ile-de-France dans une fiche d’information du gouvernement. « Dans l’ascenseur au travail, il y avait une affiche pour un jeu permettant de gagner un voyage. J’ai scanné le QR code pour participer, on m’a demandé des informations et le numéro de ma carte bancaire, le jour même j’ai été victime de plusieurs prélèvements », raconte une autre victime vivant en Haute-Garonne.

Sur les rails, un marché en recomposition

By |July 28th, 2024|Categories: Scoop.it|

Depuis 1938, la SNCF était en situation de monopole sur les rails français. Mais l’ouverture à la concurrence exigée par l’Union européenne redistribue les cartes. Les homologues européens du transporteur français, comme Trenitalia et la Renfe, n’ont pas hésité à se positionner sur les lignes à grande vitesse, les plus demandées par les voyageurs français. Et les plus rentables pour les compagnies ferroviaires. Avec, pour le moment, des impacts concrets et rapides. Ainsi, sur l’axe Paris-Lyon, l’arrivée de Trenitalia a entraîné une baisse moyenne des prix de -43%* par rapport à 2019. Le constat est similaire sur la ligne Paris-Milan avec une hausse moyenne des prix de 6% en 2023 par rapport à 2022 mais moins chers de -19% depuis l’ouverture à la concurrence de la ligne. La SNCF en profite aussi Ces baisses de tarifs ont suscité un engouement pour les voyages en train. Les réservations de billets de train sur les liaisons Paris-Lyon et Paris-Milan ont bondi respectivement de 60% entre 2023 et 2022 (+334% depuis 2019) et de 11% entre 2023 et 2022 (+278% depuis 2019). Et ces constats sont aussi valables pour les liaisons entre la France et l’Espagne. En effet, depuis l’été 2023, la Renfe opère les lignes Marseille-Madrid et Lyon-Barcelone. Sur la première ligne, le prix moyen du billet recule de 67% par rapport à 2022, et de 17% sur la deuxième. Et, là encore, le marché suit avec une hausse des réservations de 263% pour Marseille-Madrid et de 140% pour Lyon-Barcelone, par rapport à 2022. La SNCF, elle, profite également de cette explosion de la demande, avec des hausses significatives sur toutes les lignes où de nouveaux entrants viennent la concurrencer. Et le transporteur ne se prive pas pour lorgner sur le marché espagnol, qui a notamment accueilli Ouigo, et sur le marché italien, qui sera investi dès 2026. En France aussi, la compagnie historique renforce ses moyens pour absorber plus de capacité. Un milliard d’euros pour Proxima, la compagnie de Rachel Picard Face aux succès des opérateurs historiques, il n’est pas étonnant de voir émerger des acteurs potentiels aux ambitions plus ou moins élevées. Avec Proxima, la future compagnie ferroviaire à grande vitesse imaginée par Rachel Picard, c’est un prétendant d’envergure qui devrait débarquer sur le marché en 2027. Soutenue par Antin Infrastructure Partners, l’ancienne patronne de Thomas Cook et de Voyages SNCF a levé un milliard d’euros pour lancer sa compagnie. Avec ses douze premières rames commandées auprès d’Alstom, Proxima entend relier Bordeaux, Rennes, Nantes et Angers à Paris. Soit, à terme, 10 millions de nouvelles places par an de train à grande vitesse sur l’axe atlantique. Proxima devra sans doute batailler avec un autre nouveau concurrent, sobrement baptisé Le Train. La start-up néo-aquitaine commencera en 2026 par relier Nantes et Rennes à Bordeaux, et sans passer par Paris, permettant ainsi de réduire le temps de trajet. Ensuite, Le Train devrait se développer en pendulaire autour de Bordeaux, vers Arcachon et Angoulême. « Plus on voyage, moins on paye » avec Kevin Speed D’autres compagnies pourraient voir le jour. Avec des billets vendus à partir de trois euros, Kevin Speed, une start-up française, compte bousculer le marché. « Plus on voyage, moins on paye », explique le président de la start-up, Laurent Fourtune, promettant une offre avec une réduction de prix au fur et à mesure que le client achèterait des billets. « Avec les prix d’attaque qu’on a prévus, nos trains seront pleins », lance-t-il, confiant. Kevin Speed investira des axes où la concurrence n’existe pas encore (Lille-Paris, Strasbourg-Paris) et jouera sur le même terrain de jeu que tous les autres (Lyon-Paris). Comme on peut le constater, la possibilité d’exploiter les rails français inspire les acteurs historiques comme les jeunes pousses. Encore faut-il avoir les reins solides… Après avoir passé quatre ans à chercher des fonds, Midnight Trains, une entreprise qui souhaitait lancer des trains de nuit avec chambres privatives, ne verra pas le jour. Railcoop, qui misait sur le modèle de la coopérative pour relancer une ligne directe entre Lyon et Bordeaux, a aussi jeté l’éponge. Le projet a été victime de son approche militante et engagée. Il aurait pu fonctionner, mais à condition de se trahir et de s’ouvrir à un soutien financier classique…

La série noire continue pour Nestlé

By |July 28th, 2024|Categories: Scoop.it|

Qu'arrive-t-il au groupe Nestlé ? Le leader mondial de l'alimentation traverse une mauvaise passe. Les ventes organiques ont progressé de 2,1 % au premier semestre, moins qu'attendu, et, ce jeudi, le groupe a revu à la baisse sa prévision de croissance pour l'année à moins de 3 %. Il doit baisser ses prix davantage… Un bilan mitigé qui arrive après des semaines mouvementées. Nestlé, dont l'image est historiquement liée au lait pour bébé en pharmacie et à une politique de qualité extrême, ne cesse depuis des mois d'être soupçonné de déroger aux règles sanitaires. Les affaires s'enchaînent sans répit autour de l'activité de sa division Nestlé Waters en France, où l'on regarde le groupe d'un autre oeil depuis le scandale des pizzas contaminées de l'usine Buitoni de Caudry (Nord), qui lui vaut une mise en examen. La justice enquête sur l'eau Après l'obligation qui lui a été faite par l'Agence régionale de santé (ARS), en avril, de détruire deux millions de bouteilles de Perrier sur le site de Vergèze dans le Gard , après l'injonction de désinfection de certains points de captage souillés par des matières fécales, après l'ouverture d'une enquête pour filtration de l'eau vendue comme eau minérale, Nestlé fait l'objet d'une nouvelle enquête du parquet d'Epinal. Cette fois, ce n'est plus Perrier qui est dans le viseur mais Contrex et Vittel, deux autres des marques étendards d'eau minérale de Nestlé. LIRE AUSSI : Contaminations : Perrier stoppe la production de son best-seller En pleine tempête médiatique, Nestlé Waters lance Maison Perrier, nouvelle gamme aromatisée L'enquête devra déterminer si Nestlé Waters a bien exploité neuf forages sans autorisation dans les Vosges, dont cinq pour Contrex et Vittel, et vendu illégalement 19 milliards de litres d'eau entre 1992 et 2019, comme le dit Mediapart sur la base d'un rapport de l'Office français de la biodiversité (OFB) rendu au procureur de la République. Le groupe a, pour sa part, répondu que « chaque mètre cube d'eau collectée est déclaré aux autorités », mais que « certains éléments administratifs d'il y a plusieurs dizaines d'années sont en cours d'évaluation par le procureur d'Epinal » et que « Nestlé Waters coopère pleinement ». Dans le cadre de la première enquête, Nestlé a reconnu avoir eu recours à des procédés interdits de filtration au charbon actif et de lampe UV pour purifier l'eau vendue comme minérale, ce qui est interdit par la réglementation, afin d'en « préserver la sécurité alimentaire » . Le feu des actionnaires Ces affaires successives ont valu au groupe, qui traverse une passe boursière difficile - l'action recule de 10 % depuis un an -, et doit faire face à une croissance en berne - recul de son chiffre d'affaires l'an dernier à 97 milliards d'euros -, des interventions accusatrices lors de son assemblée générale à Vevey (Suisse) le 18 avril dernier. Un membre de l'ONG britannique Bite Back n'a pas hésité à accuser Nestlé « d'inonder les rues de malbouffe » et d'être, avec d'autres groupes agroalimentaires, à l'origine « de problèmes de santé d'un enfant sur trois dans les quartiers défavorisés des villes britanniques ». LIRE AUSSI : Nestlé veut limiter la hausse de ses prix en 2024 pour relancer la consommation Nestlé sous la pression de ses actionnaires pour limiter ses ventes de « malbouffe » Des actionnaires ont mis en cause le groupe sur la teneur en sucre de certains produits. Mark Schneider, le patron de Nestlé, a alors fait valoir « des différences de goût » d'un pays à l'autre, insistant sur le respect des normes de chacun d'entre eux. Une motion, rejetée par la majorité des actionnaires a été déposée, réclamant une part plus importante de produits sains dans le portefeuille du géant de l'agroalimentaire. Pour Paul Bulcke, le président du groupe, une telle stratégie affaiblirait certaines offres, laissant le champ libre à des concurrents moins scrupuleux.

Cryptos : le gendarme boursier américain autorise les ETF sur l’ether

By |July 24th, 2024|Categories: Scoop.it|

Après avoir autorisé à contrecoeur les ETF bitcoin en janvier, la Securities and Exchange Commission (SEC) a approuvé lundi les premiers fonds indiciels cotés (ETF) investis en ether. L'autorisation du gendarme boursier américain ouvre ainsi la voie à leur négociation imminente. Deuxième cryptomonnaie en termes de capitalisation derrière le bitcoin, l'ether est la monnaie de la blockchain Ethereum. « L'approbation de la SEC et le lancement des ETF Ethereum marquent l'acceptation de cette nouvelle classe d'actifs numériques », s'est félicité Greg Moritz, directeur de l'exploitation et cofondateur d'Alt Tab Capital, un fonds spéculatif crypto. Selon Bloomberg, 21Shares AG, Bitwise Asset Management, BlackRock, Invesco, Franklin Templeton, Fidelity Investments et VanEck figurent parmi les acteurs ayant reçu l'assentiment de la SEC. « Nos clients sont de plus en plus intéressés par une exposition aux actifs numériques par le biais de produits négociés en Bourse qui offrent un accès pratique, de la liquidité et de la transparence », a déclaré dans un communiqué Jay Jacobs, responsable américain des ETF thématiques et actifs chez BlackRock. Coinbase, dépositaire de 8 des 9 nouveaux ETF ether approuvés, a salué une décision qui devrait faciliter «l'investissement dans les cryptomonnaies». « Utilité réelle » Fin mai, la SEC avait ouvert la voie à ce lancement sur le marché en approuvant les demandes d'enregistrement du Nasdaq, du CBOE et du Nyse pour des fonds cotés en Bourse liés à l'ether. Selon Wintermute Trading, les analystes s'attendent à des entrées de 4,8 milliards à 6,4 milliards de dollars pour les produits ether au cours de cette première année de lancement. « Nous pensons que la demande réelle pourrait être inférieure et se situer entre 3,2 et 4 milliards de dollars », estime toutefois la société dans un rapport. Des chiffres bien inférieurs à ceux observés pour les ETF bitcoin. Depuis janvier, ces derniers ont enregistré des entrées nettes d'environ 17 milliards de dollars. LIRE AUSSI : DOSSIER : Faut-il investir ou fuir les cryptoactifs ? La SEC a infligé 5 milliards de dollars de pénalités sur un an Selon Greg Moritz, le bitcoin, avant tout considéré comme une monnaie d'échange ou un instrument spéculatif, « a prospéré grâce à l'idée qu'il est l'équivalent numérique de l'or », tandis que la valeur de l'ether « est principalement liée à son utilité réelle, car il est le point de départ de milliers d'applications ». En donnant son feu vert, le gendarme boursier américain envoie le signal d'un assouplissement du climat réglementaire à l'égard des actifs numériques aux Etats-Unis. Dès son arrivée à la Maison-Blanche en 2021, Joe Biden a affiché son ambition de clarifier les règles de fonctionnement du secteur et de le réguler davantage pour protéger les investisseurs américains. La faillite retentissante de la plateforme FTX fin 2022 n'a fait que renforcer cette volonté. Le président de la SEC Gary Gensler a depuis mené une vaste offensive contre cet écosystème, en prenant notamment pour cible Binance et Coinbase, les deux principales plateformes d'échanges de cryptos. L'annonce, dimanche, du retrait de Joe Biden de la course à la présidentielle a ainsi été très favorablement accueillie par les investisseurs, qui font le pari d'une victoire du candidat Donald Trump. Ce dernier a multiplié les promesses à l'égard du secteur et a dénoncé à plusieurs reprises le durcissement de la régulation.

Finalement, Google ne supprimera pas les cookies tiers sur Chrome

By |July 24th, 2024|Categories: Scoop.it|

Ah ! Comme dirait ce bon vieux Denis. Après de nombreux articles et de nombreuses heures facturées par les cabinets de consulting, Google a finalement décidé de ne plus supprimer les cookies tiers de son navigateur Chrome. En 2020, le géant de Mountain View annonçait vouloir mettre fin à ces petits fichiers texte qui permettent de tracer notre navigation à des fins statistiques ou publicitaires. L’échéance était prévue pour 2022, pour finalement être repoussée à 2023. Cette annonce avait fait trembler les marketeurs, qui se demandaient comment ils feraient pour cibler les consommateurs en ligne. En fin de compte, il semblerait que leur disparition n’aura pas lieu (pour le moment). A lire également : La suppression des cookies tiers signe-t-elle la mort de la publicité ciblée ? Sur le blog de The Privacy Sandbox, l’initiative créée par Google qui vise à concevoir des technologies qui protègent la confidentialité des utilisateurs en ligne, on peut lire : « Au lieu de supprimer les cookies tiers, nous introduirions une nouvelle expérience dans Chrome qui permettrait aux utilisateurs de faire un choix éclairé qui s’appliquerait à l’ensemble de leur navigation sur le web, et ils seraient en mesure d’ajuster ce choix à tout moment. Nous discutons de cette nouvelle voie avec les régulateurs, et nous nous engagerons avec l’industrie au fur et à mesure que nous la mettrons en place. » Cookie or not cookie, telle est la question On peut donc comprendre que les utilisateurs de Chrome pourront choisir d’activer ou non les cookies tiers sur leur navigateur. Reste à savoir ce que les régulateurs en pensent. Google dit travailler avec le bureau du commissaire à l’information (ICO) et l’autorité de la concurrence et des marchés (CMA) et du Royaume-Uni. Cette dernière a fait savoir qu’elle allait « examiner attentivement la nouvelle approche de Google en matière de Privacy Sandbox » et invite tous les consommateurs à faire part de leurs retours jusqu’au 12 août. « Il est important que les développeurs disposent d’alternatives permettant de préserver la vie privée. », précise Google. Suite à l’annonce, les actions des entreprises du secteur de l’adtech ont grimpé à la Bourse, dont celle de Criteo.

Les résultats d’Alphabet portés par le cloud

By |July 24th, 2024|Categories: Scoop.it|

Des revenus de 85 milliards de dollars, en hausse de 14 % (le double de l'an dernier), dégageant une marge d'exploitation de 32 % (en hausse de 3 points) et 24 milliards de bénéfice net. Même si la croissance a ralenti par rapport au premier trimestre de l'année, Alphabet a affiché des résultats impressionnants pour le deuxième trimestre de son exercice en cours. La maison mère de Google explique cette performance par la bonne tenue de l'activité de recherche sur Internet, son activité historique, et le dynamisme de sa branche cloud, un métier d'hébergement de services informatiques sur lequel il est challenger d'Amazon et Microsoft mais dépasse toute de même pour la première fois les 10 milliards de revenus sur un seul trimestre, ce qui permet de passer le milliard de produits d'exploitation. La croissance de l'activité approche les 30 %. « Notre forte performance ce trimestre souligne notre force dans le search et notre dynamisme dans le cloud, s'est ainsi félicité Sundar Pichai, le patron d'Alphabet. Nous innovons à chaque étage de l'écosystème de l'intelligence artificielle ». Stable après la clôture de Wall Street L'action Alphabet restait à peu près stable (+1 %) dans les échanges après Bourse, malgré des indicateurs de comptes de résultat supérieurs au consensus des attentes des investisseurs. Mais Google a progressé de 30 % depuis le début de l'année et capitalise 2.260 milliards de dollars. LIRE AUSSI : Bourse : la saison des résultats de tous les dangers pour la Big Tech à Wall Street Seule petite ombre au tableau, YouTube a vu ses revenus croître de 13 %, à 8,7 milliards, mais c'est un peu en deçà des attentes des marchés. Les revenus publicitaires, le moteur du groupe, progressent de 11 %, à 66 milliards, une hausse moins rapide qu'au trimestre précédent. Les investissements de la société ont grimpé de 1 milliard à 13 milliards entre le premier et le deuxième trimestre, notamment pour bâtir des data centers et faire tourner le modèle maison d'intelligence artificielle, Gemini. Sundar Pichai a expliqué que l'IA générative d'Alphabet générait «des milliards» de revenus et étaient utilisée par 2 millions de développeurs. «Le risque de sous-investir est dramatiquement plus élevé que celui de surinvestir», a-t-il lancé aux investisseurs qui assistaient hier aux premiers résultats d'un des Sept Magnifiques pour cette saison de trimestriels.

Meta prive les Européens de son nouveau modèle d’IA générative

By |July 24th, 2024|Categories: Scoop.it|

Les Européens seront privés des avancées dans l'intelligence artificielle de Meta. En tout cas, il n'y aura pas de nouveau modèle d'IA générative du groupe sur le Vieux Continent. La maison mère de Facebook et Instagram a reporté sine die le lancement de la nouvelle version de Llama 3 , dite multimodale, c'est-à-dire un modèle de langage permettant d'utiliser et de créer du texte, mais aussi des images ou des cartes. Ce modèle n'est pas encore sorti ailleurs, mais il doit arriver « dans les prochains mois », en dehors des frontières de l'Union européenne, comme le précise l'AFP. Selon le média « Axios » , qui a révélé l'information, Meta invoque un manque de clarté des autorités de régulation, parlant de « la nature imprévisible de l'environnement réglementaire européen ». L'annonce peut-être aussi interprétée comme une forme de coup de pression à l'égard des régulateurs. Smartphones, lunettes, etc. La nouvelle IA du groupe californien doit être incorporée dans une large gamme de produits comme les smartphones ou les lunettes connectées . De fait, selon Meta, les entreprises européennes ne pourront pas utiliser ses modèles multimodaux, même ceux en accès ouvert. Même « punition » pour les entreprises hors de l'UE qui voudraient vendre leurs produits en Europe. LIRE AUSSI : Avec Llama3, Meta intègre l'IA dans toutes ses applis « Dans l'intelligence artificielle, il n'y aura pas la victoire d'une entreprise sur une autre », dit Yann LeCun Vraisemblablement, ce n'est pas l'IA Act - la réglementation sur l'IA qui a été votée en Europe » - qui pose problème à Meta mais plutôt le RGPD (règlement général sur la protection des données) . Précisément, pour entraîner ses modèles, comme toute société d'IA, Meta a besoin d'énormément de données. Or, le groupe a indiqué il y a quelques semaines qu'il prévoyait d'utiliser les posts publics des utilisateurs de Facebook et Instagram pour cet entraînement. Dans ce but, il assure avoir envoyé plus de deux milliards de notifications à ses utilisateurs dans l'UE, pour leur dire qu'ils pouvaient refuser (c'est-à-dire exercer leur droit d'opposition ou « opt-out »). Meta a aussi prévenu les régulateurs européens. « Un coup de force » Mais, en juin, Meta aurait été contraint de suspendre l'entraînement de ses modèles avec des données européennes et aurait reçu des questions de la part des régulateurs européens. Toujours selon « Axios », un représentant de Meta aurait déclaré que les régulateurs européens prenaient beaucoup plus de temps pour interpréter la loi que leurs homologues d'autres régions. Par exemple, le régulateur britannique lui a fait parvenir des directives plus claires. LIRE AUSSI : DECRYPTAGE - Pourquoi Facebook se détourne de l'actualité et de la politique ChatGPT, Gemini, Claude, Le Chat… Quelle IA choisir ? Selon un avocat, il est possible que les incertitudes sur les positions différentes des équivalents des CNIL dans les différents Etats membres posent problème à Meta pour utiliser les données. « J'y vois plus un coup de force de Meta pour demander davantage de souplesse, souligne Alan Walter, avocat associé chez Walter Billet. Je ne vois pas quelles sont les incertitudes invoquées par Meta : on connaît bien les conditions d'application du RGPD : il faut informer les personnes et déterminer la base légale prévue - notamment, demander le consentement des utilisateurs ou faire un contrat avec les utilisateurs - et expliciter aux régulateurs la manière dont on va protéger les données ». Cette annonce illustre, en tout cas, les tensions qui existent entre les géants de la technologie américains et les autorités européennes, considérées comme plus strictes. Et ce n'est pas la première fois. Fin juin, Apple avait renvoyé à plus tard le lancement de son système d'IA générative en Europe, invoquant des « incertitudes réglementaires » sur le règlement européen sur les marchés numériques (DMA). Contacté par « Les Echos », Meta ne donne pas plus d'informations.

Opinion | L’IA face au paradoxe de Solow

By |July 24th, 2024|Categories: Scoop.it|

L'intelligence artificielle (IA) est sans doute l'une des innovations technologiques les plus marquantes de ces dernières années, promettant de transformer divers secteurs d'activité et d'améliorer considérablement la productivité économique. Cependant, cette promesse se heurte à une observation paradoxale énoncée par l'économiste Robert Solow (1924-2023) - pionnier de la théorie de la croissance, prix Nobel d'économie pour une nouvelle approche de la croissance économique et de la part imputable à l'innovation technologique -, en 1987 : « Vous pouvez voir des ordinateurs partout, sauf dans les statistiques de productivité ». Ce paradoxe, connu sous le nom de paradoxe de Solow, soulève des questions cruciales sur la manière dont les avancées technologiques se traduisent (ou non) en gains de productivité mesurables. Le paradoxe de Solow s'appuie sur l'observation que malgré l'adoption massive des technologies de l'information et de la communication (TIC) depuis les années 1970, les taux de croissance de la productivité ne montrent pas l'amélioration attendue. Pas d'essor de la productivité Plusieurs explications ont été avancées pour expliquer ce phénomène. Parmi elles, on trouve le temps nécessaire pour que les entreprises réorganisent leurs processus autour des nouvelles technologies, ainsi que l'idée que les investissements en TIC peuvent d'abord entraîner des coûts avant de générer des bénéfices substantiels. En d'autres termes, une transformation profonde des organisations doit s'opérer pour être efficiente dans l'utilisation de ces technologies. LIRE AUSSI : TRIBUNE - Productivité : l'ère du numérique empêtrée dans le taylorisme DECRYPTAGE - Productivité du travail : la chute en France a été moins brutale qu'estimé L'IA, avec ses applications en apprentissage automatique, analyse prédictive et automatisation, semble être une nouvelle phase de cette révolution technologique. Cependant, pourquoi ne voyons-nous pas encore une augmentation spectaculaire de la productivité malgré l'enthousiasme suscité par l'IA ? Plusieurs facteurs peuvent expliquer cette situation : l'adoption de l'IA nécessite des investissements considérables en termes de temps, d'argent et de formation. Les entreprises doivent acquérir des technologies coûteuses, réorganiser leurs processus internes et former leur personnel . La courbe d'apprentissage est significative. L'IA requiert de grandes quantités de données pour être efficace. La collecte, le nettoyage et l'analyse de ces données sont longs et complexes. Les entreprises doivent expérimenter et affiner leurs modèles avant d'obtenir des résultats tangibles. L'un des principaux obstacles à l'adoption de l'IA est la nécessité de former adéquatement la main-d'oeuvre. Les compétences requises pour développer, mettre en oeuvre et maintenir des systèmes d'IA sont spécialisées et en constante évolution. Il est crucial que les entreprises investissent dans la formation continue de leurs employés pour qu'ils puissent s'adapter aux nouvelles technologies. Sans une force de travail qualifiée, même les technologies les plus avancées ne pourront pas être pleinement exploitées. L'hybridation des compétences, souvent indispensable de nos jours, est de plus en plus sollicitée par les entreprises. Elle est une des clés pour réussir la complémentarité avec l'IA. Elle permet d'offrir aux salariés et à l'entreprise un cadre d'analyse plus holistique, ce qui favorise l'innovation et la créativité. Adopter une vision holistique Pour surmonter le paradoxe de Solow dans le contexte de l'IA, il est crucial de revoir et d'adapter nos méthodes de mesure de la productivité . Les gains apportés par l'IA pourraient se manifester sous forme d'innovations qualitatives qui ne se traduisent pas immédiatement en termes de production ou de ventes accrues. Par exemple, une meilleure personnalisation des services clients ou des diagnostics médicaux plus précis grâce à l'IA sont des avancées dont les effets positifs pourraient ne se faire sentir qu'à long terme. De plus, l'IA pourrait créer de nouvelles opportunités économiques et des modèles d'affaires innovants qui échappent aux mesures traditionnelles. Par exemple, les plateformes d'économie de partage comme Uber ou Airbnb, qui reposent en grande partie sur des algorithmes d'IA pour optimiser l'offre et la demande , ont redéfini la façon dont nous comprenons la productivité et l'efficacité économique. LIRE AUSSI : TRIBUNE - Il faut cesser de mesurer la productivité DECRYPTAGE - Productivité, intelligence artificielle : les experts Le paradoxe de Solow reste un cadre pertinent pour analyser l'impact des nouvelles technologies, y compris l'IA, sur la productivité. Toutefois, pour vraiment comprendre et mesurer l'impact de l'IA, il est essentiel d'adapter nos indicateurs économiques et d'adopter une vision plus holistique de la productivité. En reconnaissant les défis d'adoption, les délais d'implémentation, l'enjeu crucial de la formation hybride et les gains qualitatifs apportés par l'IA, nous pourrions être mieux préparés à capturer les véritables avantages de cette révolution technologique . Seul le temps dira si l'IA parviendra à briser le paradoxe de Solow ou si nous devrons continuer à réévaluer nos attentes et nos méthodes de mesure de la productivité dans une ère de changement technologique rapide et permanent. Anthony Hié est Chief Innovation & Digital Officer chez Excelia.

Usbek & Rica – Des chercheurs de Google ont généré une forme de vie numérique autoreproductible

By |July 24th, 2024|Categories: Scoop.it|

Des chercheurs de Google et de l’université de Chicago ont tenté de lever le voile sur les mystères de l’origine de la vie sur Terre. Lors de simulations numériques visant à reproduire les conditions d’émergence du vivant, ils sont parvenus à créer des formes de vie numériques auto-reproductibles. Explications. Emilie Echaroux - 19 juillet 2024 C’est l’un des grands mystères qui planent sur l’origine de la vie. Comment sommes-nous passés de l’inerte au vivant ? Les scientifiques, à commencer par le naturaliste britannique Charles Darwin et le biochimiste russe Alexandre Oparine, s’échevèlent depuis des siècles pour comprendre comment des molécules simples se sont assemblées – aux commencements de la Terre – de sorte à former des molécules plus complexes et engendrer la vie. Afin de répondre à cette question encore en suspens, des chercheurs de Google et de l’université de Chicago ont simulé l’émergence de la vie biologique sur ordinateur. Dans une étude rendue publique le 27 juin dernier, mais encore en attente d’évaluation par des pairs, les scientifiques racontent avoir utilisé un langage de programmation dénommé « Brainfuck » qui n’autorise que deux opérations mathématiques – ajouter un ou soustraire un – et l’avoir modifié pour permettre à des données aléatoires d’interagir entre elles. « Livrées à elles-mêmes », ces données ont pu « appliquer (des lignes, ndlr) de code et les réécrire, ainsi que celles de leurs voisines, sur la base de leurs propres instructions », précise l’étude. Contre toute attente, et malgré des conditions limitées d’évolution des données, la simulation a finalement conduit à l’émergence de programmes autoréplicateurs. Dans la foulée, de nouveaux types de réplicateurs sont apparus, se sont disputés l’espace et ont parfois submergé et remplacé la population de données précédente, à la manière d’une sélection naturelle 2.0. « Soupe numérique » Inspirés par le concept de « soupe primitive », les chercheurs de Google et de l’université de Chicago ont créé une « soupe numérique » composée de dizaines de milliers de bribes de code informatique mélangées. « Chaque programme se compose de 64 caractères d’un octet qui sont initialisés de manière aléatoire, précise le rapport. Dans ces simulations, aucun nouveau programme n’est généré ou supprimé – le changement ne se produit que par l’auto-modification ou des mutations aléatoires ». Après avoir laissé ces données aléatoires évoluer sur plusieurs millions de générations, la plupart se sont combinées pour générer un code plus complexe et, dans 40 % des cas, des autoréplicateurs ont émergé. Si cette expérience ne nous apprend rien de concret sur l’origine de la vie biologique, elle révèle tout de même qu’il existe des mécanismes inhérents permettant de créer de la complexité à partir d’un élément inerte. « Parvenir à faire évoluer des programmes autoréplicatifs à partir de points de départ aléatoires est une grande réussite », se réjouit l’informaticienne britannique Susan Stepney, qui n’a pas participé à l’étude, dans les colonnes du magazine New Scientist. Une réussite à nuancer Mais quel est l’apport réel de cette expérimentation dans la compréhension des origines de la vie ? Et, surtout, que compte en faire Google ? Ces recherches ont-elles un rapport avec son obsession pour l’IA ? Contactés, les auteurs de l’étude n’ont pas répondu à nos questions. Mais quelles que soient leurs ambitions, les chercheurs seront inévitablement limités par la puissance de calcul de leurs machines à court terme. « Si l’on veut un comportement plus intéressant, si l’on veut que les [données] se mangent les unes les autres, qu’il y ait une guerre entre les différentes espèces (etc), cela nécessitera tellement de calculs que nous ne pourrons pas le faire dans la pratique », a déclaré au New Scientist Ben Laurie, ingénieur logiciel chez Google. L’une des simulations menée par le chercheur a nécessité, à elle seule, le traitement d’environ 3 milliards d’instructions par seconde. Rien que ça.

Load More Posts