HOSPITALITY LAB & PRACTICE FOR BRANDS

Blog2017-10-23T13:43:48+00:00

GDPR : L’hospitalité des marques fait loi en Europe.

GDPR : L’hospitalité des marques fait loi en Europe.

En imposant aux marques de privilégier l’intérêt de leurs clients dans la gestion des données qu’elles détiennent, l’Europe fait de l’hospitalité le vecteur principal de leur croissance.

1. AUJOURD’HUI, LA CROISSANCE DES MARQUES PASSE PAR LA QUALITÉ DE LEUR RELATION CLIENTS.

Dans un monde digital, « Les Marchés sont des Conversations ».

Dès 1999, Doc Searls et ses co-auteurs avaient mis cette idée au coeur de leur “Clue Train Manifesto” (Manifeste des Evidences) (1), démontrant alors avec brio comment le développement du “capital relationnel” de la marque pouvait devenir le principal moteur de la croissance des entreprises.

L’arrivée des sites internet dans la fin des années 1990 avait eu en effet le mérite de faire prendre conscience qu’il pouvait se nouer une relation directe entre l’entreprise et ses clients, sans passer par un distributeur ; et que ces nouveaux liens produisaient énormément de données qu’il était probablement intéressant d’exploiter : ainsi, pour développer plus loin l’idée du “Clue Train”, lorsqu’il s’agit de générer une croissance durable des ventes et des profits, les meilleurs atouts de la marque sont sa légitimité à susciter des échanges autour de son coeur de métier (Conversation), son intelligence à les analyser (Curation), sa capacité à apporter des réponses adaptées aux besoins exprimés (Customization), et finalement son empathie relationnelle, propre à mettre le client en résonance avec la marque (Communion). Autant d’atouts qui précèdent dorénavant la simple « qualité des produits » mis au catalogue, autrefois le principal fer de lance des entreprises.
Une vision depuis partagée par Interbrand(2), qui dans sa publication annuelle du classement de la valeur des marques insiste sur le fait que “la croissance est la conséquence d’une stratégie claire et d’expériences exceptionnelles délivrées au consommateur”.
Voici donc venu le temps pour les marques soucieuses de croissance durable de passer un nouveau contrat relationnel avec leurs consommateurs, où l’achat et la livraison du produit n’est plus la fin mais le début de la relation : un contrat qui couvre d’abord l’usage, et l’expérience qui l’accompagne. Un contrat qui est aussi l’occasion de proposer de nouveaux moments de consommation, de nouveaux services, qui sont autant de chiffre d’affaires supplémentaire pour les marques. Mais un contrat relationnel d’abord fondé sur le respect de l’intérêt du client, notamment en matière d’utilisation de ses données.

 

2. GDPR : UNE RÉGLEMENTATION POUR SAISIR DE NOUVELLES OPPORTUNITÉS DE CROISSANCE.

Selon une étude récente de la Commission Européenne(3), 72% des Européens s’inquiètent en effet de laisser trop de données personnelles aux entreprises, souvent à leur insu, et surtout de ne pas en recevoir de réelle contrepartie. D’ailleurs, la connaissance plus précise du client semble ne faciliter en rien la capacité de l’entreprise à mieux cibler ses offres : selon tous les indicateurs(4), le taux d’ouverture des mails diminue alors que les désabonnements (opt-out) augmentent, ce qui fragilise largement la rentabilité des investissements lourds consentis dans le CRM.
La Commission souligne également que le marché en ligne est constitué à 57% d’échanges avec des opérateurs américains, alors que seulement 4% des échanges se font au travers d’opérateurs pan-européens. Elle estime que si les 100 plus grosses entreprises Européennes faisaient un usage judicieux de leurs données clients, le PNB Européen pourrait s’octroyer 1,9% de progression supplémentaire d’ici 2020, soit plus de 200 Milliard d’Euros de gain potentiel.
C’est avant tout à cette opportunité de croissance que la GDPR s’attaque : permettre une meilleure utilisation des données pour les entreprises grâce à un consentement avéré des consommateurs, favoriser les échanges intra-européens au sein d’un univers mieux sécurisé. Loin d’être une contrainte, la GDPR est une chance de développement de nouvelles sources de revenus pour les marques européennes : elle conduit à un modèle de croissance durable rendu possible par une approche choisie et non plus subie de la consommation. Avec la GDPR, les marques doivent négocier avec chacun de leurs clients un contrat relationnel : elles doivent se mettre à l’écoute, comprendre les besoins, proposer leurs services, et définir les modalités de la relation ; le tout dans la transparence ( accès aux données, droit de modification) qui établit la confiance, l’attachement. Les marques deviennent alors attachantes dans le bon sens du terme, et c’est de cet attachement que nait la croissance durable.
C’est à ce nouveau modèle relationnel qu’appellait lui-même Doc Searls dans son “Clue Train Manifesto” : il lui avait même trouvé un nom, la VRM (Vendor Relationship Management). Une approche basée sur le consentement avéré du client vis à vis de ses fournisseurs (vendeurs) avec un postulat simple : “un consommateur libre a plus de valeur qu’un consommateur captif – pour lui-même, pour les marques et pour l’économie en général”.
Encore faut-il s’entendre sur la définition du consommateur “libre”. Searls le définit en cinq points :
1. Il entre en relation avec les marques de manière indépendante et sans contrainte.
2. Il est le point d’intégration de sa propre donnée (c’est lui seul qui peut relier sa donnée à sa personne).
3. Il a le contrôle de la donnée qu’il génère et collecte. Il décide de ce qu’il veut partager, à qui et comment.
4. Il définit son propre niveau d’engagement avec les marques.
5. Il est libre d’exprimer ses exigences et ses intentions en dehors du contrôle de toute entreprise.
C’est ce consommateur “libre” que la GDPR souhaite aujourd’hui promouvoir, afin d’en faire le vecteur de croissance de l’économie.

3. L’HOSPITALITE DES MARQUES, PRINCIPAL VECTEUR DE LEUR PROPRE CROISSANCE.

Accueillir un consommateur “libre” est sans doute une perspective qui effraie bon nombre de marques, tant elle ont été construites sur la notion d’un marketing manipulateur et insidieux, capable d’influencer jusqu’aux émotions pour enfermer les clients dans un tunnel de vente dont la seule issue est l’achat du produit. Avec la GDPR, ce n’est plus le produit qu’il va falloir vendre, c’est la marque qui doit apprendre à se faire acheter. Et pour cela, il va falloir qu’elle se montre hospitalière vis à vis de ses clients : bienveillante, humaine et proche.
Le produit devient simplement la porte d’entrée à la marque, celui qui va forger les impressions de la première rencontre, et donc le début (et non la fin) de l’histoire. Le produit n’est plus qu’un prétexte, c’est la marque qui devient le réel support de l’expérience pour le consommateur : c’est d’ailleurs à elle qu’il va naturellement s’adresser s’il a besoin d’assistance ou s’il a simplement des remarques à formuler. À la marque de se montrer engageante, accueillante, généreuse et humaine pour fidéliser le consommateur au-delà du premier produit, et pour entretenir une relation proche, intime, qui permettra de continuer à vendre sans qu’il soit besoin de déployer la coûteuse armada publicitaire du premier jour : avoir une stratégie à long terme d’entretien de la relation, plutôt que de s’épuiser dans des efforts permanents de recrutement.
Autant le “tunnel de vente” était indifférencié et anonyme, donc étranger à toute notion d’hospitalité, autant le “cycle de décision d’achat” est personnalisé et fait appel à la relation humaine : c’est de la capacité de la marque à accueillir que dépend la fidélisation du client, et encore plus, sa propension à devenir activement promoteur vis à vis de ses pairs. Pour le dire différemment, c’est du niveau d’hospitalité de la marque que va découler l’amplitude de la réalisation du cycle d’achat, et donc le montant de la valeur créée.
Autant le “tunnel de vente” s’envisageait dans un temps le plus court possible, avec l’espoir de limiter la durée d’exposition nécessaire pour déclencher l’achat afin de réduire les coûts, autant le “cycle de décision d’achat” s’inscrit dans la durée la plus longue possible afin de maximiser les revenus. En se plaçant dans une notion de permanence, on met forcément en exergue la qualité de l’hospitalité, seule capable de générer de la pérennité dans la relation.
Plus le consommateur progresse avec la marque, plus la marque fait preuve de « disponibilité » vis à vis des demandes du consommateur, plus se crée la confiance dans la relation, le consommateur récupérant de plus en plus de valeur d’usage en retour de sa relation avec la marque, la marque obtenant de plus en plus de “permissions” qui lui permettent d’aller encore plus loin dans son service du consommateur.
C’est bien là le cercle vertueux de l’hospitalité des marques : un marketing “on demand” (inbound marketing), un marketing de l’échange, de la confiance, de la permission, du partage de la valeur, où les clients sont aussi des hôtes ; un marketing qui se définit d’abord par rapport au client pour qu’il puisse adopter lui-même la marque, la faire sienne et en devenir à son tour le porte-parole…
Alors que la GDPR fait des marques le gibier de consommateurs devenus madrés, l’hospitalité est la meilleure réponse pour faire de ces mêmes marques les plus désirables des proies : avec bienveillance, humanité et intimité. Assurant ainsi la pérennité de leur croissance.

4. QUELLES APPROCHES POUR LES MARQUES FACE A LA GDPR ?

Ce serait peine perdue pour les marques que de se contenter de « mettre en conformité » leur bases de données tout en espérant garder les mêmes pratiques relationnelles. Car la GDPR est d’abord une invitation à renverser ses pratiques relationnelles pour faire montre d’hospitalité vis à vis de ses clients ; et c’est ce renversement d’attitude qui est lui même porteur de croissance pour les marques. Avec la GDPR, l’hospitalité ouvre pour les marques de nouvelles perspectives de croissance.
Une étude publiée en Mai dernier par le gouvernement Britannique4 s’était alarmée sur le fait que seulement 30% des grandes entreprises du pays avaient commencé à prendre les mesures nécessaires à la mise en conformité de leurs pratiques d’utilisation des données, alors que la transcription dans la loi Britannique vient d’être réalisée en ce mois d’Août, et qu’elle survivra au Brexit. Les autres pays feront-ils preuve de la même insouciance, par rapport à une échéance qui dans la plupart des pays européens, a été fixée à Mai 2018 ?
La GDPR transforme radicalement la manière dont les entreprises utilisent les données. Il va falloir arrêter d’acheter des listes d’adresses, et même se débarasser des listes qu’on aura pu acheter auparavant. Contacter un client exigera d’avoir les permissions nécessaires, sauf à s’exposer à des amendes prévues pour atteindre jusqu’à 4% du chiffre d’affaires.
Il n’y aura donc pas d’échappatoires.
Mais n’est-ce pas justement l’opportunité d’une prise de conscience salutaire dans le futur de la relation client ? Quelle marque aujourd’hui a encore besoin d’avoir accès à des millions de noms dont simplement un infime pourcentage montre un intérêt pour ses propositions ? Ne vaudrait-il pas mieux établir une véritable relation avec moins de clients mais qui ont un véritabe intérêt à avoir un dialogue, un échange, une conversation avec la marque ?
N’est-il pas temps, tout simplement, que les marques apprennent à devenir hospitalières vis à vis de leurs clients ?
Et si la GDPR n’était qu’un manifeste pour l’hospitalité des marques ? Une manière de sauver les marques traditionnelles à l’heure du digital ? La dernière opportunité à saisir avant liquidation ou reprise par les acteurs de la nouvelle économie ?
En développant leur hospitalité pour se mettre en conformité avec la GDPR, ce n’est pas tant l’amende que les marques vont éviter, c’est leur futur qu’elle vont assurer.
Aucune raison d’attendre. Embrassons la GDPR en développant l’hospitalité des marques (5).

 

 

(1) Le Cluetrain Manifesto (Manifeste des évidences) est un texte rédigé par Rick Levine, Christopher Locke, Doc Searls, et David Weinberger. Il est d’abord diffusé sur le web en 1999 comme un ensemble de quatre-vingt-quinze thèses, puis est publié sous forme de livre en 2000 avec les thèses prolongées de sept essais. https://www.amazon.com/Cluetrain-Manifesto-End-Business-Usual/dp/0738204315
(2) Etude 2016 Interbrand : http://interbrand.com/best-brands/best-global-brands/2016/
(3) Etude de la Commission Européenne : https://ec.europa.eu/commission/publications/why-we-need-digital-single-market_en
(4) Citée par Tanya Joseph dans le magazine Marketing Week (UK) du 7 Août 2017, New data laws are a chance to reset customer relationships : https://www.marketingweek.com/2017/08/07/tanya-joseph-data-law/
(5) Cf, “Manifeste pour l’Hospitalité des Marques”, Georges-Edouard DIAS, Edition Netexplo : https://www.amazon.fr/dp/2954667230/

Cryptos : le gendarme boursier américain autorise les ETF sur l’ether

By |July 24th, 2024|Categories: Scoop.it|

Après avoir autorisé à contrecoeur les ETF bitcoin en janvier, la Securities and Exchange Commission (SEC) a approuvé lundi les premiers fonds indiciels cotés (ETF) investis en ether. L'autorisation du gendarme boursier américain ouvre ainsi la voie à leur négociation imminente. Deuxième cryptomonnaie en termes de capitalisation derrière le bitcoin, l'ether est la monnaie de la blockchain Ethereum. « L'approbation de la SEC et le lancement des ETF Ethereum marquent l'acceptation de cette nouvelle classe d'actifs numériques », s'est félicité Greg Moritz, directeur de l'exploitation et cofondateur d'Alt Tab Capital, un fonds spéculatif crypto. Selon Bloomberg, 21Shares AG, Bitwise Asset Management, BlackRock, Invesco, Franklin Templeton, Fidelity Investments et VanEck figurent parmi les acteurs ayant reçu l'assentiment de la SEC. « Nos clients sont de plus en plus intéressés par une exposition aux actifs numériques par le biais de produits négociés en Bourse qui offrent un accès pratique, de la liquidité et de la transparence », a déclaré dans un communiqué Jay Jacobs, responsable américain des ETF thématiques et actifs chez BlackRock. Coinbase, dépositaire de 8 des 9 nouveaux ETF ether approuvés, a salué une décision qui devrait faciliter «l'investissement dans les cryptomonnaies». « Utilité réelle » Fin mai, la SEC avait ouvert la voie à ce lancement sur le marché en approuvant les demandes d'enregistrement du Nasdaq, du CBOE et du Nyse pour des fonds cotés en Bourse liés à l'ether. Selon Wintermute Trading, les analystes s'attendent à des entrées de 4,8 milliards à 6,4 milliards de dollars pour les produits ether au cours de cette première année de lancement. « Nous pensons que la demande réelle pourrait être inférieure et se situer entre 3,2 et 4 milliards de dollars », estime toutefois la société dans un rapport. Des chiffres bien inférieurs à ceux observés pour les ETF bitcoin. Depuis janvier, ces derniers ont enregistré des entrées nettes d'environ 17 milliards de dollars. LIRE AUSSI : DOSSIER : Faut-il investir ou fuir les cryptoactifs ? La SEC a infligé 5 milliards de dollars de pénalités sur un an Selon Greg Moritz, le bitcoin, avant tout considéré comme une monnaie d'échange ou un instrument spéculatif, « a prospéré grâce à l'idée qu'il est l'équivalent numérique de l'or », tandis que la valeur de l'ether « est principalement liée à son utilité réelle, car il est le point de départ de milliers d'applications ». En donnant son feu vert, le gendarme boursier américain envoie le signal d'un assouplissement du climat réglementaire à l'égard des actifs numériques aux Etats-Unis. Dès son arrivée à la Maison-Blanche en 2021, Joe Biden a affiché son ambition de clarifier les règles de fonctionnement du secteur et de le réguler davantage pour protéger les investisseurs américains. La faillite retentissante de la plateforme FTX fin 2022 n'a fait que renforcer cette volonté. Le président de la SEC Gary Gensler a depuis mené une vaste offensive contre cet écosystème, en prenant notamment pour cible Binance et Coinbase, les deux principales plateformes d'échanges de cryptos. L'annonce, dimanche, du retrait de Joe Biden de la course à la présidentielle a ainsi été très favorablement accueillie par les investisseurs, qui font le pari d'une victoire du candidat Donald Trump. Ce dernier a multiplié les promesses à l'égard du secteur et a dénoncé à plusieurs reprises le durcissement de la régulation.

Finalement, Google ne supprimera pas les cookies tiers sur Chrome

By |July 24th, 2024|Categories: Scoop.it|

Ah ! Comme dirait ce bon vieux Denis. Après de nombreux articles et de nombreuses heures facturées par les cabinets de consulting, Google a finalement décidé de ne plus supprimer les cookies tiers de son navigateur Chrome. En 2020, le géant de Mountain View annonçait vouloir mettre fin à ces petits fichiers texte qui permettent de tracer notre navigation à des fins statistiques ou publicitaires. L’échéance était prévue pour 2022, pour finalement être repoussée à 2023. Cette annonce avait fait trembler les marketeurs, qui se demandaient comment ils feraient pour cibler les consommateurs en ligne. En fin de compte, il semblerait que leur disparition n’aura pas lieu (pour le moment). A lire également : La suppression des cookies tiers signe-t-elle la mort de la publicité ciblée ? Sur le blog de The Privacy Sandbox, l’initiative créée par Google qui vise à concevoir des technologies qui protègent la confidentialité des utilisateurs en ligne, on peut lire : « Au lieu de supprimer les cookies tiers, nous introduirions une nouvelle expérience dans Chrome qui permettrait aux utilisateurs de faire un choix éclairé qui s’appliquerait à l’ensemble de leur navigation sur le web, et ils seraient en mesure d’ajuster ce choix à tout moment. Nous discutons de cette nouvelle voie avec les régulateurs, et nous nous engagerons avec l’industrie au fur et à mesure que nous la mettrons en place. » Cookie or not cookie, telle est la question On peut donc comprendre que les utilisateurs de Chrome pourront choisir d’activer ou non les cookies tiers sur leur navigateur. Reste à savoir ce que les régulateurs en pensent. Google dit travailler avec le bureau du commissaire à l’information (ICO) et l’autorité de la concurrence et des marchés (CMA) et du Royaume-Uni. Cette dernière a fait savoir qu’elle allait « examiner attentivement la nouvelle approche de Google en matière de Privacy Sandbox » et invite tous les consommateurs à faire part de leurs retours jusqu’au 12 août. « Il est important que les développeurs disposent d’alternatives permettant de préserver la vie privée. », précise Google. Suite à l’annonce, les actions des entreprises du secteur de l’adtech ont grimpé à la Bourse, dont celle de Criteo.

Les résultats d’Alphabet portés par le cloud

By |July 24th, 2024|Categories: Scoop.it|

Des revenus de 85 milliards de dollars, en hausse de 14 % (le double de l'an dernier), dégageant une marge d'exploitation de 32 % (en hausse de 3 points) et 24 milliards de bénéfice net. Même si la croissance a ralenti par rapport au premier trimestre de l'année, Alphabet a affiché des résultats impressionnants pour le deuxième trimestre de son exercice en cours. La maison mère de Google explique cette performance par la bonne tenue de l'activité de recherche sur Internet, son activité historique, et le dynamisme de sa branche cloud, un métier d'hébergement de services informatiques sur lequel il est challenger d'Amazon et Microsoft mais dépasse toute de même pour la première fois les 10 milliards de revenus sur un seul trimestre, ce qui permet de passer le milliard de produits d'exploitation. La croissance de l'activité approche les 30 %. « Notre forte performance ce trimestre souligne notre force dans le search et notre dynamisme dans le cloud, s'est ainsi félicité Sundar Pichai, le patron d'Alphabet. Nous innovons à chaque étage de l'écosystème de l'intelligence artificielle ». Stable après la clôture de Wall Street L'action Alphabet restait à peu près stable (+1 %) dans les échanges après Bourse, malgré des indicateurs de comptes de résultat supérieurs au consensus des attentes des investisseurs. Mais Google a progressé de 30 % depuis le début de l'année et capitalise 2.260 milliards de dollars. LIRE AUSSI : Bourse : la saison des résultats de tous les dangers pour la Big Tech à Wall Street Seule petite ombre au tableau, YouTube a vu ses revenus croître de 13 %, à 8,7 milliards, mais c'est un peu en deçà des attentes des marchés. Les revenus publicitaires, le moteur du groupe, progressent de 11 %, à 66 milliards, une hausse moins rapide qu'au trimestre précédent. Les investissements de la société ont grimpé de 1 milliard à 13 milliards entre le premier et le deuxième trimestre, notamment pour bâtir des data centers et faire tourner le modèle maison d'intelligence artificielle, Gemini. Sundar Pichai a expliqué que l'IA générative d'Alphabet générait «des milliards» de revenus et étaient utilisée par 2 millions de développeurs. «Le risque de sous-investir est dramatiquement plus élevé que celui de surinvestir», a-t-il lancé aux investisseurs qui assistaient hier aux premiers résultats d'un des Sept Magnifiques pour cette saison de trimestriels.

Meta prive les Européens de son nouveau modèle d’IA générative

By |July 24th, 2024|Categories: Scoop.it|

Les Européens seront privés des avancées dans l'intelligence artificielle de Meta. En tout cas, il n'y aura pas de nouveau modèle d'IA générative du groupe sur le Vieux Continent. La maison mère de Facebook et Instagram a reporté sine die le lancement de la nouvelle version de Llama 3 , dite multimodale, c'est-à-dire un modèle de langage permettant d'utiliser et de créer du texte, mais aussi des images ou des cartes. Ce modèle n'est pas encore sorti ailleurs, mais il doit arriver « dans les prochains mois », en dehors des frontières de l'Union européenne, comme le précise l'AFP. Selon le média « Axios » , qui a révélé l'information, Meta invoque un manque de clarté des autorités de régulation, parlant de « la nature imprévisible de l'environnement réglementaire européen ». L'annonce peut-être aussi interprétée comme une forme de coup de pression à l'égard des régulateurs. Smartphones, lunettes, etc. La nouvelle IA du groupe californien doit être incorporée dans une large gamme de produits comme les smartphones ou les lunettes connectées . De fait, selon Meta, les entreprises européennes ne pourront pas utiliser ses modèles multimodaux, même ceux en accès ouvert. Même « punition » pour les entreprises hors de l'UE qui voudraient vendre leurs produits en Europe. LIRE AUSSI : Avec Llama3, Meta intègre l'IA dans toutes ses applis « Dans l'intelligence artificielle, il n'y aura pas la victoire d'une entreprise sur une autre », dit Yann LeCun Vraisemblablement, ce n'est pas l'IA Act - la réglementation sur l'IA qui a été votée en Europe » - qui pose problème à Meta mais plutôt le RGPD (règlement général sur la protection des données) . Précisément, pour entraîner ses modèles, comme toute société d'IA, Meta a besoin d'énormément de données. Or, le groupe a indiqué il y a quelques semaines qu'il prévoyait d'utiliser les posts publics des utilisateurs de Facebook et Instagram pour cet entraînement. Dans ce but, il assure avoir envoyé plus de deux milliards de notifications à ses utilisateurs dans l'UE, pour leur dire qu'ils pouvaient refuser (c'est-à-dire exercer leur droit d'opposition ou « opt-out »). Meta a aussi prévenu les régulateurs européens. « Un coup de force » Mais, en juin, Meta aurait été contraint de suspendre l'entraînement de ses modèles avec des données européennes et aurait reçu des questions de la part des régulateurs européens. Toujours selon « Axios », un représentant de Meta aurait déclaré que les régulateurs européens prenaient beaucoup plus de temps pour interpréter la loi que leurs homologues d'autres régions. Par exemple, le régulateur britannique lui a fait parvenir des directives plus claires. LIRE AUSSI : DECRYPTAGE - Pourquoi Facebook se détourne de l'actualité et de la politique ChatGPT, Gemini, Claude, Le Chat… Quelle IA choisir ? Selon un avocat, il est possible que les incertitudes sur les positions différentes des équivalents des CNIL dans les différents Etats membres posent problème à Meta pour utiliser les données. « J'y vois plus un coup de force de Meta pour demander davantage de souplesse, souligne Alan Walter, avocat associé chez Walter Billet. Je ne vois pas quelles sont les incertitudes invoquées par Meta : on connaît bien les conditions d'application du RGPD : il faut informer les personnes et déterminer la base légale prévue - notamment, demander le consentement des utilisateurs ou faire un contrat avec les utilisateurs - et expliciter aux régulateurs la manière dont on va protéger les données ». Cette annonce illustre, en tout cas, les tensions qui existent entre les géants de la technologie américains et les autorités européennes, considérées comme plus strictes. Et ce n'est pas la première fois. Fin juin, Apple avait renvoyé à plus tard le lancement de son système d'IA générative en Europe, invoquant des « incertitudes réglementaires » sur le règlement européen sur les marchés numériques (DMA). Contacté par « Les Echos », Meta ne donne pas plus d'informations.

Opinion | L’IA face au paradoxe de Solow

By |July 24th, 2024|Categories: Scoop.it|

L'intelligence artificielle (IA) est sans doute l'une des innovations technologiques les plus marquantes de ces dernières années, promettant de transformer divers secteurs d'activité et d'améliorer considérablement la productivité économique. Cependant, cette promesse se heurte à une observation paradoxale énoncée par l'économiste Robert Solow (1924-2023) - pionnier de la théorie de la croissance, prix Nobel d'économie pour une nouvelle approche de la croissance économique et de la part imputable à l'innovation technologique -, en 1987 : « Vous pouvez voir des ordinateurs partout, sauf dans les statistiques de productivité ». Ce paradoxe, connu sous le nom de paradoxe de Solow, soulève des questions cruciales sur la manière dont les avancées technologiques se traduisent (ou non) en gains de productivité mesurables. Le paradoxe de Solow s'appuie sur l'observation que malgré l'adoption massive des technologies de l'information et de la communication (TIC) depuis les années 1970, les taux de croissance de la productivité ne montrent pas l'amélioration attendue. Pas d'essor de la productivité Plusieurs explications ont été avancées pour expliquer ce phénomène. Parmi elles, on trouve le temps nécessaire pour que les entreprises réorganisent leurs processus autour des nouvelles technologies, ainsi que l'idée que les investissements en TIC peuvent d'abord entraîner des coûts avant de générer des bénéfices substantiels. En d'autres termes, une transformation profonde des organisations doit s'opérer pour être efficiente dans l'utilisation de ces technologies. LIRE AUSSI : TRIBUNE - Productivité : l'ère du numérique empêtrée dans le taylorisme DECRYPTAGE - Productivité du travail : la chute en France a été moins brutale qu'estimé L'IA, avec ses applications en apprentissage automatique, analyse prédictive et automatisation, semble être une nouvelle phase de cette révolution technologique. Cependant, pourquoi ne voyons-nous pas encore une augmentation spectaculaire de la productivité malgré l'enthousiasme suscité par l'IA ? Plusieurs facteurs peuvent expliquer cette situation : l'adoption de l'IA nécessite des investissements considérables en termes de temps, d'argent et de formation. Les entreprises doivent acquérir des technologies coûteuses, réorganiser leurs processus internes et former leur personnel . La courbe d'apprentissage est significative. L'IA requiert de grandes quantités de données pour être efficace. La collecte, le nettoyage et l'analyse de ces données sont longs et complexes. Les entreprises doivent expérimenter et affiner leurs modèles avant d'obtenir des résultats tangibles. L'un des principaux obstacles à l'adoption de l'IA est la nécessité de former adéquatement la main-d'oeuvre. Les compétences requises pour développer, mettre en oeuvre et maintenir des systèmes d'IA sont spécialisées et en constante évolution. Il est crucial que les entreprises investissent dans la formation continue de leurs employés pour qu'ils puissent s'adapter aux nouvelles technologies. Sans une force de travail qualifiée, même les technologies les plus avancées ne pourront pas être pleinement exploitées. L'hybridation des compétences, souvent indispensable de nos jours, est de plus en plus sollicitée par les entreprises. Elle est une des clés pour réussir la complémentarité avec l'IA. Elle permet d'offrir aux salariés et à l'entreprise un cadre d'analyse plus holistique, ce qui favorise l'innovation et la créativité. Adopter une vision holistique Pour surmonter le paradoxe de Solow dans le contexte de l'IA, il est crucial de revoir et d'adapter nos méthodes de mesure de la productivité . Les gains apportés par l'IA pourraient se manifester sous forme d'innovations qualitatives qui ne se traduisent pas immédiatement en termes de production ou de ventes accrues. Par exemple, une meilleure personnalisation des services clients ou des diagnostics médicaux plus précis grâce à l'IA sont des avancées dont les effets positifs pourraient ne se faire sentir qu'à long terme. De plus, l'IA pourrait créer de nouvelles opportunités économiques et des modèles d'affaires innovants qui échappent aux mesures traditionnelles. Par exemple, les plateformes d'économie de partage comme Uber ou Airbnb, qui reposent en grande partie sur des algorithmes d'IA pour optimiser l'offre et la demande , ont redéfini la façon dont nous comprenons la productivité et l'efficacité économique. LIRE AUSSI : TRIBUNE - Il faut cesser de mesurer la productivité DECRYPTAGE - Productivité, intelligence artificielle : les experts Le paradoxe de Solow reste un cadre pertinent pour analyser l'impact des nouvelles technologies, y compris l'IA, sur la productivité. Toutefois, pour vraiment comprendre et mesurer l'impact de l'IA, il est essentiel d'adapter nos indicateurs économiques et d'adopter une vision plus holistique de la productivité. En reconnaissant les défis d'adoption, les délais d'implémentation, l'enjeu crucial de la formation hybride et les gains qualitatifs apportés par l'IA, nous pourrions être mieux préparés à capturer les véritables avantages de cette révolution technologique . Seul le temps dira si l'IA parviendra à briser le paradoxe de Solow ou si nous devrons continuer à réévaluer nos attentes et nos méthodes de mesure de la productivité dans une ère de changement technologique rapide et permanent. Anthony Hié est Chief Innovation & Digital Officer chez Excelia.

Usbek & Rica – Des chercheurs de Google ont généré une forme de vie numérique autoreproductible

By |July 24th, 2024|Categories: Scoop.it|

Des chercheurs de Google et de l’université de Chicago ont tenté de lever le voile sur les mystères de l’origine de la vie sur Terre. Lors de simulations numériques visant à reproduire les conditions d’émergence du vivant, ils sont parvenus à créer des formes de vie numériques auto-reproductibles. Explications. Emilie Echaroux - 19 juillet 2024 C’est l’un des grands mystères qui planent sur l’origine de la vie. Comment sommes-nous passés de l’inerte au vivant ? Les scientifiques, à commencer par le naturaliste britannique Charles Darwin et le biochimiste russe Alexandre Oparine, s’échevèlent depuis des siècles pour comprendre comment des molécules simples se sont assemblées – aux commencements de la Terre – de sorte à former des molécules plus complexes et engendrer la vie. Afin de répondre à cette question encore en suspens, des chercheurs de Google et de l’université de Chicago ont simulé l’émergence de la vie biologique sur ordinateur. Dans une étude rendue publique le 27 juin dernier, mais encore en attente d’évaluation par des pairs, les scientifiques racontent avoir utilisé un langage de programmation dénommé « Brainfuck » qui n’autorise que deux opérations mathématiques – ajouter un ou soustraire un – et l’avoir modifié pour permettre à des données aléatoires d’interagir entre elles. « Livrées à elles-mêmes », ces données ont pu « appliquer (des lignes, ndlr) de code et les réécrire, ainsi que celles de leurs voisines, sur la base de leurs propres instructions », précise l’étude. Contre toute attente, et malgré des conditions limitées d’évolution des données, la simulation a finalement conduit à l’émergence de programmes autoréplicateurs. Dans la foulée, de nouveaux types de réplicateurs sont apparus, se sont disputés l’espace et ont parfois submergé et remplacé la population de données précédente, à la manière d’une sélection naturelle 2.0. « Soupe numérique » Inspirés par le concept de « soupe primitive », les chercheurs de Google et de l’université de Chicago ont créé une « soupe numérique » composée de dizaines de milliers de bribes de code informatique mélangées. « Chaque programme se compose de 64 caractères d’un octet qui sont initialisés de manière aléatoire, précise le rapport. Dans ces simulations, aucun nouveau programme n’est généré ou supprimé – le changement ne se produit que par l’auto-modification ou des mutations aléatoires ». Après avoir laissé ces données aléatoires évoluer sur plusieurs millions de générations, la plupart se sont combinées pour générer un code plus complexe et, dans 40 % des cas, des autoréplicateurs ont émergé. Si cette expérience ne nous apprend rien de concret sur l’origine de la vie biologique, elle révèle tout de même qu’il existe des mécanismes inhérents permettant de créer de la complexité à partir d’un élément inerte. « Parvenir à faire évoluer des programmes autoréplicatifs à partir de points de départ aléatoires est une grande réussite », se réjouit l’informaticienne britannique Susan Stepney, qui n’a pas participé à l’étude, dans les colonnes du magazine New Scientist. Une réussite à nuancer Mais quel est l’apport réel de cette expérimentation dans la compréhension des origines de la vie ? Et, surtout, que compte en faire Google ? Ces recherches ont-elles un rapport avec son obsession pour l’IA ? Contactés, les auteurs de l’étude n’ont pas répondu à nos questions. Mais quelles que soient leurs ambitions, les chercheurs seront inévitablement limités par la puissance de calcul de leurs machines à court terme. « Si l’on veut un comportement plus intéressant, si l’on veut que les [données] se mangent les unes les autres, qu’il y ait une guerre entre les différentes espèces (etc), cela nécessitera tellement de calculs que nous ne pourrons pas le faire dans la pratique », a déclaré au New Scientist Ben Laurie, ingénieur logiciel chez Google. L’une des simulations menée par le chercheur a nécessité, à elle seule, le traitement d’environ 3 milliards d’instructions par seconde. Rien que ça.

Pauvreté laborieuse : une question de quantité de travail avant tout

By |July 24th, 2024|Categories: Scoop.it|

La pauvreté laborieuse, une question de durée de travail plus que de salaire horaire ? Alors que le sujet du pouvoir d'achat et, de manière corollaire, celui d' une augmentation du SMIC ont concentré une grande partie des débats des élections législatives, l'Insee apporte un éclairage important sur les déterminants et voies de sortie pour les millions de travailleurs qui peinent à joindre les deux bouts. Publié dans le cadre de l'édition 2024 de « La Revue consacrée à l'emploi, au chômage et aux revenus du travail », cet éclairage s'intéresse aux millions de salariés du privé dits « à bas revenus salariaux » de 2011-2019. En clair, à toutes celles et ceux de 24 à 62 ans dont les fiches de paye annuelle étaient dans les 20 % les plus faibles durant deux années consécutives sur la période considérée. Soit, en 2019, moins de 12.360 euros net (1.030 mensuels en moyenne), à comparer au salaire médian de 21.150 euros cette année-là. Femmes et temps partiel L'indigence du revenu salarial tient à un salaire horaire faible et/ou à un nombre d'heures travaillées limitées. Ce dernier facteur recouvrant des situations variées, rappelle l'auteur de l'éclairage, Emmanuel Berger (Dares). Cela va de l'étudiant qui prend des « petits boulots », au retraité qui a besoin d'un complément de fin de mois, en passant - c'est le gros des troupes - par tous les salariés (femmes majoritairement, dans des TPE plus fréquemment femmes et hommes mélangés) qui occupent une vingtaine de professions bien identifiées : nettoyeuse, aide à domicile, vendeuse, cuisinier, livreur, manutentionnaire non qualifié, etc. Toujours en 2019, la moitié des salariés à bas revenus salariaux ont travaillé moins de 755 heures, contre 1.813 heures pour tous les salariés (quasiment une année à temps plein à raison de 35 heures par semaine). « Toutes choses égales par ailleurs, un salarié à temps partiel a une probabilité d'avoir un bas revenu salarial environ cinq fois plus élevée que celle d'un salarié à temps plein », avance Emmanuel Berger. LIRE AUSSI : Quantité de travail : les Français toujours à la traîne mais en progrès En remontant le temps, l'étude montre que près de la moitié (46 %) des salariés du privé qui étaient dans une situation de bas revenus en 2011 alors âgés de 25 à 54 ans (*), l'était toujours en 2019. Notamment, 13 % d'entre eux le sont restés continûment. En cause, une surreprésentation de certains métiers mal payés - service aux particuliers, ouvrier non qualifié, artiste, etc. - et, toujours, un recours au temps partiel très majoritaire. En revanche, ces salariés « enfermés » dans les bas revenus salariaux ne l'ont pas été à cause de longues périodes non travaillées, 70 % d'entre eux ayant travaillé toute l'année en 2019, une proportion comparable à celle de l'ensemble des salariés, poursuit la Dares. L'autre moitié, et même un peu plus (54 %), a trouvé une échappatoire, avec des gains variables sur leurs fiches de paye. Parmi ceux, un sur dix, qui s'en sont sortis durablement en accédant aux 40 % de revenus les plus élevés, c'est l'augmentation du volume d'heures travaillées qui a le plus joué, plus que celle du salaire horaire. « Les salariés qui sortent des bas revenus salariaux sont plus fréquemment devenus cadres et ont plus souvent rejoint les secteurs de l'industrie ou des services mixtes », complète l'étude. (*) Ils avaient donc au moins 24 ans en 2010 et au plus 62 ans en 2019.

Ces travailleurs qui jouent les prolongations après la retraite

By |July 24th, 2024|Categories: Scoop.it|

En 2023, 77 % des personnes âgées de plus de 50 ans ayant pris leur retraite étaient en emploi au moment de liquider leurs droits, qu'elles aient atteint les conditions requises, l'âge maximal ou qu'elles aient été mues par des contraintes de santé ou familiales. Parmi elles, 87 % ont raccroché. Les autres (13 %) ont décidé de poursuivre leur carrière professionnelle. Quels sont leurs profils ? Leurs motivations ? Dans l'édition 2024 de son étude sur l'emploi, le chômage et les revenus du travail, l'Insee apporte des réponses inédites à même d'éclairer les débats dans l'hypothèse d'une remise en cause de la dernière réforme des retraites . L'analyse par niveau de qualification montre que les seniors qui restent en poste sont moins nombreux parmi les actifs peu ou pas diplômés (9 %) que parmi ceux diplômés du secondaire (12 %) et surtout du supérieur (18 %). « Par ailleurs, les personnes qui ont liquidé leurs droits à la retraite à l'âge de 63 ans ou plus continuent plus souvent de travailler dans les six mois qui suivent (18 %) », soulignent les auteurs de l'étude, Eliette Castelain, Aurélie Delaporte, et Nathan Rémila. Un salarié sur dix La poursuite d'une activité professionnelle concerne un tiers des indépendants toujours dans les six mois suivant le début de la perception de leur pension. Cela concerne surtout les commerçants (33 %) et dans une moindre mesure les artisans (25 %) ou les agriculteurs (23 %). Pour une partie d'entre eux, retraite est synonyme de vente de l'outil de travail, laquelle n'est pas totalement prévisible. Plus encore, 42 % des professions libérales, en moyenne plus diplômées, continuent à travailler après la liquidation de leurs droits.

Le poids de la finance de l’ombre inquiète les autorités

By |July 24th, 2024|Categories: Scoop.it|

Les risques systémiques liés à la finance de l'ombre sont une nouvelle fois pointés du doigt. Dans un rapport publié lundi, le Conseil de stabilité financière (CSF) alerte sur la difficulté de superviser ce secteur et prévient qu'il faudra plus de temps que prévu pour évaluer sa vulnérabilité aux chocs futurs. Le « shadow banking », comme le nomment les anglo-saxons, comprend en réalité toutes les activités financières non bancaires : gestion d'actifs (en particulier hedge funds et fonds monétaires), capital investissement, assurance… Il regroupe donc des entités très diverses, régulées par de multiples autorités. Ce qui complique leur surveillance. Dans une lettre publiée le même jour, le président du CSF Klaas Knot - qui est aussi gouverneur de la banque centrale néerlandaise - appelle les principaux ministres des finances du G20 et les gouverneurs des banques centrales à poursuivre leur action pour mieux encadrer la finance de l'ombre. Les autorités s'alarment depuis déjà plusieurs années de son poids croissant. Ses acteurs participent au financement de l'économie au même titre que les banques, tout en étant exempts des lourdes contraintes appliquées à la finance traditionnelle. Importance systémique Les exigences strictes en matière de fonds propres imposées aux banques à la suite de la crise de 2008 ont d'ailleurs participé à l'essor des fonds monétaires et autres prêteurs non bancaires. Selon le CSF, en 2022, la finance de l'ombre pesait 217.900 milliards de dollars, soit 47,2 % du total des actifs financiers mondiaux. Elle est aujourd'hui une source cruciale de financement pour de vastes pans de l'économie mondiale, et certains acteurs ont acquis une importance systémique. Or plusieurs incidents, à commencer par la crise des subprimes, ont montré que la finance non bancaire pouvait créer ou amplifier une crise systémique. « Alors que le souvenir des turbulences passées s'estompe et que l'optimisme quant à un atterrissage en douceur de l'économie mondiale s'accroît, il est important de souligner que les risques extrêmes demeurent », formule Klaas Knot. De fait, les récentes tensions géopolitiques et l'augmentation des niveaux d'endettement ravivent le spectre d'une crise financière. LIRE AUSSI : ANALYSE - Crise bancaire : la revanche de la finance de l'ombre DECRYPTAGE - Dette : la bombe à retardement des traders de l'ombre Selon Klaas Knot, si certains progrès ont été faits en matière de régulation, « le rythme de mise en oeuvre des politiques a été inégal d'une juridiction à l'autre et il se peut que nous soyons déjà en train de perdre notre élan ». Le CSF pointe notamment des lacunes en matière de collecte de données sur le secteur, liées à un manque de transparence et de partage d'informations. « Dans certains pays, il existe des obstacles juridiques au partage des données au sein d'un même marché », observe le CSF. Si les autorités pointent les risques inhérents au secteur dans son ensemble, les hedge funds, ces fonds souvent décrits comme spéculatifs, sont sans doute ceux qui ont donné le plus de sueurs froides aux régulateurs. Ces dernières années, ils ont été impliqués dans une série d'accidents aux répercussions mondiales. Parmi eux, le scandale Archegos, dont le fondateur Bill Hwang a récemment été condamné pour fraude et manipulation de marché. L'implosion de ce family office avait causé des pertes de plus de 10 milliards de dollars pour les banques qui y étaient exposées. En avril dernier, le Fonds monétaire international (FMI) alertait sur l'essor rapide du marché du crédit privé, un segment « opaque et très interconnecté du système financier », qui pèse pas moins de 2.000 milliards de dollars. Si à ce jour, les risques immédiats pour la stabilité financière liés au crédit privé semblent limités, « les vulnérabilités existantes pourraient devenir un risque systémique pour le système financier dans son ensemble », estime le FMI.

Load More Posts