JO de Paris 2024 : gare au quishing, l’arnaque au QR code –
Depuis le Covid-19, le QR code a fait son grand retour. On l’utilise pour accéder au menu d’un restaurant, pour télécharger une application ou encore pour connaître les horaires de bus. Lors d’un voyage, on peut aussi l’utiliser pour obtenir des informations culturelles et historiques sur un lieu. L’usage de ce petit pictogramme noir et blanc et ancré dans notre quotidien, mais il ne vous veut pas toujours du bien. Ces derniers temps, une forme d’attaque se répand en France : le quishing. Cette pratique frauduleuse consiste à placer de faux QR code afin de renvoyer vers un faux site, infecter un appareil mobile ou encore récupérer des données sensibles personnelles et/ou financières. Ces faux QR code sont placés dans des lieux publics : parking, ascenseur, table de bar, affiche, etc. Et ils pourraient se multiplier dans le cadre des Jeux olympiques et paralympiques de Paris durant lesquels 15,3 millions de visiteurs sont attendus. « J’étais en terrasse d’un bar, j’ai passé ma commande via le QR code sur la table, mais ma commande n’est jamais arrivée au barman et ma carte a bien été débitée ! », témoigne une victime vivant en Ile-de-France dans une fiche d’information du gouvernement. « Dans l’ascenseur au travail, il y avait une affiche pour un jeu permettant de gagner un voyage. J’ai scanné le QR code pour participer, on m’a demandé des informations et le numéro de ma carte bancaire, le jour même j’ai été victime de plusieurs prélèvements », raconte une autre victime vivant en Haute-Garonne.
Sur les rails, un marché en recomposition
Depuis 1938, la SNCF était en situation de monopole sur les rails français. Mais l’ouverture à la concurrence exigée par l’Union européenne redistribue les cartes. Les homologues européens du transporteur français, comme Trenitalia et la Renfe, n’ont pas hésité à se positionner sur les lignes à grande vitesse, les plus demandées par les voyageurs français. Et les plus rentables pour les compagnies ferroviaires. Avec, pour le moment, des impacts concrets et rapides. Ainsi, sur l’axe Paris-Lyon, l’arrivée de Trenitalia a entraîné une baisse moyenne des prix de -43%* par rapport à 2019. Le constat est similaire sur la ligne Paris-Milan avec une hausse moyenne des prix de 6% en 2023 par rapport à 2022 mais moins chers de -19% depuis l’ouverture à la concurrence de la ligne. La SNCF en profite aussi Ces baisses de tarifs ont suscité un engouement pour les voyages en train. Les réservations de billets de train sur les liaisons Paris-Lyon et Paris-Milan ont bondi respectivement de 60% entre 2023 et 2022 (+334% depuis 2019) et de 11% entre 2023 et 2022 (+278% depuis 2019). Et ces constats sont aussi valables pour les liaisons entre la France et l’Espagne. En effet, depuis l’été 2023, la Renfe opère les lignes Marseille-Madrid et Lyon-Barcelone. Sur la première ligne, le prix moyen du billet recule de 67% par rapport à 2022, et de 17% sur la deuxième. Et, là encore, le marché suit avec une hausse des réservations de 263% pour Marseille-Madrid et de 140% pour Lyon-Barcelone, par rapport à 2022. La SNCF, elle, profite également de cette explosion de la demande, avec des hausses significatives sur toutes les lignes où de nouveaux entrants viennent la concurrencer. Et le transporteur ne se prive pas pour lorgner sur le marché espagnol, qui a notamment accueilli Ouigo, et sur le marché italien, qui sera investi dès 2026. En France aussi, la compagnie historique renforce ses moyens pour absorber plus de capacité. Un milliard d’euros pour Proxima, la compagnie de Rachel Picard Face aux succès des opérateurs historiques, il n’est pas étonnant de voir émerger des acteurs potentiels aux ambitions plus ou moins élevées. Avec Proxima, la future compagnie ferroviaire à grande vitesse imaginée par Rachel Picard, c’est un prétendant d’envergure qui devrait débarquer sur le marché en 2027. Soutenue par Antin Infrastructure Partners, l’ancienne patronne de Thomas Cook et de Voyages SNCF a levé un milliard d’euros pour lancer sa compagnie. Avec ses douze premières rames commandées auprès d’Alstom, Proxima entend relier Bordeaux, Rennes, Nantes et Angers à Paris. Soit, à terme, 10 millions de nouvelles places par an de train à grande vitesse sur l’axe atlantique. Proxima devra sans doute batailler avec un autre nouveau concurrent, sobrement baptisé Le Train. La start-up néo-aquitaine commencera en 2026 par relier Nantes et Rennes à Bordeaux, et sans passer par Paris, permettant ainsi de réduire le temps de trajet. Ensuite, Le Train devrait se développer en pendulaire autour de Bordeaux, vers Arcachon et Angoulême. « Plus on voyage, moins on paye » avec Kevin Speed D’autres compagnies pourraient voir le jour. Avec des billets vendus à partir de trois euros, Kevin Speed, une start-up française, compte bousculer le marché. « Plus on voyage, moins on paye », explique le président de la start-up, Laurent Fourtune, promettant une offre avec une réduction de prix au fur et à mesure que le client achèterait des billets. « Avec les prix d’attaque qu’on a prévus, nos trains seront pleins », lance-t-il, confiant. Kevin Speed investira des axes où la concurrence n’existe pas encore (Lille-Paris, Strasbourg-Paris) et jouera sur le même terrain de jeu que tous les autres (Lyon-Paris). Comme on peut le constater, la possibilité d’exploiter les rails français inspire les acteurs historiques comme les jeunes pousses. Encore faut-il avoir les reins solides… Après avoir passé quatre ans à chercher des fonds, Midnight Trains, une entreprise qui souhaitait lancer des trains de nuit avec chambres privatives, ne verra pas le jour. Railcoop, qui misait sur le modèle de la coopérative pour relancer une ligne directe entre Lyon et Bordeaux, a aussi jeté l’éponge. Le projet a été victime de son approche militante et engagée. Il aurait pu fonctionner, mais à condition de se trahir et de s’ouvrir à un soutien financier classique…
La série noire continue pour Nestlé
Qu'arrive-t-il au groupe Nestlé ? Le leader mondial de l'alimentation traverse une mauvaise passe. Les ventes organiques ont progressé de 2,1 % au premier semestre, moins qu'attendu, et, ce jeudi, le groupe a revu à la baisse sa prévision de croissance pour l'année à moins de 3 %. Il doit baisser ses prix davantage… Un bilan mitigé qui arrive après des semaines mouvementées. Nestlé, dont l'image est historiquement liée au lait pour bébé en pharmacie et à une politique de qualité extrême, ne cesse depuis des mois d'être soupçonné de déroger aux règles sanitaires. Les affaires s'enchaînent sans répit autour de l'activité de sa division Nestlé Waters en France, où l'on regarde le groupe d'un autre oeil depuis le scandale des pizzas contaminées de l'usine Buitoni de Caudry (Nord), qui lui vaut une mise en examen. La justice enquête sur l'eau Après l'obligation qui lui a été faite par l'Agence régionale de santé (ARS), en avril, de détruire deux millions de bouteilles de Perrier sur le site de Vergèze dans le Gard , après l'injonction de désinfection de certains points de captage souillés par des matières fécales, après l'ouverture d'une enquête pour filtration de l'eau vendue comme eau minérale, Nestlé fait l'objet d'une nouvelle enquête du parquet d'Epinal. Cette fois, ce n'est plus Perrier qui est dans le viseur mais Contrex et Vittel, deux autres des marques étendards d'eau minérale de Nestlé. LIRE AUSSI : Contaminations : Perrier stoppe la production de son best-seller En pleine tempête médiatique, Nestlé Waters lance Maison Perrier, nouvelle gamme aromatisée L'enquête devra déterminer si Nestlé Waters a bien exploité neuf forages sans autorisation dans les Vosges, dont cinq pour Contrex et Vittel, et vendu illégalement 19 milliards de litres d'eau entre 1992 et 2019, comme le dit Mediapart sur la base d'un rapport de l'Office français de la biodiversité (OFB) rendu au procureur de la République. Le groupe a, pour sa part, répondu que « chaque mètre cube d'eau collectée est déclaré aux autorités », mais que « certains éléments administratifs d'il y a plusieurs dizaines d'années sont en cours d'évaluation par le procureur d'Epinal » et que « Nestlé Waters coopère pleinement ». Dans le cadre de la première enquête, Nestlé a reconnu avoir eu recours à des procédés interdits de filtration au charbon actif et de lampe UV pour purifier l'eau vendue comme minérale, ce qui est interdit par la réglementation, afin d'en « préserver la sécurité alimentaire » . Le feu des actionnaires Ces affaires successives ont valu au groupe, qui traverse une passe boursière difficile - l'action recule de 10 % depuis un an -, et doit faire face à une croissance en berne - recul de son chiffre d'affaires l'an dernier à 97 milliards d'euros -, des interventions accusatrices lors de son assemblée générale à Vevey (Suisse) le 18 avril dernier. Un membre de l'ONG britannique Bite Back n'a pas hésité à accuser Nestlé « d'inonder les rues de malbouffe » et d'être, avec d'autres groupes agroalimentaires, à l'origine « de problèmes de santé d'un enfant sur trois dans les quartiers défavorisés des villes britanniques ». LIRE AUSSI : Nestlé veut limiter la hausse de ses prix en 2024 pour relancer la consommation Nestlé sous la pression de ses actionnaires pour limiter ses ventes de « malbouffe » Des actionnaires ont mis en cause le groupe sur la teneur en sucre de certains produits. Mark Schneider, le patron de Nestlé, a alors fait valoir « des différences de goût » d'un pays à l'autre, insistant sur le respect des normes de chacun d'entre eux. Une motion, rejetée par la majorité des actionnaires a été déposée, réclamant une part plus importante de produits sains dans le portefeuille du géant de l'agroalimentaire. Pour Paul Bulcke, le président du groupe, une telle stratégie affaiblirait certaines offres, laissant le champ libre à des concurrents moins scrupuleux.
Cryptos : le gendarme boursier américain autorise les ETF sur l’ether
Après avoir autorisé à contrecoeur les ETF bitcoin en janvier, la Securities and Exchange Commission (SEC) a approuvé lundi les premiers fonds indiciels cotés (ETF) investis en ether. L'autorisation du gendarme boursier américain ouvre ainsi la voie à leur négociation imminente. Deuxième cryptomonnaie en termes de capitalisation derrière le bitcoin, l'ether est la monnaie de la blockchain Ethereum. « L'approbation de la SEC et le lancement des ETF Ethereum marquent l'acceptation de cette nouvelle classe d'actifs numériques », s'est félicité Greg Moritz, directeur de l'exploitation et cofondateur d'Alt Tab Capital, un fonds spéculatif crypto. Selon Bloomberg, 21Shares AG, Bitwise Asset Management, BlackRock, Invesco, Franklin Templeton, Fidelity Investments et VanEck figurent parmi les acteurs ayant reçu l'assentiment de la SEC. « Nos clients sont de plus en plus intéressés par une exposition aux actifs numériques par le biais de produits négociés en Bourse qui offrent un accès pratique, de la liquidité et de la transparence », a déclaré dans un communiqué Jay Jacobs, responsable américain des ETF thématiques et actifs chez BlackRock. Coinbase, dépositaire de 8 des 9 nouveaux ETF ether approuvés, a salué une décision qui devrait faciliter «l'investissement dans les cryptomonnaies». « Utilité réelle » Fin mai, la SEC avait ouvert la voie à ce lancement sur le marché en approuvant les demandes d'enregistrement du Nasdaq, du CBOE et du Nyse pour des fonds cotés en Bourse liés à l'ether. Selon Wintermute Trading, les analystes s'attendent à des entrées de 4,8 milliards à 6,4 milliards de dollars pour les produits ether au cours de cette première année de lancement. « Nous pensons que la demande réelle pourrait être inférieure et se situer entre 3,2 et 4 milliards de dollars », estime toutefois la société dans un rapport. Des chiffres bien inférieurs à ceux observés pour les ETF bitcoin. Depuis janvier, ces derniers ont enregistré des entrées nettes d'environ 17 milliards de dollars. LIRE AUSSI : DOSSIER : Faut-il investir ou fuir les cryptoactifs ? La SEC a infligé 5 milliards de dollars de pénalités sur un an Selon Greg Moritz, le bitcoin, avant tout considéré comme une monnaie d'échange ou un instrument spéculatif, « a prospéré grâce à l'idée qu'il est l'équivalent numérique de l'or », tandis que la valeur de l'ether « est principalement liée à son utilité réelle, car il est le point de départ de milliers d'applications ». En donnant son feu vert, le gendarme boursier américain envoie le signal d'un assouplissement du climat réglementaire à l'égard des actifs numériques aux Etats-Unis. Dès son arrivée à la Maison-Blanche en 2021, Joe Biden a affiché son ambition de clarifier les règles de fonctionnement du secteur et de le réguler davantage pour protéger les investisseurs américains. La faillite retentissante de la plateforme FTX fin 2022 n'a fait que renforcer cette volonté. Le président de la SEC Gary Gensler a depuis mené une vaste offensive contre cet écosystème, en prenant notamment pour cible Binance et Coinbase, les deux principales plateformes d'échanges de cryptos. L'annonce, dimanche, du retrait de Joe Biden de la course à la présidentielle a ainsi été très favorablement accueillie par les investisseurs, qui font le pari d'une victoire du candidat Donald Trump. Ce dernier a multiplié les promesses à l'égard du secteur et a dénoncé à plusieurs reprises le durcissement de la régulation.
Finalement, Google ne supprimera pas les cookies tiers sur Chrome
Ah ! Comme dirait ce bon vieux Denis. Après de nombreux articles et de nombreuses heures facturées par les cabinets de consulting, Google a finalement décidé de ne plus supprimer les cookies tiers de son navigateur Chrome. En 2020, le géant de Mountain View annonçait vouloir mettre fin à ces petits fichiers texte qui permettent de tracer notre navigation à des fins statistiques ou publicitaires. L’échéance était prévue pour 2022, pour finalement être repoussée à 2023. Cette annonce avait fait trembler les marketeurs, qui se demandaient comment ils feraient pour cibler les consommateurs en ligne. En fin de compte, il semblerait que leur disparition n’aura pas lieu (pour le moment). A lire également : La suppression des cookies tiers signe-t-elle la mort de la publicité ciblée ? Sur le blog de The Privacy Sandbox, l’initiative créée par Google qui vise à concevoir des technologies qui protègent la confidentialité des utilisateurs en ligne, on peut lire : « Au lieu de supprimer les cookies tiers, nous introduirions une nouvelle expérience dans Chrome qui permettrait aux utilisateurs de faire un choix éclairé qui s’appliquerait à l’ensemble de leur navigation sur le web, et ils seraient en mesure d’ajuster ce choix à tout moment. Nous discutons de cette nouvelle voie avec les régulateurs, et nous nous engagerons avec l’industrie au fur et à mesure que nous la mettrons en place. » Cookie or not cookie, telle est la question On peut donc comprendre que les utilisateurs de Chrome pourront choisir d’activer ou non les cookies tiers sur leur navigateur. Reste à savoir ce que les régulateurs en pensent. Google dit travailler avec le bureau du commissaire à l’information (ICO) et l’autorité de la concurrence et des marchés (CMA) et du Royaume-Uni. Cette dernière a fait savoir qu’elle allait « examiner attentivement la nouvelle approche de Google en matière de Privacy Sandbox » et invite tous les consommateurs à faire part de leurs retours jusqu’au 12 août. « Il est important que les développeurs disposent d’alternatives permettant de préserver la vie privée. », précise Google. Suite à l’annonce, les actions des entreprises du secteur de l’adtech ont grimpé à la Bourse, dont celle de Criteo.
Les résultats d’Alphabet portés par le cloud
Des revenus de 85 milliards de dollars, en hausse de 14 % (le double de l'an dernier), dégageant une marge d'exploitation de 32 % (en hausse de 3 points) et 24 milliards de bénéfice net. Même si la croissance a ralenti par rapport au premier trimestre de l'année, Alphabet a affiché des résultats impressionnants pour le deuxième trimestre de son exercice en cours. La maison mère de Google explique cette performance par la bonne tenue de l'activité de recherche sur Internet, son activité historique, et le dynamisme de sa branche cloud, un métier d'hébergement de services informatiques sur lequel il est challenger d'Amazon et Microsoft mais dépasse toute de même pour la première fois les 10 milliards de revenus sur un seul trimestre, ce qui permet de passer le milliard de produits d'exploitation. La croissance de l'activité approche les 30 %. « Notre forte performance ce trimestre souligne notre force dans le search et notre dynamisme dans le cloud, s'est ainsi félicité Sundar Pichai, le patron d'Alphabet. Nous innovons à chaque étage de l'écosystème de l'intelligence artificielle ». Stable après la clôture de Wall Street L'action Alphabet restait à peu près stable (+1 %) dans les échanges après Bourse, malgré des indicateurs de comptes de résultat supérieurs au consensus des attentes des investisseurs. Mais Google a progressé de 30 % depuis le début de l'année et capitalise 2.260 milliards de dollars. LIRE AUSSI : Bourse : la saison des résultats de tous les dangers pour la Big Tech à Wall Street Seule petite ombre au tableau, YouTube a vu ses revenus croître de 13 %, à 8,7 milliards, mais c'est un peu en deçà des attentes des marchés. Les revenus publicitaires, le moteur du groupe, progressent de 11 %, à 66 milliards, une hausse moins rapide qu'au trimestre précédent. Les investissements de la société ont grimpé de 1 milliard à 13 milliards entre le premier et le deuxième trimestre, notamment pour bâtir des data centers et faire tourner le modèle maison d'intelligence artificielle, Gemini. Sundar Pichai a expliqué que l'IA générative d'Alphabet générait «des milliards» de revenus et étaient utilisée par 2 millions de développeurs. «Le risque de sous-investir est dramatiquement plus élevé que celui de surinvestir», a-t-il lancé aux investisseurs qui assistaient hier aux premiers résultats d'un des Sept Magnifiques pour cette saison de trimestriels.
Meta prive les Européens de son nouveau modèle d’IA générative
Les Européens seront privés des avancées dans l'intelligence artificielle de Meta. En tout cas, il n'y aura pas de nouveau modèle d'IA générative du groupe sur le Vieux Continent. La maison mère de Facebook et Instagram a reporté sine die le lancement de la nouvelle version de Llama 3 , dite multimodale, c'est-à-dire un modèle de langage permettant d'utiliser et de créer du texte, mais aussi des images ou des cartes. Ce modèle n'est pas encore sorti ailleurs, mais il doit arriver « dans les prochains mois », en dehors des frontières de l'Union européenne, comme le précise l'AFP. Selon le média « Axios » , qui a révélé l'information, Meta invoque un manque de clarté des autorités de régulation, parlant de « la nature imprévisible de l'environnement réglementaire européen ». L'annonce peut-être aussi interprétée comme une forme de coup de pression à l'égard des régulateurs. Smartphones, lunettes, etc. La nouvelle IA du groupe californien doit être incorporée dans une large gamme de produits comme les smartphones ou les lunettes connectées . De fait, selon Meta, les entreprises européennes ne pourront pas utiliser ses modèles multimodaux, même ceux en accès ouvert. Même « punition » pour les entreprises hors de l'UE qui voudraient vendre leurs produits en Europe. LIRE AUSSI : Avec Llama3, Meta intègre l'IA dans toutes ses applis « Dans l'intelligence artificielle, il n'y aura pas la victoire d'une entreprise sur une autre », dit Yann LeCun Vraisemblablement, ce n'est pas l'IA Act - la réglementation sur l'IA qui a été votée en Europe » - qui pose problème à Meta mais plutôt le RGPD (règlement général sur la protection des données) . Précisément, pour entraîner ses modèles, comme toute société d'IA, Meta a besoin d'énormément de données. Or, le groupe a indiqué il y a quelques semaines qu'il prévoyait d'utiliser les posts publics des utilisateurs de Facebook et Instagram pour cet entraînement. Dans ce but, il assure avoir envoyé plus de deux milliards de notifications à ses utilisateurs dans l'UE, pour leur dire qu'ils pouvaient refuser (c'est-à-dire exercer leur droit d'opposition ou « opt-out »). Meta a aussi prévenu les régulateurs européens. « Un coup de force » Mais, en juin, Meta aurait été contraint de suspendre l'entraînement de ses modèles avec des données européennes et aurait reçu des questions de la part des régulateurs européens. Toujours selon « Axios », un représentant de Meta aurait déclaré que les régulateurs européens prenaient beaucoup plus de temps pour interpréter la loi que leurs homologues d'autres régions. Par exemple, le régulateur britannique lui a fait parvenir des directives plus claires. LIRE AUSSI : DECRYPTAGE - Pourquoi Facebook se détourne de l'actualité et de la politique ChatGPT, Gemini, Claude, Le Chat… Quelle IA choisir ? Selon un avocat, il est possible que les incertitudes sur les positions différentes des équivalents des CNIL dans les différents Etats membres posent problème à Meta pour utiliser les données. « J'y vois plus un coup de force de Meta pour demander davantage de souplesse, souligne Alan Walter, avocat associé chez Walter Billet. Je ne vois pas quelles sont les incertitudes invoquées par Meta : on connaît bien les conditions d'application du RGPD : il faut informer les personnes et déterminer la base légale prévue - notamment, demander le consentement des utilisateurs ou faire un contrat avec les utilisateurs - et expliciter aux régulateurs la manière dont on va protéger les données ». Cette annonce illustre, en tout cas, les tensions qui existent entre les géants de la technologie américains et les autorités européennes, considérées comme plus strictes. Et ce n'est pas la première fois. Fin juin, Apple avait renvoyé à plus tard le lancement de son système d'IA générative en Europe, invoquant des « incertitudes réglementaires » sur le règlement européen sur les marchés numériques (DMA). Contacté par « Les Echos », Meta ne donne pas plus d'informations.
Opinion | L’IA face au paradoxe de Solow
L'intelligence artificielle (IA) est sans doute l'une des innovations technologiques les plus marquantes de ces dernières années, promettant de transformer divers secteurs d'activité et d'améliorer considérablement la productivité économique. Cependant, cette promesse se heurte à une observation paradoxale énoncée par l'économiste Robert Solow (1924-2023) - pionnier de la théorie de la croissance, prix Nobel d'économie pour une nouvelle approche de la croissance économique et de la part imputable à l'innovation technologique -, en 1987 : « Vous pouvez voir des ordinateurs partout, sauf dans les statistiques de productivité ». Ce paradoxe, connu sous le nom de paradoxe de Solow, soulève des questions cruciales sur la manière dont les avancées technologiques se traduisent (ou non) en gains de productivité mesurables. Le paradoxe de Solow s'appuie sur l'observation que malgré l'adoption massive des technologies de l'information et de la communication (TIC) depuis les années 1970, les taux de croissance de la productivité ne montrent pas l'amélioration attendue. Pas d'essor de la productivité Plusieurs explications ont été avancées pour expliquer ce phénomène. Parmi elles, on trouve le temps nécessaire pour que les entreprises réorganisent leurs processus autour des nouvelles technologies, ainsi que l'idée que les investissements en TIC peuvent d'abord entraîner des coûts avant de générer des bénéfices substantiels. En d'autres termes, une transformation profonde des organisations doit s'opérer pour être efficiente dans l'utilisation de ces technologies. LIRE AUSSI : TRIBUNE - Productivité : l'ère du numérique empêtrée dans le taylorisme DECRYPTAGE - Productivité du travail : la chute en France a été moins brutale qu'estimé L'IA, avec ses applications en apprentissage automatique, analyse prédictive et automatisation, semble être une nouvelle phase de cette révolution technologique. Cependant, pourquoi ne voyons-nous pas encore une augmentation spectaculaire de la productivité malgré l'enthousiasme suscité par l'IA ? Plusieurs facteurs peuvent expliquer cette situation : l'adoption de l'IA nécessite des investissements considérables en termes de temps, d'argent et de formation. Les entreprises doivent acquérir des technologies coûteuses, réorganiser leurs processus internes et former leur personnel . La courbe d'apprentissage est significative. L'IA requiert de grandes quantités de données pour être efficace. La collecte, le nettoyage et l'analyse de ces données sont longs et complexes. Les entreprises doivent expérimenter et affiner leurs modèles avant d'obtenir des résultats tangibles. L'un des principaux obstacles à l'adoption de l'IA est la nécessité de former adéquatement la main-d'oeuvre. Les compétences requises pour développer, mettre en oeuvre et maintenir des systèmes d'IA sont spécialisées et en constante évolution. Il est crucial que les entreprises investissent dans la formation continue de leurs employés pour qu'ils puissent s'adapter aux nouvelles technologies. Sans une force de travail qualifiée, même les technologies les plus avancées ne pourront pas être pleinement exploitées. L'hybridation des compétences, souvent indispensable de nos jours, est de plus en plus sollicitée par les entreprises. Elle est une des clés pour réussir la complémentarité avec l'IA. Elle permet d'offrir aux salariés et à l'entreprise un cadre d'analyse plus holistique, ce qui favorise l'innovation et la créativité. Adopter une vision holistique Pour surmonter le paradoxe de Solow dans le contexte de l'IA, il est crucial de revoir et d'adapter nos méthodes de mesure de la productivité . Les gains apportés par l'IA pourraient se manifester sous forme d'innovations qualitatives qui ne se traduisent pas immédiatement en termes de production ou de ventes accrues. Par exemple, une meilleure personnalisation des services clients ou des diagnostics médicaux plus précis grâce à l'IA sont des avancées dont les effets positifs pourraient ne se faire sentir qu'à long terme. De plus, l'IA pourrait créer de nouvelles opportunités économiques et des modèles d'affaires innovants qui échappent aux mesures traditionnelles. Par exemple, les plateformes d'économie de partage comme Uber ou Airbnb, qui reposent en grande partie sur des algorithmes d'IA pour optimiser l'offre et la demande , ont redéfini la façon dont nous comprenons la productivité et l'efficacité économique. LIRE AUSSI : TRIBUNE - Il faut cesser de mesurer la productivité DECRYPTAGE - Productivité, intelligence artificielle : les experts Le paradoxe de Solow reste un cadre pertinent pour analyser l'impact des nouvelles technologies, y compris l'IA, sur la productivité. Toutefois, pour vraiment comprendre et mesurer l'impact de l'IA, il est essentiel d'adapter nos indicateurs économiques et d'adopter une vision plus holistique de la productivité. En reconnaissant les défis d'adoption, les délais d'implémentation, l'enjeu crucial de la formation hybride et les gains qualitatifs apportés par l'IA, nous pourrions être mieux préparés à capturer les véritables avantages de cette révolution technologique . Seul le temps dira si l'IA parviendra à briser le paradoxe de Solow ou si nous devrons continuer à réévaluer nos attentes et nos méthodes de mesure de la productivité dans une ère de changement technologique rapide et permanent. Anthony Hié est Chief Innovation & Digital Officer chez Excelia.
Usbek & Rica – Des chercheurs de Google ont généré une forme de vie numérique autoreproductible
Des chercheurs de Google et de l’université de Chicago ont tenté de lever le voile sur les mystères de l’origine de la vie sur Terre. Lors de simulations numériques visant à reproduire les conditions d’émergence du vivant, ils sont parvenus à créer des formes de vie numériques auto-reproductibles. Explications. Emilie Echaroux - 19 juillet 2024 C’est l’un des grands mystères qui planent sur l’origine de la vie. Comment sommes-nous passés de l’inerte au vivant ? Les scientifiques, à commencer par le naturaliste britannique Charles Darwin et le biochimiste russe Alexandre Oparine, s’échevèlent depuis des siècles pour comprendre comment des molécules simples se sont assemblées – aux commencements de la Terre – de sorte à former des molécules plus complexes et engendrer la vie. Afin de répondre à cette question encore en suspens, des chercheurs de Google et de l’université de Chicago ont simulé l’émergence de la vie biologique sur ordinateur. Dans une étude rendue publique le 27 juin dernier, mais encore en attente d’évaluation par des pairs, les scientifiques racontent avoir utilisé un langage de programmation dénommé « Brainfuck » qui n’autorise que deux opérations mathématiques – ajouter un ou soustraire un – et l’avoir modifié pour permettre à des données aléatoires d’interagir entre elles. « Livrées à elles-mêmes », ces données ont pu « appliquer (des lignes, ndlr) de code et les réécrire, ainsi que celles de leurs voisines, sur la base de leurs propres instructions », précise l’étude. Contre toute attente, et malgré des conditions limitées d’évolution des données, la simulation a finalement conduit à l’émergence de programmes autoréplicateurs. Dans la foulée, de nouveaux types de réplicateurs sont apparus, se sont disputés l’espace et ont parfois submergé et remplacé la population de données précédente, à la manière d’une sélection naturelle 2.0. « Soupe numérique » Inspirés par le concept de « soupe primitive », les chercheurs de Google et de l’université de Chicago ont créé une « soupe numérique » composée de dizaines de milliers de bribes de code informatique mélangées. « Chaque programme se compose de 64 caractères d’un octet qui sont initialisés de manière aléatoire, précise le rapport. Dans ces simulations, aucun nouveau programme n’est généré ou supprimé – le changement ne se produit que par l’auto-modification ou des mutations aléatoires ». Après avoir laissé ces données aléatoires évoluer sur plusieurs millions de générations, la plupart se sont combinées pour générer un code plus complexe et, dans 40 % des cas, des autoréplicateurs ont émergé. Si cette expérience ne nous apprend rien de concret sur l’origine de la vie biologique, elle révèle tout de même qu’il existe des mécanismes inhérents permettant de créer de la complexité à partir d’un élément inerte. « Parvenir à faire évoluer des programmes autoréplicatifs à partir de points de départ aléatoires est une grande réussite », se réjouit l’informaticienne britannique Susan Stepney, qui n’a pas participé à l’étude, dans les colonnes du magazine New Scientist. Une réussite à nuancer Mais quel est l’apport réel de cette expérimentation dans la compréhension des origines de la vie ? Et, surtout, que compte en faire Google ? Ces recherches ont-elles un rapport avec son obsession pour l’IA ? Contactés, les auteurs de l’étude n’ont pas répondu à nos questions. Mais quelles que soient leurs ambitions, les chercheurs seront inévitablement limités par la puissance de calcul de leurs machines à court terme. « Si l’on veut un comportement plus intéressant, si l’on veut que les [données] se mangent les unes les autres, qu’il y ait une guerre entre les différentes espèces (etc), cela nécessitera tellement de calculs que nous ne pourrons pas le faire dans la pratique », a déclaré au New Scientist Ben Laurie, ingénieur logiciel chez Google. L’une des simulations menée par le chercheur a nécessité, à elle seule, le traitement d’environ 3 milliards d’instructions par seconde. Rien que ça.