Chef Rémy

About Chef Rémy

This author has not yet filled in any details.
So far Chef Rémy has created 5254 blog entries.

Cryptos : le gendarme boursier américain autorise les ETF sur l’ether

Après avoir autorisé à contrecoeur les ETF bitcoin en janvier, la Securities and Exchange Commission (SEC) a approuvé lundi les premiers fonds indiciels cotés (ETF) investis en ether. L'autorisation du gendarme boursier américain ouvre ainsi la voie à leur négociation imminente. Deuxième cryptomonnaie en termes de capitalisation derrière le bitcoin, l'ether est la monnaie de la blockchain Ethereum. « L'approbation de la SEC et le lancement des ETF Ethereum marquent l'acceptation de cette nouvelle classe d'actifs numériques », s'est félicité Greg Moritz, directeur de l'exploitation et cofondateur d'Alt Tab Capital, un fonds spéculatif crypto. Selon Bloomberg, 21Shares AG, Bitwise Asset Management, BlackRock, Invesco, Franklin Templeton, Fidelity Investments et VanEck figurent parmi les acteurs ayant reçu l'assentiment de la SEC. « Nos clients sont de plus en plus intéressés par une exposition aux actifs numériques par le biais de produits négociés en Bourse qui offrent un accès pratique, de la liquidité et de la transparence », a déclaré dans un communiqué Jay Jacobs, responsable américain des ETF thématiques et actifs chez BlackRock. Coinbase, dépositaire de 8 des 9 nouveaux ETF ether approuvés, a salué une décision qui devrait faciliter «l'investissement dans les cryptomonnaies». « Utilité réelle » Fin mai, la SEC avait ouvert la voie à ce lancement sur le marché en approuvant les demandes d'enregistrement du Nasdaq, du CBOE et du Nyse pour des fonds cotés en Bourse liés à l'ether. Selon Wintermute Trading, les analystes s'attendent à des entrées de 4,8 milliards à 6,4 milliards de dollars pour les produits ether au cours de cette première année de lancement. « Nous pensons que la demande réelle pourrait être inférieure et se situer entre 3,2 et 4 milliards de dollars », estime toutefois la société dans un rapport. Des chiffres bien inférieurs à ceux observés pour les ETF bitcoin. Depuis janvier, ces derniers ont enregistré des entrées nettes d'environ 17 milliards de dollars. LIRE AUSSI : DOSSIER : Faut-il investir ou fuir les cryptoactifs ? La SEC a infligé 5 milliards de dollars de pénalités sur un an Selon Greg Moritz, le bitcoin, avant tout considéré comme une monnaie d'échange ou un instrument spéculatif, « a prospéré grâce à l'idée qu'il est l'équivalent numérique de l'or », tandis que la valeur de l'ether « est principalement liée à son utilité réelle, car il est le point de départ de milliers d'applications ». En donnant son feu vert, le gendarme boursier américain envoie le signal d'un assouplissement du climat réglementaire à l'égard des actifs numériques aux Etats-Unis. Dès son arrivée à la Maison-Blanche en 2021, Joe Biden a affiché son ambition de clarifier les règles de fonctionnement du secteur et de le réguler davantage pour protéger les investisseurs américains. La faillite retentissante de la plateforme FTX fin 2022 n'a fait que renforcer cette volonté. Le président de la SEC Gary Gensler a depuis mené une vaste offensive contre cet écosystème, en prenant notamment pour cible Binance et Coinbase, les deux principales plateformes d'échanges de cryptos. L'annonce, dimanche, du retrait de Joe Biden de la course à la présidentielle a ainsi été très favorablement accueillie par les investisseurs, qui font le pari d'une victoire du candidat Donald Trump. Ce dernier a multiplié les promesses à l'égard du secteur et a dénoncé à plusieurs reprises le durcissement de la régulation.

By |2024-07-24T22:04:21+00:00July 24th, 2024|Scoop.it|0 Comments

Finalement, Google ne supprimera pas les cookies tiers sur Chrome

Ah ! Comme dirait ce bon vieux Denis. Après de nombreux articles et de nombreuses heures facturées par les cabinets de consulting, Google a finalement décidé de ne plus supprimer les cookies tiers de son navigateur Chrome. En 2020, le géant de Mountain View annonçait vouloir mettre fin à ces petits fichiers texte qui permettent de tracer notre navigation à des fins statistiques ou publicitaires. L’échéance était prévue pour 2022, pour finalement être repoussée à 2023. Cette annonce avait fait trembler les marketeurs, qui se demandaient comment ils feraient pour cibler les consommateurs en ligne. En fin de compte, il semblerait que leur disparition n’aura pas lieu (pour le moment). A lire également : La suppression des cookies tiers signe-t-elle la mort de la publicité ciblée ? Sur le blog de The Privacy Sandbox, l’initiative créée par Google qui vise à concevoir des technologies qui protègent la confidentialité des utilisateurs en ligne, on peut lire : « Au lieu de supprimer les cookies tiers, nous introduirions une nouvelle expérience dans Chrome qui permettrait aux utilisateurs de faire un choix éclairé qui s’appliquerait à l’ensemble de leur navigation sur le web, et ils seraient en mesure d’ajuster ce choix à tout moment. Nous discutons de cette nouvelle voie avec les régulateurs, et nous nous engagerons avec l’industrie au fur et à mesure que nous la mettrons en place. » Cookie or not cookie, telle est la question On peut donc comprendre que les utilisateurs de Chrome pourront choisir d’activer ou non les cookies tiers sur leur navigateur. Reste à savoir ce que les régulateurs en pensent. Google dit travailler avec le bureau du commissaire à l’information (ICO) et l’autorité de la concurrence et des marchés (CMA) et du Royaume-Uni. Cette dernière a fait savoir qu’elle allait « examiner attentivement la nouvelle approche de Google en matière de Privacy Sandbox » et invite tous les consommateurs à faire part de leurs retours jusqu’au 12 août. « Il est important que les développeurs disposent d’alternatives permettant de préserver la vie privée. », précise Google. Suite à l’annonce, les actions des entreprises du secteur de l’adtech ont grimpé à la Bourse, dont celle de Criteo.

By |2024-07-24T22:03:58+00:00July 24th, 2024|Scoop.it|0 Comments

Les résultats d’Alphabet portés par le cloud

Des revenus de 85 milliards de dollars, en hausse de 14 % (le double de l'an dernier), dégageant une marge d'exploitation de 32 % (en hausse de 3 points) et 24 milliards de bénéfice net. Même si la croissance a ralenti par rapport au premier trimestre de l'année, Alphabet a affiché des résultats impressionnants pour le deuxième trimestre de son exercice en cours. La maison mère de Google explique cette performance par la bonne tenue de l'activité de recherche sur Internet, son activité historique, et le dynamisme de sa branche cloud, un métier d'hébergement de services informatiques sur lequel il est challenger d'Amazon et Microsoft mais dépasse toute de même pour la première fois les 10 milliards de revenus sur un seul trimestre, ce qui permet de passer le milliard de produits d'exploitation. La croissance de l'activité approche les 30 %. « Notre forte performance ce trimestre souligne notre force dans le search et notre dynamisme dans le cloud, s'est ainsi félicité Sundar Pichai, le patron d'Alphabet. Nous innovons à chaque étage de l'écosystème de l'intelligence artificielle ». Stable après la clôture de Wall Street L'action Alphabet restait à peu près stable (+1 %) dans les échanges après Bourse, malgré des indicateurs de comptes de résultat supérieurs au consensus des attentes des investisseurs. Mais Google a progressé de 30 % depuis le début de l'année et capitalise 2.260 milliards de dollars. LIRE AUSSI : Bourse : la saison des résultats de tous les dangers pour la Big Tech à Wall Street Seule petite ombre au tableau, YouTube a vu ses revenus croître de 13 %, à 8,7 milliards, mais c'est un peu en deçà des attentes des marchés. Les revenus publicitaires, le moteur du groupe, progressent de 11 %, à 66 milliards, une hausse moins rapide qu'au trimestre précédent. Les investissements de la société ont grimpé de 1 milliard à 13 milliards entre le premier et le deuxième trimestre, notamment pour bâtir des data centers et faire tourner le modèle maison d'intelligence artificielle, Gemini. Sundar Pichai a expliqué que l'IA générative d'Alphabet générait «des milliards» de revenus et étaient utilisée par 2 millions de développeurs. «Le risque de sous-investir est dramatiquement plus élevé que celui de surinvestir», a-t-il lancé aux investisseurs qui assistaient hier aux premiers résultats d'un des Sept Magnifiques pour cette saison de trimestriels.

By |2024-07-24T22:03:24+00:00July 24th, 2024|Scoop.it|0 Comments

Meta prive les Européens de son nouveau modèle d’IA générative

Les Européens seront privés des avancées dans l'intelligence artificielle de Meta. En tout cas, il n'y aura pas de nouveau modèle d'IA générative du groupe sur le Vieux Continent. La maison mère de Facebook et Instagram a reporté sine die le lancement de la nouvelle version de Llama 3 , dite multimodale, c'est-à-dire un modèle de langage permettant d'utiliser et de créer du texte, mais aussi des images ou des cartes. Ce modèle n'est pas encore sorti ailleurs, mais il doit arriver « dans les prochains mois », en dehors des frontières de l'Union européenne, comme le précise l'AFP. Selon le média « Axios » , qui a révélé l'information, Meta invoque un manque de clarté des autorités de régulation, parlant de « la nature imprévisible de l'environnement réglementaire européen ». L'annonce peut-être aussi interprétée comme une forme de coup de pression à l'égard des régulateurs. Smartphones, lunettes, etc. La nouvelle IA du groupe californien doit être incorporée dans une large gamme de produits comme les smartphones ou les lunettes connectées . De fait, selon Meta, les entreprises européennes ne pourront pas utiliser ses modèles multimodaux, même ceux en accès ouvert. Même « punition » pour les entreprises hors de l'UE qui voudraient vendre leurs produits en Europe. LIRE AUSSI : Avec Llama3, Meta intègre l'IA dans toutes ses applis « Dans l'intelligence artificielle, il n'y aura pas la victoire d'une entreprise sur une autre », dit Yann LeCun Vraisemblablement, ce n'est pas l'IA Act - la réglementation sur l'IA qui a été votée en Europe » - qui pose problème à Meta mais plutôt le RGPD (règlement général sur la protection des données) . Précisément, pour entraîner ses modèles, comme toute société d'IA, Meta a besoin d'énormément de données. Or, le groupe a indiqué il y a quelques semaines qu'il prévoyait d'utiliser les posts publics des utilisateurs de Facebook et Instagram pour cet entraînement. Dans ce but, il assure avoir envoyé plus de deux milliards de notifications à ses utilisateurs dans l'UE, pour leur dire qu'ils pouvaient refuser (c'est-à-dire exercer leur droit d'opposition ou « opt-out »). Meta a aussi prévenu les régulateurs européens. « Un coup de force » Mais, en juin, Meta aurait été contraint de suspendre l'entraînement de ses modèles avec des données européennes et aurait reçu des questions de la part des régulateurs européens. Toujours selon « Axios », un représentant de Meta aurait déclaré que les régulateurs européens prenaient beaucoup plus de temps pour interpréter la loi que leurs homologues d'autres régions. Par exemple, le régulateur britannique lui a fait parvenir des directives plus claires. LIRE AUSSI : DECRYPTAGE - Pourquoi Facebook se détourne de l'actualité et de la politique ChatGPT, Gemini, Claude, Le Chat… Quelle IA choisir ? Selon un avocat, il est possible que les incertitudes sur les positions différentes des équivalents des CNIL dans les différents Etats membres posent problème à Meta pour utiliser les données. « J'y vois plus un coup de force de Meta pour demander davantage de souplesse, souligne Alan Walter, avocat associé chez Walter Billet. Je ne vois pas quelles sont les incertitudes invoquées par Meta : on connaît bien les conditions d'application du RGPD : il faut informer les personnes et déterminer la base légale prévue - notamment, demander le consentement des utilisateurs ou faire un contrat avec les utilisateurs - et expliciter aux régulateurs la manière dont on va protéger les données ». Cette annonce illustre, en tout cas, les tensions qui existent entre les géants de la technologie américains et les autorités européennes, considérées comme plus strictes. Et ce n'est pas la première fois. Fin juin, Apple avait renvoyé à plus tard le lancement de son système d'IA générative en Europe, invoquant des « incertitudes réglementaires » sur le règlement européen sur les marchés numériques (DMA). Contacté par « Les Echos », Meta ne donne pas plus d'informations.

By |2024-07-24T22:02:55+00:00July 24th, 2024|Scoop.it|0 Comments

Opinion | L’IA face au paradoxe de Solow

L'intelligence artificielle (IA) est sans doute l'une des innovations technologiques les plus marquantes de ces dernières années, promettant de transformer divers secteurs d'activité et d'améliorer considérablement la productivité économique. Cependant, cette promesse se heurte à une observation paradoxale énoncée par l'économiste Robert Solow (1924-2023) - pionnier de la théorie de la croissance, prix Nobel d'économie pour une nouvelle approche de la croissance économique et de la part imputable à l'innovation technologique -, en 1987 : « Vous pouvez voir des ordinateurs partout, sauf dans les statistiques de productivité ». Ce paradoxe, connu sous le nom de paradoxe de Solow, soulève des questions cruciales sur la manière dont les avancées technologiques se traduisent (ou non) en gains de productivité mesurables. Le paradoxe de Solow s'appuie sur l'observation que malgré l'adoption massive des technologies de l'information et de la communication (TIC) depuis les années 1970, les taux de croissance de la productivité ne montrent pas l'amélioration attendue. Pas d'essor de la productivité Plusieurs explications ont été avancées pour expliquer ce phénomène. Parmi elles, on trouve le temps nécessaire pour que les entreprises réorganisent leurs processus autour des nouvelles technologies, ainsi que l'idée que les investissements en TIC peuvent d'abord entraîner des coûts avant de générer des bénéfices substantiels. En d'autres termes, une transformation profonde des organisations doit s'opérer pour être efficiente dans l'utilisation de ces technologies. LIRE AUSSI : TRIBUNE - Productivité : l'ère du numérique empêtrée dans le taylorisme DECRYPTAGE - Productivité du travail : la chute en France a été moins brutale qu'estimé L'IA, avec ses applications en apprentissage automatique, analyse prédictive et automatisation, semble être une nouvelle phase de cette révolution technologique. Cependant, pourquoi ne voyons-nous pas encore une augmentation spectaculaire de la productivité malgré l'enthousiasme suscité par l'IA ? Plusieurs facteurs peuvent expliquer cette situation : l'adoption de l'IA nécessite des investissements considérables en termes de temps, d'argent et de formation. Les entreprises doivent acquérir des technologies coûteuses, réorganiser leurs processus internes et former leur personnel . La courbe d'apprentissage est significative. L'IA requiert de grandes quantités de données pour être efficace. La collecte, le nettoyage et l'analyse de ces données sont longs et complexes. Les entreprises doivent expérimenter et affiner leurs modèles avant d'obtenir des résultats tangibles. L'un des principaux obstacles à l'adoption de l'IA est la nécessité de former adéquatement la main-d'oeuvre. Les compétences requises pour développer, mettre en oeuvre et maintenir des systèmes d'IA sont spécialisées et en constante évolution. Il est crucial que les entreprises investissent dans la formation continue de leurs employés pour qu'ils puissent s'adapter aux nouvelles technologies. Sans une force de travail qualifiée, même les technologies les plus avancées ne pourront pas être pleinement exploitées. L'hybridation des compétences, souvent indispensable de nos jours, est de plus en plus sollicitée par les entreprises. Elle est une des clés pour réussir la complémentarité avec l'IA. Elle permet d'offrir aux salariés et à l'entreprise un cadre d'analyse plus holistique, ce qui favorise l'innovation et la créativité. Adopter une vision holistique Pour surmonter le paradoxe de Solow dans le contexte de l'IA, il est crucial de revoir et d'adapter nos méthodes de mesure de la productivité . Les gains apportés par l'IA pourraient se manifester sous forme d'innovations qualitatives qui ne se traduisent pas immédiatement en termes de production ou de ventes accrues. Par exemple, une meilleure personnalisation des services clients ou des diagnostics médicaux plus précis grâce à l'IA sont des avancées dont les effets positifs pourraient ne se faire sentir qu'à long terme. De plus, l'IA pourrait créer de nouvelles opportunités économiques et des modèles d'affaires innovants qui échappent aux mesures traditionnelles. Par exemple, les plateformes d'économie de partage comme Uber ou Airbnb, qui reposent en grande partie sur des algorithmes d'IA pour optimiser l'offre et la demande , ont redéfini la façon dont nous comprenons la productivité et l'efficacité économique. LIRE AUSSI : TRIBUNE - Il faut cesser de mesurer la productivité DECRYPTAGE - Productivité, intelligence artificielle : les experts Le paradoxe de Solow reste un cadre pertinent pour analyser l'impact des nouvelles technologies, y compris l'IA, sur la productivité. Toutefois, pour vraiment comprendre et mesurer l'impact de l'IA, il est essentiel d'adapter nos indicateurs économiques et d'adopter une vision plus holistique de la productivité. En reconnaissant les défis d'adoption, les délais d'implémentation, l'enjeu crucial de la formation hybride et les gains qualitatifs apportés par l'IA, nous pourrions être mieux préparés à capturer les véritables avantages de cette révolution technologique . Seul le temps dira si l'IA parviendra à briser le paradoxe de Solow ou si nous devrons continuer à réévaluer nos attentes et nos méthodes de mesure de la productivité dans une ère de changement technologique rapide et permanent. Anthony Hié est Chief Innovation & Digital Officer chez Excelia.

By |2024-07-24T22:02:10+00:00July 24th, 2024|Scoop.it|0 Comments

Usbek & Rica – Des chercheurs de Google ont généré une forme de vie numérique autoreproductible

Des chercheurs de Google et de l’université de Chicago ont tenté de lever le voile sur les mystères de l’origine de la vie sur Terre. Lors de simulations numériques visant à reproduire les conditions d’émergence du vivant, ils sont parvenus à créer des formes de vie numériques auto-reproductibles. Explications. Emilie Echaroux - 19 juillet 2024 C’est l’un des grands mystères qui planent sur l’origine de la vie. Comment sommes-nous passés de l’inerte au vivant ? Les scientifiques, à commencer par le naturaliste britannique Charles Darwin et le biochimiste russe Alexandre Oparine, s’échevèlent depuis des siècles pour comprendre comment des molécules simples se sont assemblées – aux commencements de la Terre – de sorte à former des molécules plus complexes et engendrer la vie. Afin de répondre à cette question encore en suspens, des chercheurs de Google et de l’université de Chicago ont simulé l’émergence de la vie biologique sur ordinateur. Dans une étude rendue publique le 27 juin dernier, mais encore en attente d’évaluation par des pairs, les scientifiques racontent avoir utilisé un langage de programmation dénommé « Brainfuck » qui n’autorise que deux opérations mathématiques – ajouter un ou soustraire un – et l’avoir modifié pour permettre à des données aléatoires d’interagir entre elles. « Livrées à elles-mêmes », ces données ont pu « appliquer (des lignes, ndlr) de code et les réécrire, ainsi que celles de leurs voisines, sur la base de leurs propres instructions », précise l’étude. Contre toute attente, et malgré des conditions limitées d’évolution des données, la simulation a finalement conduit à l’émergence de programmes autoréplicateurs. Dans la foulée, de nouveaux types de réplicateurs sont apparus, se sont disputés l’espace et ont parfois submergé et remplacé la population de données précédente, à la manière d’une sélection naturelle 2.0. « Soupe numérique » Inspirés par le concept de « soupe primitive », les chercheurs de Google et de l’université de Chicago ont créé une « soupe numérique » composée de dizaines de milliers de bribes de code informatique mélangées. « Chaque programme se compose de 64 caractères d’un octet qui sont initialisés de manière aléatoire, précise le rapport. Dans ces simulations, aucun nouveau programme n’est généré ou supprimé – le changement ne se produit que par l’auto-modification ou des mutations aléatoires ». Après avoir laissé ces données aléatoires évoluer sur plusieurs millions de générations, la plupart se sont combinées pour générer un code plus complexe et, dans 40 % des cas, des autoréplicateurs ont émergé. Si cette expérience ne nous apprend rien de concret sur l’origine de la vie biologique, elle révèle tout de même qu’il existe des mécanismes inhérents permettant de créer de la complexité à partir d’un élément inerte. « Parvenir à faire évoluer des programmes autoréplicatifs à partir de points de départ aléatoires est une grande réussite », se réjouit l’informaticienne britannique Susan Stepney, qui n’a pas participé à l’étude, dans les colonnes du magazine New Scientist. Une réussite à nuancer Mais quel est l’apport réel de cette expérimentation dans la compréhension des origines de la vie ? Et, surtout, que compte en faire Google ? Ces recherches ont-elles un rapport avec son obsession pour l’IA ? Contactés, les auteurs de l’étude n’ont pas répondu à nos questions. Mais quelles que soient leurs ambitions, les chercheurs seront inévitablement limités par la puissance de calcul de leurs machines à court terme. « Si l’on veut un comportement plus intéressant, si l’on veut que les [données] se mangent les unes les autres, qu’il y ait une guerre entre les différentes espèces (etc), cela nécessitera tellement de calculs que nous ne pourrons pas le faire dans la pratique », a déclaré au New Scientist Ben Laurie, ingénieur logiciel chez Google. L’une des simulations menée par le chercheur a nécessité, à elle seule, le traitement d’environ 3 milliards d’instructions par seconde. Rien que ça.

By |2024-07-24T22:01:19+00:00July 24th, 2024|Scoop.it|0 Comments

Pauvreté laborieuse : une question de quantité de travail avant tout

La pauvreté laborieuse, une question de durée de travail plus que de salaire horaire ? Alors que le sujet du pouvoir d'achat et, de manière corollaire, celui d' une augmentation du SMIC ont concentré une grande partie des débats des élections législatives, l'Insee apporte un éclairage important sur les déterminants et voies de sortie pour les millions de travailleurs qui peinent à joindre les deux bouts. Publié dans le cadre de l'édition 2024 de « La Revue consacrée à l'emploi, au chômage et aux revenus du travail », cet éclairage s'intéresse aux millions de salariés du privé dits « à bas revenus salariaux » de 2011-2019. En clair, à toutes celles et ceux de 24 à 62 ans dont les fiches de paye annuelle étaient dans les 20 % les plus faibles durant deux années consécutives sur la période considérée. Soit, en 2019, moins de 12.360 euros net (1.030 mensuels en moyenne), à comparer au salaire médian de 21.150 euros cette année-là. Femmes et temps partiel L'indigence du revenu salarial tient à un salaire horaire faible et/ou à un nombre d'heures travaillées limitées. Ce dernier facteur recouvrant des situations variées, rappelle l'auteur de l'éclairage, Emmanuel Berger (Dares). Cela va de l'étudiant qui prend des « petits boulots », au retraité qui a besoin d'un complément de fin de mois, en passant - c'est le gros des troupes - par tous les salariés (femmes majoritairement, dans des TPE plus fréquemment femmes et hommes mélangés) qui occupent une vingtaine de professions bien identifiées : nettoyeuse, aide à domicile, vendeuse, cuisinier, livreur, manutentionnaire non qualifié, etc. Toujours en 2019, la moitié des salariés à bas revenus salariaux ont travaillé moins de 755 heures, contre 1.813 heures pour tous les salariés (quasiment une année à temps plein à raison de 35 heures par semaine). « Toutes choses égales par ailleurs, un salarié à temps partiel a une probabilité d'avoir un bas revenu salarial environ cinq fois plus élevée que celle d'un salarié à temps plein », avance Emmanuel Berger. LIRE AUSSI : Quantité de travail : les Français toujours à la traîne mais en progrès En remontant le temps, l'étude montre que près de la moitié (46 %) des salariés du privé qui étaient dans une situation de bas revenus en 2011 alors âgés de 25 à 54 ans (*), l'était toujours en 2019. Notamment, 13 % d'entre eux le sont restés continûment. En cause, une surreprésentation de certains métiers mal payés - service aux particuliers, ouvrier non qualifié, artiste, etc. - et, toujours, un recours au temps partiel très majoritaire. En revanche, ces salariés « enfermés » dans les bas revenus salariaux ne l'ont pas été à cause de longues périodes non travaillées, 70 % d'entre eux ayant travaillé toute l'année en 2019, une proportion comparable à celle de l'ensemble des salariés, poursuit la Dares. L'autre moitié, et même un peu plus (54 %), a trouvé une échappatoire, avec des gains variables sur leurs fiches de paye. Parmi ceux, un sur dix, qui s'en sont sortis durablement en accédant aux 40 % de revenus les plus élevés, c'est l'augmentation du volume d'heures travaillées qui a le plus joué, plus que celle du salaire horaire. « Les salariés qui sortent des bas revenus salariaux sont plus fréquemment devenus cadres et ont plus souvent rejoint les secteurs de l'industrie ou des services mixtes », complète l'étude. (*) Ils avaient donc au moins 24 ans en 2010 et au plus 62 ans en 2019.

By |2024-07-24T22:00:43+00:00July 24th, 2024|Scoop.it|0 Comments

Ces travailleurs qui jouent les prolongations après la retraite

En 2023, 77 % des personnes âgées de plus de 50 ans ayant pris leur retraite étaient en emploi au moment de liquider leurs droits, qu'elles aient atteint les conditions requises, l'âge maximal ou qu'elles aient été mues par des contraintes de santé ou familiales. Parmi elles, 87 % ont raccroché. Les autres (13 %) ont décidé de poursuivre leur carrière professionnelle. Quels sont leurs profils ? Leurs motivations ? Dans l'édition 2024 de son étude sur l'emploi, le chômage et les revenus du travail, l'Insee apporte des réponses inédites à même d'éclairer les débats dans l'hypothèse d'une remise en cause de la dernière réforme des retraites . L'analyse par niveau de qualification montre que les seniors qui restent en poste sont moins nombreux parmi les actifs peu ou pas diplômés (9 %) que parmi ceux diplômés du secondaire (12 %) et surtout du supérieur (18 %). « Par ailleurs, les personnes qui ont liquidé leurs droits à la retraite à l'âge de 63 ans ou plus continuent plus souvent de travailler dans les six mois qui suivent (18 %) », soulignent les auteurs de l'étude, Eliette Castelain, Aurélie Delaporte, et Nathan Rémila. Un salarié sur dix La poursuite d'une activité professionnelle concerne un tiers des indépendants toujours dans les six mois suivant le début de la perception de leur pension. Cela concerne surtout les commerçants (33 %) et dans une moindre mesure les artisans (25 %) ou les agriculteurs (23 %). Pour une partie d'entre eux, retraite est synonyme de vente de l'outil de travail, laquelle n'est pas totalement prévisible. Plus encore, 42 % des professions libérales, en moyenne plus diplômées, continuent à travailler après la liquidation de leurs droits.

By |2024-07-24T22:00:07+00:00July 24th, 2024|Scoop.it|0 Comments

Le poids de la finance de l’ombre inquiète les autorités

Les risques systémiques liés à la finance de l'ombre sont une nouvelle fois pointés du doigt. Dans un rapport publié lundi, le Conseil de stabilité financière (CSF) alerte sur la difficulté de superviser ce secteur et prévient qu'il faudra plus de temps que prévu pour évaluer sa vulnérabilité aux chocs futurs. Le « shadow banking », comme le nomment les anglo-saxons, comprend en réalité toutes les activités financières non bancaires : gestion d'actifs (en particulier hedge funds et fonds monétaires), capital investissement, assurance… Il regroupe donc des entités très diverses, régulées par de multiples autorités. Ce qui complique leur surveillance. Dans une lettre publiée le même jour, le président du CSF Klaas Knot - qui est aussi gouverneur de la banque centrale néerlandaise - appelle les principaux ministres des finances du G20 et les gouverneurs des banques centrales à poursuivre leur action pour mieux encadrer la finance de l'ombre. Les autorités s'alarment depuis déjà plusieurs années de son poids croissant. Ses acteurs participent au financement de l'économie au même titre que les banques, tout en étant exempts des lourdes contraintes appliquées à la finance traditionnelle. Importance systémique Les exigences strictes en matière de fonds propres imposées aux banques à la suite de la crise de 2008 ont d'ailleurs participé à l'essor des fonds monétaires et autres prêteurs non bancaires. Selon le CSF, en 2022, la finance de l'ombre pesait 217.900 milliards de dollars, soit 47,2 % du total des actifs financiers mondiaux. Elle est aujourd'hui une source cruciale de financement pour de vastes pans de l'économie mondiale, et certains acteurs ont acquis une importance systémique. Or plusieurs incidents, à commencer par la crise des subprimes, ont montré que la finance non bancaire pouvait créer ou amplifier une crise systémique. « Alors que le souvenir des turbulences passées s'estompe et que l'optimisme quant à un atterrissage en douceur de l'économie mondiale s'accroît, il est important de souligner que les risques extrêmes demeurent », formule Klaas Knot. De fait, les récentes tensions géopolitiques et l'augmentation des niveaux d'endettement ravivent le spectre d'une crise financière. LIRE AUSSI : ANALYSE - Crise bancaire : la revanche de la finance de l'ombre DECRYPTAGE - Dette : la bombe à retardement des traders de l'ombre Selon Klaas Knot, si certains progrès ont été faits en matière de régulation, « le rythme de mise en oeuvre des politiques a été inégal d'une juridiction à l'autre et il se peut que nous soyons déjà en train de perdre notre élan ». Le CSF pointe notamment des lacunes en matière de collecte de données sur le secteur, liées à un manque de transparence et de partage d'informations. « Dans certains pays, il existe des obstacles juridiques au partage des données au sein d'un même marché », observe le CSF. Si les autorités pointent les risques inhérents au secteur dans son ensemble, les hedge funds, ces fonds souvent décrits comme spéculatifs, sont sans doute ceux qui ont donné le plus de sueurs froides aux régulateurs. Ces dernières années, ils ont été impliqués dans une série d'accidents aux répercussions mondiales. Parmi eux, le scandale Archegos, dont le fondateur Bill Hwang a récemment été condamné pour fraude et manipulation de marché. L'implosion de ce family office avait causé des pertes de plus de 10 milliards de dollars pour les banques qui y étaient exposées. En avril dernier, le Fonds monétaire international (FMI) alertait sur l'essor rapide du marché du crédit privé, un segment « opaque et très interconnecté du système financier », qui pèse pas moins de 2.000 milliards de dollars. Si à ce jour, les risques immédiats pour la stabilité financière liés au crédit privé semblent limités, « les vulnérabilités existantes pourraient devenir un risque systémique pour le système financier dans son ensemble », estime le FMI.

By |2024-07-24T21:59:47+00:00July 24th, 2024|Scoop.it|0 Comments

Fin des voitures thermiques : Bruxelles maintient la date butoir de 2035

Ursula von der Leyen a-t-elle trouvé le moyen d'apaiser la vive controverse autour de la fin des voitures thermiques en 2035 ? La présidente de la Commission européenne, reconduite jeudi dans ses fonctions par le Parlement européen, a, en tout cas, envoyé des signaux pour trancher ce débat houleux de la campagne des élections européennes. Elle a fait passer le message qu'elle ne toucherait pas à l'objectif de 100 % de voitures neuves « zéro émission » en 2035 fixé dans la loi européenne, comme cela était réclamé par l'extrême droite et par certains membres du PPE (Parti populaire européen, où siège le duo allemand CDU-CSU). Mais qu'elle l'accompagnerait de textes réglementaires autorisant les moteurs thermiques fonctionnant avec des carburants synthétiques (e-fuels) après 2035. Cap maintenu « Nous maintenons cet objectif 2035, a ainsi affirmé Ursula von der Leyen lors d'une conférence de presse. Nous devons avoir une approche neutre du point de vue technologique, dans laquelle les carburants de synthèse auront un rôle à jouer. » Un peu plus tôt, devant les eurodéputés, elle avait promis « une modification ciblée de la réglementation dans le cadre du réexamen prévu » de la législation sur les émissions de CO2. Cet « en même temps » à la sauce européenne est une manière de satisfaire les Verts - dont le vote était crucial pour sa reconduction - et les opposants au texte, qui pourront dire que ce n'est plus la fin des moteurs thermiques… LIRE AUSSI : La fin des voitures diesel et à essence fracture l'Europe politique En réalité, la loi européenne n'a jamais mentionné l'interdiction des moteurs thermiques, elle la sous-entend en imposant aux automobiles neuves de ne plus émettre aucun CO2 à partir de 2035… « Aujourd'hui, un e-fuel zéro carbone injecté dans un moteur thermique vaut 6 euros le litre avant taxes, donc on est loin d'une solution compétitive face à la batterie électrique, vers laquelle les industriels s'orientent massivement. Peut-être qu'il y aura une niche de marché, qui doit être sécurisée d'un point de vue juridique, mais cela n'implique pas de rouvrir le calendrier 2035 », commente Pascal Canfin, ex-président de la commission environnement du Parlement européen. Discussions bloquées Après des semaines d'incertitudes liées à la campagne des élections européennes, ces clarifications sont bienvenues. Reste à voir si elles peuvent faire consensus. Issues du « manifesto » du PPE (auquel Ursula von der Leyen appartient) pendant la campagne, elles rejoignent ce sur quoi les législateurs européens s'étaient accordés en mars 2023, après que l'Allemagne a fait pression en faveur de voitures roulant à l'e-fuel après 2035. Mais depuis, l'arsenal juridique devant rendre réelle cette proposition est bloqué, faute d'accord entre les Etats membres. Les discussions devaient reprendre en deuxième moitié d'année pour tenter de trouver un accord. Et cela ne sera pas complètement la fin de l'histoire, car le texte prévoit une clause de revoyure en 2026. Celle-ci doit tenir compte d'une analyse de situation qui doit être dressée par le commissaire européen Thierry Breton - s'il est reconduit dans la prochaine Commission -, l'un de ceux qui se sont montrés sceptiques dès le départ sur l'échéance de 2035. LIRE AUSSI : les carburants de synthèse, dernière planche de salut du moteur thermique Les constructeurs automobiles veulent éviter un grand flop de l'électrique Du côté des constructeurs, l'essence synthétique est une voie poussée par certaines marques, comme Porsche, mais elle n'a rien d'une solution miracle, du fait de son coût exorbitant. Il faut, pour la fabriquer, mélanger de l'hydrogène avec du CO2 capté dans l'atmosphère, ce qui motive qu'elle soit classée in fine neutre en carbone. « Les e-fuels coûtent dix fois plus cher que le carburant normal, résumait il y a quelques semaines le patron de TotalEnergies, Patrick Pouyanné, à l'occasion d'un déjeuner organisé par la Plateforme automobile. Si vous me trouvez des automobilistes prêts à en acheter, je vous en produis ! » Pour la grande majorité des experts, le coût et la rareté de ces e-carburants flèchent cette ressource rare vers les secteurs qui n'ont pas d'autre solution pour se décarboner, comme l'aviation. Pas vers l'automobile. Le Losange aussi y croit Renault, dont la clientèle n'est pourtant pas composée de millionnaires, fait partie des groupes qui explorent cette voie. Le géant du pétrole saoudien Aramco est entré le mois dernier au capital de Horse Powertrain, sa filiale spécialisée dans la production de moteurs, avec à la clé du cash mais aussi son réseau de centres de R&D travaillant sur le carburant synthétique. Aujourd'hui, ce n'est toutefois pas sur 2035 que les constructeurs polarisent leur attention, mais sur 2025. Ils sont tenus, en effet, de réduire de 15 % les émissions de CO2 de leurs voitures neuves à partir du 1er janvier, sous peine de fortes amendes. Un objectif qui leur semble de plus en plus compliqué à atteindre avec des ventes de voitures électriques ne progressant plus. Et pour franchir cet obstacle, les carburants synthétiques ne leur seront d'aucune utilité.

By |2024-07-20T14:25:17+00:00July 20th, 2024|Scoop.it|0 Comments