Scoop.it

Audi at Last Unveils the E-tron, Its First All-Electric SUV

Let’s start with the numbers. The E-tron has a 95-kWh battery against the EQC’s 80 and the Jaguar I-Pace’s 90. It’ll reach 60 mph in less than six seconds, where the Merc and Jag both do it in under five. It clocks 248 miles of range on the New European Driving Cycle, though American drivers will likely see a lower number after the EPA runs its less-generous test. (The Jag’s EPA range is 220 miles, compared to 300 on the Euro system.) The E-tron’s dual asynchronous motors produce a Euro-spec 355 horsepower and 413 pound-feet of torque, with the final US measurements still pending.Potential buyers, though, will be interested in more than the raw figures. They’ll want to know what else sets this new SUV apart. So it’s too bad American drivers won’t get to enjoy some of the E-tron’s best bits. Slow-to-change US regulations don’t allow “virtual" wing mirrors that replace bulky side-view mirrors with cameras mounted on slender arms—the first among high-volume production cars. Same for Audi’s laser-powered Matrix headlights that offer precision aiming and selective dimming of the beam. And for networked car services that use “swarm intelligence” from other Audis on the road to forecast parking availability and alert drivers to fog or black ice.Audi has paid considerable attention to infrastructure, one of those boring things that will make a major difference when it comes to owner ease-of-use. The E-tron will be the first electric car on the market that can support 150-kW DC fast-charging, a capability that will roll out as the Volkswagen-funded Electrify America group installs charging stations around the country. (VW is Audi’s parent company, and part of its settlement terms from the Dieselgate scandal include funding zero-emission infrastructure.) With that, charging should take less than 30 minutes to reach an 80 percent charge. At home, owners will be able to charge with either the standard 11-kW charger in 8.5 hours from empty or 4.5 hours if they have the optional 22-kW onboard charger. The whole thing will be manageable via an app and onboard tool that can optimize for off-peak charging and also factor where you can find a plug along your route. “We’ll calculate the most efficient route possible based not just on the presence of charging along the way but on the traffic and the route profile,” says Audi’s Carter Balkcom, the E-tron’s marketing lead.The powertrain is tuned for electric cruising but also has the kind of power and performance that EVs can offer. The 125-kW motor powers the front wheels; a 140-kW motor covers the back. Under most driving conditions, the E-tron will function as a rear-drive vehicle, until the front motor is needed for acceleration or traction. When the car is in Sport mode, drivers can boost both motors to a combined output of 400 horsepower for up to 10 seconds at a time—while passing, for instance—by pushing the accelerator past its usual stopping point.Regenerative braking comes courtesy of both electric motors, contributing about 30 percent of the total range. Regardless of whether the driver presses the brake pedal or merely lifts off the accelerator, the first 0.3 g’s of braking energy come from that regenerative process, in which the motors function as alternators and slow the car by providing resistance, producing electricity that heads into the battery. Drivers can also adjust the amount of regenerative braking by paddles behind the steering wheel, dialing more or less resistance to suit their preferences. At the highest level, the car allows for single-pedal driving.

By | 2018-09-18T21:41:08+00:00 September 18th, 2018|Scoop.it|0 Comments

« Eh ! Les marques, je ne suis pas un numéro… »

Plus près de toi client, plus près de toi… Il n’y pas que l’argent dans la vie. La qualité des relations est également primordiale. Les marques ne devraient pas l’oublier. L’agence Hopscotch a réalisé avec l’institut YouGov une étude intitulée : « Des relations qui font sens ». Partant du constat que les entreprises font face à un changement de paradigme et que l’économie de la relation est en train de prendre une place majeure, le groupe de conseil en communication a souhaité savoir quel rôle la réputation et la relation pouvaient jouer dans la propension des consommateurs à apprécier un produit ou un service. Son sondage effectué auprès de 1000 personnes visait également à révéler si certains profils étaient plus sensibles que d’autres à la relation tissée avec les marques. Et le moins que l’on puisse dire est que les résultats risquent de vous surprendre… Pas facile d’être une « lovebrand » Le constat de départ semblait pourtant simple... « Aujourd’hui, la plupart des analyses marketing disent que pour devenir une « lovebrand », il est nécessaire de travailler son image et sa notoriété mais qu’il faut aussi proposer une expérience exceptionnelle aux utilisateurs », souligne Yann Daujeard, partner chez Hopscotch « Mais personne ne sait vraiment quelle peut être cette expérience… Nous sommes aujourd’hui dans une économie de connaissance basée sur la dématérialisation mais il est important d’ajouter de l’émotion et un véritable échange avec le client ». Le sondage réalisé par YouGov confirme cette analyse. A vrai dire, Hopscotch « ne s’attendait pas à ce que la qualité de la relation soit si importante » pour les consommateurs. Cette enquête a étudié les secteurs de l’assurance, de la banque, de la mutuelle et de la téléphonie. Lorsque les sondés sont interrogés sur les raisons qui les ont poussés à changer de fournisseur, la qualité de la relation arrive en seconde position dans leur réponse juste derrière le rapport coût/service rendu et elle est deux, voire trois fois plus citée, que la question des valeurs. Dans l’assurance, les tarifs trop élevés sont de très loin le facteur déterminant (61%) qui pousse un particulier à quitter sa compagnie, loin devant la qualité de la relation que l’entreprise entretient avec sa clientèle (18%). Mais dans la banque, la différence entre ces deux facteurs est beaucoup plus étroite (36% contre 31%). 

By | 2018-09-18T21:12:07+00:00 September 18th, 2018|Scoop.it|0 Comments

L’alliance Renault-Nissan-Mitsubishi fait entrer Google dans ses véhicules connectés

Premier constructeur automobile mondial par les volumes (10,6 millions de voitures vendues en 2017), Renault-Nissan-Mitsubishi proposera ainsi à ses clients trois fonctionnalités : le service de cartographie Google Maps, le système d'assistant personnel intelligent Google Assistant (qui permettra de « parler à la voiture » pour activer certaines commandes) et le magasin Google Play Store, qui donnera accès à une sélection d'applications adaptées au monde de l'auto.De quoi offrir aux adeptes du trio « une continuité 'digitale' entre la voiture et son monde extérieur », poursuit Hadi Zablit. Toutefois, le système sera « ouvert » afin que les automobilistes puissent télécharger des assistants d'autres marques, comme l'Apple iOS.Qui sera concerné ? Dans un premier temps, ces logiciels n'équiperont pas toutes les modèles des trois constructeurs, mais ils seront étendus progressivement à l'ensemble des gammes « si l'expérience est satisfaisante », a-t-il ajouté. Enfin, la Chine n'étant pas couverte par Google, l'alliance proposera d'autres solutions pour ce pays.

By | 2018-09-18T20:42:12+00:00 September 18th, 2018|Scoop.it|0 Comments

Après-Lehman : deux leçons apprises, une leçon perdue

La première leçon semble évidente : la finance fait système. Elle est en cela très différente des autres secteurs de l'économie. Les constructeurs automobiles ne passent pas leur temps à se vendre des voitures. Si l'un d'eux s'effondre, les autres survivent. Il en est tout autrement dans la finance. Les banquiers passent leur temps à se prêter de l'argent. Si l'un d'eux tombe, il peut entraîner tous les autres. C'est ce qui a failli se produire avec la chute de la maison des frères Lehman.On savait que la finance fait système au moins depuis les crises du XIXe siècle. La tempête des années 1930 l'a rappelé avec force. Toute une série de dispositifs avait été mise en place dans la foulée : séparation des activités, coussins d'amortissement, surveillance des banques. Mais sous la pression des financiers, le corset a été desserré au fil du temps, en particulier pendant les années 1980-1990. Au début des années 2000, le « risque systémique » était considéré comme une curiosité.Finance de l'ombreC'est ici que les changements ont été les plus profonds. Les banques doivent désormais avoir beaucoup plus de noisettes. En dix ans, les fonds propres (dans leur définition « Tier-1 ») sont passés de moins de 4 % des crédits et placements des banques européennes et américaines à plus de 15 %,  soulignent les experts du McKinsey Global Institute. Les régulateurs ont aussi créé des cousins de liquidité et des rembourrages supplémentaires pour les établissements systémiques.Ces réglementations microprudentielles ont été complétées par une couche macroprudentielle, où les autorités de tutelle tentent d'appréhender et de limiter les fameux risques de systèmes. Faut-il aller plus loin ? Le débat est vif. Dans les banques, le cadre réglementaire est déjà lourd, et effroyablement complexe. Le danger migre vers le « shadow banking », la finance de l'ombre composée des acteurs non bancaires et souvent non régulés qui participent au financement de l'économie.Accepter un déficit persistantLa deuxième leçon porte non plus sur la banque mais sur la politique économique. Elle est claire - à défaut d'avoir été énoncée. Au plus fort de la crise, les deux grands leviers ont été actionnés à fond. Les déficits budgétaires ont explosé et les taux d'intérêt à court terme ont été ramenés à zéro.Ensuite, il y a eu divergence. Les banquiers centraux ont exploré de nouveaux territoires, achetant massivement de la dette publique et privée. Au contraire, les gouvernants ont battu en retraite. Ils ont serré la vis budgétaire pour contenir le déficit et ainsi rassurer les investisseurs. Plus ils l'ont serré, plus la croissance a toussé, limitant, voire annulant la baisse du déficit.Il y a trois ans, un économiste de l'Université de l'Indiana,  Eric Leeper , s'était taillé un franc succès en opposant « science monétaire » et « alchimie budgétaire ». En réalité, c'est l'inverse qui s'est passé. La politique budgétaire est restée douloureusement engoncée dans des règles rigides alors que la politique monétaire a réussi en fabriquant des mixtures inconnues. Lors de la prochaine crise majeure, la solution est simple : accepter un déficit persistant, la banque centrale étant prête à acheter les obligations d'Etat en cas de refus des investisseurs. « Whatever it takes », pour reprendre l'expression du patron de la Banque centrale européenne Mario Draghi. « Quoi qu'il en coûte », ce qui posera bien sûr d'autres questions.Une amende ridiculeLa dernière leçon porte sur la responsabilité. Elle est stupéfiante. Personne ne porte la responsabilité de la plus grande crise financière depuis près d'un siècle. Dick Fuld a rouvert une petite boutique de finance après la faillite de Lehman Brothers, alors que sa banque avait pris des positions terriblement risquées et trafiquait ses chiffres. Le cabinet d'audit qui avait certifié les comptes de Lehman, Ernst & Young, a payé  une amende ridicule de 10 millions de dollars. Le directeur des risques d'une banque en faillite a retrouvé une autre direction dans une autre banque. Les agences de notation n'ont pas été sanctionnées pour  leurs conflits d'intérêts (elles conseillaient les émetteurs de produits titrisés pour qu'ils obtiennent le meilleur rating). Les régulateurs qui ne voulaient plus réguler ont eu des moyens supplémentaires. Les économistes qui vantaient la supériorité absolue du marché enseignent toujours dans les meilleures universités.

By | 2018-09-17T16:27:59+00:00 September 17th, 2018|Scoop.it|0 Comments

Quelles compétences face à l’automatisation ?

Une étude publiée par le Forum économique mondial estime que l'intelligence artificielle et la robotisation vont créer davantage d'emplois qu'elles n'en détruiront. A condition que les travailleurs soient suffisamment formés.Combien les robots et l'intelligence artificielle vont-ils détruire (ou créer) d'emplois d'ici à dix, vingt ou trente ans ? Depuis novembre 2013 et un premier article alarmant de Carl Benedikt Frey et Michael Osborne, chercheurs à Oxford, les études sur le sujet se multiplient... et se contredisent souvent. La dernière en date, publiée ce lundi par le Forum économique mondial à l'occasion de son sommet de Tianjin (Chine), pendant asiatique de celui de Davos, ne fait pas exception à la règle.Venant après une première étude publiée en janvier 2016, la deuxième édition du  « Future of Jobs Report » se montre plutôt optimiste : non seulement le « nouvel âge de la machine » (pour reprendre le titre d'un des meilleurs livres sur l'automatisation) ne va pas pousser la majorité des humains vers le chômage, mais il va même créer plus d'emplois qu'il n'en détruira. Du moins dans un avenir proche, les experts du Forum ayant cette fois-ci choisi de se concentrer sur le temps court - moins de dix ans.

By | 2018-09-17T16:27:07+00:00 September 17th, 2018|Scoop.it|0 Comments

Gilles BABINET – L’entreprise digitale à la recherche de nouvelles formes de management (HBS/UP-Extrait)

1- Les Analytics : auparavant domaine réservé des grands éditeurs de systèmes d’information d’entreprise, ils se sont largement démocratisés depuis la naissance du fameux Google Analytics. Désormais, ils permettent aux entreprises de diffuser une culture de la donnée et du « benchmark » de façon simple, au travers du cloud. Toute l’entreprise, quels que soient les types d’expertises de ses collaborateurs, peut donc disposer d’une compréhension fine aussi bien d’enjeux génériques ou « corporates » que de points de données qui ne concerneraient qu’un petit groupe d’individus. Ainsi, dans les organisations digitales, les données, présentées sous forme de tableaux de bord visuels – dashboard – structurent largement la culture d’entreprise et sont souvent les juges de paix, lorsqu’il s’agit d’accroître un investissement ou au contraire de le stopper. 2- Les messageries instantanées ont, au sein des entreprises récentes, souvent presque totalement remplacé l’e-mail. Si les générations postérieures à X les critiquent pour être trop intrusives, elles sont plébiscitées par celles qui les suivent. Au-delà d’être instantanées, elles permettent de classer par sujet les échanges d’information et d’avoir un historique clair de ces derniers. Ainsi un nouveau venu sur un projet donné pourrait, sous réserve de bien maîtriser ce type d’outil, en comprendre toute l’étendue et la complexité en quelques heures. Le plus fameux d’entre eux, Slack, est si répandu que certains développeurs stars de la Silicon Valley refusent de travailler avec certaines entreprises si elles n’en sont pas équipées. Ce type d’outil n’est d’ailleurs plus restreint aux fonctions techniques, mais adopté par l’ensemble des entreprises digitales, du directeur général au stagiaire. 3- Les outils de partage de projet. Qu’il s’agisse d’entreprises qui conçoivent des réacteurs d’avion avec des outils de modélisation 3D comme General Electric ou qui élaborent le code informatique de sites d’e-commerce comme Amazon, la révolution cloud a permis de généraliser des outils disposant d’un niveau de collaboration et de transparence jamais auparavant atteint. Ces trois outils sont évidemment fortement complémentaires et comportent généralement des fonctionnalités qui permettent de naviguer avec aisance de l’un à l’autre. Ils ont induit une nouvelle culture du management, qui comprend quelques notions fortes :– Une transparence très avancée, qui permet de regarder très facilement ce qui a été réalisé par les autres collaborateurs. Le corolaire étant évidemment une capacité de contrôle et potentiellement de coercition très importante.– Une culture presque religieuse du KPI, principalement introduite par les Analytics.– Des cultures d’entreprise et des règles, généralement implicites, fortes. Il est évident que si, avec le développement des outils de chat (messagerie instantanée), tout le monde se mettait à communiquer à tout va, la concentration des collaborateurs et finalement, la productivité, s’en ressentirait fortement.L’erreur généralement commise consiste à imaginer qu’il suffit d’intégrer ces outils pour devenir une entreprise digitale. C’est évidemment un raccourci que l’on veillera à ne pas faire car de facto, le niveau de maîtrise technologique qu’il convient d’atteindre avant d’accéder aux données d’une entreprise dite « traditionnelle » et de pouvoir libérer les données essentielles est particulièrement exigeant ; données qui seront utilisées à la fois dans les Analytics et dans les projets. Le décloisonnement des organisations, le passage en gestion de type « lac de données », la mise en œuvre d’API, étant quelques-unes des étapes à franchir. Un préalable, adopter le mode projetDe surcroît, ces outils ne prennent leur plein potentiel que si l’entreprise s’est organisée autour du mode projet, et cela le plus largement possible. On n’imagine que difficilement les obstacles culturels, manageriaux qu’il convient de franchir pour arriver à cette situation. La conséquence la plus importante à l’introduction de ces outils est donc l’évolution vers un mode projet, où les outils se substituent largement à la hiérarchie, au « command and control » qui est le propre des organisations traditionnelles. Il existe toujours un contrôle hiérarchique dans les entreprises digitales, il est beaucoup moins visible et, comme le résume le patron de Facebook, Mark Zuckerberg, son rôle est davantage « de résoudre les problèmes qui ne peuvent plus être résolus par les équipes projet et […] de maîtriser la stratégie à long terme ». Certes, les résistances culturelles à une telle évolution sont fortes : si les générations Y et postérieures sont plus compatibles avec les principes de transparence et d’accountability – le fait de rendre des comptes -, il n’en reste pas moins à adapter les transitions au cas par cas. Comme l’observe Philippe d’Irbarne dans son livre « La logique de l’honneur », la culture anglo-saxonne protestante, férue de transparence et privilégiant la notion de « fairness » – équité -, est probablement plus adaptée au modèle de l’entreprise digitale que « le code de l’honneur » très implicite qui marquerait les entreprises latines, et particulièrement françaises. Il n’est donc pas incohérent d’envisager qu’il faille un certain délai pour faire muter une entreprise traditionnelle vers un mode digital, en gardant à l’esprit que les transformations technologiques sont infiniment plus aisées que celles qui touchent à la culture ou à l’ADN d’une entreprise.

By | 2018-09-17T16:17:10+00:00 September 17th, 2018|Scoop.it|0 Comments

Peter Thiel: Crypto vs AI Dichotomy Will Determine the Future of Humanity

Thiel explained his view regarding cryptocurrencies, saying: “…on Bitcoin, so if crypto is libertarian, AI is communist. Everyone thinks crypto is libertarian because you have all these ideas about decentralizing money and things like this. Nobody says AI is communist and that’s because we are sort of more conscious of people with different views like libertarian and we are less conscious of people with collectivist views because that’s more the zeitgeist. But I think…the crypto versus AI dichotomy goes to the sort of question about what’s the future of the computer age going to look like. And is it going to be more centralized or more decentralized.”“In history we’ve had these very different pictures [of the future]. In the late 60s, the early Star Trek episodes you had one planet they got to where there was one big computer that ran the whole planet for 8,000 years. And the people didn’t have any thoughts. They were all docile, kind of happy. Nothing ever happened and that was what the people thought the future would be in the late 60s. That was in the late 60s when we had centralized big computers. In the late 90s, it was going to be crypto, to be decentralized. The internet was going to split up all these sorts of structures.”68 was centralized, 98 was decentralized, in 2018 in some ways the pendulum has swung back to centralized. Big governments, big databases that can monitor and survey people and know more about you than you know about yourself. Or things like this sort of creepy, big brother type thing.

By | 2018-09-17T16:02:22+00:00 September 17th, 2018|Scoop.it|0 Comments

Commerce vocal : « il y a beaucoup de complexité à explorer » pour Adidas

Si les enceintes connectées rencontrent un succès, les Américains les utilisent apparemment très peu pour réaliser des achats. A peine 1 Américain sur 4 a utilisé une enceinte vocale pour tester un achat. Et comme le reconnaît elle-même Céline Del Genes d’Adidas, qui était jusqu’alors basée aux Etats Unis et qui a rejoint l’Europe, elle utilisait Alexa pour écouter sa musique pendant qu’elle était dans sa cuisine.Havas attire l’attention sur le changement des règles du jeu pour qu’une marque soit bien placée sur un moteur de recherche vocale. « Il faudra passer d’une recherche par mot clé, à une question structurée en langage naturel » pointe David Mingeon, directeur général adjoint de Havas Paris. L’enjeu sera d’être présent dans les 3 premiers résultats, voire d’arriver à être proposé comme solution produit lors de demandes génériques.Insérer de la publicité dans les enceintes vocales«  De nouvelles formes de publicité vont arriver. Si quelqu’un demande du dentifrice, Google Home pourra répondre ‘OK, je peux chercher une marque comme Colgate, que désirez-vous ? » présente David Mingeon. La technologie vocale pourra même être employée en magasin afin de guider le consommateur en boutique vers le bon produit.

By | 2018-09-17T11:10:20+00:00 September 17th, 2018|Scoop.it|0 Comments

Ville intelligente : comment construire l’expérience client

La ville intelligente a confiance en ses banques Le premier constat de l’étude est étonnant : si 59% des sondés trouvent encore primordiale la responsabilité de la mairie, des régions et des acteurs publics, ce sont les banques (32 % des réponses) qui apparaissent comme les plus légitimes pour animer et coordonner les nouveaux services dans les villes. S’ensuivent les acteurs de l’internet (24%), de la mobilité (21%) et des télécoms (19%) pour compléter le quinté des acteurs de confiance en vue de la ville connectée. Pourquoi les services financiers à un tel niveau ? Trois éléments doivent être pris en compte pour apprécier ces réponses : les banques bénéficient d’un coefficient de sécurité, qui leur est traditionnellement attaché. Elles sont également perçues comme des acteurs urbains de proximité à travers leurs réseaux d’agences. Dernier élément et dans le contexte récent de la RGPD, les agences bancaires sont considérées comme un tiers capable de conserver les données personnelles en toute sécurité.  D’indispensables partenariats Autre prospective : aucun acteur ne pourra, seul, proposer une offre de mobilité répondant à l’envergure d’une ville intelligente. Alors que l’ambition d’une offre globale n’a jamais été aussi forte, le besoin de multiplier les partenariats, notamment entre le privé et le public est un passage obligé. « Je n’imagine pas une smart city sans une impulsion de partenariats public/privé et surtout de mairies extrêmement dynamiques en lien avec un constructeur, un opérateur téléphonique, une banque et des sociétés de transport », souligne le responsable des projets urbains d’une grande métropole française. Les opérateurs de la ville intelligente ne pourront agir seuls. L’attention se tourne ainsi vers les entrepôts mixant données publiques et privées et vers les différentes formes du datasharing.  Fluidity as a service  Dans la lignée des interrogations autour de l’expérience utilisateur de demain, les répondants à l’enquête ont été invités à imaginer les futurs services digitaux. Élément détonant : 57 % (70 % des plus jeunes) voudraient pouvoir régler toutes leurs dépenses de mobilité (parcmètres, transports en commun, parkings…) à partir d’une seule appli. Ils font valoir de la même façon une inquiétude : multiplier les interfaces diminuerait la qualité de l’expérience utilisateur. Une bataille s’impose ainsi pour les acteurs, celle de la fluidité. Alors que les solutions de « paiement invisible » comme Automatric d’Oney (qui sera bientôt intégré dans un prototype de voiture connectée que prépare PSA) permettront demain d’intégrer des fonctions de paiement dans les automobiles (passer un péage, faire le plein de carburant, ou payer un parcmètre…), l’étude confirme que la véritable attente se situe dans l’idée de globalisation de la démarche de mobilité. Si Mastercard à Mexico et Visa testent respectivement des innovations de ce type, l’avancée la plus « fluide » se trouve encore au Japon : l’opérateur téléphonique NTT Docomo avait lancé en 2004 l’Osaifu Keita, un mobile permettant les paiements sans contact qui compte aujourd’hui 30 millions d’utilisateurs. Il intègre désormais le portefeuille électronique EDY de Bitwallet (20 millions d’utilisateurs) utilisable dans de nombreux commerces et taxis, ainsi que la Super Urban Intelligent Card (SUICA) de la compagnie des chemins de fer de la région de Tokyo (qui couvre aussi les vols intérieurs).  Vers des formules de mobilité urbaine  Cela invite à considérer, que « les premiers acteurs de la ville intelligente pourraient plutôt être ceux qui sauront agréger les compétences dans la définition de bouquets de services, tels que le public les imagine notamment en matière de mobilité urbaine. Pas tant ceux qui proposeront de nouveaux modes de mobilité », souligne un expert interrogé dans l’étude. « Mais ceux qui sauront regrouper les différents modes de mobilité en un seul service ».

By | 2018-09-17T11:07:05+00:00 September 17th, 2018|Scoop.it|0 Comments

How to stop data centres from gobbling up the world’s electricity

Already, data centres use an estimated 200 terawatt hours (TWh) each year. That is more than the national energy consumption of some countries, including Iran, but half of the electricity used for transport worldwide, and just 1% of global electricity demand (see ‘Energy scale’). Data centres contribute around 0.3% to overall carbon emissions, whereas the information and communications technology (ICT) ecosystem as a whole — under a sweeping definition that encompasses personal digital devices, mobile-phone networks and televisions — accounts for more than 2% of global emissions. That puts ICT’s carbon footprint on a par with the aviation industry’s emissions from fuel. What could happen in the future is hard to forecast. But one of the most worrying models predicts that electricity use by ICT could exceed 20% of the global total by the time a child born today reaches her teens, with data centres using more than one-third of that (see ‘Energy forecast’)1. If the computationally intensive cryptocurrency Bitcoin continues to grow, a sharp rise in energy demand could come sooner rather than later (see ‘The Bitcoin bite’).For now, despite rising demand for data, ICT’s electricity consumption is staying nearly flat, as increased Internet traffic and data loads are countered by increased efficiencies — including shuttering older facilities in favour of ultra-efficient centres such as Prineville’s. But those easy wins could end within a decade. “The trend is good right now, but it’s questionable what it’s going to look like in 5–10 years,” says Dale Sartor, who oversees the Center of Expertise for Energy Efficiency in Data Centers at the US Department of Energy’s Lawrence Berkeley National Laboratory in Berkeley, California.

By | 2018-09-15T14:36:03+00:00 September 15th, 2018|Scoop.it|0 Comments