Monthly Archives: March 2018

Faire l’« unité » germano-française

Ce petit rappel pour dire qu'aujourd'hui, début mars 2018, la France et cette fois-ci l'Allemagne sont bien seules. Les périls sont historiques. Extérieurs : les empires chinois et américains se rient de l'Europe, ils se moquent de ces petites contrées qui s'acharnent à vouloir faire route ensemble sous le principe d'un pays-une voix malgré toutes leurs évidentes différences. Eux, en tiennent aux nations et au retour du rapport de force, ils s'arment militairement et, c'est nouveau, commercialement, comme Donald Trump pour qui la guerre protectionniste « est facile à gagner ». Intérieurs : pour la première fois depuis 1958, un pays va sortir de l'Union, l'amie d'hier, la Grande-Bretagne. Le projet européen est si délité qu'il est rejeté par les peuples. Les scrutins montrent les uns après les autres que l'état d'esprit s'est inversé, l'union ne fait plus la force mais la faiblesse. La France, avec un président proeuropéen affirmé, croit qu'une relance est indispensable et urgente. Elle a fait des propositions en matière de défense, de sécurité, d'immigration, un budget de la zone euro, une agence pour l'innovation et des listes transnationales pour l'élection au parlement de 2019. L'Allemagne s'est dotée d'un gouvernement de coalition et d'une chancelière qui entendent aussi relancer l'Europe. La composante sociale-démocrate est pleinement d'accord avec la stratégie française, sinon avec toutes les propositions.

By |2018-03-08T18:29:37+00:00March 8th, 2018|Scoop.it|0 Comments

Le buzz des Etats-Unis : YouTube accusée de discrimination

La question de la diversité est décidément compliquée pour les sociétés technologiques . Un ancien employé a porté plainte contre YouTube, la filiale de Google (Alphabet), pour discrimination. Selon Arne Wilberg, qui a travaillé neuf ans chez Google, dont quatre comme recruteur chez YouTube, la plate-forme vidéo a cessé d'embaucher des hommes blancs ou d'origine asiatique l'an dernier, car elle peinait à remplir ses objectifs en matière de diversité, notamment dans les métiers techniques. Selon lui, à partir du printemps dernier, YouTube a annulé des entretiens d'embauche avec des candidats au motif qu'ils n'étaient ni une femme, ni hispaniques, ni afro-américains. Arne Wilberg s'est estimé discriminé et affirme avoir été licencié quand il s'en est plaint. C'est ainsi qu'il a déposé une plainte, en janvier, devant le tribunal californien de San Mateo. Selon le « Wall Street Journal » , ces pratiques ont été confirmées par des proches, familiers des méthodes d'embauche chez Google. Une politique de quotas aurait, selon eux, été mise en place chez YouTube. Des accusations réfutées par la société, par le biais d'une porte-parole. « Nous avons une politique d'embauche claire, basée sur le mérite, et non sur l'identité. Dans le même temps, nous essayons de trouver des profils divers et qualifiés, ce qui nous aide à embaucher les meilleurs, à améliorer notre culture et à développer de meilleurs produits », a-t-elle expliqué.

By |2018-03-02T07:52:54+00:00March 2nd, 2018|Scoop.it|0 Comments

UP Magazine – L’IA, pour le meilleur ou pour le pire ?

Et si l’IA tombait dans de mauvaises mains… Nos contemporains ont un jeu préféré : celui de vouloir absolument se faire peur. Ils seront servis avec cette sonnette d’alarme que viennent de tirer des experts internationaux sur les risques d'une utilisation malveillante de l'intelligence artificielle par « des États voyous, des criminels, des terroristes ». Selon leur rapport publié le 21 février dernier, l'efficacité croissante de l'IA risque, dans les dix prochaines années, de renforcer la cybercriminalité mais aussi de conduire à des utilisations de drones ou de robots à des fins terroristes. Elle est aussi susceptible de faciliter la manipulation d'élections via les réseaux sociaux grâce à des comptes automatisés (bots). Ce rapport de 100 pages a été rédigé par 26 experts spécialistes en intelligence artificielle, cybersécurité et robotique. Ils appartiennent à des universités (Cambridge, Oxford, Yale, Stanford) et à des organisations non gouvernementales (OpenAI, Center for a New American Security, Electronic Frontier Foundation). Ces experts appellent les gouvernements et les différents acteurs concernés à mettre en place des parades pour limiter les menaces potentielles liées à l'intelligence artificielle. « Nous pensons que les attaques qui seront permises par l'utilisation croissante de l'IA seront particulièrement efficaces, finement ciblées et difficiles à attribuer », souligne le rapport. Pour illustrer leurs craintes, ces spécialistes évoquent plusieurs "scénarios hypothétiques" d'utilisation mal intentionnée de l'IA. Ils soulignent ainsi que des terroristes pourraient modifier des systèmes d'IA disponibles dans le commerce (drones, véhicules autonomes), pour provoquer des crashs, des collisions ou des explosions. Les auteurs imaginent ainsi le cas d'un robot nettoyeur trafiqué qui se glisserait subrepticement parmi d'autres robots chargés de faire le ménage dans un ministère berlinois. Un jour l'intrus passerait à l'attaque après avoir reconnu visuellement la ministre des Finances. Il se rapprocherait d'elle et exploserait de façon autonome, tuant sa cible. Par ailleurs, « la cybercriminalité, déjà fortement en hausse, risque de se renforcer avec les outils procurés par l'IA », déclare à l'AFP Seán Ó hÉigeartaigh, directeur du "Centre for the Study of Existential Risk" de l'Université de Cambridge, un des auteurs du rapport. Les attaques par hameçonnage ciblé (spear phishing) pourraient ainsi devenir beaucoup plus aisées à mener à une large échelle. Mais pour lui, « le risque le plus sérieux, même si il est moins probable, est le risque politique ». « Nous avons déjà vu comment des gens se servaient de la technologie pour essayer d'interférer dans les élections et la démocratie ». « Si l'IA permet à ces menaces de devenir plus fortes, plus difficiles à repérer et à attribuer, cela pourrait poser de gros problèmes de stabilité politique et contribuer peut-être à déclencher des guerres », estime le scientifique. Ce n'est pas la première fois que des inquiétudes s'expriment concernant l'IA. Dès 2014, l'astrophysicien Stephen Hawking lançait une mise en garde sur les risques qu'elle pourrait faire courir à l'humanité, en dépassant l'intelligence humaine. L'entrepreneur Elon Musk et d'autres ont aussi tiré la sonnette d'alarme. Des rapports spécifiques sur l'utilisation de drones tueurs ou sur la façon dont l'IA pourrait affecter la sécurité des États-Unis ont également été publiés. Ce nouveau rapport apporte « une vue d'ensemble sur la façon dont l'IA crée de nouvelles menaces ou change la nature des menaces existantes dans les domaines de la sécurité numérique, physique et politique », explique Seán Ó hÉigeartaigh. Il poursuit : « Les chercheurs en IA, les concepteurs de robots, les compagnies, les régulateurs, les politiques doivent à présent collaborer pour tenter de prévenir » ces risques. Et si l’IA tombait dans de bonnes mains ? Presque simultanément était publiée une information plus réjouissante. Deux frères d’origine indienne, milliardaires du secteur technologique, veulent faire en sorte que l’IA soit au service des plus démunis. Romesh et Sunil Wadhwani ont inauguré la semaine dernière à Bombay une fondation – Wadhwani AI institute – chargée de se servir de l'intelligence artificielle pour améliorer le quotidien d'agriculteurs pauvres, de soignants situés en zone rurale ou encore d'enseignants qui travaillent dans des régions défavorisées. Il s'agit de la première initiative de ce genre au monde, ont-ils affirmé. Dotée de 30 millions de dollars sur dix ans, elle a noué un partenariat avec une université américaine en Californie, berceau de la Silicon Valley et des technologies, et elle compte bien collaborer avec les entreprises américaines du secteur. « Notre priorité, c'est combien de dizaines de millions de vies nous pouvons améliorer dans les cinq à dix ans qui viennent », a expliqué Sunil Wadhwani à l'AFP. L'intelligence artificielle pourrait par exemple aider les infirmières à poser des diagnostics, permettre aux agriculteurs d'optimiser les récoltes ou encore traduire les manuels scolaires. « L'intelligence artificielle peut changer la donne », a-t-il poursuivi, mais « beaucoup de pays en développement sont mis sur la touche, tandis que les Etats-Unis et la Chine mènent le jeu ». « Elle peut potentiellement être utilisée à de mauvaises fins ou nous échapper complètement », a relevé P. Anandan, un ancien de chez Microsoft, à la tête de la fondation. Mais il a assuré qu'il était possible de faire le bien avec l'IA. Les géants de la Silicon Valley ont énormément investi pour élaborer des logiciels aidant les machines à penser comme des humains, grâce à des capacités informatiques ultra-rapides et à des montagnes d'analyses de données. Cette technologie a déjà de très nombreux usages : les assistants virtuels, la reconnaissance faciale ou encore la lutte contre les contenus litigieux sur internet. Elle est aussi au centre de la future voiture autonome, sur laquelle mise le secteur technologique tout comme l'industrie automobile. Mais elle est plus rarement mise en œuvre pour aider les plus pauvres ou pour protéger l'environnement, par exemple. Le milliardaire Elon Musk, patron de Tesla et de SpaceX , a contribué à la création d'OpenAI en 2015 dans le but de développer l'intelligence artificielle pour le bien des gens. Il s'est exprimé à plusieurs reprises sur les dangers de l'IA, dénonçant notamment les armes autonomes, ou "robots-tueurs". Microsoft, Amazon, Apple, Google, Facebook ou encore IBM font partie de l'organisation "Partnership on AI" qui veut, elle aussi, promouvoir une technologie "bénéficiant aux gens et à la société". Sunil Wadhwani, quant à lui, veut que sa fondation en Inde aille vite : il espère de premiers tests d'outils utilisant l'IA d'ici la fin de l'année.

By |2018-03-02T07:52:35+00:00March 2nd, 2018|Scoop.it|0 Comments

How to Turn Off Facebook’s Face Recognition Features

"Using facial recognition to help the visually impaired or as a tool to identify and combat cyber harassment is notable, because the positive uses of facial recognition technology are pretty limited to fun and maybe authentication," says Woodrow Hartzog, a law and computer science professor at Northeastern University who studies privacy and data protection. "It's interesting now to see different uses. We collectively need to watch that to see how it plays out." Many Facebook users will end up subjecting their photos to bulk face-recognition scanning for little personal benefit—simply making tagging slightly easier. And least the company seems to strike a decent balance between utility and privacy. "They won’t identify you using face recognition to people who couldn’t identity you in real life, and that to me seems like the right line," says Chris Calabrese, vice president of policy at the Center for Democracy & Technology. "I personally am comfortable with face tagging in this very circumscribed context, but only in that context where it’s to someone who would already recognize you. If we cross that line, face recognition could rapidly spin out of control and that could be really problematic."

By |2018-03-02T07:52:16+00:00March 2nd, 2018|Scoop.it|0 Comments

Why Artificial Intelligence Needs To Learn How To Follow Its Gut

For decades, artificial intelligence with common sense has been one of the most difficult research challenges in the field—artificial intelligence that “understands” the function of things in the real world and the relationship between them and is thus able to infer intent, causality, and meaning. AI has made astonishing advances over the years, but the bulk of AI currently deployed is based on statistical machine learning that takes tons of training data, such as images on Google, to build a statistical model. The data are tagged by humans with labels such as “cat” or “dog”, and a machine’s neural network is exposed to all of the images until it is able to guess what the image is as accurately as a human being. One of the things that such statistical models lack is any understanding of what the objects are—for example that dogs are animals or that they sometimes chase cars. For this reason, these systems require huge amounts of data to build accurate models, because they are doing something more akin to pattern recognition than understanding what’s going on in an image. It’s a brute force approach to “learning” that has become feasible with the faster computers and vast datasets that are now available.

By |2018-03-02T07:50:53+00:00March 2nd, 2018|Scoop.it|0 Comments

Samsung looks to a ‘new frontier’ of mobile intelligence

From health care to finance to personal assistants, Samsung claims its engineers are “pushing the boundaries of mobile intelligence” with the aim of bringing its vision of a truly connected world to life and make controlling the most important devices in its customers’ lives “as easy as flipping a switch”. Speaking at its press conference at Mobile World Congress on Sunday (25 February), Samsung’s executive vice president of research and development, Eui-Suk Chung – who is responsible for the business’s next phase of mobile transformation – said Samsung wants to create software and services that “revolutionise” the way people work and live, “with the mobile device at the centre of your connected life”. “Our vision is to not just make great phones but to make experiences better, easier and more intuitive,” he added. While Samsung is looking to take mobile intelligence to the next level, Chung said it is more important than ever to make sure consumers feel their data is safe and secure. “In a world of connected technology, security is more important than ever because our data is our most valuable possession,” Chung said. “Consumers need to know their data is safe and companies need to handle data with great care and responsibility.”

By |2018-03-01T16:08:59+00:00March 1st, 2018|Scoop.it|0 Comments