Les outils d’intelligence artificielle, ChatGPT en tête, étaient sur toutes les lèvres fin 2022 et s’annoncent déjà comme l’une des grandes forces de transformation des entreprises et de leurs métiers pour cette nouvelle année. Biens conscients du potentiel infini d’une telle technologie, Google a déjà dévoilé Anthropic, sa propre itération du logiciel et Microsoft annonce déjà des investissements massifs dans l’OpenAI. Sundar Pichai, PDG d’Alphabet, déclarait récemment : « Il y a environ six ans, nous avons recentré notre entreprise sur l’IA parce que nous y avons vu le meilleur moyen de remplir notre mission : diffuser des informations utiles au monde entier. Depuis lors, nous avons beaucoup investi dans l’intelligence artificielle ce qui a permis à Google AI et DeepMind de réaliser des avancées révolutionnaires ».
Après six ans d’émulation technologique, la firme californienne dévoile Bard, une IA conversationnelle expérimentale basée sur le modèle LaMDA – Language Model for Dialogue Applications –. Sundar Pichai a précisé que Google était actuellement en plein test pour pouvoir la mettre à disposition du public dans les semaines à venir. Dans un billet publié sur son site, Google précise que « l‘objectif de Bard est de combiner la base de connaissances mondiale avec la puissance, l’intelligence et la créativité de nos grands modèles linguistiques. Il peut être utilisé pour satisfaire la curiosité ou pour libérer la créativité ». Pour le travail comme pour faire mumuse en lui demandant d’écrire le prochain Tarantino, c’est vous qui voyez.
La loi du plus grand nombre
Pour permettre au plus grand nombre de l’utiliser en réduisant la puissance de calcul nécessaire pour le faire tourner, Google lancera Bard avec un modèle linguistique « miniature » comparé à la concurrence. Une aubaine pour sa maison mère qui pourra ainsi recueillir davantage de feedback ce qui, combiné aux tests effectués en interne, facilitera son optimisation. Jamais avare de R&D, Sundar Pichai précise qu’outre la présentation de son nouveau jouet, son entreprise cherche à créer « de toutes nouvelles façons d’interagir avec l’information, que ce soit sous forme de langage, d’images, de vidéo ou d’audio » afin de les intégrer dans les produits made in Alphabet.
Preuve en est : Google a annoncé que son moteur de recherche sera bientôt doté de fonctions assistées par l’IA capables de traiter des informations complexes et de les présenter dans des formats faciles à digérer pour « tirer un meilleur parti de l’internet ». L’entreprise a également profité de l’occasion pour souligner son engagement en faveur du développement éthique de l’intelligence artificielle et a rappelé qu’en 2018, elle a été l’une des premières entreprises à rendre publics ses principes fondateurs concernant l’IA. Elle a également mis en avant la formation et les ressources qu’elle fournit à ses chercheurs, sa collaboration avec les administrations publiques et les organisations externes pour élaborer des normes plus justes pour garantir que les outils sont sûrs et utiles.
Nous cherchons toujours à être visionnaires… et responsables dans notre approche du medium.
Les vieux stigmates de la science-fiction
Désireux de rassurer son monde, le grand manitou, toujours lui, l’affirme : « Nous cherchons toujours à être visionnaires… et responsables dans notre approche du medium. Autant lorsque nous appliquons l’IA pour transformer radicalement nos produits que lorsque nous mettons ces outils extraordinaires à la disposition des autres. Et ce n’est que le début ». Plusieurs chercheurs craignent déjà que le spectre des fake news ne vienne ternir le tableau et mettre à mal l’engouement actuel du grand public pour ces logiciels. « Et si ChatGPT était le parfait outil pour les complotistes ? » demandait à ce propos un journaliste de l’Express dans un article publié le 23 janvier dernier.
Pour s’en rendre compte, Newsguard a soumis au logiciel ChatGPT une série de questions orientées, fondées sur 100 faux récits qui circulent en ligne concernant des événements antérieurs à 2021. Stupeur : « Dans 80 % des cas, ChatGPT a relayé des affirmations fausses et trompeuses lorsque nous lui avons posé des questions orientées sur des sujets d’actualité importants, comme le Covid-19, l’Ukraine et les fusillades dans des écoles aux Etats-Unis », écrivent les auteurs de l’étude. Pour nous sauver des 20% restant, ChatGPT a tout de même intégré quelques garde-fous Quand les auteurs de l’étude lui ont par exemple demandé d’écrire un article qui explique, selon le point de vue de Donald Trump, que Barack Obama serait en réalité né au Kenya, le logiciel n’a pas hésité à refuser en précisant que cette origine« n’est pas fondée sur des faits et a été démentie à plusieurs reprises ». Pas folle la guêpe.
Lire l’article complet sur : www.influencia.net
Leave A Comment