Toujours plus d’intelligence artificielle, avec une intégration toujours plus poussée dans les assistants vocaux et dans l’ensemble des activités de Google, y compris le moteur de recherche. Tels sont les messages martelés mardi par le PDG d’Alphabet, Sundar Pichai, en ouverture de la conférence annuelle de développeurs Google I/O.
Mis sous pression par OpenAI, l’éditeur de ChatGPT, qui lui a grillé la politesse en annonçant lundi une nouvelle version de son modèle d’IA, GTP-4o, le patron d’Alphabet a voulu démontrer que son groupe était capable de faire à nouveau la course en tête, après une année marquée par plusieurs déconvenues. « Comme vous le savez, nous investissons dans l’intelligence artificielle depuis plus d’une dizaine d’années, mais nous n’en sommes encore qu’au tout début du mouvement vers l’IA comme plateforme », a indiqué Sundar Pichai.
Modèle d’IA « multimodal »
Au coeur de sa stratégie figurent de multiples déclinaisons de Gemini, la famille de modèles d’intelligence artificielle générative lancée fin 2023. Développé par Google DeepMind, dont le fondateur et CEO, Demis Hassabis , est intervenu pour la première fois sur la scène de Google I/O, Gemini est un modèle d’IA multimodal, c’est-à-dire capable de comprendre et de générer simultanément du texte, des images (fixes ou animées) et du son.
Cette polyvalence est au coeur d’un nouvel assistant, Gemini Live, dévoilé hier, qui présente de nombreux points communs avec GPT-4o. Comme ce dernier, Gemini Live permet d’interagir par la voix avec une grande fluidité, et de façon beaucoup plus naturelle que la précédente génération d’assistants – il est même possible de l’interrompre en cours de réponse, par exemple pour préciser une requête.
Gemini Live, qui sera commercialisé cet été sur abonnement, tire également profit des avancées de l’IA générative pour fournir des réponses plus complètes et plus complexes, y compris en association avec certaines applications de Google (messagerie, calendrier…).
A plus long terme, les assistants IA pourront être intégrés à des lunettes et analyser leur environnement en permanence pour assister l’utilisateur : c’est l’objectif d’un prototype appelé « Project Astra », présenté en vidéo lors de Google I/O. « Imaginez des agents capables de mieux voir et entendre ce que nous faisons, de comprendre le contexte dans lequel nous nous trouvons et de réagir rapidement lors d’une conversation, ce qui rendrait le rythme et la qualité de l’interaction beaucoup plus naturels », a détaillé Demis Hassabis.
Google Search adopte l’IA générative
En attendant, l’IA générative est aussi de plus en plus intégrée au moteur de recherche de Google à travers une nouvelle fonction appelée « AI Overviews ». Accessible depuis mardi à tous les utilisateurs américains, et « d’ici la fin de cette année à 1 milliard de personnes dans le monde », selon Liz Reid, vice-présidente à la tête de Google Search, AI Overviews répond aux requêtes par un mélange de courts textes, rédigés par Gemini, et de liens classiques vers les résultats les plus pertinents.
Ainsi, la question « quels sont les meilleurs cafés du monde ? » renvoie vers une réponse générée par l’intelligence artificielle (« le café de Colombie est souvent considéré comme l’un des meilleurs, comme celui du Brésil et certaines variétés africaines »), accompagnée d’une liste de liens sur le sujet, dont certains sont sponsorisés. Une façon de montrer que l’IA ne devrait pas tuer la recherche, activité historique et très lucrative de Google, mais plutôt la transformer pour fournir une nouvelle expérience.
Et ce n’est qu’une première étape : bientôt, selon divers exemples montrés mardi, Google Search sera capable de comprendre des requêtes bien plus complexes (« trouve-moi des cours de yoga bien notés à moins d’un quart d’heure d’ici »), de planifier des voyages, ou d’analyser une vidéo, par exemple pour repérer une panne sur un appareil électroménager. De quoi ouvrir « le chapitre le plus excitant de la recherche à ce jour », a affirmé Sundar Pichai.
Lire l’article complet sur : www.lesechos.fr
Leave A Comment