C’est le succès que l’on n’avait pas vu venir en 2024. Meta, non content d’être le roi des réseaux sociaux, est aussi devenu un excellent vendeur de lunettes. Désormais, dans 60 % des magasins Ray-Ban, ce sont les modèles connectés réalisés en partenariat avec Meta qui sont les plus vendus, devant les montures classiques. Ces données proviennent du directeur financier d’ EssilorLuxottica (maison mère de Ray-Ban), Stefano Grassi, qui les a partagées lors d’une conférence en octobre.
Après l’échec des Ray-Ban Stories présentées en 2021 – 300.000 ventes en dix-huit mois, dont 90 % finissaient au fond d’un tiroir selon un document interne consulté par le « Wall Street Journal » -, Meta avait dégainé de nouvelles Ray-Ban en octobre 2023. L’entreprise ne dévoile pas les volumes de vente mais, d’après le cabinet IDC, il s’en est écoulé quelque 700.000 paires en une année.
Et le géant de la tech ne compte pas s’arrêter là. Selon le « Financial Times », il pourrait ajouter des écrans à ses lunettes l’année prochaine. Ils serviraient à afficher des notifications ou des réponses de l’assistant virtuel de Meta.

Remplacer le smartphone
Mark Zuckerberg avait d’abord présenté les masques de réalité virtuelle comme l’avenir d’Internet, avec le métavers comme terrain d’expression. Las, de simples lunettes de soleil (ou de vue) dotées de deux caméras, micros et haut-parleurs ont suffi pour gagner une première bataille des lunettes.

« Les smartphones ont dominé les deux dernières décennies et maintenant, les géants de la tech sont en quête de la nouvelle interface, qui a failli être l’enceinte vocale », pointe Diego Ferri, chez EY Fabernovel. Pour lui, ce retour des lunettes intelligentes dix ans après l’échec des Google Glass est lié à l’intégration de l’IA, elle-même liée aux nouvelles capacités des puces informatiques.

A ce jour, Meta vend certes plus de casques de « VR » Oculus. Mais, selon Bernstein, les Ray-Ban connectées seront la star des fêtes de fin d’année, et les courbes vont se croiser. Car depuis cette année, les lunettes sont équipées du système d’intelligence artificielle Meta AI – sauf pour l’instant dans l’Union européenne. Couplée aux deux caméras, l’IA peut décrire son environnement et répondre à des questions en langage naturel.

Un assistant sur le nez
« Il se passe clairement quelque chose sur le front des lunettes connectées », relève, de son côté, l’expert en transformation numérique Frédéric Cavazza. Certains observateurs créditent à Meta l’exploit d’avoir créé la prochaine grande catégorie de produits après le smartphone. Lui met en avant la force d’y avoir mis de l’IA sans imposer aux consommateurs de changer de monture.
Alors que les chatbots vocaux semblaient se destiner à des appareils dont l’audio est la première fonction – comme les enceintes connectées ou les écouteurs Bluetooth -, les lunettes connectées apparaissent comme une façon plus naturelle d’intégrer une IA. Elles voient ce qu’on voit. On peut leur parler et les entendre. Et les avoir toujours avec soi.
En décembre, Google a présenté sa nouvelle IA multimodale Gemini 2.0. Et pour en illustrer les capacités, elle l’a intégrée à des lunettes connectées. Avec son « projet Astra », Google imagine un assistant universel sur le nez. Dans une vidéo, on voit un cycliste circuler le long d’un parc à Londres. Sans lever les mains du guidon, mais en regardant autour de lui, il demande de quel parc il s’agit. « C’est Primrose Hill, réputé pour sa vue panoramique », indique l’assistant intelligent. Peut-on y circuler à vélo ? « A priori non… ». De quoi offrir une nouvelle vie à Google Maps ?
La démonstration devient plus effrayante lorsque le testeur de la vidéo demande à ses lunettes de lui rappeler le digicode de son immeuble. Comme celles-ci filment tout, elles ont mémorisé la dernière saisie et lui rappellent qu’il s’agit du « 1170 ». Tout cela n’en est qu’au stade du prototypage et est actuellement limité à une poignée de testeurs. Néanmoins, les effets de bord surgissent déjà.

Vie privée en danger ?
Ainsi, lorsque Meta a connecté ses Ray-Ban à l’IA, il n’a fallu que quelques jours pour que deux étudiants de Harvard les relient à plusieurs bases de données afin d’en faire un redoutable système de reconnaissance faciale. Identité, coordonnées… En une requête, et pour peu que ces données figurent en ligne, les Ray-Ban peuvent percer l’anonymat de personnes croisées dans la rue.

Pour Frédéric Cavazza, ces craintes, de même que l’acceptabilité sociale de voir des lunettes à caméra partout, ne sont pas un obstacle. « Il y a trente ans, des gens se cachaient pour téléphoner dans la rue car ils avaient honte. Plus récemment, on s’est habitué aux Airpods partout. Demain, on filmera avec ses lunettes. Quant aux données, quelle hypocrisie ! Si on étale déjà sa vie privée sur les réseaux sociaux, pointe l’expert, veut-on vraiment protéger ses données personnelles ? »

Capter plus de données
Les données, c’est peut-être tout l’enjeu de ces lunettes. « Est-ce que les géants de la tech croient vraiment aux lunettes, ou est-ce surtout une nouvelle façon pour eux de capter de l’information, avec ces caméras que tout invite à enclencher le plus souvent possible ? » s’inquiète Diego Ferri.
Avec près de 300 millions d’utilisateurs, ChatGPT a connu une percée folle. Et pour l’expert chez EY Fabernovel, ce n’est qu’une question de temps avant que l’on voie des gens parler avec leur monture dans la rue. Samsung et Google devraient se lancer, quand Apple et Tesla nourrissent la rumeur. Huawei a déjà ses lunettes ainsi que Snap (pour les développeurs). Pour répondre aux inquiétudes et contraintes imposées par l’Union européenne et le règlement RGPD, la start-up Looktech mise, elle, sur des montures censées respecter la vie privée.

Lire l’article complet sur : www.lesechos.fr