Avec Meta, il est désormais possible de demander de plus en plus d’actions à ses lunettes Ray-Ban, comme filmer ce que l’on voit, prendre une photo ou scanner un QR Code. Des avancées permises par l’intégration toujours plus poussée de Meta AI, l’intelligence artificielle maison. Mais des avancées aussi qui se doublent d’inquiétudes grandissantes sur la protection de la vie privée.
Aux Etats-Unis et au Canada, les Ray-Ban de Meta peuvent répondre aux questions posées par son propriétaire, car elles filment passivement leur environnement. Elles envoient ensuite ce flux vidéo à l’intelligence artificielle multimodale (capable de traiter plusieurs types de données : texte, image, audio, vidéo) de la société.
Vous pouvez par exemple leur demander quelle tenue porter en regardant votre penderie. Après avoir scanné votre garde-robe et interrogé Meta IA, les Ray-Ban vous suggéreront une tenue. Cette fonctionnalité n’est pas possible toutefois dans l’Union européenne, car Meta pourrait, dans l’état actuel de son IA, ne pas respecter les lois en vigueur (RGPD et AI Act ).
100 millions d’images
Seulement, que fait Meta des images captées ? Interrogée par le site américain TechCrunch, l’entreprise a confirmé que « dans les endroits où l’IA multimodale est disponible (aux Etats-Unis et au Canada), les images et vidéos partagées avec Meta AI peuvent être utilisées pour l’améliorer, conformément à [sa] politique de confidentialité ». Dans ses conditions d’utilisation, Meta indique également stocker toutes les transcriptions des conversations vocales pour former ses futurs modèles d’IA.
Meta se sert donc des photos, vidéos et conversations pour entraîner ses modèles d’IA . Une véritable manne. « Depuis leur lancement [en 2023], plus de 100 millions de photos et vidéos ont été prises avec les lunettes Ray-Ban Meta », explique l’entreprise de Menlo Park. Problème : ces contenus (l’intérieur de sa maison, le visage de membres de sa famille ou d’inconnus), peuvent servir à entraîner l’algorithme.
Un précédent chez Facebook
Il est déjà connu que Meta améliore ses modèles d’IA avec tout ce que diffusent publiquement les utilisateurs américains sur Instagram et Facebook. Mais comme le pointe TechCrunch, Meta a aussi élargi sa définition de « données accessibles au public » à tout ce que les gens regardent à travers leurs lunettes. Des personnes croisées dans la rue qui n’ont pas donné leur consentement peuvent ainsi se retrouver photographiées. Et ces photos, envoyées à l’IA de Meta.
Les nouvelles capacités de ces Ray-Ban connectées remettent aussi sur la table le risque de la reconnaissance faciale. Sur ce dossier, la maison mère de Facebook a dû verser 1,4 milliard de dollars au Texas en juillet pour avoir permis aux utilisateurs de Facebook d’identifier des amis dans des photos publiées en ligne entre 2011 et 2021. Cette possibilité ne figure bien évidemment pas dans le catalogue des fonctionnalités des lunettes de Meta… mais il est possible de l’ajouter.
Reconnaissance faciale
Deux étudiants de Harvard en ont récemment fait la démonstration. Dans un document Google partagé en ligne, AnhPhu Nguyen et Caine Ardayfio expliquent, en deux pages, comment avec « I-XRAY », ils peuvent identifier n’importe qui – à condition que cette personne ait une identité en ligne. Nom, prénom, adresse, numéro de téléphone et de Sécurité sociale, métier, publications…
En croisant plusieurs bases de données (Pimeyes pour le visage, FastPeopleSearch pour les coordonnées, etc.), il est possible de dresser une fiche d’identité de quelqu’un à son insu. « La plupart des gens ne réalisent pas qu’avec un simple nom, il est souvent possible d’identifier l’adresse de domicile, le numéro de téléphone et les noms des proches d’une personne », pointent les deux étudiants.
« Grâce à nos lunettes, nous avons pu identifier des dizaines de personnes, dont des étudiants de Harvard, sans qu’ils ne le sachent jamais », a déclaré Caine Ardayfio à « Forbes ». Comme ils le soulignent, ce genre d’espionnage est déjà possible avec une caméra discrète ou un smartphone. Mais il est rendu beaucoup plus subtile s’il s’étend, un jour, à tous les porteurs de lunettes.
La démarche des deux étudiants vise à sensibiliser l’opinion quant aux nouveaux risques de ces montures dopées à l’IA alors que des géants comme Meta, Snap et Huawei poussent les feux dans ce secteur en plein second souffle. De quoi rappeler le climat de méfiance qui avait aussitôt émergé en 2012 à l’apparition des Google Glass, qui n’ont jamais réellement percé.
Lire l’article complet sur : www.lesechos.fr
Leave A Comment