Meta continue d'améliorer sa paire de lunettes connectées et vient de dévoiler trois ajouts qui viendront enrichir la liste déjà assez longue de fonctionnalités. Un assistant IA en temps réel, un système de traduction instantanée et l'intégration de Shazam. Des fonctionnalités promises lors du Meta Connect 2024 qui se concrétisent aujourd'hui.

L'IA intégrée aux lunettes est multimodale, ce qui signifie qu'elle peut traiter différents types d'informations, notamment les images, le son et le texte.© JLStock / Shutterstock
L'IA intégrée aux lunettes est multimodale, ce qui signifie qu'elle peut traiter différents types d'informations, notamment les images, le son et le texte.© JLStock / Shutterstock

Les Ray-Ban Stories 3 ont soufflé il y a peu leur premier anniversaire ; lancées en octobre 2023, elles sont un vrai succès, que ce soit pour Meta ou pour le lunetier américain. Encore plus depuis que des fonctionnalités IA leur ont été intégrées au mois d'avril. Nécessairement vouées à maturer, nul doute que ces dernières feront l'objet de mises à jour régulières, et au vu de la tournure que prennent ces évolutions, peut-être que la CNIL les surveillera d'encore plus près, comme ce fut le cas au mois d'octobre.

Une IA qui voit le monde à travers vos yeux

L'assistant IA en temps réel est, pour le moment, une exclusivité du programme Early Access : une initiative de Meta qui permet à un nombre limité d'utilisateurs de tester en avant-première de nouvelles fonctionnalités. À quoi sert-il ? Il observe et analyse l'environnement en continu pour interagir naturellement avec son porteur.

Par exemple, dans un supermarché, l'assistant scrute les rayons et suggère des recettes adaptées aux ingrédients disponibles. Il pourrait aussi guider l'utilisateur dans un environnement inconnu, en indiquant la direction à suivre, en identifiant des points d'intérêt ou en fournissant des informations sur les transports en commun.

Vous voyez le tableau, les lunettes pensent littéralement pour vous… pendant 30 minutes uniquement avec une charge complète. Il faudra disposer de la version 11 du logiciel des lunettes et la version 196 de l'application Meta View pour pouvoir l'utiliser. Toutefois, ce programme d'accès anticipé, accessible via ce site, n'est pas (encore ?) disponible dans l'Hexagone.

Pour le moment, l'intégration de Shazam ne concerne pas tous les usagers.  © Tatiana Diuvbanova / Shutterstock
Pour le moment, l'intégration de Shazam ne concerne pas tous les usagers. © Tatiana Diuvbanova / Shutterstock

Un polyglotte digital au bout du nez

La traduction en direct, également réservée aux testeurs du programme, propose un dialogue fluide entre quatre langues : anglais, espagnol, français et italien. Le système requiert le téléchargement préalable de packs linguistiques et la configuration des langues de l'utilisateur et de son interlocuteur. Les traductions se font instantanément, soit en audio directement via les lunettes ou en texte sur un smartphone.

Les Ray-Ban intègrent désormais nativement l'application Shazam (uniquement disponible pour les usagers canadiens et américains), qui leur permet d'identifier instantanément la musique ambiante à partir d'une simple commande vocale. Mark Zuckerberg s'est même fendu d'un petit reels sur son compte Instagram pour en faire la démonstration hier.

La paire de lunettes 3.0 de Meta s'approche donc de plus en plus de la vision d'Andrew Bosworth, directeur technique du groupe, qui les considère comme le dispositif ultime « entièrement défini par l'intelligence artificielle dès sa conception ». Dispositif qui collecte, au passage, une quantité de données monstrueuse pour fonctionner ; et comme on le sait bien, la réglementation européenne n'est pas bien friande des objets ou services avec des yeux/oreilles trop attentifs. Pour le moment, aucune date officielle de lancement de ces fonctionnalités n'est donc prévue sous nos latitudes.

Source : The Verge