Meta l'a admis. La société exploite certaines données récoltées par ses lunettes de réalité augmentée, les Ray-Ban Stories, pour former ses intelligences artificielles.
C'est l'un des projets phares de Mark Zuckerberg : combiner le potentiel de l'IA au domaine de la réalité mixte, pour drastiquement améliorer l'efficacité du matériel. Preuve en est avec l'intégration, plus tôt cette année, d'un assistant d'IA aux Ray-Ban Stories.
Bien entendu, comme avec toutes les IA génératives, le modèle qui alimente l'appareil a besoin d'une quantité immense d'informations pour s'entraîner et fonctionner.
Des données visuelles et audio
On peut logiquement se demander comment l'entreprise forme Meta.AI, son assistant, pour qu'il soit en mesure d'aider le porteur des lunettes à en savoir plus sur un objet se trouvant devant lui, ou pour le conseiller sur la meilleure tenue à choisir pour un entretien. Contactée par TechCrunch, Meta a expliqué que les données provenant de l'usage de l'appareil lorsque l'IA est sollicitée étaient collectées pour la formation du modèle.
Autrement dit, « l'entreprise utilise son premier dispositif d'IA grand public pour créer un stock massif de données qui pourraient être utilisées pour créer des générations de modèles d'IA toujours plus puissants », détaille le média.
Meta défend cette pratique en pointant du doigt ses conditions d'utilisation, qui disposent que « vos interactions avec les fonctionnalités de l'IA peuvent être utilisées pour former des modèles d'IA ». Cela concerne les images capturées par les lunettes ainsi que les discussions que l'utilisateur entretient avec le modèle. Cette pratique ne peut être contournée qu'en refusant d'expérimenter l'assistant d'IA.
Et en Europe ?
Il est important de noter qu'elle ne concerne pas les utilisateurs européens. Du moins, pour l'instant. Meta rechigne en effet à déployer certaines de ses IA sur le Vieux Continent, en raison d'un paysage réglementaire qu'elle juge trop strict, citant, entre autres, le RGPD ou le Digital Markets Act.
La Commission européenne l'a par ailleurs empêchée d'entraîner son grand modèle de langage Llama sur les publications Facebook et Instagram des habitants de l'UE, pratique à laquelle elle s'adonne dans les autres régions du monde.
Étant donné que plusieurs grandes entreprises veulent faire des lunettes de réalité augmentée et des casques de réalité mixte des appareils grand public, ce type de pratiques devrait encore prendre de l'ampleur, soulevant d'importantes questions sur la protection de la vie privée.
- Intégration multiplateforme
- Modèles open-source Llama 3
- Fonctionnalités de génération d'images et vidéos
Source : TechCrunch