Lors de la Google I/O 2024, le moteur de recherche a présenté un nouvel assistant virtuel, Project Astra, fondé sur le modèle de langage Gemini, capable d'analyser de la vidéo, de la voix et du texte pour répondre à toutes les questions.
Les heures de Google Assistant semblent désormais comptées. Google vient d'annoncer, lors de sa conférence Google I/O consacrée à ses innovations logicielles, un nouvel assistant nommé, pour le moment, Project Astra. Ce dernier s'appuie, sans surprise, sur le modèle de langage de la marque américaine, Gemini. Ce dernier utilise la puissance de calcul de Google pour analyser du texte, de la voix et de l'image afin d'obtenir des réponses contextuelles à chaque question posée.
Un assistant toujours à l'écoute et qui voit ce que vous voyez
Project Astra n'a pas été présenté sur scène, mais à travers une vidéo, filmée d'une traite et sans montage, selon les équipes de Google. Cette technologie n'est pour le moment pas un produit fini, mais un projet de travail de Google DeepMind, l'équipe chargée des recherches en intelligence artificielle.
Dans cet extrait, on peut voir une utilisatrice lancer l'assistant vocal, puis ouvrir la caméra de son smartphone. Ainsi, Project Astra peut voir ce que voit la démonstratrice pour lui fournir des réponses à toutes ses questions.
Dans les exemples mis en scène, Project Astra était capable de comprendre un bout de code filmé par la caméra et de donner des indications pour l'améliorer. Il peut également reconnaître des objets, ou donner des suggestions en fonction des éléments face à lui et des questions posées par l'utilisateur.
Un projet de recherche qui préfigure des ambitions de Google dans les prochaines années
Plus fort encore : Project Astra analyse un nombre de données lorsque le téléphone est baladé d'un endroit à l'autre, et en temps réel. Dans cette même vidéo, l'utilisatrice demande où se trouvent ses lunettes, et l'intelligence artificielle est capable de lui rappeler le lieu exact où elles ont été laissées.
Project Astra n'est qu'une preuve de concept et ne sera pas intégrée à Android avant probablement plusieurs mois, voire années. Il se rapproche d'ailleurs énormément de GPT-4o, le dernier modèle de langage d'OpenAI présenté ce lundi 13 mai, et qui possède les mêmes fonctionnalités, avec une voix que l'on pourrait qualifier de plus naturelle.
Les utilisateurs pourront avant cela profiter des avancées de Google dans le domaine de l'intelligence artificielle avec l'intégration de Gemini dans l'ensemble des services Google, notamment sur le moteur de recherche, dans Gmail ou dans les applications de bureautique Google Workspace.
30 décembre 2024 à 11h18
Source : Conférence Google I/O