L'IA de Bing continue de s'enrichir et met maintenant à disposition de l'ensemble des utilisateurs sa fonctionnalité de reconnaissance d'image.
Le chatbot de Bing continue de s'enrichir de nouvelles fonctionnalités. On avait ainsi appris il y a quelques semaines que la reconnaissance d'image par l'IA était mise en test par Microsoft. Et aujourd'hui, cette fonctionnalité est ouverte à l'ensemble du public.
Microsoft fait son annonce
Ça y est, vous allez pouvoir poster des images sur le chatbot de Bing, pour lui poser des questions portant directement sur ce document, ou pour enrichir et préciser vos demandes. Microsoft vient en effet d'annoncer officiellement la mise à disposition à tous les utilisateurs de cette fonctionnalité, qui a pour nom « Visual Search ».
« S'appuyant sur le modèle GPT-4 d'OpenAI, Visual Search permet à quiconque de télécharger des images et de rechercher sur le Web des contenus en lien. Prenez une photo, ou utilisez-en une que vous avez trouvée ailleurs, et demandez à Bing de vous en parler. Bing peut comprendre le contexte d'une image, l'interpréter et répondre à des questions à son sujet », explique Microsoft dans son blog.
Un outil qui pourrait relancer l'intérêt ?
Visual Search est déjà accessible sur la version bureau et la version application de Bing. La fonction sera par ailleurs rapidement déployée sur la nouvelle offre Bing Chat Entreprise, qui vient tout juste d'être lancée. Avec cette option, le chatbot continue de prendre son envol. Son équipe de développement travaille aussi ces dernières semaines sur sa possible accessibilité dans d'autres navigateurs comme Safari ou Chrome.
Le champ des possibles continue de s'étendre pour l'IA de Bing, alors que le moteur de recherche est actuellement victime de désaffection. Est-ce que l'amélioration de l'outil ramènera le public vers Bing, ou bien, à l'image même de l'audience de ChatGPT, la mode des IA va-t-elle continuer à s'effondrer durant l'année 2023 ?
- L'intégration de ChatGPT
- Filtres pour la recherche d'images
- Filtres des actualités par sources
Source : Neowin