Google a tenu, hier, sa conférence Search On. L'occasion, pour le géant californien, de lever le voile sur les nouveautés de son moteur de recherche.
La réalité augmentée était à l'honneur hier, Google introduisant notamment des nouveautés en ce sens au sein de Google Maps et de nouveaux modèles 3D dans Google Search.
Fredonnez et trouvez une chanson
C'est bien connu, la première chanson que vous entendez le matin est souvent celle qui vous reste dans la tête toute la journée. Et il n'y a rien de plus frustrant que de ne pas la reconnaître. Suivant cette idée, Google introduit une nouvelle manière de rechercher un morceau : il vous suffira désormais de siffler ou fredonner un air durant 10 à 15 secondes pour que le moteur de recherche l'identifie.
Google explique : « lorsque vous fredonnez une mélodie dans Google Search, nos modèles de machine learning transforment le flux audio en une séquence chiffrée représentant la mélodie de la chanson. Nous avons entrainé nos modèles pour identifier des chansons à partir d'une variété de sources, et notamment le chant, le sifflement et le fredonnement humain ainsi que les enregistrements studio ».
Du nouveau sur Google Maps
Nous rapportions en début de mois que Google avait continué ses travaux sur Live View permettant de superposer en réalité augmentée des informations au cours d'un itinéraire. Désormais Google annonce qu'il est possible d'activer cette fonctionnalité et d'obtenir des informations sur les magasins aux alentours, tels que les horaires d'ouverture ou leur niveau de fréquentation.
En effet, dans le cadre de la pandémie, Google souhaite remettre en avant une fonctionnalité introduite en 2016 : l'indication du niveau d'affluence dans les lieux publics. Entre mars et mai de cette année, cette fonctionnalité aurait suscité 50 % d'intérêt en plus chez les utilisateurs. D'ailleurs Google annonce avoir multiplié par cinq le nombre de lieux indiquant désormais leur niveau d'affluence depuis le mois de juin dernier.
Google Lens devient plus accessible sur Android
Google Lens repose sur un algorithme d'intelligence artificielle capable de détecter les éléments se trouvant au sein d'une image. Lorsque vous effectuez une requête sur Google Images, un appui prolongé sur l'une d'entre elles permet désormais d'activer Google Lens.
À titre d'exemple Google montre comment retrouver un objet ou un habit repéré sur une photo, au sein d'autres clichés.
Sur Android, Google Lens est désormais accessible directement depuis l'application Google comme au travers du navigateur Chrome.
Plus de réalité augmentée dans Google Search
Saviez-vous que le moteur de recherche de Google dispose de plusieurs objets ou animaux en 3D qu'il est possible d'afficher en réalité augmentée ? Mise en place depuis 2019, cette option a été enrichie durant le confinement. Il est donc désormais possible d'inviter chez vous un alligator, un tigre, un lion ou encore…. un T-rex !
D'autres objets seront bientôt disponibles, parmi lesquels des voitures, profitant d'une représentation 3D de l'extérieur mais également de l'intérieur de l'habitacle. Pour ce faire, Google travaillerait directement avec différents constructeurs.
Autre optimisation annoncée : les suggestions. Lorsqu'une faute de frappe a été identifiée au sein du moteur de recherche, Google propose le plus souvent une suggestion de requête de type « Vouliez-vous dire ? ». Et à vrai dire, 1 requête sur 10 serait mal épelée. Aussi, la société a renforcé ses travaux, expliquant seulement que ces suggestions seront désormais plus pertinentes.
Source : Google