Des milliers de documents appartenant à Google auraient fuité sur le web. Ces derniers détaillent une partie du fonctionnement du très secret algorithme d’indexation du moteur de recherche.
Depuis sa création en 1998, Google a toujours tenté de garder son algorithme de recherche secret. D’une part pour éviter de donner la recette de son succès à ses concurrents, mais aussi pour éviter de voir des sites essayer de se hisser en haut des résultats en trichant sur les critères de référencement. Malheureusement pour l’entreprise, il semblerait qu’une partie de ce fameux algorithme ait fuité sur le web.
Google reste muet devant la fuite
Rand Fishkin, un expert en référencement, explique en effet avoir mis la main sur des milliers de documents détaillant le fonctionnement de l’algorithme Google. Ces derniers auraient été obtenus en raison de leur mise en ligne accidentelle sur GitHub. Google n’a pas confirmé la véracité de ses documents, mais de nombreux experts SEO semblent prêter du crédit à cette fuite.
Concrètement, ces documents ne détaillent pas exactement comment Google décide de quel site va apparaître en haut des résultats de recherche. Ils listent simplement une partie des très, très nombreux critères pris en compte pour le référencement. Le géant de la recherche semble tenir compte d’au moins 14 000 critères différents au moment de décider qui va arriver en haut de son classement. En revanche, la pondération de ces critères n’a pas été dévoilée, limitant quelque peu les dégâts pour Google.
Vers encore plus de spam sur Google ?
Parmi les paramètres pris en compte dans le référencement, on retrouve sans surprise le maillage interne et externe d’un site (soit sa propension à insérer des liens aussi bien vers son propre site que vers des ressources externes), mais aussi la prise en compte du nombre de clics sur ses liens. En somme, un site peut être bourré de lien, mais encore faut-il que les gens cliquent dessus pour envoyer un signal positif à Google.
Il semblerait également que Google prête particulièrement attention à la « réputation » d’un site au moment de jauger son référencement, ainsi qu’a l’expertise de l’auteur qui crée le contenu sur ledit site. Des doutes persistent aussi sur l’utilisation de données issues du navigateur Google Chrome pour affiner les résultats de recherche. Une pratique à laquelle Google a toujours nié se prêter (pour des raisons évidentes d’abus de position dominante), mais qui semble pointer le bout de son nez çà et là dans le code.
Les documents en eux-mêmes sont relativement techniques, ne permettant pas à tout un chacun de comprendre les fonctionnement interne de l’algorithme de Google, mais nul doute que les professionnels du référencement vont éplucher ces données avec attention dans les prochaines semaines. Quant à savoir si cela augure une amélioration de la pertinence des résultats de Google ou au contraire l’arrivée d’une vague encore plus massive de contenu de piètre qualité, seul le temps permettra de trancher.
29 octobre 2024 à 18h03
Source : sparktoro.com