Quand on est un journal en ligne et que son modèle économique repose sur la vente «d'audience à des annonceurs» c'est-à-dire sur la publicité, la priorité est bien souvent d'attirer gratuitement cette fameuse audience.
En dehors de la fidélisation de sa propre audience et du bouche à oreille, l'une des méthodes les plus efficaces et d'optimiser sa présence dans les index des moteurs de recherche et plus particulièrement sur Google qui regroupe à lui seul plus des deux tiers des requêtes des internautes français. L'audience ainsi gagnée permet de gonfler le nombre de « visiteurs uniques » mesuré par les panels comme Nielsen ou Comscore, un des seuls chiffres jugé fiable et utilisé dans la plupart des plans média par les annonceurs.
Avec des dizaines de milliers de pages d'archives, les médias de presse écrite sont en général bien référencés dans les moteurs mais certains n'hésitent pas à employer des méthodes extrêmes, parfois abusives, allant du pop-under en passant par les contenus hors sujet sans oublier le référencement massif pour gonfler leur audience.
Pop-under : deux sites pour le prix d'un
Adopté initialement par les publicitaires, le "pop-up" est une petite fenêtre s'affichant en marge du navigateur web par dessus la fenêtre de lecture. La "pop under" est sa variante s'ouvrant en dessous de la fenêtre de lecture. Malgré l'hostilité des internautes et la multiplication d'outils comme les toolbars visant à les supprimer, des sites web ont eu l'idée d'appliquer ce principe pour leur propre compte. Ainsi, la navigation d'un internaute sur un site A déclenchait l'ouverture d'une sous fenêtre, un pop-under, au profit d'un site B. Comme le rappelle le journaliste Emmanuel PARODY sur son blog Ecosphere, cette méthode a finalement été reperée par les instituts de mesure d'audience qui ont lourdement révisé à la baisse la popularité de certains sites. Par exemple, Entrepreneur.com est passé ainsi de 7,6 à 2 millions de visiteurs uniques, une correction qui n'est évidemment pas passée inaperçue parmi les annonceurs qui ont logiquement revu à la baisse leurs budgets publicitaires. Depuis ce ménage forcé outre atlantique, plusieurs médias français ont suivi le mouvement en désactivant d'eux même cette mise en avant ou en collaborant avec les panels (en ajoutant, comme l'a proposé le comité d'autorégulation de Médiamétrie, le mot clef « adsite-under » dans l'adresse de la page ainsi ouverte pour qu'elle ne soit plus comptée par Nielsen même si elle l'est toujours par les autres panels), mais la technique fonctionnant encore et le biais ainsi créé difficilement quantifiable, son éradication complète ne dépends que du bon vouloir des sites l'utilisant et du travail conjoint entrepris par certains médias avec les panels pour définir une mesure plus juste.
Des forums et des blogs hors sujet
En ligne ou hors ligne, les journalistes écrivent au maximum une demi douzaine de brèves ou d'articles par jour. Pour augmenter sensiblement leur production éditoriale quotidienne, les médias n'hésitent donc pas à solliciter leurs propres lecteurs en leur proposant de poster des commentaires sous les articles, de débattre dans des forums de discussion voire de créer un véritable blog, complémentaire des contenus de la rédaction. Plutôt légitime, cette pratique est malheureusement parfois détournée avec l'apparition de blogs ou de sujets de forums n'ayant plus aucun rapport avec le site initial. Ainsi, plusieurs sites web traitant de l'informatique hébergent depuis plusieurs années des blogs sur le football ou des forums de discussion truffés de photos érotiques ou de débats sur la sexualité, sans grand rapport avec leurs thématiques habituelles mais - logiquement - très visités. Une pratique que les responsables des sites en question expliquent ne pas favoriser et se rangent sur le fait que ce sont les visiteurs qui ont choisi de publier ces contenus.
Des mots clef racoleurs
Plus discrète que la publication de contenus hors sujets, certains webzines misent sur une utilisation de mots clefs pour tromper les utilisateurs des moteurs de recherche. Ainsi, l'URL (l'adresse d'une page web), le titre ou le pied de page se voient enrichis de mots clefs racoleurs, susceptibles d'attirer des internautes, alors que la page n'héberge réellement aucun texte ou contenu en rapport avec les mots clefs retenus. Par exemple l'utilisation de mots clefs très recherchés comme « porn » ou « warez » (utilisé pour désigner des versions pirates de logiciels) permet également de récupérer de l'audience supplémentaire.
Gonfler la popularité d'une URL
Ces méthodes un peu grossières ont toutefois tendance à être supplantées depuis quelques années par des techniques plus subtiles telles que l'indexation massive des URL. L'idée est simple : avec plusieurs dizaines voire centaines de milliers de pages indexées dans les outils de recherche, un média va simplement afficher systématiquement sur ses pages des liens vers ses propres rubriques ou vers des sites partenaires afin de gonfler artificiellement leur popularité. Certains médias constituent des web rings afin de consolider leurs pageranks respectifs. Parfois constitués d'un seul lien, il est de plus en plus fréquent d'en voir des pages entières. D'autres enfin n'hésitent pas à vendre des pavés d'une dizaine de « liens en dur » (donc comptant pour l'indexation naturelle) à des marchands ou des guides d'achats soucieux également d'augmenter massivement la popularité de leurs sous rubriques.
Les sanctions de Google
On l'aura compris, l'objectif de ces liens n'est pas d'attirer une audience directe, issue d'un clic d'internaute, mais bien de gonfler la popularité (PageRank) d'un site ou d'une rubrique afin de le faire apparaître dans les premiers résultats d'un moteur de recherche, source directe et gratuite d'audience. Dans l'ensemble, ces méthodes qualifiées de «spamindexing» commencent d'ailleurs à être sérieusement combattues par Google et les autres moteurs de recherche, qui n'hésitent plus à recourir à l'arme du «déréférencement» pour sanctionner tout comportement abusif. Mi 2004, le site du quotidien économique La Tribune avait été désindexé pendant plusieurs semaines sans explication officielle, la rumeur expliquant pour sa part que le référencement du site avait été «très optimisé» par , une société alors sous le coup d'une sanction de la part du moteur pour abus de référencement. Dans un autre domaine, les sites de BMW et de Ricoh ont été eux aussi désindexés début 2006 suite à la découverte de méthodes abusives pour apparaître en têtes des recherches sur les moteurs, méthodes utilisées par la société à qui ils avaient confié leur référencement. Depuis, Google a diffusé une série de conseils pour bien choisir une société de SEO.
Dans le même esprit, des outils collaboratifs comme Wikipedia, dont le contenu peut être modifié par les internautes, ont décidé il y a quelques jours d'associer les liens hypertexte à des balises «no follow», pour bloquer les robots d'indexation et décourager l'activité des spécialistes du «spamdexing» sur leurs pages. En effet, plusieurs sociétés de SEO n'hésitaient pas à aller modifier le contenu des articles pour y truffer des références aux sites de leurs clients, créant ainsi des milliers de liens supplémentaires vers ces derniers.
Revenir aux sources
Même si à chaque parade des outils de recherche, les spécialistes du référencement trouvent de nouvelles méthodes d'indexation abusive, de plus en plus de webmasters commencent à s'inquiéter de la dépendance de leur média aux moteurs de recherche. Ainsi, certains grands portails internet reconnaissent que plus de 70% de leur trafic est aujourd'hui directement issu de Google, les exposant à une forte chute d'audience en cas de changement dans les algorithmes de calcul de popularité.
Pour limiter cette dépendance, les solutions sont connues avec d'une part une fidélisation de l'audience et d'autre part une diversification des sources d'acquisition de trafic. Certains osent même rappeler que la qualité des articles peut aussi avoir un rôle même si une telle idée apparaissait comme dépassée par les gourous du web 2.0. Toute une série de conseils basiques dans ce sens ont d'ailleurs été publiés par Google pour conjuguer un bon référencement avec un respect des règles édictées par les moteurs de recherche.
Enfin, les outils de panels comme Nielsen et Comscore ont aussi leur rôle à jouer. Ils pourraient modifier leurs techniques de projections et les chiffres mis en avant en indiquant, par exemple, le nombre de visiteurs uniques étant venus au moins deux fois sur le mois de la mesure, le nombre de visiteurs uniques ayant vu plus d'une page ou encore n'incrémenter la durée de la visite que lorsque les sites sont réellement affichés au premier plan à l'écran. Des pistes d'optimisations pour les classements des panels qui - pour être appliquées - vont avoir besoin du soutien des clients de ces panels, chose acquise pour les agences de pub ... mais beaucoup plus difficile à digérer par les médias qui essayent par tous les moyens d'en ressortir premier.