Lors du Blend Web Mix, Dominique Cardon, sociologue a pris la parole afin de revenir sur les méthodes permettant de mesurer les informations de la Toile ainsi que les différents outils pour classer ces dernières.
Pendant plusieurs années, l'homme était la seule autorités pour organiser l'information et rendre visible les éléments de son choix. C'est par exemple lui qui sélectionnait le titre à la Une d'un quotidien. Aujourd'hui, les nouveaux gatekeepers opérant la tâche des documentalistes ou des bibliothécaires sont des techniques de calcul algorithmiques. Au final, si le Web est ouvert et proliférant, les machines contrôlent les actions de 95% internautes. Cela englobe les moteurs de recherche et les attributs sociaux de type "like" ou "retweet" lesquels drainent un trafic ne correspondant qu'à 0,03% de l'ensemble des données du Web.
Si l'on pourrait rapidement pointer la présence des machines, M. Cardon rappelle que ces dernières sont présentent dans le domaine de l'industrie depuis longtemps. Il est toutefois nécessaire de s'intéresser à la manière dont nous utilisons ces machines. En ce qui concerne le classement des informations du Web, quatre formes de calcul peuvent ainsi être différenciées avec un calculateur prenant une place différente par rapport aux données du Web. Métaphoriquement, le sociologue explique que les algorithmes peuvent ainsi se trouver à côté, au-dessus, à l'intérieur ou au-dessous des données sous analyse.
Les sites Internet ont d'abord été mesurés selon leurs audiences, en prenant en compte le nombre de pages vues, de clics ou de visiteurs uniques. L'objectif est donc de déterminer leur popularité. Ces données ne sont pas disponibles à tous. Il s'agit principalement de mesures pour le marché publicitaire. La valeur de ces données est faible puisqu'on a vu apparaître une armée de robots programmés pour multiplier les clics. « En revanche tous les internautes ont le même poids et il s'agit donc d'une mesure très démocratique » affirme M. Cardon. « C'est important, parce que cette notion va disparaître progressivement ».
Avec son moteur de recherche, Google se positionne au-dessus du Web et tente d'optimiser au maximum son PageRank pour mesurer l'autorité d'un site. Les travaux de la société ont été influencés par la vision d'Eugène Garfield et de son Science Citation Index. Selon ce dernier, il est nécessaire d'organiser les revues scientifiques en fonction du nombre de citations reçues dans les autres revues scientifiques. Il s'agit cette fois d'une mesure méritocratique selon M. Cardon, car tous les votes n'ont pas le même poids. Le contenu lui-même n'est plus mis en avant mais plutôt la quantité de liens hypertextes.
Le problème, c'est qu'en pratique, on ne peut assurer le principe de coordination non coordonnée : les webmasters procèdent à des échanges de liens, lesquels ne deviennent donc plus naturels. M. Cardon déclare ainsi : « Un lien réellement mérité ne s'obtient finalement qu'en cessant de penser à Google ».
Dans les année 2004-2005, le Web social a de nouveau chamboulé la donne en permettant à l'internaute de voir ce calculateur. Cette fois on mesure la réputation. Concrètement elle se traduit par le nombre de "like", de "retweet", de partages... En interagissant avec ces outils communautaires, l'internaute construit ainsi sa propre identité numérique. Il ne s'agit plus d'un Web de documents organisés mais de personnes.
On a donc vu l'arrivée d'outils de type Klout analysant et classifiant chacune de ses actions sur la Toile ainsi que la naissance de certains comportements, comme la publication d'un tweet à un horaire plus favorable au retweet par exemple. « C'est un monde de benchmarks sans indicateur de vérité ou de réalité », affirme le sociologue. Parce que la vie de l'internaute est souvent plus joyeuse sur Facebook que dans le monde réel. Il y a également un décalage entre les propos tenus sur ces réseaux et le comportement dans la vie réelle. Aussi, si Google lutte contre le Black SEO, les plateformes communautaires ne condamnent pas les "achats d'amis".
Enfin, la quatrième mesure vise à placer le calculateur sous la donnée avec des techniques de prédiction comportementale. Cette fois on ne s'occupe plus de ce que les internautes disent, mais de ce qu'ils font réellement. C'est-à-dire en observant son historique de navigation. C'est le Web de la prédictibilité avec des algorithmes capables de retourner un contenu susceptible d'intéresser les utilisateurs.