Google, quand l’homme s’adapte à la machine

Article rédigé par Stéphane et publié le dans Non classé.

Dans ses efforts pour contrôler aider les webmasters, Google met à disposition des webmasters des consignes à respecter pour apparaître dans ses pages de résultats. Ces guidelines, plus orientées technique que contenu (même si pour faire un site utile aux internautes, il ne faut pas le négliger) sont surtout là pour pousser les webmasters à s’adapter à Google. Dans un monde normal, n’est-ce pas à la machine de s’adapter au fonctionnement humain ?

Le lancement du site

La première consigne donnée est de faire connaître son site au moteur de recherche. Si on souhaite être vu par notre cible, il est effectivement essentiel d’être indexé sur Google.

Pourtant, par l’intermédiaire de son formulaire de soumission et grâce au Sitemap, Google semble plutôt chercher à trouver les sites et les pages qui échappent par son algorithme (rappelé ici par Matt Cutts). Aucun spécialiste en référencement n’utilise encore cette méthode.

Consignes sur la conception et le contenu

De même, dans ses consignes sur la conception et le contenu, le moteur conseille de limiter le nombre de liens sur une page. En limitant le nombre de liens, on facilite surtout le travail du robot d’exploration au détriment de l’internaute. Les webmasters peuvent être tentés de limiter les liens d’une page, au risque de ne pas renseigner entièrement l’internaute. Il est vrai que cette méthode permet de ne pas diluer la popularité de sa page.

Dans le même ordre d’idée, le moteur de recherche conseille aux webmasters de favoriser le contenu texte aux éléments graphiques. Pour un être humain, la compréhension est plus rapide avec une image que par des mots (rappelez-vous l’adage : une image vaut mieux que mille mots). Cette recommandation pourrait se comprendre pour l’accessibilité des mal-voyants mais il existe des balises qui permettent de décrire les images. Certaines de ces balises sont d’ailleurs utilisées par le moteur pour essayer de comprendre le contenu d’une image.

Les robots ne parviennent pas à voir les informations contenu dans l’image, Google nous conseille donc d’aller contre l’internaute pour le privilégier lui.

Consignes techniques

La troisième partie de ses consignes sont des recommandations techniques. Cette fois encore, l’internaute n’est pas le cœur du sujet comme le prône habituellement le moteur. Google cherche encore principalement à orienter la conception du webmaster en fonction de ses propres capacités.

Certaines techniques sont donc a éviter. Et Google conseille aux webmasters de vérifier, non pas que le site est lisible pour les humains, mais accessible pour les robots d’exploration.

Consignes de qualité

La dernière partie de ces consignes contient aussi quelques incohérences avec le message habituel que cherche à passer le moteur, ou simplement avec le fonctionnement du web.

Le plus étrange est de déconseiller la participation au système de lien. Le web, tout comme l’algorithme de Google, est basé sur les liens. C’est à partir de ces liens que l’internaute navigue mais surtout, ce sont ces liens qui déterminent la popularité d’un site. Google cherche à modérer l’utilisation de son propre système ! Comme si les fast-food militaient pour les végétariens.

L’une des dernières recommandations de Google est de ne pas utiliser d’outils permettant de vérifier le classement. Cette fois encore, en quoi l’utilisation de tels outils pénalise l’internaute ? Cette consigne cherche surtout à ne pas surcharger ses serveurs.

 

Les consignes de Google sont essentiellement techniques. Elles ont pour but d’aider les webmasters à faire indexer leur site par le moteur de recherche sinon de le positionner dans ses premiers résultats.

En France, Google génère plus de 90%. Les webmasters ne peuvent donc pas négliger ses services. Ce quasi-monopole provoque cette étrange situation : c’est à l’homme de s’accorder à la machine plutôt qu’au robot de s’adapter aux habitudes humaines.

7 réflexions au sujet de « Google, quand l’homme s’adapte à la machine »

  1. Moira

    « c’est à l’homme de s’accorder à la machine plutôt qu’au robot de s’adapter aux habitudes humaines.  »

    C’est pas tout à fait vrai, et preuve en est ce matin : Google a adapté son comportement et son algorithme de recherche en fonction du comportement des référenceurs dits « black hat » et de leur utilisation abusive des sites de communiqués de presse. C’est la preuve qu’il y a encore qqun derrière la machine (mais pour combien de temps …)

  2. auto-entrepreneur

    Ce qui est sûr c’est que Google est bien obligé de trouver des parades pour éviter la dérive s’il souhaite conserver un moteur de recherche qualitatif.
    En visualisant certaines expressions clés assez concurrentielles il est très dommageable pour l’internaute et pour le moteur de voir un spam indexing de sites de contrefaçons squattant la première page.
    Leur technique est simple il achète des centaines de domaines, posent des boutiques en ligne toutes identiques puis ensuite génèrent automatiquement plusieurs milliers de blogs via des logiciels, scrap du contenu pour faire du backlinking.
    C’est très moche, ça pollue le web mais c’est ultra efficace donc si Google réussit à virer ses sites et bien tant mieux.

  3. Stephane - Rédacteur

    Bien sûr que Google se doit de trouver la parade au spamdexing, c’est son métier de moteur. Il a tout intérêt à le faire, pour lui car sans cela il ne conservera pas longtemps sa place de leader, mais aussi pour les internautes qui sont très volatiles et qui ne resteront pas sur un moteur bourré de résultats non pertinent. C’est ce qui est arrivé à Altavista en son temps.
    Ce qui est plus troublant dans les guidelines, c’est surtout que les conseils de Google pour permettre l’indexation vont parfois à l’encontre de l’intérêt de l’internaute alors que le message habituel est : faire un site de qualité, du contenu de qualité pour l’internaute. Et surtout, dans ses aspects techniques, beaucoup de recommandations ne sont là que pour palier une faiblesse du moeut à indexer reconnaître certains contenu. Google n’est pas Dieu mais il se rapproche un peu de ce rôle…

  4. auto-entrepreneur

    Je pense comme vous Google n’est plus très loin de Dieu, j’y pensais hier avec la sortie de Google Drive.
    Je me suis c’est un bon moyen pour partager des données^^ 5Go,etc et tout de suite après je me suis dit que cela serait assez drôle de voir le FBI menotter Larry Page et Sergey Brin, car le lendemain plus aucun site gouvernemental ne serait référencé.

    En tout cas je suis effectivement d’accord, ne pas prendre en compte l’internaute pour palier aux failles du moteur est un aveu de faiblesse.
    NONONONO Dieu j’ai rien dit ne désindexe pas ce site ^^.

  5. logiciel GED

    Poussons les gens à utiliser Bing ;-)
    Ce qui est drôle c’est que tout le monde râle contre Google, mais on ne fait rien pour y échapper ^^

  6. Stephane - Rédacteur

    Encore faudrait-il avoir un concurrent sérieux. Pour le moment, Google propose à mon avis les résultats les plus pertinents. C’est une entreprise intelligente, ils savent très bien que pour continuer à vendre de la pub, ils ont besoin de proposer de bons résultats. D’où les mises à jour régulières.

  7. Voiture familiale

    Merci pour votre article, l’avantage avec les machines c’est que leurs jugements sont souvent plus objectifs que ceux des êtres humains. Bonjour à Monsieur Eryck, si la CIA et Terminator ne l’ont pas encore retrouvé !
    Franck

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*

Vous pouvez utiliser ces balises et attributs HTML : <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>