Du contenu, toujours plus de contenu. Pas de copié-collé, que de l’original, du pertinent, du décalé, du riche, du drôle, du poignant, du recherché… tout cela afin de plaire aux internautes consommateurs de contenus et particulièrement volages, tout cela pour les moteurs de recherche qui sont constamment à la poursuite du contenu qui apportera la meilleure information à l’internaute.
Qui a peur de l’ogre Google ?
Depuis que la belle époque des liens faciles est (serait ?) révolue, nombreux sont les référenceurs échaudés et/ou apeurés qui ont décidé de travailler un peu mieux sur leurs propres pages afin de créer plus de valeur sur les sites web et limiter la casse côté liens :
- aspects techniques : silos sémantiques, données structurées, crawl moteur analysé
- aspects rédactionnels : contenus plus incitatifs au clic et de meilleure qualité.
Sur ce coup ci, Google a gagné : quelques algos bien sentis, des exemples effrayants, un sentiment de peur diffus pour les travailleurs du web et le tour est joué. Google gagne donc sur au moins 2 fronts :
- moins de liens poubelle : les liens sont le maillon faible et pourtant le critère fondamental sur lequel repose les algos de Google. Moins de liens = moins de travail
- plus de contenus à assimiler : pour l’ogre Google, ce contenu est particulièrement important car il est nécessaire à son existence.
Sans les webmasters, le moteur de recherche Google ne sert à rien
Le moteur de recherche a une seule vocation pour l’internaute : lui permettre de trouver la bonne information avec le moins de friction possible. Si le moteur ne renvoie pas de réponses pertinentes, il perd de son intérêt. Ce serait très dommageable pour Google de voir son public le délaisser au profit d’un autre outil. La publicité Adwords est une véritable machine à CA pour la firme de Moutain View (d’un point de vue stratégique, Google essaie de se diversifier afin de ne pas avoir tous les oeufs dans le même panier et de réduire sa dépendance à la publicité en ligne).
Aussi, Google incite-t-il les producteurs de contenus web à générer :
- du contenu de bonne qualité afin de satisfaire les lecteurs
- du contenu en quantité importante de manière à répondre à toutes les demandes
- du contenu compréhensible par un robot (données structurées, syntaxe HTML propre…).
Les webmasters qui souhaitent obtenir de meilleurs positions dans les résultats des moteurs de recherche ont donc tout intérêt à suivre les consignes édictées par ces derniers. S’il y a un bonus dans les classements à utiliser telle ou telle recommandation, pourquoi ne pas la suivre ?
Sans Google, les webmasters sont au pied du mur
En faisant miroiter du trafic, des internautes qualifiés, du business aux propriétaires de sites web, Google joue en fait un double-jeu :
- Google incite les webmasters à suivre ses règles
- Google utilise le contenu publié suivant ses propres règles pour servir ses propres intérêts : les règles changent, le rapport de force est injuste et au bénéfice du moteur.
Quelques exemples de requêtes pour lesquelles Google « utilise » les données des sites web sans envoyer l’internaute sur les pages des sites qui fournissent l’infovia les résultats OneBox (tous les exemples ne sont pas visibles sur Google France) :
- Images
- Météo
- Horaires d’avion
- Réservations de logements (hébergements et avis)
- Menus de restaurants
- Suivi de colis
- Produits à la vente (Google shopping)
- Cours de bourse
- Résultats sportifs
- Composition des aliments
- Traductions et définitions
- Conversions d’unités de mesure
- Données encyclopédiques (les encarts Wikipedia sur la droite)
- Actualités
- Horaires de cinéma
- Discographie, filmographie
- Cartographie et itinéraires
- …
Combien de sites web ciblant ces requêtes à fort trafic visées par Google pâtissent de ces nouveaux affichages ? De plus en plus, c’est évident car Google n’a pas dit sont dernier mot et compte bien continuer de proposer à l’internaute une information toujours plus rapide. Les comparateurs, les assurances, les loueurs de voiture, les spécialistes du voyage vont-ils être bientôt court-circuités par Google ?
l’hégémonie du moteur est incontestable en France : ne pas être visible sur Google est une décision qui aura des répercussions immédiates et de façon durable. Il est difficile d’accepter de ne pas suivre les règles imposées par le moteur. Cela est d’autant plus dur pour les sites web déjà installés et qui sont en situation de dépendance vis à vis de Google : lorsque les quelques points qui font la différences entre les profits et les pertes d’une entreprise dépendent du SEO, il est trop tard. En ce sens, Google a très bien joué et tient fermement nombre de business en ligne. Ne reste alors plus qu’à espérer que Google ne s’attaque pas au coeur de métier et contraigne à fermer boutique ?
Tout n’est pas rose, mais il y a encore de la marge
Google a de gros défis à relever : un simple hold-up des données des sites web ne peut pas fonctionner.
- Google fait de plus en plus peur au grand public qui commence à comprendre que le respect de ses données privées est quand même quelque chose d’important.
- Google se méfie certainement beaucoup plus des États qui peuvent tenter de le soumettre à des règles qui vont à son encontre (taxe Google, nettoyage de résultats, divulgation d’une partie de son algorithme, menace de scission pour cause de monopole et d’atteinte à la concurrence).
- Google craint aussi les usages des internautes : les applications sur mobile ou la recherche vocale ne pourraient-elles pas supprimer l’usage du moteur ?
- Google n’oublie pas non plus que les entreprises qu’il court-circuite sont aussi parfois ses clients avec Adwords (tourisme ? bancassurance ? ecommerce ?).
- Enfin, Google reste un robot qui malgré ses prouesses (Google Now, Google Glasses, Knowledge graph) ne comprend toujours pas ce qu’il lit. Certes, il est capable de faire des associations simples et de déchiffrer des données structurées mais nous ne sommes pas encore dans l’ère de l’intelligence artificielle. C’est l’exploitation de masses de données considérables qui donne l’apparence d’une intelligence au moteur.
Concrètement, cela veut dire qu’il reste de la place pour tout ceux qui sauront publier du contenu intelligent : des réflexions et des raisonnements construits, du fond, de la recherche, de la mise en perspective, du croisement d’expérience, de la connaissance pure non disponible ailleurs. Pour les autres types de contenu, les données scrapées ou autres tableurs améliorés, le compte à rebours à déjà commencé…
Vos réflexions sont les bienvenues. À vos commentaires constructifs et éclairés.
Photo : Florent Darrault
Les webmasters sont d’autant plus coupables que ce sont ces derniers qui donnent accès à certains contenus riches en insérant le balisage schema.org, extraits enrichis et autres snippets. Que ce soient les horaires, les actualités, …
Très bon, mais hélas j’ai bien peur que le dernier paragraphe ne soit une douce utopie : de la « connaissance pure non disponible ailleurs » ? Je crois bien qu’il est déjà trop tard, et que Google, tel l’ogre Gargantua, a déjà englouti des milliards de terra-données sur la connaissance humaine. Avec ou sans référencement naturel ou autre magie SEO à base de baume, Google n’a plus besoin de personne aujourd’hui, à part bien évidemment pour la recherche pure; mais alors Google rachète les sociétés qui emploient les génies et détiennent les brevets, ou alors Google recrute les cerveaux. Tout le reste, le babillage humain qui s’étend de la vie de Nabylla Allo Couac au dernier joujou hi-tech d’Apple est déjà duplicated content des milliards de fois, comme tu le dis, mais c’est tout ce qu’il nous reste… On se bat pour les miettes quoi.
Depuis toujours, on sait qu’il ne faut pas mettre tous ses oeufs dans le panier Google. Mais malheureusement, c’est longtemps resté le seul levier d’acquisition abordable pour les très petites structures comme les indépendants. Heureusement, les réseaux sociaux ont apporté une autre possibilité dans ce style.