Clusterisation du web, publication dirigée et perte d’autonomie

Ou faut-il publier ses contenus ? Google répondra sur Google Post et sur Google Sites (pour les TPE), Facebook dira sur ses pages entreprises, Linkedin dira sur ses pages entreprises, Twitter dira de faire de longs Tweets…

ssi linkedin
Chez LinkedIn, il suffit de passer plus de temps et d’alimenter la plateforme

Personne ne dit jamais qu’il faut publier chez soi (c’est à dire sur son propre site web avec un vrai nom de domaine). Pourtant, il me semble fondamental de :

  • Rester maître de ses contenus, de leur contenu et de leur forme ;
  • Définir son quartier général : un endroit sur lequel on a le plus de maîtrise.

Visibilité immédiate contre perte de liberté

Accepter de publier ailleurs ses contenus revient à travailler pour d’autres et d’accepter de perdre les fruits de son travail. Ces autres n’hésiteront pas à changer les règles du jeu par la suite. Ce fût le cas avec les pages Facebook il y a quelques années : tout ceux qui avait construit leur visibilité sur le contenu de leurs pages s’en souviennent encore…

Au lieu de dire frontalement qu’il ne faut pas faire de renvois depuis ses pages hébergées chez les gros sites, le discours est bien rôdé : ainsi, j’ai entendu il y a quelques semaines la recommandation d’un expert LinkedIn. Il disait que pour bien remonter dans l’algo du réseau social pro, il fallait publier du contenu intéressant, fréquemment et surtout qu’il ne fallait pas faire de liens vers des sites tiers (même si c’était un site d’autorité ou un site nous appartenant).

L’utilisateur devait rester chez LinkedIn. Au pire, on pouvait mettre le lien en commentaire de son propre article. Mais quel intérêt ? Qui fait confiance aux liens dans les commentaires ? Et qui lit encore de façon attentive les commentaires ?

Mettre des liens externes serait préjudiciable à la visibilité sur LinkedIn. Ainsi, sous couvert d’optimisation de sa visibilité, la bonne pratique serait de ne plus faire de lien. Car qui dit lien dit fuite de l’internaute. Et ça se trouve, l’internaute trouvera un contenu plus intéressant ailleurs. Nul doute que chez les plateformes, les métriques liées à la rétention de l’utilisateur et à son engagement au sein de la plateforme est suivi de près (combien de temps sur le site, combien d’actions faites, combien de pages vues, combien de micro-conversions réalisées destinées à fidéliser l’internaute…).

Le deal est simple : il faut accepter de perdre un peu d’autonomie pour toucher les publics de la plateforme sur laquelle on veut apparaître bien placé. Pour ceux qui veulent avoir des résultats plus rapides et qui boivent les paroles des gros acteurs sans les questionner, le choix est vite (et mal) fait.

Hors des plateformes, plus de visibilité ?

L’approche « portail » existe depuis très longtemps sur Internet (qui se souvient du navigateur AOL qui ne permettait que d’accéder au sous-web d’AOL ?) et la captation des utilisateurs est toujours recherchée par dessus tout.

Sauf que. En demandant toujours de nouveaux efforts à ceux qui publient le contenu, les plateformes nous font aller – l’air de rien – dans leur direction.

Google joue un jeu similaire avec Google My Business. Je parie que bientôt, Google va monnayer les touches commerciales en provenance de ses Pages Jaunes.

AMP est dans la même logique. Idem pour les micro données. Toujours donner plus et perdre un petit peu à chaque fois en échange d’une hypothétique meilleure place : Pour AMP, c’est le lieu ou sont stockées les données et des concessions sur la présentation, pour les micro-données, ce sont les snippets de réponses directement dans les résultats de recherche (et bientôt par la voix).

Tiens, au fait, qui sait pourquoi Google a coupé l’excellent lecteur de flux Google Reader ? Je ne sais pas exactement mais je vois une explication qui me semble de bon sens : Google Reader était un raccourci, il permettait à un internaute d’avoir directement l’information qu’il choisissait sans passer par un intermédiaire qui pouvait classer, ordonner et monétiser…

C’est la course permanente mais qui gagne au final ?

Pour les gros acteurs et les plateformes, la démarche est la suivante :

  • Sortir une nouveauté « cool » et la vendre comme innovation au service d’un meilleur web (ce qui peut être vrai d’ailleurs).
  • Dire que ceux qui l’utilisent auront un coup de pouce sur leur visibilité.
  • Attendre une adoption de la part des utilisateurs. Laisser les utilisateurs rechigner puis implémenter par peur de perdre de la visibilité ou par peur de voir leurs concurrents les surpasser.
  • Gagner de la data, collecter des contenus, s’accaparer légalement le travail.
  • Recommencer.

Une modif par ci, une modif par là, le process est indolore mais si on compare le web d’il y a 5 ans avec celui d’aujourd’hui, l’accumulation est flagrante et jamais la majorité des webmasters et des propriétaires n’auraient accepter tant de concessions si elles avaient été proposées sur un court laps de temps.

Les jeux sont-ils faits ?

Moz a publié un ensemble de chiffres accablants. Il y a toujours plus de recherches sur Google mais les premières positions ont de moins en moins de clics.

Bon, il faut quand même conclure sur une note positive. Google est le grand vainqueur de la recherche via interface graphique. Dans le monde des assistants connectés et des moteurs de réponse qui nous attend, ils sont plusieurs à se battre. Il n’y a pas encore de monopole…

Et puis les plateformes vont et viennent. MySpace est mort et enterré, les plus jeunes se désintéressent fortement de Facebook. Qu’en sera-t-il demain des plateformes incontournables aujourd’hui ?

Accepter de ne pas tout donner aux gros acteurs, conserver son indépendance, agir avec une vision à long terme, voila les bases pour ne pas se faire complètement plumer.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *