Suivi des pages de résultats, suivi des backlinks, suivi des avis et e-reputation, gestion de projet netlinking… autant de besoins que le référenceur côtoit tous les jours. Alors si le tout pouvait être centralisé dans un logiciel, ce serait tiptop.
Optimiser ses processus de travail
Pour le professionnel du web, il est normal de vouloir optimiser ses processus de travail, de ne pas avoir à réinventer la roue tous les mois et de ré-utiliser les techniques qui marchent d’un site sur l’autre.
Attention cependant, car une fois une tâche automatisée, on peut facilement se retrouver à utiliser des techniques dépassées, inutiles voire néfaste si on n’y prend pas garde.
Un des grands avantages de l’informatique est qu’elle permet d’automatiser des tâches. Des simples bibliothèques de codes maisons, en passant par l’accès à des APIs ou encore à l’utilisation de tableur, bases de données et pourquoi pas des outils de type macro, il est à la portée de chaque développeur web et de la plupart des webmarketeur de se décharger des tâches les plus rébarbatives.
L’idée derrière l’automatisation est de ne pas perdre trop de temps avec la génération de rapports, le suivi dans les SERPs, le choix des bons mots clés, la surveillance des concurrents, la création de contenus (pour les chapeaux de couleur foncés).
Le rêve de l’automatisation des tâches ingrates du SEO
On imagine donc que le référenceur a développé ou acquis un ensemble de soft pour gérer les tâches fastidieuses. Comme il va falloir rentabiliser l’ensemble, la panoplie logicielle est utilisée et il y a de fortes chances que tout marche pour le mieux au début. Bon, il faut gérer les problèmes courants comme des limites d’interrogation aux APIs, utilisation de proxies, souci de langues et d’internationalisation.
Ensuite, il faut maintenir l’ensemble. Des pages changent (SERPs modifiées par exemple, scraping impossible car page web changée entre-temps…), des scripts ne marchent plus suite à une mise à jour quelque part…
Enfin certaines données suivies deviennent obsolète donc on les supprime (et on oublie pas de mettre à jour les différents liens créés à droite à gauche comme dans les rapports par exemple). Et d’autres données deviennent utiles (suivre les RT Twitter, les like de Facebook, les +1 de Google, ajouter le Mozrank par exemple)…
Et puis tant qu’à collecter des données, il serait bien de les normaliser pour pouvoir les partager, travailler à plusieurs dessus, prévoir des sauvegardes, des exports, des imports, gérer les accès (pour donner aux clients une vision sur le travail SEO)…
Et une fois que l’on a tout améliorer de nouveau, on se rend compte que quelque chose est à modifier encore une fois à un autre endroit.
Et lorsque l’on se rend compte que l’outil qui devait nous faire gagner du temps nous en fait perdre, ça fait râler.
Référencement et automatisation : réalisable ou pas ?
Pour pallier aux problèmes ci-dessus, il n’existe pas tant d’alternatives que ça :
- Utiliser des softs sur mesure achetés en espérant que leur périmètre fonctionnel suivra nos besoins et évoluera dans le même sens que nos attentes. Avantage : garanties de résultats. Inconvénients : peut être cher, courbe d’apprentissage du logiciel parfois longue, évolutions et roadmap non maîtrisées.
- Réaliser ses propres outils volontairement très simples pour pouvoir les faire évoluer rapidement. Avantages : sur mesure. Inconvénients : temps et ressources nécessaires pour développer et maintenir l’ensemble qui peuvent excéder les bénéfices.
- Tout faire à la main (ouch) : Avantages : euh…vive le copier-coller. Inconvénients : en plus d’être bête et méchant, ce n’est pas très « scalable ».
Que peut-on alors automatiser ?
Mettons de côté l’outil ultime et penchons nous sur ce qui est possible.
- Ce qui apporte peu de valeur ajoutée doit être automatisé (suivi SERPs, suivi des BLs, rapports factuels).
- Ce qui exige un traitement humain doit être aidé par l’ordinateur et semi automatisé (choix des mots clés, suivi ereputation, recherche de BLs, gestion de projets et partage d’informations). La phase de collecte doit idéalement être automatisée, normalisée, homogénéisée et accessible au travers d’un outil standard (tableur) à partir duquel le travail de filtre, de tri et de sélection s’opérera.
- Ce qui exige uniquement un travail intellectuel ne sera pas automatisé. Cela vaut pour la création du contenu, la création de liens, les contacts avec les autres webmasters, les avis, recommendations, analyses et conclusions d’audits. Il serait cependant bête de ne pas utiliser de trames pour mettre en forme ou habiller ce travail intellectuel (on ne va pas recréer chaque audit. Les grandes parties de ce type de documents étant souvent similaires !).
Quels outils utilisez-vous de votre côté ? Comment gérez-vous vos automatisations ?
Certains automatisent aussi la création de backlink et autres activités habituellement « réservées » à l’humain. On dit alors être dans le black hat
D’autres tâches peuvent être à la frontière BH/WH, comme le spinning de textes. C’est par définition une tâche automatisé, mais une relecture correction humaine est généralement nécessaire.
Bien sur, tous les rapports de suivi de positions par exemple ont eux intérêt à être automatisés, l’humain n’y a aucune valeur ajoutée
Je n’arrive pas a mettre la main sur un bon logiciel de referencement, merci pour l’article !
c’est vrai que le référencement est une usine à gaz, il y a toujours plein de trucs à faire et des fois il n’y a pas d’envie, pas de motivation et là moi je « glande » …
Bonne après-midi à tous
A mon humble avis il faut externaliser les tâches répétitives du SEO à l’étranger…la valeur ajouté restant pour l’agence de référencement sur place.
Un article qui résume bien la problématique du monitoring en SEO ; Les softs c’est bien pourvu de ne pas s’y perdre. Créer ses scripts soi-même nécessitent un background technique donc pas toujours à portée de tous 🙁
Merci en tout ca pour cet article
Franchement, plus que d’automatiser tout court, je trouve que les deux challenge en référencement sont :
– automatiser sans faire reposer son travail sur l’ignorance des gens en matière d’automatisation
– Créer avec respect des autres des liens qui durent dans le temps…
Parce que automatiser pour automatiser, d’une part j’ai l’impression qu’il y a quelques SEO qui y arrivent très bien, et d’autre part, je trouve que ça pose des problèmes d’éthiques..
Pensez à tous ces gens qui ne savent même pas ce qu’est un lien dofollow et que l’on utilise pour vendre du ppp…
En effet, il est primordial d’opter toujours pour des liens de qualité avant toute chose qui dure dans le temps. En optimisant, c’est un véritable plus qui facilite grandement les choses : on gagne du temps et on peut se concentrer sur son coeur de métier.
L’exemple de Sylvain sur la partie backlink est parlant : reste à savoir après vers quoi on tend, la quantité de liens ou la qualité elle même des liens.
Pour la ré-écriture de texte, là aussi on peut trouver des outils qui subsituent un mot ou une phrase pour une autre mais ces logiciels ont également leur limite.
Un exemple en ligne : ratmort.fr
Excellent article sur le sujet de Ross Hudgens : http://www.rosshudgens.com/please-exit-the-link-building/
@Grym en effet la reformulation automatique a ses propres limites, mais elle peut être ainsi utiliser à deux finalités :
– repasser par dessus et corriger les fautes pour qu’il soit utiliser comme un texte de qualité
– l’utiliser directement pour du référencement sur un splog
La réflexion et les bouts de process sont intéressants, mais justement, qu’utilises tu de ton côté pour tout ce qui est tâches rebarbatives du genre suivi de positionnement + envoi de rapport aux clients?
c’est sur qu’il faut avant tout la qualité des liens ..; comment y arriver n’est pas toujours très important
Je crois que le comment y arriver est important (temps passé, coût). À moins qu’il ne s’agisse d’un projet bénévole…
De mon côté, j’ai automatisé l’outil Advanced Web Ranking de Caphyon pour le suivi du positionnement et l’envoi de rapport. Le gros avantage de cet outil est de ne pas être limité en terme de volume car il est installé en local ou sur serveur dans nos bureaux. L’inconvénient, c’est qu’il est lent et nécessite l’utilisation de proxies pour ne pas atteindre la limite de requête max imposée par les outils de recherche.
Avant tout référencement, j’essaie de faire un état de lieu parce qu’il y a tant de choses à faire et cela de manière répétitive que quelques scripts et un à deux outils sont les bienvenus pour alléger le travail.