Les contenus écrits par les machines sont très efficaces pour des textes très formatés dans un contexte bien défini : prévisions météo, résultats sportifs, cours de la bourse, résultats d’une élection…
Des outils existent déjà depuis des années pour remplir des textes à trous plus ou moins évolués. Avec les avancées de l’intelligence artificielle adaptée aux contenus publiés ces dernières années (GPT3, Jarvis…), il y a une bulle autour des promesses de la rédaction boostée à l’intelligence artificielle.
Ce que peut l’IA pour la rédaction SEO
On peut désormais donner un petit corpus de texte à une machine et demander à cette dernière de produire des textes ressemblant sans avoir besoin de textes à trous.
Autre point positif, l’IA est capable d’aider le rédacteur, de guider la rédaction et de suggérer des termes à utiliser en analysant des contenus déjà publiés.
Ces deux points sont une vraie avancée.
Ce que ne sait pas faire l’IA
Néanmoins, il ne faut pas perdre de vue qu’une machine n’est pas capable de faire autre chose que d’extraire / recycler / paraphraser. L’intelligence artificielle est capable d’identifier et de mieux réutiliser les « mots clés » nécessaires mais elle ne peut pas :
- produire de l’information neuve ;
- créer des associations nouvelles et pertinentes entre idées.
Le cerveau humain est toujours nécessaires pour :
- apporter de nouvelles idées et retranscrire un contenu hors ligne ;
- élaborer une réflexion, organiser une argumentation et dérouler un raisonnement méthodique ;
- faire des liens inédits entre des sujets et mettre en perspective ;
- prendre position.
Qu’en pensent les outils de recherche ?
Face à la déferlante de contenus automatisés qui est en train d’arriver, nul doute que les outils de recherche vont réagir. Google a déjà dit qu’un contenu écrit par un robot ne le gênait pas à condition qu’il soit de « qualité ».
Que va-t-il faire, par contre, des dizaines de textes tous similaires mais tous différents qui répondent à la même intention de l’internaute ? Le problème n’est pas nouveau mais le volume à traiter va aller croissant : filtrer le meilleur contenu (celui qui correspond le mieux à l’intention de recherche) puis afficher haut dans les SERPs ceux qui répondent avec du contenu neuf, une association inédite ou un angle nouveau…
Quel impact pour le SEO ?
Bref, les contenus créés par une IA ou des paraphrases élaborées via des rédacteurs offshore, même s’ils sont effectivement uniques (dans le sens « non copié-collé, sans doublon »), ne permettront plus de se positionner. On retrouvera ces contenus pour faire du volume, densifier des descriptions de produits ecommerce, nourrir des cocons sémantiques et valider une thématique entourant un lien sur un contenu publié sur un PBN.
La facilité de produire du contenu en masse va générer plus de volume de texte mais, en parallèle, va faire ressortir du lot les contenus vraiment utiles et intéressants. Au final, pour entrer dans le jeu, il faudra accepter de publier à la fois plus et mieux. Le « plus » sera produit par les machines et le « mieux » sera toujours produit par des humains. Selon les projets et la concurrence, il faudra appuyer sur l’un ou l’autre ou sur ces 2 leviers.
À qui profite cette surenchère de contenus ? Certainement pas à l’internaute qui n’a pas envie de lire des contenus inutiles. Pas plus aux outils de recherche qui doivent faire le tri. Pas non plus aux SEO qui auront du travail en plus pour atteindre les mêmes performances. Enfin, ce ne sont pas non plus les clients finaux qui vont y trouver un intérêt parce qu’ils devront payer pour tous tous ces contenus. Les prestataires qui vendent du contenu et de l’IA y gagneront certainement mais à part eux ?
À moins que Google décide de mettre un coup de pied dans la fourmilière et décide de repousser très loin dans les SERPs tous ces contenus…
Photo : JeffJarvis