PerformanceWeb 2016 : j’y étais et c’était bien

Vendredi 20 mai, c’était Performance web 2016 à Genève. Le programme était alléchant, le lieux proche, je n’ai pas hésité. Et je n’ai pas été déçu. Des intervenants de haut niveau en SEO et une organisation réglée comme un coucou suisse.

Voici un rapide compte rendu (partiel et orienté) de cette journée dense en information.

Étude SEO Factors

Comme l’année dernière. Pas trop de changement sur les critères « estimés » de référencement. C’est Yeca qui s’y collait et ça a permis de se rassurer : technique, contenu, popularité, les bases et les bonnes pratiques sont toujours les mêmes.

Culture des données et webanalytics

Une présentation intéressante pour remettre les points sur les I. Google Analytics c’est bien mais Google Analytics bien configuré c’est mieux :

  • Plusieurs vues (prod, test, avec filtres…)
  • GTM pour gagner en rapidité d’implémentation
  • Du tracking dans tous les sens (événements, objectifs, liens avec GSC et Adwords)
  • Des tableaux de bord adaptés à chaque lectorat.

Ce n’était pas Avinash aux commandes mais Sabine Dufaux.

Deep learning et SEO

Une présentation pointue mais en même temps très abordable par le chercheur préféré des référenceurs français, j’ai nommé Sylvain Peyronnet.

Des chiffres, des sources, des algos et un socle théorique solide. Comme d’habitude avec Sylvain, ça fait du bien de se reposer sur des certitudes dans un monde ou les approximations, les généralisations et les omissions sont plus fréquentes que les vérités. Sylvain a parlé de réseaux de neurones et de leur application concrète à la recherche.

Le machine learning permet de classifier et de prédire. Pour cela on peut guider les logiciels auto-apprenants (à base de caractéristiques et de renforcement) ou bien les laisser faire tout seul (les outils vont alors repérer tout seul les caractéristiques). La seconde méthode est bien meilleure car elle n’est pas limitée par le cerveau humain (mais peut être influencée et polluée par le bruit propre aux données en elles-même).

Les moteurs de recherche vont passer au machine learning (et ça a déjà commencé). Pour le SEO, la tâche sera plus difficile car les critères ne seront plus connues (même pas par les ingénieurs de chez Google).

Pour les plus techniciens, il existe un nouvel algo à tester qui s’appele Word2Vec. Successeur du cosinus de Salton et de la TF.IDF, il s’agit d’un modèle beaucoup plus intéressant car il apprend le sens en fonction d’un contexte et permet de basculer d’une approche statistique inspirée de la syntaxe à une approche sémantique beaucoup plus proche de la réalité.

Ces réseaux de neurones sont capables aujourd’hui de faire ce que sait faire le cerveau humain en 100ms. Mais pour les tâches plus complexes, la tâche nécessite un temps et une capacité de calcul très élevé (de type exponentiel).

Alors panacée les réseaux de neurones ou pas ? Et bien ça dépend. Pour classer des sites dans une SERP (les uns par rapport aux autres), c’est top car la taĉhe est facile à résoudre. Mais pour répondre à des questions plus complexes (ce site est-il de bonne qualité ?) c’est beaucoup plus dur. Malgré ses promesses, le coût énergétique reste aujourd’hui très important.

Analyse de la concurrence

Kevin Richard a présenté sa façon d’estimer la difficulté de positionnement, l’opportunité et l’effort à faire pour tirer le meilleur parti d’une « bonne idée ». Assez rigolo, avec Paul Sanchez l’après-midi, ils ont utilisé de vrais exemples sur lesquels je m’étais intéressé (l’affiliation à base de poussettes et de trampolines ;-)).

Côté pratique, la présentation a évoqué les outils d’analyse de liens et de volume.

Audit SEO

Les 2 acolytes (Sandrine et Julien) de l’entreprise Korleon ont expliqué ce qu’était selon eux un bon audit. Retour aux fondamentaux techniques liés à l’architecture et au contenu.

Focus particulier sur l’analyse de logs et l’économie de budget crawl : il ne faut pas gaspiller son budget crawl. C’est bête et néfaste pour tout le monde (le site, le moteur, l’agence SEO…)

L’avenir selon Google

Zineb Ait de chez Google a répondu a pleins de questions (surtout en dehors de sa présentation) et a pointé du doigt ce qui allait faire la différence dans les mois / anénes qui allaient venir et c’est très simple : le mobile, les données structurées et la performance.

Back to basic : le marketing c’est tout simple quand c’est bien expliqué

L’exposé de fond de Blaise Reymondin avait du bon : au delà nos ordis et nos outils, il y a aussi de vrais gens avec de vrais attentes. Avant d’avoir une belle vitrine, de beaux process et une visibilité top, il faut être focus sur les fondamentaux sinon on va tous se faire manger tout cru :

  • Qui suis-je ?
  • Quelle est ma plus-value différenciante ?
  • Quelles solution est-ce que j’apporte vraiment ?
  • Pourquoi me choisir moi plutôt qu’un autre ?
  • Le montrer, l’écrire, le faire dire par d’autres…

Requête concurrentielle ? Facile pour être premier

Certains orateurs sont drôles. D’autres se moquent de toi et sont drôles quand même. C’est le cas de Paul Sanches. Je ne sais pas si tout le monde a apprécié mais le ton était donné et la conférence a bien réveillé la salle qui commençait à piquer du nez.

Pour faire court, il suffit d’acheter des liens et de ne pas se faire prendre.

À cause de contraintes d’agendas, je n’ai pas pu assister à la dernière conférence de Christian Méline et de Laurent Bourrely. Dommage.

2 réflexions au sujet de « PerformanceWeb 2016 : j’y étais et c’était bien »

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *