L’ère de la certitude est révolue. L’attribution parfaite n’existe pas et elle existera de moins en moins.
Au début d’Internet, il était possible de tracker beaucoup de choses, et pas forcément proprement. Nous n’avions pas forcément conscience du trésor sur lequel nous étions assis. Ça nous paraissait normal de récupérer beaucoup de données. Et comme ce qui ne demande pas vraiment d’effort n’est pas perçu comme de valeur, nous n’en faisions pas grand-chose.

Le « Not provided » est arrivé sur Google Analytics. Les termes de recherche de Google Ads sont masqués lorsque Google le décide. Le RGPD et les exigences liées au consentement avant de déposer des cookies restreignent grandement les données exploitables. Les limitations d’Apple, le zéro clic et les tactiques pour retenir l’internaute et l’empêcher de changer de site, le masquage des referrers de la part des plateformes sociales et l’usage banalisé de plusieurs appareils rendant l’analyse du parcours client plus compliquée, les IA qui préparent tout le travail en TOFU et le « messy middle » de Google ou on récupère la vente, mais sans comprendre ce qui s’est passé avant… Bon, il faut bien dire la vérité : c’est quand même la cata.
La promesse de l’attribution digitale, telle qu’elle est encore souvent présentée à tort, est en crise. À se demander si Google Analytics est encore utile lorsqu’on a pas un trafic vraiment massif.
Le constat est clair : on ne retrouvera pas la traçabilité perdue. Et on doit être plus vigilant sur l’attribution et ses conséquences. Exemple concret : quelle crédibilité donner au pilotage au ROAS pour comparer la performance de différentes plateformes lorsque les données qui remontent sont de plus en plus éloignées de la réalité ?
L’autre grand sujet, c’est la mesure de l’incrémentalité. Comment savoir si telle ou telle action a vraiment un effet sur les performances ? Est-ce que ma campagne de notoriété sur Youtube a un lien de causalité avec mes ventes 2 semaines plus tard ? Mon remarketing sur Meta est-il vraiment utile ou bien est-ce que les ventes qu’il m’annonce n’auraient-elles pas été finalisées malgré tout ?
Alors pour avancer, on fait quoi ?
Le retour aux fondamentaux du marketing
- Acter que certains médias sont non ou difficilement attribuable. C’est le cas des RP, du bouche-à-oreille, du trafic social organique et des partages sociaux, les emails et outils de messagerie, des apps… En dehors de l’univers numérique, la publicité, les événements, la radio et la TV.
- Acter que certains canaux ne sont pas fiables. C’est le cas du trafic direct qui correspond au vrai trafic direct mais qui collecte aussi du trafic mal taggué. C’est aussi le cas avec les régies publicitaires qui calculent différemment l’attribution et rendent difficiles les comparaisons.
- Halo effect (notoriété) et effets croisés entre canaux sont toujours sous-estimés par les plateformes.
- Mesurer le brand lift et l’incrémentalité plutôt que l’attribution (fournie par les outils classiques et basée sur les referrers et les cookies). Attention, méthodologie rigoureuse indispensable et difficile à mettre en oeuvre en PME.

On se base sur le classique modèle en 3 parties :
- TOFU ou haut de l’entonnoir : Mesurer l’impact sur la notoriété (recherches de marque, abonnements aux réseaux sociaux, impressions) ;
- MOFU ou milieu de l’entonnoir : Suivre l’intérêt généré (trafic direct, requêtes de marque) ;
- BOFU ou bas de l’entonnoir : Analyser la corrélation entre les efforts de marketing et les conversions finales.
Et on s’équipe avec les outils adaptés (du plus facile au plus difficile) :
- Données First-Party : pas le choix, ça doit être le pilier de la stratégie. Ces données sont chez nous et à nous (CRM). Elles doivent être exhaustives ou à minima justes et représentatives. Idéalement, elles doivent pouvoir discuter avec les outils marketing (conversions, listes d’audience).
- Utilisation de l’attribution algorithmique pour quitter définitivement l’attribution au dernier clic et miser sur les conversions simulées et plausibles d’après l’historique et le comportement des utilisateurs. On parle d’outils de Marketing Mix Modeling (MMM) capables de compenser partiellement la perte de données. Ce n’est pas accessible aux entreprises ayant trop peu de trafic.
- Tracking côté serveur et mise en place de banques de données (data lake ou CDP – Customer Data Platforms) capables d’agréger, dédupliquer, enrichir les données collectées par les divers outils et les exporter de façon valorisée pour chaque usage. Évidemment, en respectant le RGPD et à condition d’avoir la maturité nécessaire sur la culture data.
Et concrètement :
- Identifier les trois chemins de conversion principaux (trafic direct, recherche de marque, augmentation des taux de clic et de conversion) ;
- Établir des données de référence (benchmarks) fiables ;
- Lancer des tests en étant irréprochable sur la qualité des mesures (intervalles de confiance, transparence sur les limites et les biais) ;
- Analyser les changements dans les métriques clés ;
- Corréler les résultats avec les investissements.
Le plus dur, ce sera certainement de convaincre les décideurs de se lancer dans des chantiers pour lesquels on ne peut pas mesurer grand-chose. Depuis 25 ans, la promesse du numérique, c’est de tout tracker et de piloter à base de remontées de données. Aujourd’hui, et encore plus dans le futur, on ne pourra plus « prouver » que notre travail a bien de la valeur. Peut-être qu’il faut y aller doucement et lancer les premiers tests en autonomie puis présenter les résultats avant de se lancer dans des chantiers pilotes plus importants ?
L’avenir du marketing n’est pas sans attribution, mais avec une attribution plus raisonnable, qui privilégie le contexte à la certitude, l’incrémentalité à la simple corrélation.
La disparition de l’attribution classique n’est donc pas une fatalité, mais une opportunité de devenir de meilleurs marketeurs et probablement de garder une longueur d’avance face à l’IA.
Pour les marketeurs qui veulent continuer d’être performant, il faut abandonner la certitude de l’attribution parfaite. Face à cette nouvelle réalité, la bonne voie à emprunter est celle de tester, itérer et accepter que chaque pas n’est pas entièrement mesurable.