Aucune méthodologie de mesure unique ne capture l’image complète de l’efficacité marketing. L’attribution multi-touch ne peut pas mesurer la causalité. La modélisation du mix media ne peut pas optimiser les tactiques quotidiennes. Les tests d’incrémentalité ne peuvent pas s’exécuter en continu sur chaque canal. Chaque approche a des angles morts structurels que les autres comblent.
Les stratégies de mesure les plus résilientes ne reposent pas sur une seule méthodologie. Elles triangulent — en utilisant trois approches complémentaires qui couvrent ensemble ce qu’une seule approche manque.
Les trois piliers
Attribution multi-touch (AMT)
L’attribution multi-touch attribue le crédit de conversion aux points de contact individuels dans un parcours client. Elle opère sur des données au niveau utilisateur, fournit une analyse granulaire des canaux et des campagnes, et supporte l’optimisation en quasi-temps réel.
Ce pour quoi elle est efficace : l’optimisation quotidienne des canaux digitaux. Quelles campagnes génèrent des conversions cette semaine ? Quels canaux devraient recevoir plus de budget dans le prochain sprint ? Où les parcours de conversion se brisent-ils ?
Ce qu’elle ne peut pas faire : prouver la causalité. L’AMT observe qu’un point de contact était présent dans un parcours convertissant et attribue du crédit selon la position, le timing, ou des patterns statistiques. Mais la présence dans un parcours ne prouve pas que le point de contact a causé la conversion. Une publicité de reciblage montrée à quelqu’un qui était déjà sur le point d’acheter obtient le plein crédit au dernier contact, même si la conversion se serait produite sans elle.
L’AMT ne peut pas non plus mesurer les canaux hors ligne. Les spots télévisés, les parrainages de podcasts, les panneaux publicitaires et le marketing événementiel ne génèrent pas de points de contact cliquables avec des paramètres UTM. Ils sont invisibles pour les modèles d’attribution, ce qui signifie que l’AMT sous-crédite systématiquement le marketing hors ligne.
Modélisation du mix media (MMM)
La modélisation du mix media adopte une approche fondamentalement différente. Au lieu de suivre les parcours utilisateurs individuels, la MMM utilise des données agrégées en séries temporelles — dépenses totales par canal par semaine, conversions totales par semaine, plus des facteurs externes comme la saisonnalité, les conditions économiques, et l’activité des concurrents — pour estimer la contribution de chaque canal par régression statistique.
Ce pour quoi elle est efficace : l’allocation stratégique trimestrielle du budget. Comment répartir notre budget marketing total entre les canaux le trimestre prochain ? Quelle est la courbe de rendements décroissants pour chaque canal ? Si nous augmentons les dépenses totales de 20 %, où obtenons-nous le meilleur retour marginal ?
Ce qu’elle ne peut pas faire : optimiser les tactiques quotidiennes. La MMM opère sur des agrégats hebdomadaires ou mensuels. Elle peut vous dire que le social payant génère 18 % des revenus incrémentaux sur le trimestre, mais elle ne peut pas vous dire que la campagne d’hier ciblant des audiences similaires a surpassé la campagne de reciblage.
La force de la MMM est qu’elle fonctionne avec des données agrégées, ce qui la rend intrinsèquement respectueuse de la vie privée. Elle n’a pas besoin de suivi au niveau utilisateur, de cookies, ni de paramètres de consentement. Elle inclut naturellement les canaux hors ligne — les dépenses TV entrent dans la régression aux côtés des dépenses digitales. Et elle capture les rendements décroissants : l’insight selon lequel dépenser 100 K€ en search payant génère un retour 10x tandis que dépenser 200 K€ ne génère qu’un retour 6x.
Le compromis est le besoin en données. La MMM nécessite 2-3 ans de données historiques de dépenses et de résultats, avec de préférence une variation des niveaux de dépenses entre les canaux. Si vous avez dépensé la même somme sur chaque canal au cours de l’année écoulée, la MMM ne peut pas distinguer leurs contributions.
Tests d’incrémentalité
Les tests d’incrémentalité mesurent la causalité par des expériences contrôlées. Les tests de holdout suppriment les publicités pour une partie de l’audience et mesurent si les conversions baissent réellement. Les tests géographiques désactivent des canaux dans des marchés spécifiques. Les études de lift de plateforme utilisent des outils d’expérimentation intégrés.
Ce pour quoi ils sont efficaces : prouver qu’un canal génère de la valeur réellement incrémentale, et non qu’il capture simplement une demande qui se serait convertie de toute façon. C’est ce qui se rapproche le plus de la vérité terrain en mesure marketing.
Ce qu’ils ne peuvent pas faire : s’exécuter en continu sur chaque canal. Chaque test nécessite de supprimer des publicités pour une partie de l’audience, ce qui signifie renoncer à des conversions potentielles pendant la période de test. Les tests sont coûteux, et on ne peut tester que quelques canaux à la fois.
Comment les trois approches se calibrent mutuellement
La vraie valeur de la triangulation n’est pas d’exécuter trois analyses séparées et de choisir celle que vous préférez. C’est d’utiliser chaque approche pour calibrer les autres.
L’incrémentalité calibre l’AMT. Votre modèle d’attribution indique que l’email génère 15 % des conversions. Un test de holdout montre seulement 8 % de lift incrémental. Cela vous indique que l’email est présent dans 15 % des parcours convertissants mais n’est causalement responsable que d’environ la moitié. Le reste se serait converti de toute façon. Vous ne “corrigez” pas les pondérations du modèle d’attribution — vous développez une intuition sur les endroits où il sur- et sous-crédite, et vous en tenez compte dans les décisions budgétaires.
L’AMT informe les priorités des tests d’incrémentalité. Les canaux avec des scores de désaccord élevés — où différents modèles d’attribution produisent des résultats très différents — sont les meilleurs candidats aux tests d’incrémentalité. Le désaccord signale une incertitude réelle sur la contribution d’un canal. Un test d’incrémentalité résout cette incertitude avec des preuves causales.
La MMM valide l’AMT au niveau du portefeuille. Si vos modèles d’attribution indiquent que le search payant génère 30 % des conversions et que la MMM dit que le search payant génère 28 % des revenus incrémentaux, vous avez convergence. Si l’AMT dit 30 % et la MMM dit 12 %, investiguez l’écart. Cela peut signifier que le search payant capture la demande existante (l’AMT voit le point de contact) sans créer de nouvelle demande (la MMM ne voit pas le lift incrémental).
L’incrémentalité calibre la MMM. Si votre modèle de mix media estime des rendements décroissants pour la publicité display à 50 K€/mois, un test d’incrémentalité qui désactive le display dans quelques marchés peut valider si le lift réel correspond à la prédiction du modèle. Si c’est le cas, vous faites confiance à la courbe du modèle. Sinon, vous ré-entraînez.
Adapter la méthodologie à la maturité
Toutes les équipes n’ont pas besoin des trois piliers dès le premier jour. Adaptez votre approche de mesure à votre échelle actuelle :
| Étape | Approche recommandée |
|---|---|
| Démarrage / PME | Modèles d’attribution heuristiques (linéaire, décroissance temporelle) en SQL. Cela seul fournit plus d’insights que de s’appuyer sur les chiffres rapportés par les plateformes. |
| Croissance (500+ conversions mensuelles) | Ajouter un modèle de chaîne de Markov aux côtés des modèles heuristiques. Utiliser le désaccord entre modèles pour identifier les canaux à tester. |
| Échelle (1000+ conversions) | Ajouter les valeurs de Shapley et commencer des tests d’incrémentalité trimestriels sur 2-3 canaux. |
| Enterprise (écosystème Google) | Google DDA + validation en entrepôt de données pour détecter les replis silencieux. Commander une étude MMM avec des données historiques. |
| Enterprise (contrôle total) | Markov/Shapley personnalisés, programme de tests d’incrémentalité continus, modélisation du mix media avec actualisation trimestrielle. Mesure triangulée complète. |
Commencez par des modèles heuristiques. Ils sont transparents, faciles à expliquer aux parties prenantes, et souvent suffisants pour l’optimisation initiale. Ajoutez des approches data-driven quand vous avez le volume de données pour les soutenir et les questions qui les requièrent. Ajoutez les tests d’incrémentalité quand vous avez le budget et les canaux avec suffisamment d’incertitude pour justifier le coût des tests. Ajoutez la MMM quand vous avez suffisamment de données historiques et les questions d’allocation budgétaire stratégique qui l’exigent.
Limites
Aucun modèle d’attribution ne fournit une précision complète. Les parcours clients sont complexes, et les canaux interagissent de manières qui résistent à une mesure nette. Un client influencé par un panneau publicitaire, la recherche organique, des articles de blog, des emails et une publicité de reciblage ne peut être parfaitement décomposé par aucun modèle.
L’attribution est plus utile quand elle est transparente et défendable que quand elle est précise mais opaque. Exécuter plusieurs modèles, valider avec des expériences, et communiquer l’incertitude en parallèle des résultats favorise de meilleures décisions budgétaires que de s’appuyer sur un seul chiffre rapporté par une plateforme.