ServicesÀ proposNotesContact Me contacter →
EN FR
Note

Analyse d'Attribution

Un guide structuré de l'attribution marketing — des patterns d'implémentation SQL à la comparaison multi-modèles, la conception de dashboards et les tests d'incrémentalité

Planté Dernier soin
bigqueryga4dbtanalyticsdata modeling

L’attribution marketing est la pratique qui consiste à attribuer un crédit de conversion aux touchpoints marketing qui l’ont précédée. Chaque approche implique des compromis — entre simplicité et précision, entre effort d’implémentation et profondeur des insights, entre ce qui est mesurable et ce qui génère réellement des résultats business.

Ce hub organise le parcours d’analyse d’attribution, des premiers principes jusqu’à l’implémentation en production.

La Séquence

1. Comprendre le problème de mesure

Biais d’attribution des plateformes publicitaires explique pourquoi les chiffres d’attribution rapportés par les plateformes ne peuvent pas être pris au pied de la lettre. Chaque plateforme publicitaire sur-compte les conversions en raison des incitations des jardins clos, des fenêtres d’attribution qui se chevauchent et de l’impossibilité de voir les parcours cross-canal. C’est le problème que l’attribution basée sur l’entrepôt résout.

2. Assembler les sources de données

Sources de données d’attribution en entrepôt couvre les trois catégories de données nécessaires à l’attribution : les données d’interaction sur le site web (export BigQuery GA4), les données de dépenses des plateformes publicitaires (Google Ads DTS, Meta, LinkedIn, TikTok via ETL) et les données de conversion (e-commerce, CRM, événements produit). Inclut le bug de mauvaise attribution gclid de GA4, les stratégies de jointure entre données publicitaires et analytics web (ID de clic vs. UTMs) et les règles de standardisation des UTMs.

3. Concevoir la table de touchpoints

Conception de la table de touchpoints couvre la structure de données fondamentale que chaque modèle d’attribution consomme. La table de touchpoints relie les interactions marketing aux conversions, et sa conception détermine la précision de l’attribution. Inclut les champs requis, le défi de la résolution d’identité, ce qui compte comme touchpoint, le modèle dbt intermédiaire qui la construit à partir d’événements GA4 et les erreurs courantes.

4. Définir les fenêtres de lookback

Fenêtres de lookback d’attribution couvre jusqu’où remonter dans le temps pour considérer les touchpoints avant une conversion. Benchmarks sectoriels, conséquences de fenêtres trop courtes ou trop longues, comparaisons des valeurs par défaut des plateformes, implémentation SQL et utilisation de vos propres données de conversion pour trouver la bonne fenêtre.

5. Implémenter les modèles d’attribution en SQL

Patterns SQL d’attribution couvre l’implémentation SQL pour chaque modèle d’attribution majeur : premier contact, dernier contact, linéaire, basé sur la position, décroissance temporelle et modèles algorithmiques (chaînes de Markov, valeurs de Shapley). Chaque modèle opère sur la même table de touchpoints et diffère uniquement dans la façon dont il distribue le crédit. La note inclut le schéma de la table de touchpoints, le SQL complet pour chaque modèle et un cadre de décision pour choisir les modèles.

6. Approfondir les modèles pondérés

Modèles d’attribution basés sur la position couvre les modèles en U (40-20-40) et en W (30-30-30-10) en détail — les formules, la gestion des cas limites, les variations de pondération sectorielles et le SQL BigQuery. Modèle d’attribution à décroissance temporelle explique la décroissance exponentielle avec une demi-vie configurable, comment choisir la bonne demi-vie pour votre cycle de vente et les mathématiques de normalisation qui maintiennent l’équilibre des revenus attribués.

Modèles d’attribution pondérés dbt montre comment implémenter les deux dans dbt avec des pondérations configurables via var(), incluant la configuration dbt_project.yml et les tests d’intégrité des revenus.

7. Regrouper les canaux pour les modèles data-driven

Stratégie de regroupement des canaux d’attribution couvre comment regrouper les canaux marketing avant d’exécuter des modèles data-driven. Commencez avec 5 à 10 groupes de haut niveau, regroupez les canaux à faible volume (moins de 2% des touchpoints) dans « Autres » et ajustez les regroupements trimestriellement. Inclut l’impact sur les matrices de transition Markov versus les comptages de coalitions Shapley, la règle des 2% et la cadence d’itération.

8. Implémenter l’attribution data-driven

Attribution par chaînes de Markov explique comment les chaînes de Markov modélisent les parcours clients comme des transitions d’état pour calculer l’attribution via l’effet de suppression — de combien la probabilité de conversion chute quand un canal est supprimé. Couvre la propriété Markov, les matrices de transition, les modèles du premier ordre versus d’ordre supérieur et les exigences en données.

Implémentation SQL d’attribution Markov fournit le SQL BigQuery pour l’extraction de chemins et le comptage des transitions — la couche de préparation des données qui alimente Python pour le calcul de l’effet de suppression. Inclut la structure de projet dbt pour intégrer les résultats Markov aux côtés des modèles heuristiques.

Attribution par valeurs de Shapley couvre l’alternative issue de la théorie des jeux : calculer la contribution marginale moyenne de chaque canal sur toutes les coalitions de canaux possibles. Les valeurs de Shapley satisfont quatre axiomes d’équité (efficacité, symétrie, joueur fictif, additivité) mais s’échellonnent en 2^n pour n canaux. Inclut le cadre de décision Shapley versus Markov.

9. Comprendre les limitations du DDA de Google

Repli silencieux du DDA Google révèle un piège critique : l’Attribution Data-Driven de GA4 revient silencieusement au dernier clic quand les seuils de données ne sont pas atteints (400+ conversions par type sur 30 jours, ~10 000 chemins multi-interactions). L’interface affiche toujours « Attribution Data-Driven » tout en livrant du dernier clic. L’attribution native en entrepôt évite cela entièrement.

10. Évaluer les packages et bibliothèques dbt

Panorama des packages d’attribution dbt passe en revue les packages dbt open source (Snowplow attribution, Snowplow fractribution, Tasman MTA, Rittman Analytics) et les bibliothèques Python (ChannelAttribution, marketing-attribution-models) disponibles pour l’attribution en production. Couvre ce qu’inclut chacun, le support des entrepôts et le cadre de décision build-vs-package.

11. Construire la couche de comparaison dans dbt

Pattern de comparaison d’attribution dbt montre comment structurer un projet dbt pour l’attribution multi-modèles. Chaque modèle s’exécute indépendamment comme un mart, et un modèle de comparaison les réunit avec un discriminateur model_type. Inclut la structure du projet, le SQL du modèle de comparaison, les tests d’intégrité des revenus, les contrats de schéma et les patterns de pré-agrégation pour la performance des dashboards.

12. Interpréter le désaccord entre modèles

Le désaccord entre modèles d’attribution comme signal couvre l’insight central : le désaccord entre les modèles d’attribution est en lui-même informatif. Quand les modèles s’accordent, la confiance est élevée. Quand ils divergent, l’écart révèle une incertitude réelle dans vos données. Inclut le calcul du score de désaccord, l’alignement stratégique entre équipes, les cadres de communication avec les parties prenantes et les signaux d’alerte indiquant que l’attribution échoue.

13. Trianguler avec plusieurs méthodologies

Mesure marketing triangulée couvre pourquoi une mesure robuste combine trois approches : l’attribution multi-touch pour l’optimisation digitale quotidienne, la modélisation du mix média (MMM) pour l’allocation budgétaire stratégique trimestrielle et les tests d’incrémentalité pour la validation causale. Inclut comment chaque approche calibre les autres et une feuille de route basée sur la maturité pour adopter chaque méthodologie.

14. Concevoir les dashboards d’attribution

Conception des dashboards d’attribution couvre l’architecture des dashboards pour l’attribution multi-modèles : métriques essentielles (contribution par canal, comparaison de modèles, conversions assistées, CPA/ROAS), hiérarchie par audience (vues exécutif/manager/analyste), implémentation Looker Studio et contournement des limitations des outils BI.

15. Valider avec les tests d’incrémentalité

Tests d’incrémentalité pour l’attribution boucle la boucle. L’attribution mesure la corrélation ; les tests d’incrémentalité mesurent la causalité. Couvre les tests holdout, les tests géographiques, les études de lift des plateformes et comment utiliser les résultats d’incrémentalité pour calibrer l’interprétation de votre modèle d’attribution.