Le lead scoring attribue une valeur numérique à chaque lead sur la base de signaux d’identité et d’engagement. Construire le scoring dans le warehouse avec dbt donne accès à toutes les sources de données, des règles versionnées et une logique testable — des capacités que les outils de scoring natifs CRM n’ont pas.
Ce hub couvre la collecte de signaux, le scoring basé sur des règles, le scoring basé sur le ML et l’activation via reverse ETL.
Article source
Modèles de lead scoring dans dbt et BigQuery — le guide complet. Partie 5 de la série d’ingénierie de données CRM.
Articles connexes de la série : Architecture CRM, Modélisation Salesforce, Pipelines HubSpot, Modèles Customer 360.
Concepts
1. Dimensions de signaux
Dimensions de signaux pour le lead scoring — Les quatre catégories qui alimentent chaque modèle de lead scoring : adéquation démographique (qui est la personne), adéquation firmographique (de quelle entreprise elle vient), engagement comportemental (ce qu’elle a fait) et récence (quand elle l’a fait). Explique pourquoi le warehouse voit des signaux que le CRM manque.
2. Scoring basé sur des règles
Lead scoring basé sur des règles dans dbt — Construire un modèle de scoring pondéré configurable avec des vars dbt, des fichiers seed et des macros Jinja. Inclut la décroissance temporelle, les signaux négatifs, les seuils de score et les patterns de maintenabilité qui permettent au marketing d’ajuster les pondérations sans toucher au SQL. Atteint une précision de 60-70% sur la prédiction de conversion.
3. Scoring basé sur le ML
BigQuery ML pour le lead scoring — Entraîner un modèle de régression logistique (ou d’arbres boostés) dans BigQuery SQL pour prédire la conversion des leads. Couvre la clause TRANSFORM (le détail le plus important que la plupart des tutoriels ignorent), la gestion du déséquilibre de classes avec auto_class_weights, et comment évaluer et expliquer le modèle aux commerciaux. Nécessite 1 000+ conversions historiques ; atteint une précision de 80-90% quand les données sont suffisantes.
Feature engineering pour le ML dans dbt — Comment construire les tables de features intermédiaires qui alimentent le modèle BigQuery ML. Agrégations sur fenêtres temporelles (7 jours, 30 jours, 90 jours), ensembles de features séparés par domaine, et leur jointure dans un dataset d’entraînement labellisé. Inclut la distinction dataset d’entraînement vs dataset de scoring.
4. Activation
Patterns reverse ETL pour l’activation CRM — Extraire les scores de BigQuery et les transférer dans Salesforce ou HubSpot. Paysage des outils (Hightouch, Census/Fivetran Activations, Polytomic), recommandations de fréquence de synchronisation (1-4 heures pour les sales ops, 15-30 minutes pour les déclencheurs d’automatisation), et les automatisations CRM en aval qui rendent le scoring actionnable.
Notes CRM connexes
- Patterns de modélisation CRM dans dbt — les patterns base/intermédiaire/mart pour les données CRM
- Hub d’architecture de données CRM — vue d’ensemble du cluster de sujets d’ingénierie de données CRM
- Étapes du cycle de vie HubSpot dans le warehouse
- Hub Customer 360