ServicesÀ proposNotesContact Me contacter →
EN FR
Guide de sujet

Lead scoring dans le warehouse — Hub

Hub note pour le lead scoring natif warehouse — des modèles pondérés basés sur des règles dans dbt au ML de classification BigQuery, en passant par la feature engineering et le reverse ETL vers le CRM.

Planté
dbtbigqueryanalyticsdata modelingai

Le lead scoring attribue une valeur numérique à chaque lead sur la base de signaux d’identité et d’engagement. Construire le scoring dans le warehouse avec dbt donne accès à toutes les sources de données, des règles versionnées et une logique testable — des capacités que les outils de scoring natifs CRM n’ont pas.

Ce hub couvre la collecte de signaux, le scoring basé sur des règles, le scoring basé sur le ML et l’activation via reverse ETL.

Article source

Modèles de lead scoring dans dbt et BigQuery — le guide complet. Partie 5 de la série d’ingénierie de données CRM.

Articles connexes de la série : Architecture CRM, Modélisation Salesforce, Pipelines HubSpot, Modèles Customer 360.

Concepts

1. Dimensions de signaux

Dimensions de signaux pour le lead scoring — Les quatre catégories qui alimentent chaque modèle de lead scoring : adéquation démographique (qui est la personne), adéquation firmographique (de quelle entreprise elle vient), engagement comportemental (ce qu’elle a fait) et récence (quand elle l’a fait). Explique pourquoi le warehouse voit des signaux que le CRM manque.

2. Scoring basé sur des règles

Lead scoring basé sur des règles dans dbt — Construire un modèle de scoring pondéré configurable avec des vars dbt, des fichiers seed et des macros Jinja. Inclut la décroissance temporelle, les signaux négatifs, les seuils de score et les patterns de maintenabilité qui permettent au marketing d’ajuster les pondérations sans toucher au SQL. Atteint une précision de 60-70% sur la prédiction de conversion.

3. Scoring basé sur le ML

BigQuery ML pour le lead scoring — Entraîner un modèle de régression logistique (ou d’arbres boostés) dans BigQuery SQL pour prédire la conversion des leads. Couvre la clause TRANSFORM (le détail le plus important que la plupart des tutoriels ignorent), la gestion du déséquilibre de classes avec auto_class_weights, et comment évaluer et expliquer le modèle aux commerciaux. Nécessite 1 000+ conversions historiques ; atteint une précision de 80-90% quand les données sont suffisantes.

Feature engineering pour le ML dans dbt — Comment construire les tables de features intermédiaires qui alimentent le modèle BigQuery ML. Agrégations sur fenêtres temporelles (7 jours, 30 jours, 90 jours), ensembles de features séparés par domaine, et leur jointure dans un dataset d’entraînement labellisé. Inclut la distinction dataset d’entraînement vs dataset de scoring.

4. Activation

Patterns reverse ETL pour l’activation CRM — Extraire les scores de BigQuery et les transférer dans Salesforce ou HubSpot. Paysage des outils (Hightouch, Census/Fivetran Activations, Polytomic), recommandations de fréquence de synchronisation (1-4 heures pour les sales ops, 15-30 minutes pour les déclencheurs d’automatisation), et les automatisations CRM en aval qui rendent le scoring actionnable.

Notes CRM connexes