ServicesÀ proposNotesContact Me contacter →
EN FR
Note

L'Écart de Production de l'IA en Data Engineering

Pourquoi l'IA vous amène rapidement à 80% du chemin, mais les 20% restants — sécurité, conformité, cohérence temporelle, gouvernance — concentrent l'essentiel du travail réel.

Planté
dbtaidata engineeringdata quality

L’IA atteint 80% de complétion du code rapidement ; la distance entre 80% et un code prêt pour la production est là où se concentre l’essentiel du travail. Pour les pipelines de données, les 20% restants peuvent consister en un filtre temporel appliqué de manière incohérente sur cinq tables jointes — invisible jusqu’à ce qu’un·e partie prenante remarque que le rapport de revenus ne correspond pas. Le succès initial d’une démonstration crée l’illusion d’une quasi-finalisation, mais la mise en production exige le jugement contextuel que décrit l’écart de contexte.

L’Écart de Sécurité

Des études ont révélé que 48% des suggestions de code générées par l’IA contiennent des vulnérabilités. 25 à 30% des sorties de GitHub Copilot contiennent des Common Weakness Enumerations (CWEs). Ces chiffres proviennent du génie logiciel général, mais le data engineering a sa propre version du problème :

Exposition des données personnelles (PII). Une IA générant une instruction SELECT peut extraire toutes les colonnes d’une table contenant des adresses e-mail, numéros de téléphone ou numéros de sécurité sociale. Elle ignore la politique de classification des données de votre organisation. Elle ne sait pas que customer_contact_detail contient des PII qui ne doivent jamais quitter le dataset restricted.

Identifiants dans les configurations. Une IA générant des configurations de profil dbt, des chaînes de connexion ou des scripts de configuration d’environnement peut coder en dur des identifiants qui devraient être des variables d’environnement. Il s’agit d’un antipattern bien connu, mais les systèmes IA le reproduisent car ils ont été entraînés sur du code qui le fait.

Vecteurs d’injection SQL. Les requêtes dynamiques générées par l’IA — notamment celles utilisant des macros Jinja qui interpolent des valeurs fournies par l’utilisateur — peuvent introduire des vulnérabilités d’injection si l’IA n’utilise pas une paramétrisation ou une désinfection appropriée.

Aucun de ces risques n’est théorique. Ce sont les modes d’échec par défaut lorsque l’IA génère du code sans comprendre la posture de sécurité de l’environnement pour lequel elle génère.

La Dimension de la Conformité

La pression réglementaire sur le code généré par l’IA s’intensifie rapidement et devient concrète :

  • Le règlement européen sur l’IA (EU AI Act) devient pleinement applicable le 2 août 2026, avec des amendes pouvant atteindre 7% du chiffre d’affaires mondial.
  • Les amendes RGPD ont atteint 5,88 milliards d’euros cumulés, avec 1,2 milliard d’euros en 2024 seulement.
  • Le rapport Deloitte 2025 a révélé que 73% des entreprises citent la confidentialité et la sécurité des données comme leur principal risque IA.

Pour le data engineering spécifiquement, la conformité se manifeste dans des décisions que l’IA ne peut pas prendre :

Une IA suggérant une dépendance avec une vulnérabilité connue crée un risque sur la chaîne d’approvisionnement. Une IA générant du code violant une politique de conformité interne (par exemple, traiter des données de clients européens dans une région américaine) crée une exposition au RGPD. Une IA introduisant une bibliothèque sous licence restrictive crée une responsabilité juridique. Chacun de ces cas requiert un jugement humain — non pas sur le fonctionnement du code, mais sur sa légitimité.

Cette dimension est en croissance car la réglementation rattrape l’adoption de l’IA. Les organisations qui traitaient le code généré par l’IA comme équivalent au code écrit par des humains pour des raisons de conformité constateront de plus en plus que les régulateurs ne partagent pas cette vision.

Les Sept Frictions selon HBR

Harvard Business Review a identifié sept frictions dans le « dernier kilomètre » de l’IA vers la production dans une analyse de mars 2026. Chaque friction est un problème humain, pas technique :

  1. La prolifération des pilotes qui ne passent jamais en production. L’IA produit des démos impressionnantes. Passer de la démo à la production exige de gérer les cas limites, la reprise sur erreur, le monitoring, les alertes — le travail ingrat que les démos ignorent.

  2. L’écart entre la productivité de la démo et le travail réel. L’IA accélère considérablement les cas en greenfield. Modifier du code de production existant — comprendre pourquoi il a été écrit ainsi, de quels systèmes en aval il dépend, ce qui casserait — est plus lent, avec ou sans IA.

  3. La dette de processus issue des contournements accumulés. Chaque organisation a des processus qui existent en raison d’un échec historique spécifique. L’IA ne connaît pas cette histoire. Elle suggère la solution « propre » qui avait déjà été essayée et avait échoué.

  4. Les connaissances tacites qui résistent à la codification. C’est l’écart de contexte sous sa forme organisationnelle. Les connaissances nécessaires pour prendre des décisions de production vivent dans les personnes, pas dans les documents.

  5. La gouvernance des systèmes agentiques. Lorsqu’un agent IA modifie un pipeline de production, qui l’a approuvé ? Quelle est la piste d’audit ? Comment effectuer un retour arrière ? La gestion des changements traditionnelle ne tient pas compte des agents autonomes.

  6. La complexité architecturale. Les systèmes réels sont interconnectés d’une manière qui résiste à l’optimisation locale. Améliorer un composant peut en dégrader un autre. L’IA optimise localement ; la mise en production exige une réflexion globale.

  7. Le piège de l’efficacité. Optimiser la vitesse compromet la qualité. La façon la plus rapide de construire un pipeline est de sauter les tests, la documentation, la revue. L’IA emprunte par défaut le chemin le plus rapide sauf si elle est contrainte par des processus.

Ce qui Comble l’Écart

L’écart de production est structurel — il existe parce que les exigences de production sont contextuelles, organisationnelles et réglementaires, pas seulement techniques. Des modèles plus performants ne le comblent pas.

Les tests comme filet de sécurité. La taxonomie des tests dbt fournit cinq mécanismes pour détecter les problèmes avant qu’ils n’atteignent la production. Les tests génériques détectent les violations structurelles. Les tests unitaires valident la logique. dbt-expectations détecte les violations des règles métier. Les contrats de modèles assurent la stabilité des schémas. Elementary détecte les anomalies auxquelles vous n’aviez pas pensé à tester. Ensemble, ils forment une couche de défense qui rend le code généré par l’IA plus sûr à déployer.

Des processus de revue adaptés aux sorties IA. La revue de code d’un code généré par l’IA nécessite une emphase différente de celle d’un code écrit par des humains. Les humains font des fautes de frappe et des erreurs logiques. L’IA fait des erreurs contextuelles — mauvaises jointures, filtres manquants, hypothèses inappropriées. Les relecteurs doivent se concentrer sur « est-ce que cela a du sens pour notre entreprise ? » plutôt que sur « la syntaxe est-elle correcte ? »

Une gouvernance qui tient compte de l’IA. La gestion des changements, les workflows d’approbation et les pistes d’audit doivent gérer le cas où le code a été généré plutôt qu’écrit. Non pas parce que le code généré par l’IA est intrinsèquement de moins bonne qualité, mais parce que la provenance est importante pour la conformité et la responsabilité.

Une confiance incrémentale. Commencez avec l’IA dans les environnements de développement. Passez au staging avec revue humaine. Promouvez en production avec monitoring. Chaque étape renforce la confiance que les sorties IA répondent aux standards de production. Les organisations qui sautent des étapes — passant directement de « l’IA a écrit ceci » à « c’est en production » — sont celles qui ressentiront l’écart de production le plus douloureusement.

L’écart de production est une raison d’investir dans les processus humains — tests, revue, gouvernance, monitoring — qui comblent l’écart entre démo et production, pas une raison d’éviter les outils IA.