Les trois dernières années d’outillage IA pour les développeurs représentent trois relations qualitativement différentes entre l’humain et l’outil — chatbot, copilot et agent — chacune nécessitant un modèle mental distinct.
Phase 1 : L’ère du Chatbot (2024)
La caractéristique définissante de l’ère du chatbot était la déconnexion. On ouvrait un onglet de navigateur, on tapait la description d’une requête SQL, on lisait le résultat, on le copiait-collait dans son IDE, on le testait, on détectait une erreur qui nécessitait un contexte absent du prompt initial, on retournait dans le chat, on réexpliquait l’erreur avec le contexte supplémentaire, et on recopiait-collait.
L’IA était un moteur de recherche qui parlait SQL. Véritablement utile — surtout pour les praticiens ayant besoin de chercher rapidement des informations sans fouiller dans la documentation — mais fondamentalement séparée du travail réel. Chaque interaction repartait de zéro. L’IA n’avait aucune idée du projet dans lequel on se trouvait, des conventions de nommage utilisées, ni de ce qui s’était passé lors des sessions précédentes.
La charge cognitive était élevée d’une manière spécifique : on faisait toujours deux choses à la fois — penser au problème technique et penser à la façon de le traduire en quelque chose que le chatbot pouvait comprendre. L’outil opérait sur des descriptions en langage naturel ; le travail réel s’effectuait en code et en données. Combler cet écart était votre problème.
Pour les analytics engineers, cette ère a produit de réelles économies de temps dans la bande étroite de tâches qui se traduisaient bien en langage naturel bref : « Écris une fonction de fenêtre qui classe les clients par chiffre d’affaires par région », « Quelle est la syntaxe BigQuery pour les comptages distincts approximatifs ? » Ce sont des tâches de consultation. Le chatbot était une meilleure recherche documentaire.
Phase 2 : L’ère du Copilot (2025)
Cursor, GitHub Copilot et dbt Copilot ont déplacé l’IA dans l’éditeur. Au lieu d’un onglet externe, les suggestions apparaissaient en ligne — dans le bon fichier, à la bonne ligne, avec le contexte de ce qu’on était en train d’écrire.
C’était un véritable changement de productivité. La distinction n’est pas seulement une question de commodité ; elle est cognitive. Lorsqu’une suggestion apparaît en contexte, on l’évalue par rapport à ce qu’on pense déjà. Il n’est pas nécessaire de maintenir un second contexte mental (la conversation de chat) tout en travaillant dans un premier (le code). L’IA vient à vous là où vous êtes.
L’ère du copilot a également introduit un vrai contexte de fichiers. Un bon copilot lit le fichier ouvert et les fichiers voisins, de sorte que lorsqu’on écrit un modèle intermédiaire, il connaît le modèle de base auquel on fait référence. Lorsqu’on définit une colonne dans un fichier YAML, il connaît le SQL qui la produit. Les suggestions ne sont pas génériques ; elles sont situationnelles.
Mais la relation du copilot avec votre travail est toujours réactive. Il attend que vous tapiez quelque chose. Il suggère les prochains tokens. Vous gardez les mains sur le volant ; l’IA est sur le siège passager en train de lire la carte. Le travail passe toujours par vous. L’IA accélère le flux, mais elle ne le redirige pas.
Un copilot gère bien les suggestions tactiques — « que devrait être cette prochaine ligne ? » — mais il ne prend pas en charge un flux de travail. Il répond à ce qui est en cours de saisie.
Phase 3 : L’ère de l’Agent (2026)
OpenClaw, Claude Code s’exécutant dans des pipelines automatisés, les dbt Agent Skills. La caractéristique définissante de l’ère de l’agent est l’autonomie. L’IA n’attend pas qu’on lui demande. Elle agit dans les limites qu’on définit, selon les plannings qu’on configure, et rend compte.
Le glissement passe de « Que peut me dire l’IA ? » à « Que peut faire l’IA pour moi ? »
Un agent ne suggère pas simplement la prochaine ligne d’un modèle — il lit l’intégralité de votre projet, exécute dbt test, identifie les échecs, remonte les échecs en amont, et publie un résumé sur Slack avant que vous soyez réveillé. La même tâche de surveillance de pipeline qui vous demandait d’ouvrir votre ordinateur, d’exécuter des commandes, de lire la sortie et d’interpréter les résultats se produit maintenant sans vous. Vous arrivez aux résultats.
Un praticien a décrit OpenClaw comme « remplaçant le moi qui écrivait du code, me libérant pour agir comme un manager ». Travailler avec des agents déplace le ratio entre faire le travail et examiner ce qui a été fait — définir la direction, examiner les sorties, corriger les erreurs et prendre les décisions de jugement que l’agent ne peut pas prendre.
Le marché reflète le changement de nature, et non simplement de degré. Le marché des agents IA croît à un TCAC de 46,3 %, projeté pour atteindre 52,62 milliards de dollars d’ici 2030. Judson Althoff, vice-président exécutif de Microsoft, l’a dit directement : « Copilot était le chapitre un. Les agents sont le chapitre deux. » L’IA écrit désormais 30 % du code de Microsoft et, selon les rapports, plus de 25 % de celui de Google. Ce ne sont pas des améliorations incrémentales de la productivité. Ce sont des changements dans la question de qui produit le travail.
Pourquoi Ces Distinctions Importent
Chaque paradigme requiert une orientation différente :
- Chatbot — un outil à interroger. Apportez une question ; recevez une réponse.
- Copilot — un outil avec lequel travailler côte à côte. Il accélère le travail en cours ; l’humain reste dans la boucle.
- Agent — un outil à configurer et superviser. Définissez le périmètre, établissez les garde-fous, évaluez les sorties.
Le glissement du copilot vers l’agent change ce à quoi ressemble la valeur. Utiliser Claude Code comme un copilot rapide — session par session, en conversation — laisse de la valeur de l’ère agentique sur la table. Le gain plus important vient de la couche d’orchestration : le travail qui se produit sans sollicitation active.
La Mise en Garde du Cycle Hype
Les agents qui fonctionnent bien aujourd’hui fonctionnent bien parce qu’un humain a passé un temps considérable à les configurer, les tester et définir leurs limites. « L’IA gère tout » est une affirmation marketing, pas une réalité actuelle. Le calendrier pour des agents véritablement autonomes est plus long que ce que la presse laisse entendre.
Le changement de paradigme est réel : les outils existent et les flux de travail sont possibles. Le schéma d’utilisation efficace implique de comprendre ce que les systèmes autonomes font bien, là où ils échouent de manière prévisible, et là où le jugement humain est requis. Voir L’analytics engineer comme directeur de l’IA pour ce à quoi ressemble le rôle à l’ère de l’agent.