Je rencontre tous les jours des dirigeants et cadres d’entreprises qui rêvent de systèmes capables de travailler seuls sur des tâches complexes. Une IA qui comprend un objectif global, qui planifie, qui exécute… Comme vous, je lis cette promesse tous les jours sur Linkedin et dans les newsletter d’agences.
Cette semaine (octobre 2025), OpenAI a annoncé transformer ChatGPT en une plateforme d’action, avec son nouveau module « AgentKit » permettant de créer des agents capables non seulement de converser, mais d’exécuter des tâches dans des applications tierces. Autrement dit, ChatGPT pourrait désormais agir à la place de l’utilisateur, à la façon des automatisations, mais dans un cadre conversationnel1.
Les surenchères des acteurs de l’IA générative entretiennent la confusion entre automatisation et autonomie. Ça faisait un moment que je pensais nécessaire de jeter un seau d’eau froide sur la hype ;)2
Si le mot est séduisant — il évoque l’autonomie, l’intelligence, la prise d’initiative — en réalité, il sert surtout à maquiller des automatisations classiques sous un vernis d’innovation. Les vrais agents sont rares, parce qu’ils sont difficiles à bâtir et fragiles à déployer. Alors, faute de mieux, beaucoup ont simplement renommé « agent IA » leurs scripts et workflows pour suivre la tendance.
Qu’est-ce qu’un agent ? Vraiment.
Un agent IA est un système autonome orienté vers un but, capable d’agir à partir d’un signal, de raisonner sur les moyens à employer, et d’évaluer son propre résultat — sans qu’on lui tienne la main.
Trois fonctions le définissent :
- Le déclenchement. L’agent réagit à un événement réel : un rapport publié, un mail reçu, un formulaire rempli.
- La décision. Il dispose d’un objectif, de contraintes, d’exemples… et choisit lui-même le chemin pour atteindre l’objectif.
- L’action. Il mobilise ses outils, applique la logique métier et se corrige si le résultat dévie.
Par exemple, au lieu de lui dire « va chercher les nouvelles sur l’IA, résume-les et envoie-les sur Slack », on dirait simplement « informe-moi chaque jour de l’actualité IA ». L’agent détermine le “comment” ; on ne lui dicte que le “pourquoi”.
Pourquoi c’est pas simple ?
La généralisation d’agents IA rencontre 3 obstacles principaux :
- La complexité.
Chaque appel à un LLM ou à un sous-agent augmente le risque d’erreur : un effet boule de neige appelé error compounding. Sans garde-fous, la défaillance se propage. Qui surveille les agents ? - Le jugement.
Le discernement ne se modélise pas simplement. Quand on rédige des instructions pour l’IA, 90 % du travail consiste à intégrer une forme de sens humain — comprendre le contexte, les nuances, les implicites, les tolérances. - Le risque.
Un agent mal encadré peut vite produire l’effet inverse de l’autonomie : de l’imprévisible. Qui est d’accord pour prendre le risque d’un agent fou ?
Donc, construire un véritable agent suppose un combo de maîtrise technique, de maturité organisationnelle et d’audace. Trois qualités qu’on ne trouve pas souvent réunies ;)
Mais alors, qu’est-ce qu’on peut faire pour le moment ?
Les automatisations incluant des nœuds d’IA
Le bon vieux « if this, then that », dopé à l’IA générative. Une suite d’instructions rigides, mais capables désormais de lire et résumer des textes.
Exemple : « si un article contient le mot IA, envoie le lien et le résumé sur Slack. »
C’est utile, fiable (au moins fiabilisable), reproductible. Mais ce n’est pas autonome : l’IA exécute, elle n’anticipe pas, elle ne prend aucune décision.
Beaucoup d’outils marketés comme des “agents” ne sont en réalité que cela : des automatisations. Même les “Custom GPTs” les plus sophistiqués restent des exécutants initiés par l’utilisateur, pas des entités proactives.
Les workflows “agentiques”
Entre l’automate et l’agent, un entre-deux : le workflow agentique.
L’IA y reçoit un objectif précis, quelques leviers d’action, et une marge de manœuvre limitée.
Exemple : analyser le niveau d’urgence d’un ticket client et le router vers la bonne personne.
L’autonomie existe, mais à petite échelle, contingentée, et le risque reste contenu. Ces workflows demandent plus d’effort que les automatisations, mais offrent déjà une dose utile d’intelligence contextuelle3.
Microsoft, par exemple, présente ses Copilots comme des agents. Ce sont en fait d’excellents workflows agentiques : orchestrés, déclenchés, logiques — mais pas libres.
Pas de précipitation
La vérité, c’est que vous n’avez pas besoin d’agents pour rester compétitif. Vos concurrents n’en ont pas non plus. L’autonomie viendra. Mais d’ici là, les entreprises qui réussiront seront celles qui auront su dompter l’automatisation, pas celles qui auront cru trop tôt à la fiction de l’agent intelligent.
Nous en parlions dans le billet Les agents IA vont-ils rendre obsolètes le no-code ? ↩
Merci pour l’inspiration Ed Ortega, Machine & Partners ↩
Nous en parlions déjà en 2024 dans le billet Utilisation de l’IA générative : assistant vs. automate ↩