Planification agent IA : CoT, ReAct, ToT
Comprenez la planification agent IA : CoT, ReAct, ToT et bonnes pratiques pour concevoir des agents plus fiables et mieux orchestrés.
Planification agent IA : comprendre comment un agent raisonne
Introduction
La planification agent IA est ce qui sépare un chatbot qui répond au fil de l’eau d’un agent capable de décomposer une tâche, choisir une action et corriger sa trajectoire. Dès qu’un agent doit utiliser des outils, gérer plusieurs étapes ou arbitrer entre plusieurs options, la qualité de son planning devient déterminante. C’est aussi là qu’entrent en jeu des notions souvent citées, mais mal distinguées, comme Chain-of-Thought, ReAct ou Tree of Thoughts. Voici ce qu’elles recouvrent vraiment, comment elles s’implémentent, et dans quels cas elles améliorent concrètement un système agentique.
Résumé rapide
| Élément | À retenir |
|---|---|
| Planification | Capacité d’un agent à décomposer un objectif en étapes avant ou pendant l’exécution |
| CoT | Raisonnement étape par étape, utile pour clarifier une décision simple |
| ReAct | Alternance pensée → action → observation, adaptée aux agents avec outils |
| ToT | Exploration de plusieurs branches de raisonnement, plus coûteuse mais parfois plus robuste |
| Limite clé | Plus le planning est long, plus le coût, les boucles et les hallucinations augmentent |
Qu'est-ce que la planification dans un agent IA ?
Dans un agent IA, la planification désigne la façon dont le système transforme un objectif flou en séquence d’actions exploitables. L’agent peut par exemple recevoir une demande comme « compare LangGraph et CrewAI pour un cas multi-agent, puis rédige une synthèse ». Sans mécanisme de planning, il risque de répondre d’un bloc, sans vérifier les sources ni organiser la tâche. Avec un bon planning, il peut d’abord chercher l’information, ensuite comparer les architectures, puis seulement produire la synthèse finale.
Cette capacité peut être implicite ou explicite.
- Planification implicite : le raisonnement est surtout induit par le prompt. Le modèle génère ses étapes mentalement, sans structure logicielle forte.
- Planification explicite : les étapes sont matérialisées dans un workflow, un graphe d’état ou une boucle d’orchestration avec règles claires.
La nuance est importante. Un bon prompt peut suffire pour une tâche courte. En revanche, dès qu’il faut gérer état, outils, validations et erreurs, il vaut mieux intégrer la planification dans l’architecture des agents IA plutôt que la laisser entièrement au modèle.
Il faut aussi distinguer planification et orchestration. La planification concerne la stratégie d’un agent individuel. L’orchestration des agents IA concerne la coordination entre plusieurs agents, rôles ou services. Les deux se complètent, mais ne répondent pas au même problème.
Chain-of-Thought : raisonner étape par étape
Le pattern Chain-of-Thought ou CoT consiste à pousser le modèle à raisonner en plusieurs étapes intermédiaires avant d’émettre sa réponse. Popularisé par Wei et al. en 2022, il améliore souvent les performances sur les tâches qui demandent décomposition, calcul ou arbitrage.
Dans un agent, CoT sert surtout à :
- expliciter les sous-problèmes à résoudre,
- réduire les réponses trop rapides ou superficielles,
- rendre certaines décisions plus cohérentes,
- préparer un appel d’outil plus pertinent.
Exemple simple de prompt de planification implicite :
Tu es un agent de recherche.
Avant de répondre, décompose la demande en étapes.
Identifie les informations manquantes.
Propose ensuite la meilleure action suivante.
Le point fort du CoT est sa simplicité. Vous n’avez pas besoin d’un runtime complexe pour en profiter. En revanche, il a plusieurs limites.
D’abord, il ne garantit pas que le raisonnement soit correct. Une chaîne de pensée peut être fluide mais fausse. Ensuite, elle consomme des tokens, donc du coût et de la latence. Enfin, si l’agent agit dans le monde réel, un simple CoT ne suffit pas : il faut relier le raisonnement à des actions vérifiables.
En pratique, CoT est utile pour des tâches comme :
- qualifier une demande utilisateur,
- choisir entre plusieurs stratégies simples,
- préparer un plan initial avant exécution,
- expliquer une recommandation technique.
Il est moins adapté quand l’agent doit enchaîner plusieurs appels d’outils, gérer un état persistant ou revenir sur ses propres observations.
Le pattern ReAct : combiner raisonnement et action
ReAct (Yao et al. 2023) est probablement le pattern de planning le plus utile en production pour un agent outillé. Son idée est simple : au lieu de séparer complètement le raisonnement et l’exécution, on fait alterner des cycles de réflexion et d’action.
Le schéma est généralement le suivant :
- Thought
- Action
- Observation
- Thought
- Action
- Observation
- Final answer
Cette boucle permet à l’agent de corriger son plan à mesure qu’il découvre de nouvelles informations. C’est plus réaliste qu’un plan figé dès le départ.
Voici un pseudocode minimal :
state = {"goal": user_query, "history": []}
while not done:
thought = model.reason(state)
action = model.choose_action(thought, tools)
observation = run_tool(action)
state["history"].append({
"thought": thought,
"action": action,
"observation": observation,
})
done = should_finalize(state)
return model.final_answer(state)
Et un exemple de prompt très courant :
Tu peux utiliser les outils disponibles.
Pour chaque itération, suis ce format :
Thought: ce que tu cherches à comprendre
Action: l’outil à appeler
Action Input: les paramètres
Observation: résultat de l’outil
Quand tu as assez d’informations, réponds dans Final Answer.
ReAct est particulièrement efficace quand l’agent doit :
- chercher de l’information externe,
- appeler plusieurs APIs,
- ajuster son plan après chaque résultat,
- éviter de halluciner une réponse sans vérification.
Sa principale faiblesse est le risque de boucle. Si les critères d’arrêt sont mal définis, l’agent peut multiplier les itérations sans converger. Il faut donc borner le nombre d’actions, vérifier la pertinence de chaque appel et prévoir des conditions de sortie explicites.
Planification avancée : Tree of Thoughts, Plan-and-Execute et Self-Ask
Quand la tâche est complexe, un simple raisonnement linéaire ne suffit pas toujours. C’est là qu’entrent des variantes plus avancées.
Tree of Thoughts
Tree of Thoughts ou ToT explore plusieurs branches de raisonnement au lieu d’une seule. L’agent génère plusieurs pistes, les évalue, élimine les moins prometteuses puis approfondit les meilleures. C’est utile pour les problèmes à forte composante exploratoire, mais coûteux en tokens et en temps.
Plan-and-Execute
Le pattern Plan-and-Execute sépare deux phases :
- un planificateur produit un plan global,
- un exécuteur réalise les étapes une par une.
Cette approche est intéressante quand vous voulez conserver une vue macro de la mission, tout en gardant un contrôle fort sur l’exécution.
Self-Ask
Self-Ask pousse le modèle à se poser lui-même des sous-questions avant de répondre. C’est souvent une bonne option pour les tâches d’explication, d’analyse ou de recherche structurée, sans aller jusqu’à la complexité d’un arbre de pensées complet.
Tableau comparatif des principales techniques
| Technique | Principe | Avantages | Limites | Cas d’usage idéal |
|---|---|---|---|---|
| CoT | Raisonnement pas à pas | Simple, peu de mise en œuvre | Peut rester purement verbal et faux | Décision simple, explication, qualification |
| ReAct | Boucle pensée + action + observation | Très adapté aux agents avec outils | Risque de boucle et coût d’itération | Recherche web, agents opérationnels, support outillé |
| ToT | Exploration de plusieurs branches | Plus robuste sur problèmes complexes | Très coûteux | Arbitrage complexe, exploration stratégique |
| Plan-and-Execute | Plan global puis exécution séquentielle | Bonne lisibilité du workflow | Moins flexible si le contexte change | Tâches longues et structurées |
| Self-Ask | Sous-questions auto-générées | Bon compromis simplicité/structure | Moins adapté aux actions réelles | Recherche, pédagogie, QA avancée |
Le bon choix dépend donc moins de la mode du moment que du type de décision à prendre, du coût acceptable et du niveau de contrôle requis.
Comment implémenter la planification dans un framework agentique
Dans un prototype, la planification implicite par prompt peut suffire. Mais pour un agent qui doit durer en production, il faut généralement rendre le planning observable et contrôlable.
Avec un framework comme LangChain, vous pouvez rapidement tester une boucle CoT ou ReAct. C’est pratique pour valider un concept. En revanche, si vous devez gérer mémoire, validations humaines, états intermédiaires ou reprise après erreur, un runtime plus structuré comme LangGraph devient souvent plus pertinent.
L’idée clé est de transformer la planification en objet système, pas seulement en texte généré. Par exemple, vous pouvez représenter un état avec :
- objectif,
- sous-tâches restantes,
- outils autorisés,
- observations déjà collectées,
- condition d’arrêt,
- niveau de confiance.
Ensuite, chaque nœud du workflow exécute une responsabilité claire : planifier, appeler un outil, vérifier le résultat, demander une validation humaine, ou finaliser.
Exemple de logique explicite :
if state["needs_plan"]:
state = planner_node(state)
elif state["next_action"] == "tool_call":
state = tool_node(state)
elif state["needs_review"]:
state = human_review_node(state)
else:
state = finalize_node(state)
Cette approche réduit la confusion entre ce que le modèle “pense” et ce que le système “autorise”. Elle est plus fiable pour les agents qui manipulent des données, exécutent des commandes ou interagissent avec plusieurs services.
Exemple concret : un agent de veille qui planifie vraiment
Prenons un agent de veille concurrentielle. La demande est : « analyse les nouveautés de LangGraph cette semaine et résume les impacts pour un builder IA ». Un agent naïf peut produire une réponse générique sans vérification. Un agent planifié va plutôt suivre cette logique :
- identifier les sources nécessaires,
- lancer une recherche web ciblée,
- récupérer trois à cinq résultats crédibles,
- extraire les changements concrets,
- reformuler les impacts pour le contexte métier,
- produire une synthèse courte.
En mode ReAct, la boucle peut ressembler à ceci :
- Thought : je dois d’abord vérifier s’il y a des annonces ou commits récents.
- Action : recherche web “LangGraph release notes April 2026”.
- Observation : documentation officielle + changelog + issue marquante.
- Thought : il me manque la conséquence pratique pour un workflow multi-agent.
- Action : lire la note sur la persistance d’état.
- Observation : amélioration du contrôle sur les transitions et retries.
- Final Answer : synthèse orientée usage builder.
Le gain n’est pas seulement une meilleure réponse. C’est surtout une meilleure traçabilité du raisonnement, ce qui facilite audit, debug et amélioration continue.
Bonnes pratiques : quand et comment guider le raisonnement de l’agent
Quelques règles simples évitent la plupart des dérives.
- Borner le nombre d’étapes : un agent sans limite de tours finit souvent en boucle.
- Définir un critère d’arrêt explicite : réponse suffisante, confiance minimale, ou nombre maximal d’actions.
- Séparer planification et exécution sensible : le modèle peut proposer, mais le système doit autoriser.
- Ne pas exposer inutilement toute la chaîne de pensée : gardez surtout les artefacts utiles, comme plan, action, observation et justification courte.
- Mesurer le coût : plus le planning est profond, plus vous payez en tokens et en latence.
- Tester les cas d’échec : observation vide, outil indisponible, conflit entre sous-objectifs, boucle de replanification.
Il faut aussi rester lucide sur les limites actuelles des LLMs. Leur raisonnement apparent n’est pas une garantie de vérité. Ils peuvent halluciner des étapes, surinterpréter une observation ou poursuivre une mauvaise piste avec beaucoup d’assurance.
Questions fréquentes
Qu'est-ce que la planification dans un agent IA ?
La planification dans un agent IA est la capacité à transformer un objectif en étapes, choix d’outils ou sous-tâches. Elle permet à l’agent de mieux structurer son exécution au lieu de répondre d’un seul bloc. C’est un composant central du reasoning agent moderne, surtout dès qu’il faut agir dans un environnement réel.
Quelle différence entre CoT et ReAct ?
Le CoT structure surtout le raisonnement verbal étape par étape. ReAct ajoute une boucle entre raisonnement et action, avec observations intermédiaires. En pratique, CoT aide à mieux penser, tandis que ReAct aide à mieux agir. Pour un agent avec outils, ReAct est souvent plus utile qu’un simple agent cot basé uniquement sur le prompt.
Tree of Thoughts est-il toujours meilleur ?
Non. Tree of Thoughts peut être plus robuste sur des problèmes complexes, mais il coûte plus cher et prend plus de temps. Pour beaucoup de cas opérationnels, un ReAct bien borné ou un Plan-and-Execute suffit largement. Le bon choix dépend du coût acceptable et du niveau d’exploration nécessaire.
Comment éviter les boucles dans un reasoning agent ?
Il faut fixer des conditions d’arrêt claires, limiter le nombre d’itérations, journaliser chaque action et vérifier que chaque observation apporte réellement une information nouvelle. Sans ces garde-fous, un reasoning agent peut répéter la même stratégie, appeler inutilement les mêmes outils et augmenter le coût sans améliorer la réponse.
La planification remplace-t-elle l’orchestration multi-agents ?
Non. La planification décrit comment un agent individuel raisonne et choisit ses prochaines actions. L’orchestration multi-agents décrit comment plusieurs agents se répartissent le travail, échangent et se coordonnent. Un système avancé combine souvent les deux : planning local dans chaque agent, orchestration globale au niveau du système.
Conclusion
La planification n’est pas une couche cosmétique ajoutée à un LLM. C’est le mécanisme qui rend un agent plus cohérent, plus traçable et souvent plus utile en production. CoT, ReAct, ToT ou Plan-and-Execute ne sont pas des buzzwords interchangeables, mais des patterns adaptés à des niveaux différents de complexité. Si vous construisez des agents réels, traitez le planning comme une capacité système à concevoir, mesurer et borner, pas comme un simple effet de prompt.
La planification est au cœur de tout agent autonome. Pour aller plus loin, découvrez comment l'orchestration multi-agents exploite ces mécanismes dans notre guide sur l'orchestration des agents IA.
Restez informé sur les agents IA
Nouveaux tutoriels, comparatifs et guides pratiques directement dans votre boîte mail.