n8n : guide complet pour automatiser vos workflows en 2026
Découvrez n8n, l'outil d'automatisation open-source self-hosted. Installation, workflows, nodes IA, webhooks et exemples concrets pour développeurs.
n8n : guide complet pour automatiser vos workflows en 2026
Connecter des dizaines d'outils entre eux sans écrire de glue code prend du temps — et les solutions SaaS comme Zapier ou Make facturent à la tâche. n8n propose une alternative : un moteur d'automatisation visuel, open-source, que vous pouvez héberger vous-même. Il gère les webhooks, les appels API, les bases de données et les modèles LLM dans une interface unique. Ce guide couvre l'installation, les concepts clés, les nodes IA et un exemple de pipeline complet reproductible.
Résumé rapide
| Critère | n8n | Zapier | Make (Integromat) |
|---|---|---|---|
| Modèle | Open-source / self-hosted | SaaS uniquement | SaaS uniquement |
| Prix | Gratuit (self-hosted) | À partir de 20 $/mois | À partir de 9 $/mois |
| Nodes IA natifs | Oui (OpenAI, Anthropic, Hugging Face) | Limité | Limité |
| Webhooks entrants | Oui, natifs | Oui | Oui |
| Hébergement custom | Oui (Docker, npm, VPS) | Non | Non |
| Code custom | Oui (JS, Python) | Non | Limité |
Pour qui ? n8n convient aux développeurs et builders qui veulent contrôler leurs données, personnaliser leurs workflows et intégrer des LLM sans dépendre d'un SaaS fermé.
Ce qu'est n8n
n8n (prononcé "nodemation") est un moteur d'automatisation de workflows basé sur des graphes de nodes. Chaque node représente une action — lire un email, appeler une API, transformer des données, interroger un LLM — et les nodes se connectent par des arêtes qui transmettent des données JSON.
Open-source et self-hosted
n8n est publié sous licence Sustainable Use License, une variante propriétaire de source disponible. Concrètement : gratuit pour un usage personnel ou interne, payant si vous revendez n8n comme service. Le code source est accessible et auditable.
Cela le distingue de Zapier et Make, qui sont des SaaS fermés sans option d'hébergement. Avec n8n self-hosted :
- Vos données ne quittent pas vos serveurs
- Pas de limite de tâches mensuelles
- Vous pouvez modifier l'outil ou l'intégrer dans votre infrastructure
Place dans l'écosystème
n8n se positionne entre deux familles d'outils :
- Outils no-code purs (Zapier, Make) : simples mais fermés, limités pour les cas complexes
- Frameworks d'agents IA (LangGraph, CrewAI, OpenClaw) : puissants mais nécessitent du code Python
n8n occupe le milieu : interface visuelle pour les workflows répétitifs, avec des sorties de code (Node.js, Python) et des nodes IA pour les cas hybrides. Il ne remplace pas un framework d'agent IA pour des tâches de raisonnement complexe, mais il excelle pour orchestrer des pipelines de données entre services.
Quand choisir n8n plutôt qu'un framework agent :
- Vous connectez des APIs tierces sans logique de raisonnement complexe
- Vous voulez une interface de monitoring visuelle
- Votre équipe inclut des non-développeurs qui doivent modifier les workflows
- Vous avez besoin d'héberger sur votre infrastructure
Installation et concepts clés
Installation
Option 1 — Docker (recommandé pour la production)
docker run -it --rm \
--name n8n \
-p 5678:5678 \
-v ~/.n8n:/home/node/.n8n \
docker.n8n.io/n8nio/n8n
L'interface est disponible sur http://localhost:5678. Le volume -v ~/.n8n:/home/node/.n8n persiste les workflows et les credentials entre les redémarrages.
Pour la production avec PostgreSQL :
# docker-compose.yml
version: '3.8'
services:
n8n:
image: docker.n8n.io/n8nio/n8n
restart: always
ports:
- "5678:5678"
environment:
- DB_TYPE=postgresdb
- DB_POSTGRESDB_HOST=postgres
- DB_POSTGRESDB_DATABASE=n8n
- DB_POSTGRESDB_USER=n8n
- DB_POSTGRESDB_PASSWORD=motdepasse
- N8N_ENCRYPTION_KEY=une-clé-aléatoire-32-chars
- WEBHOOK_URL=https://votre-domaine.com
volumes:
- n8n_data:/home/node/.n8n
depends_on:
- postgres
postgres:
image: postgres:15
environment:
- POSTGRES_DB=n8n
- POSTGRES_USER=n8n
- POSTGRES_PASSWORD=motdepasse
volumes:
- postgres_data:/var/lib/postgresql/data
volumes:
n8n_data:
postgres_data:
Option 2 — npm (développement local)
npm install -g n8n
n8n start
Option 3 — n8n Cloud
Disponible sur n8n.io/cloud à partir de 20 $/mois. Sans installation, mais avec les limites du SaaS.
Concepts clés
Workflows
Un workflow est un graphe orienté de nodes. Il démarre par un trigger (déclencheur) et enchaîne des nodes jusqu'au dernier. Chaque exécution est loguée et rejouable depuis l'interface.
Les workflows peuvent être :
- Actifs : s'exécutent automatiquement sur déclenchement (webhook, planning, événement)
- Inactifs : exécution manuelle uniquement (utile pour les tests)
Nodes
Un node est l'unité de base. n8n en propose plus de 400, groupés en catégories :
- Triggers : Webhook, Schedule, Email Trigger, RSS Feed Trigger
- Actions : HTTP Request, Send Email, Slack, Google Sheets, PostgreSQL
- Transformation : Set, IF, Switch, Merge, Code (JS ou Python)
- IA : OpenAI, Anthropic, Hugging Face, AI Agent, Text Classifier
Chaque node reçoit un tableau d'objets JSON en entrée et produit un tableau d'objets JSON en sortie. Les données circulent en mode "item" : si un node reçoit 5 items, il les traite un par un (ou en batch selon la configuration).
Triggers
Le trigger définit quand le workflow s'exécute :
| Trigger | Cas d'usage |
|---|---|
| Webhook | Recevoir des données d'un service tiers (GitHub, Stripe, Typeform) |
| Schedule | Exécution périodique (cron) |
| Email Trigger (IMAP) | Déclencher sur réception d'email |
| RSS Feed Trigger | Surveiller un flux RSS |
| Webhook manuel | Tester un workflow avec des données custom |
Credentials
Les credentials sont des configurations d'authentification stockées chiffrées dans n8n (OAuth2, API Key, HTTP Basic Auth). Ils sont séparés des workflows, ce qui permet de les réutiliser dans plusieurs workflows sans les dupliquer.
Pour ajouter des credentials : Settings > Credentials > Add Credential.
Nodes IA
n8n intègre nativement plusieurs nodes pour les LLM :
OpenAI Chat Model — interroge GPT-4o ou GPT-4-turbo avec un prompt structuré.
AI Agent — node autonome qui utilise un LLM + des outils (recherche web, calculateur, HTTP Request) pour compléter une tâche en plusieurs étapes. Similaire à un agent ReAct.
Text Classifier — classifie un texte dans des catégories définies, sans code.
HTTP Request — node générique pour appeler n'importe quelle API, y compris des LLM locaux (Ollama, LM Studio).
Exemple de configuration du node OpenAI Chat Model :
{
"model": "gpt-4o",
"messages": [
{
"role": "system",
"content": "Tu es un assistant qui résume des articles en 3 bullet points."
},
{
"role": "user",
"content": "={{ $json.articleContent }}"
}
],
"temperature": 0.3
}
La syntaxe ={{ $json.champ }} permet d'injecter des données du node précédent directement dans les paramètres.
Webhooks
n8n génère automatiquement des URLs de webhook pour chaque workflow avec un Webhook Trigger. Deux modes :
- Test :
http://localhost:5678/webhook-test/[id]— actif uniquement pendant les tests manuels - Production :
http://localhost:5678/webhook/[id]— actif quand le workflow est activé
Pour exposer un webhook en production sur un domaine public, vous devez soit utiliser n8n Cloud, soit configurer un reverse proxy (Nginx, Caddy) avec un domaine et un certificat TLS.
Exemple de configuration Nginx minimale :
server {
listen 443 ssl;
server_name n8n.votredomaine.com;
location / {
proxy_pass http://localhost:5678;
proxy_http_version 1.1;
proxy_set_header Upgrade $http_upgrade;
proxy_set_header Connection 'upgrade';
proxy_set_header Host $host;
}
}
Exemple concret : pipeline de veille IA vers Slack
Objectif : surveiller un flux RSS de veille IA, résumer chaque article avec GPT-4o, et envoyer les résumés dans un canal Slack — automatiquement, toutes les heures.
Structure du workflow
RSS Feed Trigger → HTTP Request (fetch article) → Code (extract content) → OpenAI Chat Model (summarize) → IF (filter short summaries) → Slack
Étapes détaillées
1. RSS Feed Trigger
- Node :
RSS Feed Trigger - URL :
https://news.google.com/rss/search?q=agent+IA&hl=fr&gl=FR - Polling interval : 1 heure
- Chaque item produit :
{ title, link, pubDate, contentSnippet }
2. HTTP Request — fetch article
- Node :
HTTP Request - Method : GET
- URL :
={{ $json.link }} - Response format :
text
3. Code — extract content
- Node :
Code(JavaScript)
const text = $input.item.json.data;
// Extraction basique du contenu visible (sans HTML)
const content = text
.replace(/<script[\s\S]*?<\/script>/gi, '')
.replace(/<style[\s\S]*?<\/style>/gi, '')
.replace(/<[^>]+>/g, ' ')
.replace(/\s+/g, ' ')
.trim()
.substring(0, 3000); // limite pour le contexte LLM
return { json: { content, title: $input.item.json.title, link: $input.item.json.link } };
4. OpenAI Chat Model
- Model :
gpt-4o - System prompt :
Résume cet article en 3 bullet points en français. Sois factuel et concis. - User message :
={{ $json.title }}\n\n{{ $json.content }} - Temperature : 0.2
5. IF — filter
- Condition :
{{ $json.message.content.length }} > 100 - Évite d'envoyer des résumés vides si le fetch a échoué
6. Slack
- Node :
Slack - Operation :
Send a message - Channel :
#veille-ia - Text :
*{{ $json.title }}*
{{ $json.message.content }}
Source : {{ $json.link }}
Ce workflow tourne sans supervision. En cas d'erreur sur un article (site derrière un paywall, timeout), n8n log l'erreur et continue sur l'item suivant.
Bonnes pratiques
Sécurité des credentials
Ne stockez jamais de clés API directement dans les paramètres des nodes — utilisez toujours les Credentials de n8n. Ils sont chiffrés avec la variable N8N_ENCRYPTION_KEY. Si cette clé est perdue, les credentials sont irrécupérables : sauvegardez-la.
En production, désactivez l'accès public à l'interface n8n (port 5678) via un pare-feu. Exposez uniquement les webhooks via le reverse proxy.
Erreurs fréquentes
- Oublier d'activer le workflow : un workflow inactif ne répond pas aux webhooks en production. Vérifiez le toggle en haut à droite de l'éditeur.
- Confondre les URLs de test et production : le webhook de test (
/webhook-test/) ne fonctionne que pendant le mode test manuel. Utilisez/webhook/en production. - Ne pas gérer les erreurs : ajoutez un node
Error Triggerpour capturer les exécutions échouées et notifier par email ou Slack. - Contexte LLM trop long : limitez le texte envoyé aux LLM (< 4000 tokens pour GPT-4o en mode économique) pour éviter des latences et des coûts inutiles.
Limites du no-code
n8n gère bien les workflows linéaires ou branchés. En revanche, il atteint ses limites pour :
- Les agents IA avec raisonnement multi-étapes non déterministe (préférez un framework agent)
- Le traitement de volumes massifs de données (préférez un ETL dédié comme dbt ou Airbyte)
- Les workflows avec logique métier complexe nécessitant du code Python avancé
Coûts cloud vs self-hosted
Un serveur VPS 2 vCPU / 4 Go RAM suffit pour la majorité des usages n8n (< 1000 exécutions/jour). Comptez 5-15 $/mois selon le provider. n8n Cloud commence à 20 $/mois avec des limites d'exécutions. Au-delà de 500 exécutions/jour, le self-hosted devient presque toujours moins cher.
Questions fréquentes
n8n est-il vraiment gratuit ?
n8n est gratuit en self-hosted pour un usage personnel ou interne à une entreprise. La licence Sustainable Use interdit uniquement de revendre n8n comme service à des tiers. n8n Cloud (hébergé par n8n.io) est payant à partir de 20 $/mois. Il n'y a pas de limite de workflows ou d'exécutions en self-hosted.
Quelle est la différence entre n8n et Make (Integromat) ?
La différence principale est l'hébergement : n8n peut être installé sur votre serveur, Make est un SaaS uniquement. n8n propose aussi des nodes IA natifs plus avancés et la possibilité d'écrire du code custom (JavaScript, Python) dans les workflows. Make est généralement plus simple à prendre en main pour des non-développeurs.
n8n supporte-t-il les agents IA ?
Oui. n8n dispose d'un node AI Agent qui implémente un agent ReAct : le LLM peut appeler des outils (recherche web, HTTP Request, calculateur) en plusieurs étapes pour compléter une tâche. C'est adapté aux tâches d'automatisation hybrides. Pour des agents IA complexes avec mémoire longue et raisonnement avancé, un framework dédié reste plus adapté.
n8n fonctionne-t-il avec des LLM locaux ?
Oui. Le node HTTP Request permet d'appeler n'importe quelle API locale, y compris Ollama (http://localhost:11434/api/chat) ou LM Studio. n8n dispose aussi d'une intégration native avec Hugging Face pour les modèles hébergés.
Comment sécuriser n8n en production ?
Trois mesures essentielles : (1) exposez uniquement les webhooks via un reverse proxy HTTPS, bloquez le port 5678 au niveau du pare-feu ; (2) définissez N8N_BASIC_AUTH_ACTIVE=true avec un mot de passe fort ou utilisez SSO ; (3) générez une N8N_ENCRYPTION_KEY robuste (32 caractères minimum) et sauvegardez-la hors du serveur.
Articles liés
n8n est un excellent point d'entrée pour l'automatisation visuelle, mais il s'intègre dans un écosystème plus large. Si vous cherchez à aller plus loin avec des agents IA autonomes ou à comparer n8n avec d'autres outils d'automatisation, ces ressources complètent ce guide.
Restez informé sur les agents IA
Nouveaux tutoriels, comparatifs et guides pratiques directement dans votre boîte mail.
