n8n KI-Agenten: Intelligente Workflows, die denken und handeln
Workflow-Automatisierung war schon immer darauf ausgerichtet, Tools zu verbinden und Daten zu verschieben. Doch das Aufkommen großer Sprachmodelle hat grundlegend verändert, was „Automatisierung" bedeutet. Anstatt Informationen nur von A nach B weiterzuleiten, können deine Workflows jetzt denken, entscheiden und handeln — ganz ohne eine einzige Zeile Code.
Der KI-Agenten-Node von n8n macht dieses Potenzial Wirklichkeit. Dieser Leitfaden erklärt, was n8n-KI-Agenten sind, wie sie funktionieren und wie du praktische Agenten für echte Geschäftsprobleme baust.
Was ist ein n8n-KI-Agent?
Ein klassischer n8n-Workflow folgt einem festen Pfad: Auslöser → Transformation → Aktion. Ein KI-Agent ist anders. Er empfängt ein Ziel, entscheidet, welche Tools er einsetzen soll, führt diese aus, bewertet die Ergebnisse und wiederholt den Prozess, bis das Ziel erreicht ist.
Dieses Prinzip nennt sich ReAct-Muster (Reason + Act), und es ermöglicht deinem Workflow, dynamische, offene Aufgaben zu bewältigen, die keine feste Regel voraussehen könnte.
In n8n besteht ein KI-Agent aus vier Teilen:
- Sprachmodell — Das Gehirn. GPT-4o, Claude 3.5, Gemini oder ein beliebiges OpenAI-kompatibles Modell.
- Tools — Was der Agent tun kann: Im Web suchen, eine Datenbank abfragen, eine E-Mail senden, eine API aufrufen.
- Speicher — Was der Agent sich merkt: Gesprächsverlauf, vergangene Aktionen, Kontext aus früheren Sitzungen.
- System-Prompt — Anweisungen, die die Rolle, den Ton und die Grenzen des Agenten definieren.
Deinen ersten KI-Agenten einrichten
Schritt 1: Den AI-Agent-Node hinzufügen
Füge in einem beliebigen n8n-Workflow den AI-Agent-Node hinzu. Er ist der Orchestrator — er führt Aufgaben nicht selbst aus, sondern entscheidet, welches Tool wann aufgerufen wird.
Schritt 2: Ein Sprachmodell verbinden
Verbinde einen OpenAI-Chat-Model-Node (oder Anthropic, Google Gemini, Azure OpenAI) mit dem „Model"-Eingang des AI-Agent-Nodes. Konfiguriere deinen API-Schlüssel in den n8n-Anmeldedaten und wähle dein bevorzugtes Modell.
Für die meisten Produktionsagenten bieten gpt-4o oder claude-3-5-sonnet die beste Balance aus Reasoning-Qualität und Kosten. Für hochvolumige, weniger anspruchsvolle Aufgaben ist gpt-4o-mini eine kostengünstige Alternative.
Schritt 3: Tools hinzufügen
Tools sind die Hände des Agenten. Verbinde beliebige n8n-Nodes mit dem „Tools"-Eingang des AI-Agent-Nodes:
- HTTP-Request — Beliebige externe REST-APIs aufrufen
- Code-Node — JavaScript oder Python für Berechnungen oder Datentransformationen ausführen
- n8n-Workflow-Tool — Einen anderen Workflow als Unteraufgabe auslösen
- Vektorspeicher-Retrieval — In der eigenen Wissensdatenbank suchen
- SerpAPI / Brave Search — Live-Websuche
- Gmail / Outlook — E-Mails lesen und senden
- Notion / Airtable — Strukturierte Daten lesen und schreiben
Jedes verbundene Tool steht dem Agenten zur Verfügung, wenn er es benötigt.
Schritt 4: Speicher hinzufügen
Ohne Speicher beginnt jede Agenten-Interaktion bei null. Der Window-Buffer-Memory-Node speichert die letzten N Nachrichten und gibt dem Agenten Gesprächskontext. Für langfristigen Speicher über mehrere Sitzungen hinweg nutze den Postgres-Chat-Memory- oder Redis-Chat-Memory-Node, um den Verlauf in einer Datenbank zu speichern.
Schritt 5: Einen System-Prompt schreiben
Der System-Prompt definiert, wer dein Agent ist. Sei präzise:
Du bist ein Kundensupport-Agent für Tropical Media, eine Webagentur für Entwicklung und Automatisierung.
Dein Ziel ist es, Nutzern bei Fragen zu unseren Leistungen, Preisen und Projektzeitplänen zu helfen.
Wenn ein Nutzer etwas außerhalb deiner Wissensdatenbank fragt, nutze das Tool search_knowledge_base, bevor du antwortest.
Antworte immer in einem freundlichen, professionellen Ton. Erfinde niemals Informationen.
Ein klarer System-Prompt verbessert die Zuverlässigkeit des Agenten erheblich.
Praxisbeispiel 1: Kundensupport-Agent
Ziel: Eingehende Supportfragen rund um die Uhr beantworten, komplexe Fälle an einen Menschen eskalieren.
Workflow-Struktur:
- Auslöser: Webhook (Nachricht vom Website-Chat-Widget oder Slack empfangen)
- AI-Agent-Node mit:
- Modell: GPT-4o
- Speicher: Postgres-Chat-Memory (nach Benutzer-ID geordnet)
- Tools: Vektorspeicher (FAQ-Wissensdatenbank), HTTP-Request (Bestellstatus prüfen), Gmail (Eskalations-E-Mail senden)
- If-Node: Wenn die Antwort des Agenten
[ESKALIEREN]enthält, zu menschlichem Handoff weiterleiten - Antwort: Antwort per Webhook oder Slack zurücksenden
Der Agent durchsucht zuerst deine Wissensdatenbank, prüft bei Bedarf Live-Bestelldaten und kennzeichnet Fälle, die er nicht mit ausreichender Sicherheit lösen kann.
Praxisbeispiel 2: Autonomer Recherche-Assistent
Ziel: Einen Firmennamen eingeben, das Unternehmen online recherchieren lassen und einen strukturierten Bericht erstellen.
Workflow-Struktur:
- Auslöser: Neuer Datensatz in Airtable (Vertrieb fügt einen Lead hinzu)
- AI-Agent-Node mit:
- Modell: Claude 3.5 Sonnet
- Tools: Brave Search (Websuche), HTTP-Request (LinkedIn-API), Code-Node (Ausgabe formatieren)
- System-Prompt: „Recherchiere das angegebene Unternehmen. Suche immer nach: Gründungsjahr, Produktangebot, Hauptwettbewerbern, aktuellen Nachrichten und geschätzter Teamgröße. Gib einen strukturierten JSON-Bericht zurück."
- Airtable-Node: Den Recherchebericht in den Lead-Datensatz zurückschreiben
- Slack-Node: Den Vertriebsmitarbeiter benachrichtigen, dass der Lead angereichert wurde
Was früher 30 Minuten manuelle Recherche pro Lead erforderte, dauert jetzt 90 Sekunden und läuft vollautomatisch.
Praxisbeispiel 3: Interner IT-Helpdesk-Bot
Ziel: Routinemäßige IT-Anfragen (Passwort-Resets, Software-Zugriff, VPN-Probleme) ohne menschliches Eingreifen bearbeiten.
Workflow-Struktur:
- Auslöser: Slack-Bot-Erwähnung (@helpdesk)
- AI-Agent-Node mit:
- Speicher: Window-Buffer-Memory
- Tools: HTTP-Request (Active-Directory-API), n8n-Workflow-Tool (Onboarding-Workflow auslösen), Notion (IT-Runbooks-Wissensdatenbank)
- System-Prompt: „Du bist ein IT-Helpdesk-Assistent. Du kannst Passwörter zurücksetzen, Software-Zugänge gewähren und häufige VPN-Probleme lösen, indem du den Runbooks in deiner Wissensdatenbank folgst."
- Slack-Node: Im Thread antworten
Routineanfragen werden sofort gelöst. Die Jira/ServiceNow-Ticket-Warteschlange schrumpft erheblich.
Tipps für zuverlässige KI-Agenten
Tool-Grenzen klar definieren
Der Agent entscheidet, welche Tools er anhand ihrer Namen und Beschreibungen aufruft. Schreibe klare, spezifische Beschreibungen für jeden Tool-Node. „Interne Wissensdatenbank nach Produkt-FAQs und Preisen durchsuchen" ist weitaus besser als „suchen".
Den Scope des Agenten einschränken
Ein Agent, der alles tun kann, neigt dazu, unvorhersehbare Dinge zu tun. Schränke das Toolset auf das ein, was für die Aufgabe wirklich benötigt wird. Das Prinzip der minimalen Rechtevergabe gilt auch für KI-Agenten.
Ein maximales Iterations-Limit setzen
Der AI-Agent-Node von n8n hat ein konfigurierbares Iterations-Limit. Setze es auf einen vernünftigen Wert (5–10 für die meisten Aufgaben), um endlose Schleifen zu verhindern, die dein API-Budget erschöpfen.
Alles protokollieren
Verbinde am Ende einen Schritt, der jeden Agenten-Lauf protokolliert — Eingabe, Ausgabe, verwendete Tools, Iterations-Anzahl — in eine Datenbank oder Google-Tabelle. Diese Daten sind unschätzbar wertvoll für die Fehlersuche und die schrittweise Verbesserung deiner Prompts.
Strukturierte Ausgabe verwenden
Für Agenten, die Daten in nachgelagerte Systeme einspeisen, weise das Modell an, JSON zurückzugeben, und verwende einen JSON-Parse- oder Code-Node, um die Ausgabe zu validieren, bevor sie die Datenbank berührt.
Kostenüberlegungen
KI-Agenten verbrauchen mehr Tokens als statische LLM-Aufrufe, weil sie über mehrere Schritte hinweg reasoning betreiben. Ein einzelner Agent-Lauf kann 3–8 LLM-Aufrufe umfassen. Bei aktuellen Preisen:
- GPT-4o: ~5 $/1M Eingabe-Tokens, ~15 $/1M Ausgabe-Tokens
- Claude 3.5 Sonnet: ~3 $/1M Eingabe, ~15 $/1M Ausgabe
- GPT-4o-mini: ~0,15 $/1M Eingabe, ~0,60 $/1M Ausgabe
Für hochvolumige Anwendungsfälle solltest du den durchschnittlichen Token-Verbrauch deines Agenten pro Lauf ermitteln und entsprechend budgetieren. Oft kann der Wechsel zu einem kleineren Modell für die „Tool-Auswahl"-Schritte und einem größeren Modell nur für die abschließende Synthese die Kosten um 40–60 % senken.
Wann KI-Agenten nicht eingesetzt werden sollten
KI-Agenten eignen sich hervorragend für offene Aufgaben mit variablen Eingaben. Sie sind überdimensioniert für:
- Feste Datenpipelines — Wenn der Pfad immer gleich ist, nutze einen Standard-n8n-Workflow.
- Hochfrequente, einfache Aufgaben — Einfache Transformationen sollten nicht über ein LLM geroutet werden.
- Compliance-kritische Prozesse — Wenn jeder Schritt mit einer bekannten Logik auditierbar sein muss, ist ein deterministischer Workflow sicherer.
Setze den Agenten ein, wo Reasoning echten Mehrwert bringt. Halte den Rest so einfach, schnell und kostengünstig wie möglich.
Die Zukunft ist agentisch
Der Wandel von statischen Workflows zu agentenbasierter Automatisierung ist kein Hype — es ist eine echte Veränderung dessen, was möglich ist. Aufgaben, die bisher menschliches Urteilsvermögen, kontextuelles Denken und mehrstufige Recherche erforderten, können jetzt mit dem AI-Agent-Node von n8n vollständig automatisiert werden.
Beginne mit einem klar abgegrenzten Agenten, miss seine Leistung und baue von dort aus aus. Die Teams, die diese Fähigkeit jetzt aufbauen, werden einen erheblichen Vorteil haben, wenn die KI-Werkzeuge weiter reifen.
Bereit, deinen ersten n8n-KI-Agenten zu bauen? Nimm Kontakt mit Tropical Media auf — wir entwerfen, bauen und warten produktionsreife Automatisierungssysteme für Unternehmen, die schneller vorankommen wollen.
25 reale OpenClaw-Anwendungsfälle (und wie Menschen sie tatsächlich nutzen)
Von morgendlichen Briefings bis zu Preisverhandlungen beim Autokauf — 25 konkrete Wege, wie Menschen OpenClaw im Jahr 2026 einsetzen, plus die Sicherheitsrisiken, die jeder Home-User und Mac-mini-Besitzer kennen muss.
Warum n8n die beste Automatisierungsplattform für wachsende Unternehmen ist
Ein detaillierter Blick darauf, warum sich n8n als ideale Workflow-Automatisierungsplattform für Unternehmen auszeichnet, die Kontrolle, Flexibilität und Kosteneffizienz wünschen.