KI-Agenten selbst bauen: n8n & Ollama als Power-Duo
Automatisierung ist im Jahr 2026 nicht mehr nur "wenn A passiert, mache B". Mit der Integration von Large Language Models (LLMs) können wir jetzt intelligente Agenten bauen, die Entscheidungen treffen, Texte verstehen und komplexe Aufgaben autonom lösen.
Der Goldstandard für solche Workflows ist n8n – ein extrem mächtiges Tool, das ähnlich wie Zapier funktioniert, aber auf deinem eigenen Server läuft. In dieser Anleitung zeige ich dir, wie du n8n-Agenten mit deinem lokalen Ollama-Server verheiratest.
Warum n8n + Lokale KI?
- Kosten: Keine Pay-per-Token Gebühren wie bei OpenAI oder Anthropic.
- Sicherheit: Deine Firmendaten oder privaten Dokumente verlassen niemals deinen Server.
- Flexibilität: n8n bietet über 400 Integrationen (Email, Slack, Datenbanken), die du jetzt mit "Gehirn" ausstatten kannst.
Hands-On: Die Infrastruktur
Wir setzen auf das bewährte Infrastructure as Code Prinzip mit Docker Compose.
1. Das Projektverzeichnis anlegen
Wie immer gilt: Sauberkeit geht vor. Wir isolieren unser Projekt in einem eigenen Ordner.
mkdir ~/n8n-ai-stack && cd ~/n8n-ai-stack
2. Docker Compose Konfiguration
Erstelle die Datei ~/n8n-ai-stack/docker-compose.yaml. In diesem Setup integrieren wir n8n und setzen voraus, dass Ollama bereits auf deinem Host (oder einem anderen Container) läuft.
version: '3.8'
services:
n8n:
image: n8nio/n8n:latest
container_name: n8n_ai
restart: always
ports:
- "5678:5678"
environment:
- N8N_HOST=localhost
- N8N_PORT=5678
- N8N_PROTOCOL=http
- NODE_ENV=production
- WEBHOOK_URL=http://localhost:5678/
- GENERIC_TIMEZONE=Europe/Berlin
volumes:
- n8n_data:/home/node/.n8n
volumes:
n8n_data:
3. Starten
Führe den Startbefehl im Ordner ~/n8n-ai-stack aus:
docker compose up -d
Den ersten KI-Agenten konfigurieren
Sobald n8n unter http://localhost:5678 erreichbar ist, kannst du deinen ersten Agenten bauen.
Verbindung zu Ollama herstellen
- Erstelle einen neuen Workflow.
- Füge den Node "AI Agent" hinzu.
- Wähle als Model-Provider "Ollama Chat Model".
- Gib als Base URL
http://host.docker.internal:11434an (wenn Ollama auf dem Host läuft). - Wähle dein installiertes Modell (z.B.
llama3.2).
Proof of Concept: Der Email-Zusammenfassungs-Agent
Lass uns einen echten Mehrwert schaffen: Ein Agent, der eingehende E-Mails liest, ihre Wichtigkeit bewertet und eine kurze Zusammenfassung an Slack schickt.
- Trigger: "Email Read" Node (IMAP).
- KI-Agent: Analysiert den Body der Mail: "Ist diese Mail dringend? Fasse sie in 2 Sätzen zusammen."
- Action: "Slack" Node (oder Discord), um die Info an dich zu senden.
Verifikations-Schritt: Schicke dir selbst eine Test-Email mit einem langen Text. Prüfe in n8n, ob der "Execution Log" grün wird und ob die Zusammenfassung in deinem Messenger erscheint.
Fazit: Das Ende von manuellem Copypaste
Mit n8n und Ollama hast du die volle Kontrolle über deine Automatisierungen. Du brauchst keine teuren Abos mehr, um intelligente Workflows zu betreiben.
Nächste Schritte:
- Local RAG: Nutze den "Vector Store" Node in n8n, um deine eigenen PDFs als Wissensdatenbank für den Agenten zu nutzen.
- Web Scraping: Lass die KI für dich Nachrichten-Websites scannen und nur das Relevante filtern.
Viel Erfolg beim Bauen deines digitalen Assistenten!
Login