← Zurück zur Übersicht KI-Agenten selbst bauen: n8n & Ollama als Power-Duo für dein Home-Lab

KI-Agenten selbst bauen: n8n & Ollama als Power-Duo für dein Home-Lab

[WERBUNG: CONTENT OBEN]

KI-Agenten selbst bauen: n8n & Ollama als Power-Duo

Automatisierung ist im Jahr 2026 nicht mehr nur "wenn A passiert, mache B". Mit der Integration von Large Language Models (LLMs) können wir jetzt intelligente Agenten bauen, die Entscheidungen treffen, Texte verstehen und komplexe Aufgaben autonom lösen.

Der Goldstandard für solche Workflows ist n8n – ein extrem mächtiges Tool, das ähnlich wie Zapier funktioniert, aber auf deinem eigenen Server läuft. In dieser Anleitung zeige ich dir, wie du n8n-Agenten mit deinem lokalen Ollama-Server verheiratest.


Warum n8n + Lokale KI?

  • Kosten: Keine Pay-per-Token Gebühren wie bei OpenAI oder Anthropic.
  • Sicherheit: Deine Firmendaten oder privaten Dokumente verlassen niemals deinen Server.
  • Flexibilität: n8n bietet über 400 Integrationen (Email, Slack, Datenbanken), die du jetzt mit "Gehirn" ausstatten kannst.

Hands-On: Die Infrastruktur

Wir setzen auf das bewährte Infrastructure as Code Prinzip mit Docker Compose.

1. Das Projektverzeichnis anlegen

Wie immer gilt: Sauberkeit geht vor. Wir isolieren unser Projekt in einem eigenen Ordner.

mkdir ~/n8n-ai-stack && cd ~/n8n-ai-stack

2. Docker Compose Konfiguration

Erstelle die Datei ~/n8n-ai-stack/docker-compose.yaml. In diesem Setup integrieren wir n8n und setzen voraus, dass Ollama bereits auf deinem Host (oder einem anderen Container) läuft.

version: '3.8'

services:
  n8n:
    image: n8nio/n8n:latest
    container_name: n8n_ai
    restart: always
    ports:
      - "5678:5678"
    environment:
      - N8N_HOST=localhost
      - N8N_PORT=5678
      - N8N_PROTOCOL=http
      - NODE_ENV=production
      - WEBHOOK_URL=http://localhost:5678/
      - GENERIC_TIMEZONE=Europe/Berlin
    volumes:
      - n8n_data:/home/node/.n8n

volumes:
  n8n_data:

3. Starten

Führe den Startbefehl im Ordner ~/n8n-ai-stack aus:

docker compose up -d

[PLATZHALTER: Screenshot des Docker-Dashboards mit dem laufenden n8n Container]

Den ersten KI-Agenten konfigurieren

Sobald n8n unter http://localhost:5678 erreichbar ist, kannst du deinen ersten Agenten bauen.

Verbindung zu Ollama herstellen

  1. Erstelle einen neuen Workflow.
  2. Füge den Node "AI Agent" hinzu.
  3. Wähle als Model-Provider "Ollama Chat Model".
  4. Gib als Base URL http://host.docker.internal:11434 an (wenn Ollama auf dem Host läuft).
  5. Wähle dein installiertes Modell (z.B. llama3.2).

[PLATZHALTER: Screenshot der n8n Agent Konfiguration mit dem Ollama Node]

Proof of Concept: Der Email-Zusammenfassungs-Agent

Lass uns einen echten Mehrwert schaffen: Ein Agent, der eingehende E-Mails liest, ihre Wichtigkeit bewertet und eine kurze Zusammenfassung an Slack schickt.

  1. Trigger: "Email Read" Node (IMAP).
  2. KI-Agent: Analysiert den Body der Mail: "Ist diese Mail dringend? Fasse sie in 2 Sätzen zusammen."
  3. Action: "Slack" Node (oder Discord), um die Info an dich zu senden.

Verifikations-Schritt: Schicke dir selbst eine Test-Email mit einem langen Text. Prüfe in n8n, ob der "Execution Log" grün wird und ob die Zusammenfassung in deinem Messenger erscheint.


Fazit: Das Ende von manuellem Copypaste

Mit n8n und Ollama hast du die volle Kontrolle über deine Automatisierungen. Du brauchst keine teuren Abos mehr, um intelligente Workflows zu betreiben.

Nächste Schritte:

  • Local RAG: Nutze den "Vector Store" Node in n8n, um deine eigenen PDFs als Wissensdatenbank für den Agenten zu nutzen.
  • Web Scraping: Lass die KI für dich Nachrichten-Websites scannen und nur das Relevante filtern.

Viel Erfolg beim Bauen deines digitalen Assistenten!

[WERBUNG: CONTENT UNTEN]