open-how2 – Entdecke. Verstehe. Nutze.
Veröffentlicht am
How2-Tipps

Ollama in Workflows: Automatisierung mit Node-RED & n8n

Autor
Ollama in Workflows: Automatisierung mit Node-RED & n8n

Wenn KI nicht mehr antwortet – sondern arbeitet

Bis hierher war Ollama vor allem eines: ein intelligenter Gesprächspartner. Ab jetzt ändert sich die Perspektive grundlegend.

In diesem Teil machen wir aus Ollama einen Automations-Baustein – integriert in Workflows, gesteuert durch Events, ohne manuelles Prompten.

👉 Ziel: KI arbeitet für dich, nicht mit dir.

Ollama als Automations-Baustein denken

Der wichtigste mentale Wechsel:

Ollama ist kein Chat. Ollama ist eine Funktion.

In Automationen interessiert niemand:

  • wie höflich die Antwort klingt
  • ob das Modell kreativ ist
  • oder ob es „nett formuliert“

Was zählt:

  • reproduzierbarer Output
  • definierte Formate
  • klare Aufgaben
  • zuverlässige Laufzeit

Deshalb wird Ollama fast immer so genutzt:

Trigger → Daten → Ollama → Ergebnis → Weiterverarbeitung

Warum Node-RED & n8n perfekt passen

Node-RED

Node-RED ist:

  • eventgetrieben
  • visuell
  • extrem gut für Datenflüsse

Ideal, wenn:

  • Sensoren
  • Cronjobs
  • APIs
  • interne Systeme

Daten liefern, die sofort verarbeitet werden sollen.

n8n

n8n ist:

  • prozessorientiert
  • integrationsstark
  • API-lastig

Ideal, wenn:

  • externe Services
  • Webhooks
  • Redaktionsprozesse
  • Batch-Jobs

im Spiel sind.

👉 Beide sprechen HTTP → beide sprechen Ollama.

Webhooks: Der Einstiegspunkt

Fast jede Automation beginnt mit einem Webhook.

Beispiele:

  • neues Dokument hochgeladen
  • neue URL gecrawlt
  • neuer Datensatz gespeichert
  • Monitoring-Event ausgelöst

Der Webhook:

  1. empfängt Daten
  2. formatiert sie
  3. ruft Ollama per API auf
  4. verarbeitet das Ergebnis weiter

👉 Ollama ist nie der Startpunkt – sondern immer ein Verarbeitungsschritt.

Batch-Verarbeitung: KI im Hintergrund

Ein besonders mächtiges Szenario.

Statt:

  • einen Text einzeln zu analysieren

machst du:

  • 100
  • 1.000
  • 10.000 Datensätze

Typischer Ablauf:

  • Loop über Datensätze
  • standardisierter Prompt
  • strukturierter Output (JSON)
  • Speicherung oder Weitergabe

Beispiele:

  • Textklassifikation
  • Zusammenfassungen
  • Bewertung
  • Extraktion

👉 Hier glänzen kleinere, stabile Modelle.

Typische Use-Cases aus der Praxis

🔍 SEO

  • Meta-Descriptions generieren
  • Titelvarianten erstellen
  • Content clustern
  • Suchintention analysieren

Workflow: Crawler → Text → Ollama → SEO-Datenbank

📰 Redaktion

  • Artikel vorstrukturieren
  • Teaser erzeugen
  • Zusammenfassungen schreiben
  • Stilprüfungen durchführen

Workflow: Redaktionssystem → Ollama → CMS

📈 Monitoring

  • Log-Einträge bewerten
  • Fehlermeldungen klassifizieren
  • Prioritäten vergeben
  • Anomalien beschreiben

Workflow: Monitoring → Event → Ollama → Alert / Ticket

📊 Analyse

  • Freitext-Antworten auswerten
  • Feedback clustern
  • Themen extrahieren
  • Stimmungen erkennen

Workflow: Formulare → Ollama → Auswertung

Worauf es bei Automations-Prompts ankommt

In Workflows gelten andere Regeln als im Chat:

  • keine Kreativität
  • keine offenen Fragen
  • keine Interpretationsspielräume

Stattdessen:

  • feste Rollen
  • feste Struktur
  • festes Output-Format

Beispiel:

Analysiere den Text und gib ausschließlich JSON zurück mit den Feldern topic, sentiment, confidence.

👉 Maschinen brauchen Vorhersagbarkeit, keine Eloquenz.

Typische Fehler (bitte vermeiden)

❌ Chat-Prompts in Automationen ❌ Fließtext statt JSON ❌ Zu große Modelle ❌ Kein Timeout / keine Fehlerbehandlung

✅ Kleine Modelle ✅ Klare Prompts ✅ Definierte Outputs ✅ Logging & Retry-Logik

Fazit: Ab hier wird KI zur Produktivkraft

Wenn Ollama in Workflows eingebunden ist:

  • läuft KI im Hintergrund
  • verarbeitet Daten kontinuierlich
  • skaliert mit deinem System
  • kostet keine Tokens
  • bleibt lokal & kontrolliert

Das ist der Punkt, an dem KI aufhört, Spielerei zu sein.

Ollama wird:

  • ein Worker
  • ein Analysemodul
  • ein Textprozessor
  • ein Systembaustein