- Veröffentlicht am
- • How2-Tipps
Ollama in Workflows: Automatisierung mit Node-RED & n8n
- Autor
-
-
- Benutzer
- tmueller
- Beiträge dieses Autors
- Beiträge dieses Autors
-
Wenn KI nicht mehr antwortet – sondern arbeitet
Bis hierher war Ollama vor allem eines: ein intelligenter Gesprächspartner. Ab jetzt ändert sich die Perspektive grundlegend.
In diesem Teil machen wir aus Ollama einen Automations-Baustein – integriert in Workflows, gesteuert durch Events, ohne manuelles Prompten.
👉 Ziel: KI arbeitet für dich, nicht mit dir.
Ollama als Automations-Baustein denken
Der wichtigste mentale Wechsel:
Ollama ist kein Chat. Ollama ist eine Funktion.
In Automationen interessiert niemand:
- wie höflich die Antwort klingt
- ob das Modell kreativ ist
- oder ob es „nett formuliert“
Was zählt:
- reproduzierbarer Output
- definierte Formate
- klare Aufgaben
- zuverlässige Laufzeit
Deshalb wird Ollama fast immer so genutzt:
Trigger → Daten → Ollama → Ergebnis → Weiterverarbeitung
Warum Node-RED & n8n perfekt passen
Node-RED
Node-RED ist:
- eventgetrieben
- visuell
- extrem gut für Datenflüsse
Ideal, wenn:
- Sensoren
- Cronjobs
- APIs
- interne Systeme
Daten liefern, die sofort verarbeitet werden sollen.
n8n
n8n ist:
- prozessorientiert
- integrationsstark
- API-lastig
Ideal, wenn:
- externe Services
- Webhooks
- Redaktionsprozesse
- Batch-Jobs
im Spiel sind.
👉 Beide sprechen HTTP → beide sprechen Ollama.
Webhooks: Der Einstiegspunkt
Fast jede Automation beginnt mit einem Webhook.
Beispiele:
- neues Dokument hochgeladen
- neue URL gecrawlt
- neuer Datensatz gespeichert
- Monitoring-Event ausgelöst
Der Webhook:
- empfängt Daten
- formatiert sie
- ruft Ollama per API auf
- verarbeitet das Ergebnis weiter
👉 Ollama ist nie der Startpunkt – sondern immer ein Verarbeitungsschritt.
Batch-Verarbeitung: KI im Hintergrund
Ein besonders mächtiges Szenario.
Statt:
- einen Text einzeln zu analysieren
machst du:
- 100
- 1.000
- 10.000 Datensätze
Typischer Ablauf:
- Loop über Datensätze
- standardisierter Prompt
- strukturierter Output (JSON)
- Speicherung oder Weitergabe
Beispiele:
- Textklassifikation
- Zusammenfassungen
- Bewertung
- Extraktion
👉 Hier glänzen kleinere, stabile Modelle.
Typische Use-Cases aus der Praxis
🔍 SEO
- Meta-Descriptions generieren
- Titelvarianten erstellen
- Content clustern
- Suchintention analysieren
Workflow: Crawler → Text → Ollama → SEO-Datenbank
📰 Redaktion
- Artikel vorstrukturieren
- Teaser erzeugen
- Zusammenfassungen schreiben
- Stilprüfungen durchführen
Workflow: Redaktionssystem → Ollama → CMS
📈 Monitoring
- Log-Einträge bewerten
- Fehlermeldungen klassifizieren
- Prioritäten vergeben
- Anomalien beschreiben
Workflow: Monitoring → Event → Ollama → Alert / Ticket
📊 Analyse
- Freitext-Antworten auswerten
- Feedback clustern
- Themen extrahieren
- Stimmungen erkennen
Workflow: Formulare → Ollama → Auswertung
Worauf es bei Automations-Prompts ankommt
In Workflows gelten andere Regeln als im Chat:
- keine Kreativität
- keine offenen Fragen
- keine Interpretationsspielräume
Stattdessen:
- feste Rollen
- feste Struktur
- festes Output-Format
Beispiel:
Analysiere den Text und gib ausschließlich JSON zurück mit den Feldern
topic,sentiment,confidence.
👉 Maschinen brauchen Vorhersagbarkeit, keine Eloquenz.
Typische Fehler (bitte vermeiden)
❌ Chat-Prompts in Automationen ❌ Fließtext statt JSON ❌ Zu große Modelle ❌ Kein Timeout / keine Fehlerbehandlung
✅ Kleine Modelle ✅ Klare Prompts ✅ Definierte Outputs ✅ Logging & Retry-Logik
Fazit: Ab hier wird KI zur Produktivkraft
Wenn Ollama in Workflows eingebunden ist:
- läuft KI im Hintergrund
- verarbeitet Daten kontinuierlich
- skaliert mit deinem System
- kostet keine Tokens
- bleibt lokal & kontrolliert
Das ist der Punkt, an dem KI aufhört, Spielerei zu sein.
Ollama wird:
- ein Worker
- ein Analysemodul
- ein Textprozessor
- ein Systembaustein