- Veröffentlicht am
- • ChatGPT-Biografie
Ollama: Prompting für lokale LLMs - Warum ChatGPT-Gewohnheiten scheitern
- Autor
-
-
- Benutzer
- tmueller
- Beiträge dieses Autors
- Beiträge dieses Autors
-
Warum gutes Prompting mehr bringt als ein größeres Modell
Wer von ChatGPT zu Ollama wechselt, macht fast immer denselben Fehler: Er nutzt dieselben Prompts – und wundert sich über schlechtere Ergebnisse.
Das liegt nicht am Modell. Es liegt am falschen Erwartungsmodell.
Lokale LLMs funktionieren anders. Und wenn du das akzeptierst, kannst du mit demselben Modell dramatisch bessere Antworten erzielen.
Warum lokale Modelle anders reagieren
ChatGPT ist kein „reines Modell“. Es ist ein Produkt.
Im Hintergrund passieren dort Dinge, die du bei Ollama nicht bekommst:
- automatische System-Prompts
- Sicherheits- & Qualitätslayer
- Antwort-Nachbearbeitung
- implizite Rollenlogik
- aggressive Kontextoptimierung
Ein lokales LLM über Ollama dagegen:
- antwortet roh
- nimmt Prompts wörtlich
- halluziniert schneller
- verzeiht Unschärfe kaum
👉 Das Modell ist ehrlicher – aber auch gnadenloser.
Deshalb gilt:
Schlechte Prompts werden lokal nicht „gerettet“.
System-Prompts mit Ollama: Dein größter Hebel
Der wichtigste Unterschied zu ChatGPT: Bei Ollama musst du explizit sagen, was das Modell ist und tun soll.
Schlechter Prompt
Erklär mir Ollama.
Besserer Prompt
Du bist ein technischer Autor mit Fokus auf lokale KI-Systeme. Erkläre Ollama sachlich, strukturiert und ohne Marketing. Zielgruppe: technisch versierte Einsteiger.
Das ist bereits ein System-Prompt, auch wenn du ihn einfach an den Anfang schreibst.
👉 Faustregel:
Sag dem Modell, wer es ist, bevor du sagst, was es tun soll.
Rollen sauber definieren
Lokale Modelle profitieren extrem von klaren Rollen.
Beispiele für Rollen
- „Du bist ein erfahrener Backend-Entwickler.“
- „Du bist ein nüchterner IT-Architekt.“
- „Du bist ein technischer Redakteur.“
Was das bringt:
- konsistenter Stil
- weniger Abschweifungen
- passendere Wortwahl
- stabilere Antworten
❌ Ohne Rolle → erratisches Verhalten ✅ Mit Rolle → reproduzierbare Ergebnisse
Struktur schlägt Kreativität
ChatGPT kommt oft mit Chaos klar. Lokale LLMs nicht.
Schlechter Prompt
Schreib was zu RAG.
Strukturierter Prompt
Erkläre RAG in genau diesen Abschnitten:
- Kurzdefinition (max. 3 Sätze)
- Technischer Ablauf
- Typische Fehler
- Ein Praxisbeispiel
👉 Struktur ist kein Korsett – sie ist eine Denkhilfe für das Modell.
Output-Formate explizit vorgeben
Einer der größten Qualitätsbooster.
Lokale LLMs lieben klare Zielformate.
Beispiele
- „Antworte als Markdown“
- „Gib das Ergebnis als JSON aus“
- „Nutze Bulletpoints, keine Fließtexte“
- „Maximal 200 Wörter“
Beispiel: JSON-Output
Antworte ausschließlich als JSON mit den Feldern
title,summary,pros,cons.
Ohne diese Vorgabe:
- schwammige Texte
- inkonsistente Antworten
Mit dieser Vorgabe:
- maschinenlesbar
- reproduzierbar
- perfekt für Automatisierung & RAG
Typische Prompt-Anti-Patterns (bitte vermeiden)
❌ „Mach das besser“
Zu unkonkret. Das Modell weiß nicht wie.
✅ Stattdessen:
Optimiere den Text auf Klarheit, kürzere Sätze und sachlichen Ton.
❌ „Du weißt ja, was ich meine“
Nein. Weiß es nicht.
Lokale LLMs haben kein implizites Weltwissen über dich.
❌ Monster-Prompts ohne Struktur
Lange Textwüsten ohne Absätze = schlechter Output.
✅ Besser:
- Absätze
- Aufzählungen
- klare Reihenfolge
❌ Kontext vergessen
Lokale Modelle erinnern sich nur an das, was du ihnen gibst.
Wenn etwas wichtig ist → wiederholen.
Der wichtigste Merksatz
Bei lokalen LLMs ersetzt gutes Prompting oft ein doppelt so großes Modell.
Ein sauberes 7B-Modell mit klarem Prompt schlägt regelmäßig ein schlecht gepromptetes 13B oder 34B.
Fazit: Prompting ist kein Beiwerk, sondern Kernkompetenz
Wenn du Ollama nutzt, bist du nicht nur Nutzer – du bist Regisseur.
- Du definierst die Rolle
- die Struktur
- das Ziel
- und das Format
Machst du das sauber, bekommst du:
- bessere Antworten
- stabilere Ergebnisse
- weniger Halluzinationen
- mehr Kontrolle
👉 Gleiches Modell. Deutlich bessere Qualität.