open-how2 – Entdecke. Verstehe. Nutze.
Veröffentlicht am
ChatGPT-Biografie

Ollama: Prompting für lokale LLMs - Warum ChatGPT-Gewohnheiten scheitern

Autor
Ollama: Prompting für lokale LLMs - Warum ChatGPT-Gewohnheiten scheitern

Warum gutes Prompting mehr bringt als ein größeres Modell

Wer von ChatGPT zu Ollama wechselt, macht fast immer denselben Fehler: Er nutzt dieselben Prompts – und wundert sich über schlechtere Ergebnisse.

Das liegt nicht am Modell. Es liegt am falschen Erwartungsmodell.

Lokale LLMs funktionieren anders. Und wenn du das akzeptierst, kannst du mit demselben Modell dramatisch bessere Antworten erzielen.

Warum lokale Modelle anders reagieren

ChatGPT ist kein „reines Modell“. Es ist ein Produkt.

Im Hintergrund passieren dort Dinge, die du bei Ollama nicht bekommst:

  • automatische System-Prompts
  • Sicherheits- & Qualitätslayer
  • Antwort-Nachbearbeitung
  • implizite Rollenlogik
  • aggressive Kontextoptimierung

Ein lokales LLM über Ollama dagegen:

  • antwortet roh
  • nimmt Prompts wörtlich
  • halluziniert schneller
  • verzeiht Unschärfe kaum

👉 Das Modell ist ehrlicher – aber auch gnadenloser.

Deshalb gilt:

Schlechte Prompts werden lokal nicht „gerettet“.

System-Prompts mit Ollama: Dein größter Hebel

Der wichtigste Unterschied zu ChatGPT: Bei Ollama musst du explizit sagen, was das Modell ist und tun soll.

Schlechter Prompt

Erklär mir Ollama.

Besserer Prompt

Du bist ein technischer Autor mit Fokus auf lokale KI-Systeme. Erkläre Ollama sachlich, strukturiert und ohne Marketing. Zielgruppe: technisch versierte Einsteiger.

Das ist bereits ein System-Prompt, auch wenn du ihn einfach an den Anfang schreibst.

👉 Faustregel:

Sag dem Modell, wer es ist, bevor du sagst, was es tun soll.

Rollen sauber definieren

Lokale Modelle profitieren extrem von klaren Rollen.

Beispiele für Rollen

  • „Du bist ein erfahrener Backend-Entwickler.“
  • „Du bist ein nüchterner IT-Architekt.“
  • „Du bist ein technischer Redakteur.“

Was das bringt:

  • konsistenter Stil
  • weniger Abschweifungen
  • passendere Wortwahl
  • stabilere Antworten

❌ Ohne Rolle → erratisches Verhalten ✅ Mit Rolle → reproduzierbare Ergebnisse

Struktur schlägt Kreativität

ChatGPT kommt oft mit Chaos klar. Lokale LLMs nicht.

Schlechter Prompt

Schreib was zu RAG.

Strukturierter Prompt

Erkläre RAG in genau diesen Abschnitten:

  1. Kurzdefinition (max. 3 Sätze)
  2. Technischer Ablauf
  3. Typische Fehler
  4. Ein Praxisbeispiel

👉 Struktur ist kein Korsett – sie ist eine Denkhilfe für das Modell.

Output-Formate explizit vorgeben

Einer der größten Qualitätsbooster.

Lokale LLMs lieben klare Zielformate.

Beispiele

  • „Antworte als Markdown“
  • „Gib das Ergebnis als JSON aus“
  • „Nutze Bulletpoints, keine Fließtexte“
  • „Maximal 200 Wörter“

Beispiel: JSON-Output

Antworte ausschließlich als JSON mit den Feldern title, summary, pros, cons.

Ohne diese Vorgabe:

  • schwammige Texte
  • inkonsistente Antworten

Mit dieser Vorgabe:

  • maschinenlesbar
  • reproduzierbar
  • perfekt für Automatisierung & RAG

Typische Prompt-Anti-Patterns (bitte vermeiden)

❌ „Mach das besser“

Zu unkonkret. Das Modell weiß nicht wie.

✅ Stattdessen:

Optimiere den Text auf Klarheit, kürzere Sätze und sachlichen Ton.

❌ „Du weißt ja, was ich meine“

Nein. Weiß es nicht.

Lokale LLMs haben kein implizites Weltwissen über dich.

❌ Monster-Prompts ohne Struktur

Lange Textwüsten ohne Absätze = schlechter Output.

✅ Besser:

  • Absätze
  • Aufzählungen
  • klare Reihenfolge

❌ Kontext vergessen

Lokale Modelle erinnern sich nur an das, was du ihnen gibst.

Wenn etwas wichtig ist → wiederholen.

Der wichtigste Merksatz

Bei lokalen LLMs ersetzt gutes Prompting oft ein doppelt so großes Modell.

Ein sauberes 7B-Modell mit klarem Prompt schlägt regelmäßig ein schlecht gepromptetes 13B oder 34B.

Fazit: Prompting ist kein Beiwerk, sondern Kernkompetenz

Wenn du Ollama nutzt, bist du nicht nur Nutzer – du bist Regisseur.

  • Du definierst die Rolle
  • die Struktur
  • das Ziel
  • und das Format

Machst du das sauber, bekommst du:

  • bessere Antworten
  • stabilere Ergebnisse
  • weniger Halluzinationen
  • mehr Kontrolle

👉 Gleiches Modell. Deutlich bessere Qualität.