open-how2 – Entdecke. Verstehe. Nutze.
Veröffentlicht am
How2-Tipps

Architektur von Open WebUI verstehen: Zusammenspiel von UI, Ollama & KI-Modellen

Autor
Architektur von Open WebUI verstehen: Zusammenspiel von UI, Ollama & KI-Modellen

Wer Open WebUI sinnvoll einsetzen will, sollte nicht nur wissen, was es kann, sondern auch wie es intern arbeitet. Genau hier trennt sich schnell Spielerei von professionellem Einsatz. In diesem Teil legen wir das technische Fundament und schauen uns an, wie Open WebUI, Ollama und weitere Komponenten zusammenspielen.

Wie Open WebUI intern funktioniert

Open WebUI ist bewusst schlank und modular aufgebaut. Es verfolgt keinen „All-in-one“-Ansatz, sondern setzt auf eine klare Trennung von Verantwortlichkeiten.

Vereinfacht besteht die Architektur aus vier Ebenen:

  1. Frontend (Web UI) Die Benutzeroberfläche im Browser. Sie kümmert sich ausschließlich um:
  • Darstellung von Chats
  • Eingabe von Prompts
  • Anzeige von Antworten
  • Nutzerinteraktion
  1. Backend / API-Layer Das Herzstück von Open WebUI. Hier werden:
  • Anfragen entgegengenommen
  • Nutzer, Sessions und Kontexte verwaltet
  • Requests an KI-Backends weitergeleitet
  • Antworten aufbereitet zurückgegeben
  1. Model Runtime (z. B. Ollama) Die eigentliche KI läuft außerhalb von Open WebUI. Open WebUI spricht sie nur über APIs an.

  2. Datenhaltung Chats, Nutzerinformationen und optional hochgeladene Dokumente werden persistent gespeichert.

Diese Architektur macht Open WebUI flexibel, austauschbar und erweiterbar – ein entscheidender Vorteil gegenüber monolithischen Cloud-Lösungen.

Die Rolle von Ollama

Ollama übernimmt eine zentrale, aber klar abgegrenzte Aufgabe: Es stellt lokale KI-Modelle als API bereit.

Wichtig ist dabei:

  • Ollama ist kein UI
  • Ollama speichert keine Chatlogik
  • Ollama kennt keine Benutzer

Es kümmert sich ausschließlich um:

  • Laden von Modellen (z. B. LLaMA, Mistral)
  • Ausführen von Inferenz
  • Bereitstellung einer HTTP-API

Open WebUI fungiert somit als Client von Ollama. Das bedeutet: Du kannst Ollama theoretisch jederzeit austauschen, erweitern oder parallel betreiben – solange die API erreichbar ist.

Diese Trennung sorgt für:

  • klare Verantwortlichkeiten
  • bessere Wartbarkeit
  • einfaches Skalieren einzelner Komponenten

API-Flow & Request-Handling

Ein typischer Request in Open WebUI läuft folgendermaßen ab:

  1. Benutzereingabe im Browser Der Nutzer schreibt eine Nachricht in das Chatfenster.

  2. Request an Open WebUI Backend Die Eingabe wird an das Backend gesendet – inklusive:

  • Nutzer-ID
  • Chat-Kontext
  • System-Prompt
  • Modell-Auswahl
  1. Aufbereitung des Prompts Open WebUI kombiniert:
  • Systemanweisungen
  • vorherige Chatnachrichten
  • aktuelle Nutzereingabe
  1. Weiterleitung an Ollama (oder anderes Backend) Der vollständige Prompt wird per API an Ollama geschickt.

  2. Modellantwort Ollama berechnet die Antwort und sendet sie zurück.

  3. Post-Processing & Speicherung Open WebUI:

  • speichert die Antwort im Chatverlauf
  • sendet sie an das Frontend zurück
  • aktualisiert ggf. Metadaten (Tokens, Zeit, Modell)

Dieses Prinzip ist bewusst API-first umgesetzt. Genau deshalb lässt sich Open WebUI auch problemlos in eigene Tools, Automatisierungen oder bestehende Systeme integrieren.

Stateless UI vs. persistente Daten

Ein häufig missverstandener Punkt ist die Trennung zwischen UI-Zustand und Datenzustand.

Stateless UI

Das Frontend selbst ist weitgehend zustandslos:

  • Beim Neuladen der Seite geht kein Wissen verloren
  • Der Browser hält keine kritischen Informationen
  • Alles Relevante kommt aus dem Backend

Vorteile:

  • Hohe Stabilität
  • Gute Skalierbarkeit
  • Weniger Fehleranfälligkeit

Persistente Daten

Dauerhaft gespeichert werden:

  • Nutzerkonten
  • Chatverläufe
  • System-Prompts
  • ggf. Dokumente für RAG

Diese Daten liegen lokal beim Betreiber von Open WebUI – nicht beim Modellanbieter.

Gerade diese Trennung ist essenziell für:

  • Datenschutz
  • Revisionssicherheit
  • Mehrbenutzerbetrieb
  • spätere Migration oder Erweiterung

Warum diese Architektur so wichtig ist

Die Architektur von Open WebUI ist kein Zufall, sondern eine bewusste Designentscheidung. Sie erlaubt:

  • 🔹 Austausch von Modellen ohne UI-Wechsel
  • 🔹 Integration eigener KI-Backends
  • 🔹 Kombination mit Vektordatenbanken
  • 🔹 Mandanten- und Rollenmodelle
  • 🔹 Betrieb in abgeschotteten Netzen

Damit wird Open WebUI nicht nur zu einem Chat-Frontend, sondern zu einer tragfähigen Plattform für lokale KI.

Ausblick

Nachdem wir nun verstanden haben, wie Open WebUI technisch aufgebaut ist, geht es im nächsten Teil ganz praktisch weiter: Installation & Setup – Open WebUI selbst hosten.

Dort schauen wir uns an, wie aus Architektur echte, lauffähige Systeme werden.