- Veröffentlicht am
- • How2-Tipps
Architektur von Open WebUI verstehen: Zusammenspiel von UI, Ollama & KI-Modellen
- Autor
-
-
- Benutzer
- tmueller
- Beiträge dieses Autors
- Beiträge dieses Autors
-
Wer Open WebUI sinnvoll einsetzen will, sollte nicht nur wissen, was es kann, sondern auch wie es intern arbeitet. Genau hier trennt sich schnell Spielerei von professionellem Einsatz. In diesem Teil legen wir das technische Fundament und schauen uns an, wie Open WebUI, Ollama und weitere Komponenten zusammenspielen.
Wie Open WebUI intern funktioniert
Open WebUI ist bewusst schlank und modular aufgebaut. Es verfolgt keinen „All-in-one“-Ansatz, sondern setzt auf eine klare Trennung von Verantwortlichkeiten.
Vereinfacht besteht die Architektur aus vier Ebenen:
- Frontend (Web UI) Die Benutzeroberfläche im Browser. Sie kümmert sich ausschließlich um:
- Darstellung von Chats
- Eingabe von Prompts
- Anzeige von Antworten
- Nutzerinteraktion
- Backend / API-Layer Das Herzstück von Open WebUI. Hier werden:
- Anfragen entgegengenommen
- Nutzer, Sessions und Kontexte verwaltet
- Requests an KI-Backends weitergeleitet
- Antworten aufbereitet zurückgegeben
Model Runtime (z. B. Ollama) Die eigentliche KI läuft außerhalb von Open WebUI. Open WebUI spricht sie nur über APIs an.
Datenhaltung Chats, Nutzerinformationen und optional hochgeladene Dokumente werden persistent gespeichert.
Diese Architektur macht Open WebUI flexibel, austauschbar und erweiterbar – ein entscheidender Vorteil gegenüber monolithischen Cloud-Lösungen.
Die Rolle von Ollama
Ollama übernimmt eine zentrale, aber klar abgegrenzte Aufgabe: Es stellt lokale KI-Modelle als API bereit.
Wichtig ist dabei:
- Ollama ist kein UI
- Ollama speichert keine Chatlogik
- Ollama kennt keine Benutzer
Es kümmert sich ausschließlich um:
- Laden von Modellen (z. B. LLaMA, Mistral)
- Ausführen von Inferenz
- Bereitstellung einer HTTP-API
Open WebUI fungiert somit als Client von Ollama. Das bedeutet: Du kannst Ollama theoretisch jederzeit austauschen, erweitern oder parallel betreiben – solange die API erreichbar ist.
Diese Trennung sorgt für:
- klare Verantwortlichkeiten
- bessere Wartbarkeit
- einfaches Skalieren einzelner Komponenten
API-Flow & Request-Handling
Ein typischer Request in Open WebUI läuft folgendermaßen ab:
Benutzereingabe im Browser Der Nutzer schreibt eine Nachricht in das Chatfenster.
Request an Open WebUI Backend Die Eingabe wird an das Backend gesendet – inklusive:
- Nutzer-ID
- Chat-Kontext
- System-Prompt
- Modell-Auswahl
- Aufbereitung des Prompts Open WebUI kombiniert:
- Systemanweisungen
- vorherige Chatnachrichten
- aktuelle Nutzereingabe
Weiterleitung an Ollama (oder anderes Backend) Der vollständige Prompt wird per API an Ollama geschickt.
Modellantwort Ollama berechnet die Antwort und sendet sie zurück.
Post-Processing & Speicherung Open WebUI:
- speichert die Antwort im Chatverlauf
- sendet sie an das Frontend zurück
- aktualisiert ggf. Metadaten (Tokens, Zeit, Modell)
Dieses Prinzip ist bewusst API-first umgesetzt. Genau deshalb lässt sich Open WebUI auch problemlos in eigene Tools, Automatisierungen oder bestehende Systeme integrieren.
Stateless UI vs. persistente Daten
Ein häufig missverstandener Punkt ist die Trennung zwischen UI-Zustand und Datenzustand.
Stateless UI
Das Frontend selbst ist weitgehend zustandslos:
- Beim Neuladen der Seite geht kein Wissen verloren
- Der Browser hält keine kritischen Informationen
- Alles Relevante kommt aus dem Backend
Vorteile:
- Hohe Stabilität
- Gute Skalierbarkeit
- Weniger Fehleranfälligkeit
Persistente Daten
Dauerhaft gespeichert werden:
- Nutzerkonten
- Chatverläufe
- System-Prompts
- ggf. Dokumente für RAG
Diese Daten liegen lokal beim Betreiber von Open WebUI – nicht beim Modellanbieter.
Gerade diese Trennung ist essenziell für:
- Datenschutz
- Revisionssicherheit
- Mehrbenutzerbetrieb
- spätere Migration oder Erweiterung
Warum diese Architektur so wichtig ist
Die Architektur von Open WebUI ist kein Zufall, sondern eine bewusste Designentscheidung. Sie erlaubt:
- 🔹 Austausch von Modellen ohne UI-Wechsel
- 🔹 Integration eigener KI-Backends
- 🔹 Kombination mit Vektordatenbanken
- 🔹 Mandanten- und Rollenmodelle
- 🔹 Betrieb in abgeschotteten Netzen
Damit wird Open WebUI nicht nur zu einem Chat-Frontend, sondern zu einer tragfähigen Plattform für lokale KI.
Ausblick
Nachdem wir nun verstanden haben, wie Open WebUI technisch aufgebaut ist, geht es im nächsten Teil ganz praktisch weiter: Installation & Setup – Open WebUI selbst hosten.
Dort schauen wir uns an, wie aus Architektur echte, lauffähige Systeme werden.