open-how2 – Entdecke. Verstehe. Nutze.
Veröffentlicht am
How2-Host

Open WebUI installieren & einrichten: Lokale KI selbst hosten – Schritt für Schritt

Autor
Open WebUI installieren & einrichten: Lokale KI selbst hosten – Schritt für Schritt

Installation & Setup: Open WebUI selbst hosten

Nachdem wir Architektur und Zusammenspiel der Komponenten kennen, wird es nun praktisch. In diesem Teil zeigen wir Schritt für Schritt, wie Open WebUI selbst gehostet wird – ohne Cloud-Abhängigkeit und ohne Docker. Ziel ist ein stabiler, reproduzierbarer Start ohne Frust.

Voraussetzungen: Was du wirklich brauchst

Open WebUI ist bewusst schlank gehalten. Für den Betrieb reichen wenige, klar definierte Grundlagen:

🔹 Betriebssystem

  • Ein aktuelles Linux-System (z. B. Debian, Ubuntu)
  • Root- oder sudo-Zugriff
  • Netzwerkzugang zum lokalen Modell-Backend

🔹 Python-Umgebung

  • Python ≥ 3.10
  • pip und venv
  • Keine exotischen Abhängigkeiten

🔹 Lokale Modell-Runtime

  • Ollama
  • Mindestens ein installiertes Modell (z. B. LLaMA, Mistral)

Wichtig: Open WebUI bringt kein eigenes Modell mit. Ohne Ollama (oder ein anderes kompatibles Backend) bleibt die Oberfläche leer.

Installation ohne Docker (empfohlener Weg)

Der Native-Install ist ideal, wenn du:

  • volle Kontrolle willst
  • bestehende Serverstrukturen nutzt
  • Logs, Prozesse und Updates selbst steuern möchtest

1. Virtuelle Python-Umgebung anlegen

python3 -m venv /opt/openwebui
source /opt/openwebui/bin/activate

2. Open WebUI installieren

pip install open-webui

3. Ollama sicherstellen

ollama --version
ollama pull mistral

Ollama läuft standardmäßig unter:

http://localhost:11434

Erststart von Open WebUI

4. Open WebUI starten

open-webui serve

Standardmäßig erreichbar unter:

http://localhost:8080

Beim ersten Start passiert automatisch:

  • Initialisierung der Datenbank
  • Anlegen der Grundstruktur
  • Einrichtung des Admin-Zugangs

Der erste Benutzer wird automatisch Administrator.

Grundeinstellungen nach dem ersten Login

Nach dem Login solltest du direkt ein paar Dinge prüfen:

🔹 Modell-Anbindung

  • Einstellungen → Modelle
  • Prüfen, ob Ollama erkannt wird
  • Gewünschtes Default-Modell auswählen

🔹 System-Prompt

  • Globalen System-Prompt definieren
  • Einheitliche Tonalität & Regeln festlegen

🔹 Benutzer & Sicherheit

  • Weitere Benutzer anlegen
  • Admin-Zugänge begrenzen
  • Zugriff ggf. über Reverse Proxy absichern

Optional: Warum (und wann) Docker trotzdem Sinn macht

Ohne Docker Mit Docker
Volle Kontrolle Schneller Start
Bessere Debugbarkeit Einfache Updates
Ideal für Produktivsysteme Gut für Tests
Systemnah Abhängig vom Container

Für Lern- und Testzwecke ist Docker bequem. Für langfristigen, kontrollierten Betrieb ist der Native-Install meist die bessere Wahl.

Typische Fehlerquellen – und wie du sie vermeidest

❌ Kein Modell sichtbar

Ursache: Ollama läuft nicht oder falsche API-Adresse Lösung:

  • Ollama starten
  • Port 11434 prüfen

❌ Open WebUI startet, aber antwortet nicht

Ursache: Modell nicht geladen oder falsches Default-Modell Lösung:

  • Modell manuell testen (ollama run mistral)
  • Modell in Open WebUI auswählen

❌ Performance-Probleme

Ursache: Zu großes Modell für die Hardware Lösung:

  • Kleineres Modell wählen
  • RAM & CPU-Auslastung prüfen

❌ Zugriff nur lokal möglich

Ursache: Bindung an localhost Lösung:

  • Reverse Proxy (z. B. Nginx)
  • Firewall-Regeln anpassen

Sauber starten statt später flicken

Die Installation von Open WebUI ist kein Hexenwerk – wenn man die Rollen der Komponenten versteht. Mit:

  • klarer Trennung von UI & Modell
  • sauberer Python-Umgebung
  • bewusstem Verzicht auf unnötige Komplexität

entsteht schnell eine stabile Basis für lokale KI.

Im nächsten Teil geht es weiter mit dem Herzstück im Alltag: Modelle anbinden & steuern – wie du Open WebUI wirklich produktiv nutzt.