- Veröffentlicht am
- • How2-Host
Open WebUI installieren & einrichten: Lokale KI selbst hosten – Schritt für Schritt
- Autor
-
-
- Benutzer
- tmueller
- Beiträge dieses Autors
- Beiträge dieses Autors
-
Installation & Setup: Open WebUI selbst hosten
Nachdem wir Architektur und Zusammenspiel der Komponenten kennen, wird es nun praktisch. In diesem Teil zeigen wir Schritt für Schritt, wie Open WebUI selbst gehostet wird – ohne Cloud-Abhängigkeit und ohne Docker. Ziel ist ein stabiler, reproduzierbarer Start ohne Frust.
Voraussetzungen: Was du wirklich brauchst
Open WebUI ist bewusst schlank gehalten. Für den Betrieb reichen wenige, klar definierte Grundlagen:
🔹 Betriebssystem
- Ein aktuelles Linux-System (z. B. Debian, Ubuntu)
- Root- oder sudo-Zugriff
- Netzwerkzugang zum lokalen Modell-Backend
🔹 Python-Umgebung
- Python ≥ 3.10
pipundvenv- Keine exotischen Abhängigkeiten
🔹 Lokale Modell-Runtime
- Ollama
- Mindestens ein installiertes Modell (z. B. LLaMA, Mistral)
Wichtig: Open WebUI bringt kein eigenes Modell mit. Ohne Ollama (oder ein anderes kompatibles Backend) bleibt die Oberfläche leer.
Installation ohne Docker (empfohlener Weg)
Der Native-Install ist ideal, wenn du:
- volle Kontrolle willst
- bestehende Serverstrukturen nutzt
- Logs, Prozesse und Updates selbst steuern möchtest
1. Virtuelle Python-Umgebung anlegen
python3 -m venv /opt/openwebui
source /opt/openwebui/bin/activate
2. Open WebUI installieren
pip install open-webui
3. Ollama sicherstellen
ollama --version
ollama pull mistral
Ollama läuft standardmäßig unter:
http://localhost:11434
Erststart von Open WebUI
4. Open WebUI starten
open-webui serve
Standardmäßig erreichbar unter:
http://localhost:8080
Beim ersten Start passiert automatisch:
- Initialisierung der Datenbank
- Anlegen der Grundstruktur
- Einrichtung des Admin-Zugangs
Der erste Benutzer wird automatisch Administrator.
Grundeinstellungen nach dem ersten Login
Nach dem Login solltest du direkt ein paar Dinge prüfen:
🔹 Modell-Anbindung
- Einstellungen → Modelle
- Prüfen, ob Ollama erkannt wird
- Gewünschtes Default-Modell auswählen
🔹 System-Prompt
- Globalen System-Prompt definieren
- Einheitliche Tonalität & Regeln festlegen
🔹 Benutzer & Sicherheit
- Weitere Benutzer anlegen
- Admin-Zugänge begrenzen
- Zugriff ggf. über Reverse Proxy absichern
Optional: Warum (und wann) Docker trotzdem Sinn macht
| Ohne Docker | Mit Docker |
|---|---|
| Volle Kontrolle | Schneller Start |
| Bessere Debugbarkeit | Einfache Updates |
| Ideal für Produktivsysteme | Gut für Tests |
| Systemnah | Abhängig vom Container |
Für Lern- und Testzwecke ist Docker bequem. Für langfristigen, kontrollierten Betrieb ist der Native-Install meist die bessere Wahl.
Typische Fehlerquellen – und wie du sie vermeidest
❌ Kein Modell sichtbar
Ursache: Ollama läuft nicht oder falsche API-Adresse Lösung:
- Ollama starten
- Port 11434 prüfen
❌ Open WebUI startet, aber antwortet nicht
Ursache: Modell nicht geladen oder falsches Default-Modell Lösung:
- Modell manuell testen (
ollama run mistral) - Modell in Open WebUI auswählen
❌ Performance-Probleme
Ursache: Zu großes Modell für die Hardware Lösung:
- Kleineres Modell wählen
- RAM & CPU-Auslastung prüfen
❌ Zugriff nur lokal möglich
Ursache:
Bindung an localhost
Lösung:
- Reverse Proxy (z. B. Nginx)
- Firewall-Regeln anpassen
Sauber starten statt später flicken
Die Installation von Open WebUI ist kein Hexenwerk – wenn man die Rollen der Komponenten versteht. Mit:
- klarer Trennung von UI & Modell
- sauberer Python-Umgebung
- bewusstem Verzicht auf unnötige Komplexität
entsteht schnell eine stabile Basis für lokale KI.
Im nächsten Teil geht es weiter mit dem Herzstück im Alltag: Modelle anbinden & steuern – wie du Open WebUI wirklich produktiv nutzt.