- Veröffentlicht am
- • Open Source Projekte
Ollama: Sprachmodelle lokal ausführen – einfach und flexibel
- Autor
-
-
- Benutzer
- tmueller
- Beiträge dieses Autors
- Beiträge dieses Autors
-

Ollama ist ein modernes Tool, mit dem sich große Sprachmodelle (LLMs) wie LLaMA, Mistral oder Code Llama lokal auf dem eigenen Rechner ausführen lassen – ganz ohne Cloud, API-Gebühren oder Abhängigkeit von Drittanbietern. Damit bietet Ollama eine einfache Möglichkeit, generative KI-Anwendungen selbst zu hosten, offline zu betreiben und in eigene Projekte zu integrieren.
Einführung
Mit dem Aufkommen leistungsfähiger Sprachmodelle wie ChatGPT, Claude oder Mistral ist das Interesse an KI-gestützten Anwendungen stark gestiegen. Die meisten dieser Modelle laufen jedoch ausschließlich in der Cloud – was Datenschutz, Kontrolle und Flexibilität einschränkt.
Ollama will das ändern. Es stellt eine lokale Laufzeitumgebung zur Verfügung, mit der man LLMs direkt auf dem eigenen Rechner ausführen kann – sowohl auf macOS als auch auf Linux (und experimentell auf Windows via WSL).
Funktionen von Ollama
Ollama bietet eine Vielzahl nützlicher Funktionen für Entwickler, Forscher und KI-Enthusiasten:
- Lokale Ausführung von LLMs (kein Internet erforderlich nach dem Modell-Download)
- Einfacher Modellimport über Befehle wie
ollama run llama3
- Unterstützung zahlreicher Modelle (z. B. LLaMA 2/3, Mistral, Code Llama, Phi, Gemma, usw.)
- Container-basierter Modellaufbau mit eigener
Modelfile
-Syntax (vergleichbar mit Dockerfiles) - REST-API zur Integration in eigene Anwendungen
- GPU-Beschleunigung (sofern verfügbar) *- Offline-Nutzung möglich
Installation
Ollama kann ganz einfach über das Terminal installiert werden:
macOS
brew install ollama
Linux (Debian/Ubuntu)
curl -fsSL https://ollama.com/install.sh | sh
Nach der Installation kann der Dienst gestartet werden:
ollama serve
Oder im Hintergrund:
ollama run llama3
Modelle ausführen
Ein Modell wird mit einem einfachen Befehl gestartet:
ollama run llama3
Wenn das Modell noch nicht vorhanden ist, lädt Ollama es automatisch herunter. Danach ist es lokal verfügbar und kann beliebig oft verwendet werden – auch ohne Internetverbindung.
Eigene Modelle bauen
Mit einer eigenen Modelfile
kann man benutzerdefinierte Modelle erstellen:
FROM llama3
SYSTEM Du bist ein hilfsbereiter Assistent, der auf deutsch antwortet.
Dann:
ollama create meinmodell -f Modelfile
ollama run meinmodell
Diese Möglichkeit erlaubt es, spezialisierte oder feinjustierte Varianten eines Basismodells zu erstellen.
REST-API
Ollama stellt eine HTTP-API bereit, über die man Anfragen stellen kann – ideal für die Integration in eigene Tools, Bots oder Web-Interfaces.
Beispiel-Request:
POST /api/generate
{
"model": "llama3",
"prompt": "Was ist der Sinn des Lebens?"
}
Antwort:
{
"response": "42"
}
Die API läuft standardmäßig auf http://localhost:11434
.
Vergleich zu anderen Lösungen
Kriterium | Ollama | OpenAI API | LM Studio |
---|---|---|---|
Lokale Ausführung | Ja | Nein | Ja |
Internet erforderlich | Nur beim ersten Download | Ja | Nein |
Eigene Modelle bauen | Ja (Modelfile ) |
Nur via Fine-Tuning | Eingeschränkt |
REST-API integriert | Ja | Ja | Nein |
Datenschutzkontrolle | Vollständig lokal | Eingeschränkt | Lokal |
Einsatzzwecke
Ollama eignet sich hervorragend für:
- Lokale KI-Chatbots ohne Cloud-Anbindung
- Forschung und Tests mit Open-Source-Modellen
- Entwicklungsumgebungen mit REST-Integration
- Anwendungen mit hohen Datenschutzanforderungen
- Offline-Nutzung (z. B. in abgeschotteten Netzwerken)
Fazit
Ollama ist ein leistungsfähiges, modernes Tool, das die Nutzung großer Sprachmodelle lokal auf dem eigenen Rechner ermöglicht. Die einfache Bedienung, flexible Modellverwaltung und die integrierte API machen es zur idealen Lösung für alle, die generative KI unabhängig von Cloud-Anbietern einsetzen möchten.
Weitere Informationen: https://ollama.com https://github.com/jmorganca/ollama