Was ist Ollama?
Ollama ist ein Open-Source Tool, das die lokale Ausführung von LLMs so einfach macht wie das Installieren einer App. Ein einziger Befehl — ollama run llama3 — lädt und startet ein KI-Modell auf dem eigenen Rechner. Keine Cloud, kein API-Key, keine Registrierung.
Ollama unterstützt hunderte Modelle: Llama 3, Mistral, Qwen, Gemma, Phi und viele mehr. Für DACH-Unternehmen ist Ollama der einfachste Weg zu DSGVO-konformer KI — weil Daten den eigenen Rechner nie verlassen.
Warum Ollama im RevOps-Stack?
Ollama löst das grösste Problem von KI im DACH-Enterprise: Datenschutz. Sensible CRM-Daten, Vertriebsstrategien, Kundenkommunikation — alles kann lokal mit KI verarbeitet werden, ohne dass ein Byte an externe Server geht. Das ist nicht nur DSGVO-konform, das ist DSGVO-ideal.
In Kombination mit n8n können lokale Ollama-Modelle in Workflows eingebunden werden: Lead-Qualifizierung, E-Mail-Entwürfe, Datenklassifizierung — alles lokal. Der n8n Ollama-Node macht die Integration trivial.
Für wen eignet sich Ollama?
Ollama eignet sich für alle, die KI-Modelle lokal ausprobieren oder produktiv nutzen wollen. Vom Entwickler, der schnell ein Modell testen will, bis zum Enterprise, das DSGVO-konforme KI-Pipelines braucht. Hardware-Anforderung: Mindestens 8 GB RAM für kleine Modelle, 16+ GB für mittlere.