Claude Code mit lokalen Modellen (Ollama und LM Studio)
So richtest du Claude Code ein, damit es lokale Modelle ueber Ollama oder LM Studio nutzt.
Wenn du Claude Code nicht mit der Anthropic-Cloud, sondern mit einem lokalen Modell nutzen willst, funktioniert das ueber eine Anthropic-kompatible API.
Sowohl Ollama als auch LM Studio bieten diese Kompatibilitaet. Du musst in Claude Code nur die Ziel-URL und ein Token setzen.
Voraussetzungen
- Claude Code ist installiert (
claudeim Terminal verfuegbar) - Lokaler Inferenz-Server laeuft:
- Ollama (
http://localhost:11434) - oder LM Studio Server (
http://localhost:1234)
- Ollama (
- Ein Coding-Modell ist lokal verfuegbar
Die zwei wichtigsten Variablen
| Variable | Bedeutung |
|---|---|
ANTHROPIC_BASE_URL | Basis-URL des lokalen Anthropic-kompatiblen Endpunkts |
ANTHROPIC_AUTH_TOKEN | Platzhalter-Token oder echtes Token (wenn Auth aktiviert ist) |
Option A: Claude Code mit Ollama
1) Ollama starten und Modell bereitstellen
ollama serve
ollama pull qwen3-coder
2) Claude Code auf Ollama zeigen
export ANTHROPIC_BASE_URL=http://localhost:11434
export ANTHROPIC_AUTH_TOKEN=ollama
3) Claude Code mit lokalem Modell starten
claude --model qwen3-coder
Alternativ z. B.:
claude --model gpt-oss:20b
Option B: Claude Code mit LM Studio
1) LM Studio Server starten
In LM Studio den Local Server starten oder per CLI:
lms server start --port 1234
2) Claude Code auf LM Studio zeigen
export ANTHROPIC_BASE_URL=http://localhost:1234
export ANTHROPIC_AUTH_TOKEN=lmstudio
Wenn in LM Studio “Require Authentication” aktiv ist, setze statt lmstudio dein echtes LM-Studio-API-Token.
3) Claude Code mit lokalem Modell starten
claude --model openai/gpt-oss-20b
Hinweis: In LM Studio musst du den exakten Modell-Identifier verwenden, den der Server anbietet.
Dauerhaft konfigurieren
Damit du die Variablen nicht jedes Mal neu setzen musst, in ~/.zshrc oder ~/.bashrc eintragen:
# Beispiel: Ollama
export ANTHROPIC_BASE_URL=http://localhost:11434
export ANTHROPIC_AUTH_TOKEN=ollama
Dann Shell neu laden:
source ~/.zshrc
Kurzer Funktionstest
- Server pruefen (
ollama serveoder LM Studio Server aktiv) claude --model <dein-modell>starten- Kurzprompt eingeben, z. B. “Erstelle eine Python-Funktion fuer FizzBuzz”
Wenn eine Antwort kommt, ist Claude Code korrekt mit deinem lokalen Modell verbunden.
Troubleshooting
Connection refused: Server laeuft nicht oder falscher Port.401/403: Bei LM Studio mit aktivierter Auth ein gueltiges Token inANTHROPIC_AUTH_TOKENsetzen.- Modell wird nicht gefunden: Modellname in
claude --model ...stimmt nicht mit lokalem Identifier ueberein. - Schlechte Coding-Qualitaet: Ein staerkeres Modell und groessere Kontextlaenge waehlen (fuer Agent-Workflows oft >= 25k sinnvoll).