Claude Code mit lokalen Modellen (Ollama und LM Studio)

Veröffentlicht: 5.2.2025

So richtest du Claude Code ein, damit es lokale Modelle ueber Ollama oder LM Studio nutzt.

Wenn du Claude Code nicht mit der Anthropic-Cloud, sondern mit einem lokalen Modell nutzen willst, funktioniert das ueber eine Anthropic-kompatible API.

Sowohl Ollama als auch LM Studio bieten diese Kompatibilitaet. Du musst in Claude Code nur die Ziel-URL und ein Token setzen.

Voraussetzungen

Die zwei wichtigsten Variablen

VariableBedeutung
ANTHROPIC_BASE_URLBasis-URL des lokalen Anthropic-kompatiblen Endpunkts
ANTHROPIC_AUTH_TOKENPlatzhalter-Token oder echtes Token (wenn Auth aktiviert ist)

Option A: Claude Code mit Ollama

1) Ollama starten und Modell bereitstellen

ollama serve
ollama pull qwen3-coder

2) Claude Code auf Ollama zeigen

export ANTHROPIC_BASE_URL=http://localhost:11434
export ANTHROPIC_AUTH_TOKEN=ollama

3) Claude Code mit lokalem Modell starten

claude --model qwen3-coder

Alternativ z. B.:

claude --model gpt-oss:20b

Option B: Claude Code mit LM Studio

1) LM Studio Server starten

In LM Studio den Local Server starten oder per CLI:

lms server start --port 1234

2) Claude Code auf LM Studio zeigen

export ANTHROPIC_BASE_URL=http://localhost:1234
export ANTHROPIC_AUTH_TOKEN=lmstudio

Wenn in LM Studio “Require Authentication” aktiv ist, setze statt lmstudio dein echtes LM-Studio-API-Token.

3) Claude Code mit lokalem Modell starten

claude --model openai/gpt-oss-20b

Hinweis: In LM Studio musst du den exakten Modell-Identifier verwenden, den der Server anbietet.

Dauerhaft konfigurieren

Damit du die Variablen nicht jedes Mal neu setzen musst, in ~/.zshrc oder ~/.bashrc eintragen:

# Beispiel: Ollama
export ANTHROPIC_BASE_URL=http://localhost:11434
export ANTHROPIC_AUTH_TOKEN=ollama

Dann Shell neu laden:

source ~/.zshrc

Kurzer Funktionstest

  1. Server pruefen (ollama serve oder LM Studio Server aktiv)
  2. claude --model <dein-modell> starten
  3. Kurzprompt eingeben, z. B. “Erstelle eine Python-Funktion fuer FizzBuzz”

Wenn eine Antwort kommt, ist Claude Code korrekt mit deinem lokalen Modell verbunden.

Troubleshooting