Kategorie: Inferenz-Engine

2 Tools in dieser Kategorie

Ollama

Große Sprachmodelle lokal mit einer einfachen API ausführen

Inferenz-Engine Lokal

llama.cpp

Eine C++-Implementierung von LLaMA für effiziente lokale Inferenz

Inferenz-Engine Lokal