Mistral 3
Beschreibung: Französisches Open-Source MoE-Modell mit multimodalen Fähigkeiten
Website: https://mistral.ai
Mistral AI veröffentlichte im Dezember 2025 die Mistral 3 Familie - eine umfassende Sammlung von Open-Source-Modellen unter Apache 2.0 Lizenz.
Modell-Varianten
Ministral 3 Serie:
- Größen: 3B, 8B, 14B Parameter
- Varianten: Base, Instruct, Reasoning
- Besonderheit: Natives Bildverständnis, optimiert für Edge-Geräte
Mistral Large 3:
- Parameter: 675B total (MoE), 41B aktiv
- Ranking: #2 auf LMSYS Arena für Open-Source Non-Reasoning Modelle
- Varianten: Base, Instruct (Reasoning folgt)
Features
- Sprachen: Über 40 Sprachen
- Multimodal: Text und Bilder
- Math: 14B Reasoning Modell erreicht 85% auf AIME ‘25
- Deployment: Optimiert für vLLM und TensorRT-LLM
Verfügbarkeit
Auf Hugging Face, AWS Bedrock, Azure, NVIDIA NIM. Ermöglicht On-Device AI für IoT und Mobile-Apps.
Anwendung
Low-Latency, High-Throughput Szenarien. Volle Anpassung durch Apache 2.0 Lizenz.