gpt-oss-120B
OpenAIs erstes Open-Weight-Modell seit GPT-2 (120B).
- Intelligence
- 33/100
- Kontext
- 131k Tokens
- Status
- Aktiv
- Reasoning
- ja
- Release
- 5. Aug. 2025
- Lizenz
- proprietary
- Positionierung
- allrounder
Verfügbar in 1 App
Wo finde ich gpt-oss-120B?
- CLIClaude CodelokalviaOllama
Nur mit Workstation/H100 sinnvoll.
Fähigkeiten
Was kann das Modell?
Tool-Use· toolStructured Output· toolExtended Thinking· reasoning
Varianten · Open-Weight-Sizes & Quantisierungen
Was läuft wo lokal?
| Parameter-Größe | Quantisierung | Ressource | Qualität | Hinweis |
|---|---|---|---|---|
| 120B | FP16 | ~240 GB VRAM (Multi-GPU / Server) | Baseline (FP16) | Volle Präzision, nur Workstation/H100-Cluster |
| 120B | Q8_0 | ~130 GB | praktisch verlustfrei | 2× A100 80GB oder vergleichbar |
| 120B | MXFP4 | ~65 GB (nativ von OpenAI released) | minimal (offizielle Quant) | Läuft auf H100/H200 80GB |
| 120B | Q4_K_M | ~75 GB | gering bis mittel | llama.cpp-Community-Quant |
| 120B | Q3_K_M | ~58 GB | mittel | Günstigste Variante für Single-GPU (~80GB) |