gpt-oss-120B

OpenAIs erstes Open-Weight-Modell seit GPT-2 (120B).

Intelligence
33/100
Kontext
131k Tokens
Status
Aktiv
Reasoning
ja
Release
5. Aug. 2025
Lizenz
proprietary
Positionierung
allrounder

Verfügbar in 1 App

Wo finde ich gpt-oss-120B?

  • CLI
    Claude Code
    lokal
    viaOllama

    Nur mit Workstation/H100 sinnvoll.

Anbieter & Preise

Wo läuft gpt-oss-120B?

AnbieterRegionDatenschutzInput $/1MOutput $/1MBlended $/1M
OllamaownUnbedenklichgratis
GroqUSPrüfung nötig$0.26/1M

Fähigkeiten

Was kann das Modell?

Tool-Use· toolStructured Output· toolExtended Thinking· reasoning

Varianten · Open-Weight-Sizes & Quantisierungen

Was läuft wo lokal?

Parameter-GrößeQuantisierungRessourceQualitätHinweis
120BFP16~240 GB VRAM (Multi-GPU / Server)Baseline (FP16)Volle Präzision, nur Workstation/H100-Cluster
120BQ8_0~130 GBpraktisch verlustfrei2× A100 80GB oder vergleichbar
120BMXFP4~65 GB (nativ von OpenAI released)minimal (offizielle Quant)Läuft auf H100/H200 80GB
120BQ4_K_M~75 GBgering bis mittelllama.cpp-Community-Quant
120BQ3_K_M~58 GBmittelGünstigste Variante für Single-GPU (~80GB)