Gemma 4

9B und 27B Open-Weight

Intelligence
39/100
Kontext
256k Tokens
Status
Aktiv
Reasoning
nein
Release
1. Dez. 2025
Lizenz
open_weight
Positionierung
open_small

Verfügbar in 1 App

Wo finde ich Gemma 4?

  • CLI
    Claude Code
    lokal
    viaOllama

    Gemma 4 12B Q4 — mittleres Modell für Laptops.

Anbieter & Preise

Wo läuft Gemma 4?

AnbieterRegionDatenschutzInput $/1MOutput $/1MBlended $/1M
Google Cloud AIUS/EUPrüfung nötiggratis
OllamaownUnbedenklichgratis
LM StudioownUnbedenklichgratis
MLXownUnbedenklichgratis

Varianten · Open-Weight-Sizes & Quantisierungen

Was läuft wo lokal?

Parameter-GrößeQuantisierungRessourceQualitätHinweis
1BFP16~2 GB VRAM / 4 GB RAMBaseline (FP16)Edge/Mobile-Target, Instruction-Tuned
1BQ4_K_M~700 MB / Smartphone-tauglichminimaler QualitätsverlustLlama.cpp / Ollama, sehr schnell
4BFP16~8 GB VRAM / 16 GB RAMBaseline (FP16)M3 MacBook Air tauglich
4BQ8_0~4.5 GBpraktisch verlustfreiGut für Laptops ohne dedizierte GPU
4BQ4_K_M~2.6 GBgeringSmartphones High-End (iPhone 16 Pro, S25)
12BFP16~24 GB VRAMBaseline (FP16)RTX 4090 / M4 Max 36GB
12BQ8_0~13 GBpraktisch verlustfreiRTX 3090 / 4080 tauglich
12BQ4_K_M~7 GBgeringMainstream-Consumer-GPUs (RTX 4060 Ti 16GB)
27BFP16~54 GB VRAMBaseline (FP16)A100/H100 oder Mac Studio M3 Ultra
27BQ8_0~29 GBpraktisch verlustfreiRTX 4090 + Offloading oder M-Pro 32GB+
27BQ4_K_M~16 GBgering bis mittelSingle-GPU (RTX 4090), häufigste lokale Wahl
27BQ3_K_M~12 GBmittelGünstigstes sinnvolles Setup für 27B
31B (MoE)Q4_K_M~18 GB (MoE, nur aktive Experten)geringMoE-Variante aus AA, 31B total / kleiner aktiver Anteil