Google Gemma 4: vier Open-Modelle unter Apache 2.0
Google veröffentlicht Gemma 4 mit vier Modellen bis 31B, multimodal und 256K Kontext. Apache-2.0-Lizenz macht sie für Unternehmen attraktiver denn je.
Google hat am 2. April 2026 die Gemma-4-Familie veröffentlicht: vier Open-Weight-Modelle unter Apache-2.0-Lizenz, die deutlich mehr kommerzielle Freiheit bieten als frühere Gemma-Versionen. Für Teams, die auf lokale KI-Deployments setzen, ist das ein relevantes Update.
Die vier Modelle
| Modell | Typ | Besonderheit |
|---|---|---|
| Gemma 4 2B | Dense | Für On-Device und Edge |
| Gemma 4 4B | Dense | Ausgewogen, lokal nutzbar |
| Gemma 4 26B | MoE | Effizient durch Mixture-of-Experts |
| Gemma 4 31B | Dense | Platz 3 weltweite Open-Model-Rangliste |
Das 31B-Modell unterstützt über 140 Sprachen inklusive Deutsch, verarbeitet multimodale Eingaben (Text, Bild, Video, Audio) und bietet ein Kontextfenster von bis zu 256.000 Token.
Verfügbar auf Hugging Face, Kaggle, Ollama und Google AI Studio. Quelle: Google Blog: Gemma 4, The Register
Apache 2.0 als Unterschied zu Gemma 3
Frühere Gemma-Modelle hatten eine eigene Nutzungslizenz mit Einschränkungen für kommerzielle Anwendungen. Apache 2.0 erlaubt die uneingeschränkte kommerzielle Nutzung, Modifikation und Weitergabe. Das macht Gemma 4 für Unternehmensdeployments wesentlich unkomplizierter.
Warum das für DACH-Teams relevant ist
Gemma 4 läuft lokal, braucht keine Cloud-Anbindung und verarbeitet keine Daten extern. Für DSGVO-konforme Deployments, interne Tools oder Anwendungen mit sensiblen Daten ist das ein praktikabler Weg ohne Abhängigkeit von OpenAI- oder Anthropic-APIs.
Das 2B- und 4B-Modell laufen auf Consumer-Hardware, das 26B-MoE-Modell ist durch seine Mixture-of-Experts-Architektur trotz der Parameterzahl ressourcenschonender als ein vergleichbares Dense-Modell.
Wer Gemma 4 lokal ausprobieren will, kann es direkt über Ollama starten:
ollama run gemma4:31b