Google Gemma 4: vier Open-Modelle unter Apache 2.0

Google veröffentlicht Gemma 4 mit vier Modellen bis 31B, multimodal und 256K Kontext. Apache-2.0-Lizenz macht sie für Unternehmen attraktiver denn je.

5. April 20262 Min. Lesezeit

Google hat am 2. April 2026 die Gemma-4-Familie veröffentlicht: vier Open-Weight-Modelle unter Apache-2.0-Lizenz, die deutlich mehr kommerzielle Freiheit bieten als frühere Gemma-Versionen. Für Teams, die auf lokale KI-Deployments setzen, ist das ein relevantes Update.

Die vier Modelle

ModellTypBesonderheit
Gemma 4 2BDenseFür On-Device und Edge
Gemma 4 4BDenseAusgewogen, lokal nutzbar
Gemma 4 26BMoEEffizient durch Mixture-of-Experts
Gemma 4 31BDensePlatz 3 weltweite Open-Model-Rangliste

Das 31B-Modell unterstützt über 140 Sprachen inklusive Deutsch, verarbeitet multimodale Eingaben (Text, Bild, Video, Audio) und bietet ein Kontextfenster von bis zu 256.000 Token.

Verfügbar auf Hugging Face, Kaggle, Ollama und Google AI Studio. Quelle: Google Blog: Gemma 4, The Register

Apache 2.0 als Unterschied zu Gemma 3

Frühere Gemma-Modelle hatten eine eigene Nutzungslizenz mit Einschränkungen für kommerzielle Anwendungen. Apache 2.0 erlaubt die uneingeschränkte kommerzielle Nutzung, Modifikation und Weitergabe. Das macht Gemma 4 für Unternehmensdeployments wesentlich unkomplizierter.

Warum das für DACH-Teams relevant ist

Gemma 4 läuft lokal, braucht keine Cloud-Anbindung und verarbeitet keine Daten extern. Für DSGVO-konforme Deployments, interne Tools oder Anwendungen mit sensiblen Daten ist das ein praktikabler Weg ohne Abhängigkeit von OpenAI- oder Anthropic-APIs.

Das 2B- und 4B-Modell laufen auf Consumer-Hardware, das 26B-MoE-Modell ist durch seine Mixture-of-Experts-Architektur trotz der Parameterzahl ressourcenschonender als ein vergleichbares Dense-Modell.

Wer Gemma 4 lokal ausprobieren will, kann es direkt über Ollama starten:

ollama run gemma4:31b