KIberblick

DeepSeek v4: Das Open-Source-Modell mit 1 Billion Parametern

DeepSeek v4 soll im April 2026 erscheinen: 1 Billion Parameter, Mixture-of-Experts, multimodal. Was wir wissen und warum es relevant ist.

23. März 20263 Min. Lesezeit

Das nächste große Open-Source-Modell

DeepSeek v4 ist das am meisten erwartete Open-Source-Modell des Jahres. Das chinesische KI-Labor DeepSeek hat ein Modell mit 1 Billion (1 Trillion) Gesamtparametern angekündigt, das als direkte Konkurrenz zu GPT-5 und Claude Opus positioniert wird, bei deutlich geringeren Betriebskosten.

Stand März 2026: DeepSeek v4 ist noch nicht veröffentlicht. Der ursprünglich für Februar 2026 geplante Release wurde mehrfach verschoben. Aktuelle Berichte deuten auf einen Launch im April 2026 hin.

Was wir über die Architektur wissen

DeepSeek v4 nutzt eine Mixture-of-Experts-Architektur (MoE): 1 Billion Gesamtparameter, aber nur rund 37 Milliarden aktive Parameter pro Token. Das ist der gleiche Trick, den auch Mistral nutzt, das Modell ist riesig, aber bei jeder Anfrage wird nur ein kleiner Teil aktiviert. Das hält die Rechenkosten niedrig.

Neue architektonische Features:

  • Manifold-Constrained Hyper-Connections (mHC), eine neue Methode zur Verknüpfung von Experten
  • Engram Conditional Memory, eine Art Langzeitgedächtnis für längere Kontexte
  • Sparse Attention, effizientere Verarbeitung langer Eingaben
  • Multimodal, Text, Bild und Video in einem Modell
  • 1 Million Token Kontextfenster

Zusätzlich soll eine leichtere Variante (v4 Lite) mit rund 200 Milliarden Parametern erscheinen, die auf Consumer-Hardware lauffähig ist.

Was das für den DACH-Markt bedeutet

DeepSeek v4 ist aus mehreren Gründen relevant:

Kostenreduktion. Open-Source-Modelle dieser Größe können die Abhängigkeit von teuren Cloud-APIs (OpenAI, Anthropic) reduzieren. Für Unternehmen mit hohem KI-Volumen kann das erhebliche Einsparungen bedeuten.

DSGVO-Compliance. Ein Open-Source-Modell, das auf eigener Infrastruktur (oder bei europäischen Cloud-Anbietern) betrieben wird, vermeidet Datentransfers an US-amerikanische oder chinesische Server. Allerdings: Die Modellgewichte kommen aus China, das sollte in der Risikobewertung berücksichtigt werden.

Wettbewerb. Mehr Wettbewerb bei Frontier-Modellen drückt die Preise. Auch wer weiterhin Claude oder GPT nutzt, profitiert indirekt.

Für Entwickler: Wenn DeepSeek v4 erscheint, wird es vermutlich schnell über Ollama und vLLM verfügbar sein. Die Lite-Variante könnte mit 32-64 GB RAM lokal lauffähig sein. Für Self-Hosting der vollen Version braucht man GPU-Cluster.

Vorsicht bei der Einordnung

Zwei wichtige Einschränkungen:

  1. Das Modell ist noch nicht veröffentlicht. Alle Informationen basieren auf Ankündigungen und Leaks. Die tatsächliche Performance könnte von den Erwartungen abweichen.
  2. Chinesische Herkunft. Für sicherheitskritische Anwendungen oder regulierte Branchen kann die Herkunft der Modellgewichte ein Faktor sein. Das ist kein grundsätzliches Ausschlusskriterium, aber etwas, das in der eigenen Risikobewertung berücksichtigt werden sollte.

Wir werden DeepSeek v4 nach dem Release ausführlich testen und eine praxisnahe Bewertung liefern.