DeepSeek V4 Pro: Open-Source-Frontier, 1M Kontext, 50–100× günstiger

DeepSeek V4 Pro ist diese Woche als vollständig offenes, MIT-lizenziertes Modell mit einem Kontextfenster von einer Million Token erschienen — zu Listenpreisen, die 50–100× unter denen geschlossener Premium-Alternativen liegen. NISTbs Center for AI Safety and Innovation (CAISI) bestätigte es als das leistungsfähigste chinesische KI-Modell, das bislang evaluiert wurde, ordnete es jedoch in seinen Fähigkeiten etwa acht Monate hinter den führenden US-Modellen ein. Vier unabhängige Intelligence-Quellen stützten diese Einschätzung innerhalb desselben 48-Stunden-Fensters.

Was die Quellen tatsächlich besagen

Das DeepSeek-TUI-Repository, das V4 Pro als primäres Backend nutzt, veröffentlicht die offizielle Preistabelle: 0,435 USD/M Input-Token (Cache Miss) und 0,87 USD/M Output zu einem 75-prozentigen Promotionsrabatt, gültig bis 2026-05-05 15:59 UTC; die regulären Listenpreise liegen bei rund 1,74/3,48 USD pro Million Token. Zum Vergleich: Anthropic Opus wird zu 5/25 USD pro Million Token angeboten — womit V4 Pro zum Standardpreis rund 6× günstiger ist. AI Advances formulierte den Vorteil für praktische Workloads aggressiver: 50–100× niedrigere Kosten als Premium-proprietäre Modelle bei Code-, Agent-Orchestrierungs- und Langdokument-Aufgaben, gestützt auf die MIT-Lizenz und die Hybrid-Attention-Architektur von V4 Pro.

Das Modell ist ein Mixture-of-Experts mit 1,6 Billionen Parametern, ausgelegt für Huawei-Hardware und zugänglich über die DeepSeek-eigene API, NVIDIA NIM, Fireworks sowie selbst gehostetes SGLang. Lev Selectors wöchentlicher KI-Digest klassifizierte es als neue Open-Source-Frontier — Teil eines strukturellen chinesischen Open-Source-Vorstoßes, der inzwischen sieben nahezu eine Billion Parameter umfassende MoE-Modelle zählt, von denen die meisten Open-Weight sind, während die US-Frontier nahezu vollständig geschlossen bleibt. Die MIT-Lizenz beseitigt jede Unsicherheit bei kommerzieller Nutzung.

NISTbs CAISI-Evaluation liefert den Fähigkeits-Anker: V4 Pro führt alle bewerteten chinesischen Modelle an, liegt jedoch rund acht Monate hinter den US-Marktführern zurück. DeepSeeks eigene Dokumentation, die in der AI-Advances-Analyse zitiert wird, räumt eine Lücke von 3–6 Monaten beim allgemeinen Reasoning ein — und rahmt diese als weitgehend irrelevant für Teams ein, deren vorrangige Frage ist, ob ein wettbewerbsfähiges Modell Agentic-Produktions-Workflows im großen Maßstab zuverlässig tragen kann.

Strategische Einschätzung

Für Teams, die kostenintensive Agentic-Pipelines betreiben — Code-Review, Dokumentensynthese, parallele Sub-Agenten-Orchestrierung — ist V4 Pro mit MIT-Lizenz, 1M Kontext und Preisen unter 1 USD/M unverzüglich evaluierungswürdig, insbesondere solange der Launch-Rabatt läuft. Die NIST-Lücke von acht Monaten ist bei Frontier-Reasoning relevant; für den Großteil verifizierbarer Produktionsaufgaben ist die Kostenkurve die entscheidende Variable.