DeepSeek v4 entfacht die US-Open-Source-KI-Strukturkrise neu

Die Veröffentlichung von DeepSeek v4 – mit State-of-the-Art-Langkontext-Effizienz, ohne Benchmark-Theater oder Inferenzkostenoptimierung – hat eine strukturelle Debatte kristallisiert: Das US-amerikanische Open-Source-KI-Geschäftsmodell ist strukturell defekt, und das Zeitfenster für die Festschreibung von Enterprise-Stack-Abhängigkeiten schließt sich 2026 rasch.

Was die Quelle tatsächlich aussagt

Matthew Bermans Kernargument in einem 2.871-Wörter-Video ist ökonomischer, nicht technischer Natur. Das Geschäftsmodell für US-amerikanische Open-Source-KI ist strukturell defekt: Wer ein Frontier-Modell entwickelt und die Gewichte veröffentlicht, übergibt Wettbewerbern gleichzeitig ein Produkt ohne F&E-Kosten, das diese zu höheren Margen bedienen können. China trägt das, weil die KPC strategische nationale Champions direkt subventioniert – ein „gut genug und extrem günstig" positioniertes Modell kostenlos herauszugeben ist die klassische Aufholstrategie, wenn man in einem Technologiewettlauf zurückliegt.

Die markanteste These ist, dass Unternehmens-KI-Beschaffungsentscheidungen gerade jetzt, im Jahr 2026, getroffen werden und das Zeitfenster eng ist. Für 99 % der Unternehmensanwendungsfälle – Tabellenkalkulationen, Coding, Terminplanung – ist DeepSeek-Qualität ausreichend. Wird chinesisches Open-Source zum Standard-Enterprise-Substrat, bevor sich US-Alternativen konsolidieren, potenziert sich die Abhängigkeit: Chinesische Labs, die Modelle für inländische Chips optimieren (erzwungen durch US-Exportkontrollen), ziehen US-Unternehmen in Richtung chinesischer Halbleiter. Berman nennt Nvidia als einzigen US-Akteur mit strukturell ausgerichteten Anreizen – sie verdienen unabhängig davon, wer das Modell betreibt, an den Chips – und benennt das 26-Milliarden-Dollar-Neotron-Commitment als belastbares Signal.

Von X ergänzte @swyx die technische Nachlese: DeepSeek v4 „tauchte einfach auf, demonstrierte SOTA-Langkontext-Effizienztechniken (CSA, HCA, mHC, Flash bei 8 % der Pro-Kosten, die selbst 14 % der Opus-Kosten betragen), veröffentlichte die besten offenen Basismodelle der Welt und verschwand wieder." Die „BYO-Posttraining"-Haltung – ein weltklasse-Basismodell veröffentlichen und Downstream-Agent-Labs die Anpassung überlassen – ist das angebotsseitige Selbstbewusstsein eines subventionierten Labs, das die Gewichte nicht direkt monetarisieren muss.

Strategische Einschätzung

Für KI-Entwickler ist Bermans vertikaler Ansatz der umsetzbare Pfad: Rechts-, Biotech-, Verteidigungs- und Finanzanwendungsfälle benötigen keine Frontier-Intelligenz, und domänenspezifische Open-Weight-Modelle, finanziert von den jeweiligen Branchen, umgehen das defekte Allzweck-Geschäftsmodell. Beobachten Sie Nvidias Neotron-Investitionen in den nächsten 12 Monaten auf Signale glaubwürdiger vertikaler Partner.