DeepSeek V4: Open Weights mit 1M-Token-Kontext ab Werk, zum Siebtel des Opus-4.7-Preises
DeepSeek V4 veröffentlicht zwei Open-Weight-Modelle mit 1M-Token-Kontext ab Werk, CSA+HCA-Hybridattention und V4-Pro zum Siebtel des Opus-4.7-Ausgabepreises.
DeepSeek V4 veröffentlicht zwei Open-Weight-Modelle mit 1M-Token-Kontext ab Werk, CSA+HCA-Hybridattention und V4-Pro zum Siebtel des Opus-4.7-Ausgabepreises.
DeepSeeks 10-fache KV-Cache-Kompression verändert die KI-Kostenökonomie global und stellt US-Labs vor eine ernste strategische Herausforderung.
Ein Virginia-Tech-Preprint zeigt, dass modellnative Skills via Sparse Autoencoders menschlich definierte Skill-Dateien bei SFT übertreffen — und 41 % Verbesserung in Mathe durch aktivierungsraumbasierte Datenselektion erzielen.
DeepSeek V4-Pro startet mit 1,6 Billionen Parametern, 1-M-Kontext und 10-facher KV-Cache-Reduktion vs. V3.2 — rund 10-fache Inferenz-Parallelität auf gleicher Hardware.
Kuratierte AI-Einblicke — wir senden, wenn es sich lohnt.