Qwen3.6-27B übertrifft das 10-fach größere Qwen3.5-397B bei Coding-Benchmarks
Alibabas Qwen3.6-27B – ein auf agentische Coding-Aufgaben optimiertes Dense-27B-Modell für Planung, Repository-Navigation, Bug-Fixing und Tool Use – übertrifft das 397B-Parameter-Modell Qwen3.5-397B-A17B MoE auf den meisten anspruchsvollen Coding-Benchmarks. Das Modell unterstützt duale Think/No-Think-Modi und multimodales Reasoning. Verfügbar auf HuggingFace (inkl. FP8-Variante), ModelScope und Qwen Studio unter Apache 2.0. Das Ergebnis stellt die Annahme infrage, dass Parameter-Skalierung die Coding-Fähigkeit bestimmt.
Einordnung
Ein 27B-Modell, das ein 397B-Modell im agentischen Coding übertrifft, bestätigt: Post-Training-Qualität, Datenkuration und Aufgabenspezialisierung sind heute die entscheidenden Fähigkeitshebel – ein Signal, das für Teams bei der Wahl zwischen großen und kleinen Modell-Deployments relevant ist.