TL;DR
24 апреля 2026 DeepSeek в режиме preview выкатил V4-Pro — MoE на 1.6T параметров (49B активных), 1M контекста. Появился повод посадить три флагманские модели за один и тот же не самый тривиальный таск и посмотреть, кто как справится. Задание общее, машина одна, час один, всё запускалось параллельно:
|
Модель |
Harness |
Reasoning effort |
|---|---|---|
|
Anthropic Opus 4.7 (1M ctx) |
Claude Code |
x-high |
|
OpenAI GPT-5 |
Codex |
high |
|
DeepSeek V4-Pro |
OpenCode |
high (max) |





