За 48 часов — с 23 по 24 апреля 2026 года — рынок получил сразу два флагмана: GPT-5.5 от OpenAI и DeepSeek-V4 от одноимённой китайской лаборатории. Релизы почти совпали по времени, но разошлись по философии настолько, что сравнение превращается в иллюстрацию двух разных взглядов на то, каким должен быть коммерческий ИИ.

GPT-5.5 OpenAI позиционирует как модель для агентных задач — то есть сценариев, где система должна самостоятельно планировать многошаговые действия, вызывать инструменты и исправлять собственные ошибки без участия пользователя. Это отличает её от предыдущих версий, которые были сильны в генерации текста и коде, но требовали постоянного контроля при сложных автоматизированных процессах. На Terminal-Bench 2.0, тесте для сложных задач в командной строке, модель набирает 82,7%; на SWE-Bench Pro, где оцениваются реальные задачи из GitHub-репозиториев, — 58,6%. CEO компании Every Дэн Шиппер назвал GPT-5.5 «первой кодинг-моделью с настоящей концептуальной ясностью» — имея в виду способность понимать архитектуру системы целиком: почему что-то сломалось, куда ложится исправление и какие части кодовой базы оно затронет.

МодельВходные токены (за 1 млн)Выходные токены (за 1 млн)
DeepSeek V4-Flash$0.14$0.28
DeepSeek V4-Pro$1.74$3.48
GPT-5.5$5.00$30.00
GPT-5.5 Pro$30.00$180.00

Цена этой автономности буквальная: OpenAI удвоила стоимость API относительно GPT-5.4. Стандартная версия обходится в $5,00 за миллион входных токенов и $30,00 за миллион выходных; версия Pro — $30,00 и $180,00 соответственно. Компания объясняет рост тем, что модель стала эффективнее и требует меньше токенов на задачу, однако для разработчиков, работающих с большими объёмами, двукратный рост базовой цены ощутим.

DeepSeek-V4-Pro показывает 93,5 на LiveCodeBench и рейтинг 3206 на Codeforces — лучшие результаты в алгоритмическом программировании.

GPT-2 мой новый фаворит для обложек
GPT-2 мой новый фаворит для обложек · Источник: Habr AI

DeepSeek-V4 вышла в двух конфигурациях: Pro с 1,6 трлн параметров и Flash с 284 млрд. Обе построены на архитектуре Mixture-of-Experts — подходе, при котором активируется лишь часть параметров сети в зависимости от задачи, что снижает вычислительную нагрузку. Новый механизм гибридного внимания позволил довести контекстное окно до 1 млн токенов при потреблении 27% вычислительных мощностей и 10% памяти по сравнению с предыдущим поколением. Для анализа длинных документов, больших кодовых баз или юридических текстов это принципиально меняет возможности. Веса обеих версий открыты под лицензией MIT — то есть их можно скачать, развернуть локально и использовать в коммерческих продуктах без роялти.

На алгоритмическом программировании DeepSeek V4-Pro в режиме максимального рассуждения (Think Max) показывает 93,5 на LiveCodeBench и рейтинг 3206 на Codeforces — результаты, с которыми GPT-5.5 пока не сравнивалась напрямую. На агентных бенчмарках картина обратная: GPT-5.5 опережает V4-Pro на Terminal-Bench 2.0 (82,7% против 67,9%) и SWE-Bench Pro (58,6% против 55,4%).

Ценовой разрыв между моделями — главный аргумент в пользу DeepSeek для большинства сценариев. Выходные токены GPT-5.5 стоят в 8,6 раза дороже V4-Pro и более чем в 100 раз дороже V4-Flash ($0,28 за миллион). Для компаний, обрабатывающих миллиарды токенов в месяц, это разница между рентабельным продуктом и убыточным. Открытые веса добавляют ещё один аргумент: организации с требованиями к конфиденциальности данных получают возможность self-hosting без зависимости от внешнего API.

Практический вывод, который следует из сравнения бенчмарков и прайс-листов: GPT-5.5 оправдана там, где нужна автономная работа агента с интерфейсами, сложными репозиториями и многошаговым планированием — и где цена ошибки выше, чем стоимость токенов. DeepSeek V4-Pro закрывает задачи алгоритмической логики, математики и анализа длинных документов, а также любые сценарии с требованием локального развёртывания. Flash при этом становится очевидным выбором для массовой обработки текста, где стоимость имеет значение. Сочетание всех трёх в одном пайплайне — не экзотика, а рабочая стратегия на 2026 год.