
DeepSeek официально представила версию V3.2 — обновление, которое компания называет самым серьезным с момента запуска линейки. Релиз включил сразу две модели, и одна из них уже успела наделать шуму благодаря результатам на международных олимпиадах по математике и информатике.
В основу релиза легла идея расширить способности систем рассуждать, планировать и анализировать задачи, а также улучшить работу с инструментами. Базовая модель DeepSeek-V3.2 позиционируется как универсальная: она сокращает длину выводимых ответов и ускоряет реакции в сценариях повседневного использования. В тестах на вывод компания утверждает, что модель вышла на уровень GPT-5, уступив лишь флагманскому Gemini-3.0-Pro. По сравнению с Kimi-K2-Thinking удалось заметно снизить вычислительные затраты, что важно для массовых сценариев.

Гораздо больше внимания привлекла вторая модель — DeepSeek-V3.2-Speciale. Это экспериментальная версия с полным приоритетом на логическое мышление, длительные цепочки рассуждений и проверку математических доказательств. Специальная редакция объединяет усилия предыдущих проектов DeepSeek, включая модуль доказательства теорем Math-V2, и демонстрирует результаты, которых открытые модели ранее не достигали. По официальным данным, Speciale получила золотые медали на IMO 2025 и CMO 2025, а также заняла высокие места на ICPC и IOI, показав уровень, близкий к топовым закрытым ИИ.
Однако высокая точность требует высокой стоимости: модель потребляет значительно больше токенов, а потому пока доступна лишь как временный API для исследовательского сообщества. DeepSeek подчеркивает, что Speciale не оптимизирована под бытовые задачи и не рассчитана на повседневное общение.

Важным изменением в V3.2 стала интеграция инструментов: теперь режим мышления не блокирует доступ к ним. Компания представила метод синтеза данных для обучения агентов, создав более 1800 сред и свыше 85 тысяч инструкций повышенной сложности. Это позволило значительно улучшить способность модели обобщать и работать в нестандартных сценариях.
Отдельно отмечается поддержка Thinking Mode, который можно активировать, переименовав модель в deepseek-reasoner. В этом режиме доступны возможности длительных рассуждений, однако совместимость с рядом инструментальных обвязок, вроде Cline или RooCode, пока ограничена.
DeepSeek утверждает, что V3.2 стала лидером среди открытых моделей в тестах агентных систем и заметно сократила разрыв между открытой и закрытой экосистемами ИИ. Официальные релизы обеих версий уже доступны на HuggingFace и ModelScope.
Читайте также нашу статью о том, как в приложении Perplexity появилась «виртуальная примерочная».

