OpenAI представила революционные модели o3 и o4-mini

Искусственный интеллект научился думать визуально. Новые модели OpenAI не просто видят изображения, но используют их как часть своего мыслительного процесса.
Автор новостей
o3 и o4-mini логотип
OpenAI представила o3 и o4-miniИсточник: OpenAI

OpenAI выпустила две новые модели искусственного интеллекта — o3 и o4-mini. Эти системы — значительный шаг вперед в развитии технологий ИИ благодаря уникальной способности «думать» перед ответом.

Модель o3 существенно превосходит свою предшественницу, анонсированную в декабре. Разработчики улучшили все ключевые метрики, что сделало o3 идеальным инструментом для программирования. Модель демонстрирует выдающиеся результаты в задачах, связанных с кодом, математикой, наукой и визуальным анализом.

график сравнения o3 и o4-mini с предшественниками
Сравнение o3 и o4-mini с другими моделямиИсточник: OpenAI

Вторая новинка, o4-mini, представляет собой компактную версию передовой модели o4, которую компания пока не готова выпустить в полном объеме. Несмотря на приставку mini, эта модель показывает впечатляющие результаты: на математическом тесте AIME 2025 она достигла показателя 99,5%. Важно отметить, что o4-mini будет доступна бесплатно в ChatGPT.

Мышление картинками

Главная инновация новых моделей — их способность «мыслить изображениями». В отличие от предыдущих систем, которые просто распознавали картинки, o3 и o4-mini интегрируют визуальный контент непосредственно в процесс рассуждения.

пример работы o3 и o4-mini
Мышление новых моделей o3 и o4-miniИсточник: OpenAI

Пользователи могут загрузить фото доски с записями, диаграмму из учебника или даже нарисованный от руки эскиз — модели способны интерпретировать их даже при низком качестве изображения. Более того, ИИ может манипулировать изображениями в процессе анализа: поворачивать, увеличивать или трансформировать их для более точного решения задачи.

Интеллектуальное использование инструментов

Новые модели получили полный доступ к инструментам ChatGPT и могут самостоятельно решать, когда и как их применять. Например, при вопросе о прогнозе энергопотребления в городе модель может:

  • Найти актуальные данные коммунальных служб в интернете;
  • Написать код на Python для создания прогноза;
  • Сгенерировать график или изображение;
  • Объяснить ключевые факторы, влияющие на прогноз.

Такой гибкий подход позволяет моделям решать задачи, требующие доступа к актуальной информации, расширенного анализа и создания контента в различных форматах.

результаты o3 и o4-mini в тестах
Сравнение o3 и o4-mini с другими моделямиИсточник: OpenAI

Доступность новых моделей

Пользователи ChatGPT Plus, Pro и Team получат доступ к o3 и o4-mini с 16 апреля. Эти модели заменят предыдущие версии o1, o3-mini и o3-mini-high. Корпоративные пользователи и образовательные учреждения смогут воспользоваться новинками через неделю.

Бесплатные пользователи также не останутся в стороне — они могут попробовать o4-mini, выбрав опцию «Обоснуй» перед отправкой запроса. Лимиты использования остаются такими же, как и для предыдущих моделей.

скриншот страницы запроса в ChatGPT
Кнопка «Обоснуй» в ChatGPTИсточник: OpenAI

Разработчики получили доступ к o3 и o4-mini через API Chat Completions и Responses API. Для некоторых потребуется верификация организации.

Codex CLI

Вместе с новыми моделями OpenAI представила экспериментальный инструмент Codex CLI — легковесного кодинг-агента, который работает прямо из терминала компьютера. Он максимально использует возможности рассуждения моделей o3 и o4-mini, а в будущем будет поддерживать и другие модели API, включая GPT-4.1.

Codex CLI позволяет получить преимущества мультимодального анализа прямо из командной строки, передавая скриншоты или эскизы модели вместе с доступом к локальному коду. Инструмент полностью открыт и доступен на GitHub.

В поддержку проектов с использованием Codex CLI и моделей OpenAI компания запускает инициативу с бюджетом 1 миллион долларов. Гранты будут выдаваться в виде API-кредитов по 25 000 долларов.

Новые модели OpenAI o3 и o4-mini — это значительный шаг к созданию более интеллектуальных и полезных систем искусственного интеллекта, способных решать сложные задачи с помощью комбинации рассуждений, визуального анализа и других методов.

Также на этой неделе компания представила модели GPT-4.1. Рассказали о них в статье.