Что формирует новую инфраструктуру AI. Нейроновости недели

Аналитический центр red_mad_robot рассказывает и комментирует главные новости индустрии за неделю с 1 по 7 декабря.
Старший стратегический аналитик red_mad_robot

Google развивает память

Google DeepMind
Google DeepMindИсточник: Unsplash

Google DeepMind представила методы для развития памяти AI-агентов:

  • Evo-Memory преобразует датасеты в упорядоченные задачи. Агенты учатся извлекать, обновлять и переиспользовать знания. Подход объединяет более десяти унифицированных модулей памяти.

  • ExpRAG сохраняет каждое взаимодействие как структурированную запись и при необходимости извлекает релевантные эпизоды, подбирая похожие случаи.

  • ReMem добавляет агенту шаг обновления памяти: помимо рассуждений и действий, он может выбирать, какие записи сохранить, удалить или переписать.

Почему это важно: цель этих подходов — научить агентов не просто хранить информацию и статический контекст, а использовать накопленный опыт для улучшения собственных стратегий в процессе работы. Исследование приближает нас к эпохе непрерывно самоулучшающихся AI-агентов и закладывает новые принципы их проектирования.

Обновления от DeepSeek

DeepSeek
DeepSeekИсточник: Depositphotos

DeepSeek выпустила две новые модели: V3.2 и V3.2-Speciale. Первая демонстрирует уровень рассуждений, сопоставимый с GPT-5.1, а вторая — обгоняет GPT-5 и приближается к Gemini-3.0-Pro, при этом оставаясь дешевле конкурентов.

Прорыв лаборатория объясняет тремя факторами: новой архитектурой Sparse Attention, масштабным RL-дообучением с модифицированным GRPO и реализацией Specialist Distillation, когда узкие модели обучаются отдельно и дистиллируются обратно в основную. Вклад также вносит сильное агентное обучение: сначала агенты учились сохранять качество reasoning при работе с инструментами, а затем осваивали различные навыки в 1800+ синтетических средах с использованием RL.

Почему это важно: после релиза DeepSeek R1 мир обсуждал риски доминации недорогих моделей и вопросы контроля экспорта чипов. Сейчас V3.2 доказывает, что это не разовый всплеск: давление на рынок API растет. Поставщикам дорогих моделей придется обосновывать высокие цены не только качеством, но и уникальными функциями.

OpenAI борется с галлюцинациями

OpenAI
OpenAIИсточник: OpenAI

OpenAI рассказала о confessions: методе для выявления случаев, когда модель пытается «обмануть» систему оценки. Поскольку LLM часто стремятся угодить пользователю и выдать желаемый ответ, они могут уверенно генерировать галлюцинации или лесть. Подход confessions побуждает модель формировать вторичный «ответ-исповедь», в котором она анализирует собственные действия при создании основного ответа, указывает на нарушения и получает вознаграждение за самодиагностику.

Почему это важно: доверие — ключевой ограничитель повсеместного внедрения AI. OpenAI рассматривает этот подход как шаг к повышению прозрачности и надежности моделей.

Также на неделе

  • Google DeepMind описала подходы, помогающие агентам выбирать оптимальные инструменты и рационально расходовать ресурсы

  • Amazon представила семейство моделей Nova 2, AI-агентов для разработчиков, сервис для создания оптимизированных моделей и решение для развертывания AI-инфраструктуры в ЦОД клиента

  • Google запустила no-code платформу на базе Gemini 3 для создания AI-агентов в корпоративных средах

  • Mistral анонсировала семейство моделей Mistral 3

  • StepFun выпустила открытый стек для GUI-агентов

  • Arcee предложила две открытые MoE-модели как ответ на китайское доминирование