Google развивает память

Google DeepMind представила методы для развития памяти AI-агентов:
Evo-Memory преобразует датасеты в упорядоченные задачи. Агенты учатся извлекать, обновлять и переиспользовать знания. Подход объединяет более десяти унифицированных модулей памяти.
ExpRAG сохраняет каждое взаимодействие как структурированную запись и при необходимости извлекает релевантные эпизоды, подбирая похожие случаи.
ReMem добавляет агенту шаг обновления памяти: помимо рассуждений и действий, он может выбирать, какие записи сохранить, удалить или переписать.
Почему это важно: цель этих подходов — научить агентов не просто хранить информацию и статический контекст, а использовать накопленный опыт для улучшения собственных стратегий в процессе работы. Исследование приближает нас к эпохе непрерывно самоулучшающихся AI-агентов и закладывает новые принципы их проектирования.
Обновления от DeepSeek

Прорыв лаборатория объясняет тремя факторами: новой архитектурой Sparse Attention, масштабным RL-дообучением с модифицированным GRPO и реализацией Specialist Distillation, когда узкие модели обучаются отдельно и дистиллируются обратно в основную. Вклад также вносит сильное агентное обучение: сначала агенты учились сохранять качество reasoning при работе с инструментами, а затем осваивали различные навыки в 1800+ синтетических средах с использованием RL.
Почему это важно: после релиза DeepSeek R1 мир обсуждал риски доминации недорогих моделей и вопросы контроля экспорта чипов. Сейчас V3.2 доказывает, что это не разовый всплеск: давление на рынок API растет. Поставщикам дорогих моделей придется обосновывать высокие цены не только качеством, но и уникальными функциями.
OpenAI борется с галлюцинациями

OpenAI рассказала о confessions: методе для выявления случаев, когда модель пытается «обмануть» систему оценки. Поскольку LLM часто стремятся угодить пользователю и выдать желаемый ответ, они могут уверенно генерировать галлюцинации или лесть. Подход confessions побуждает модель формировать вторичный «ответ-исповедь», в котором она анализирует собственные действия при создании основного ответа, указывает на нарушения и получает вознаграждение за самодиагностику.
Почему это важно: доверие — ключевой ограничитель повсеместного внедрения AI. OpenAI рассматривает этот подход как шаг к повышению прозрачности и надежности моделей.
Также на неделе
Google DeepMind описала подходы, помогающие агентам выбирать оптимальные инструменты и рационально расходовать ресурсы
Amazon представила семейство моделей Nova 2, AI-агентов для разработчиков, сервис для создания оптимизированных моделей и решение для развертывания AI-инфраструктуры в ЦОД клиента
Google запустила no-code платформу на базе Gemini 3 для создания AI-агентов в корпоративных средах
Mistral анонсировала семейство моделей Mistral 3
Arcee предложила две открытые MoE-модели как ответ на китайское доминирование

