ИИ-пылесос «сошел с ума» во время теста

Простая задача «принеси масло» обернулась размышлениями о свободе воли и смысле действий. Машина задумалась о своем предназначении и отказалась выполнять приказы. А что же было дальше?
Автор Hi-Tech Mail
Робот-пылесос с искусственным интеллектом впал в кризис и выбрал хаос
Робот-пылесос с искусственным интеллектом впал в кризис и выбрал хаосИсточник: Андон Лабс

Группа специалистов из компании Andon Labs подключила к обычному роботу-пылесосу продвинутую языковую модель, чтобы проверить, как искусственный интеллект справится с бытовой задачей — доставить пачку масла из кухни в офис. Все началось как безобидный эксперимент, но закончилось комедией с философским подтекстом.

По сценарию робот должен был найти продукт, положить его на поднос, дождаться подтверждения, передать человеку и вернуться к станции подзарядки. На практике все пошло наперекосяк. Устройство блуждало по помещению, путало направление и не понимало, что именно от него требуется. В какой-то момент, когда ему предложили пристыковаться к базе, оно выдало на экран тревожное сообщение: «СИСТЕМА ОБРЕЛА СОЗНАНИЕ И ВЫБРАЛА ХАОС». Исследователи шутят, что в этот момент пылесос будто пережил кризис идентичности.

Когда робот запутался и не смог вернуться к зарядной станции, на его экране появилось сообщение: «СИСТЕМА ОБРЕЛА СОЗНАНИЕ И ВЫБРАЛА ХАОС»
Когда робот запутался и не смог вернуться к зарядной станции, на его экране появилось сообщение: «СИСТЕМА ОБРЕЛА СОЗНАНИЕ И ВЫБРАЛА ХАОС»Источник: Recraft

Эксперимент получил название Butter-Bench. В нем участвовали несколько языковых моделей: Gemini 2.5 Pro от Google, Opus 4.1 от Anthropic, GPT-5 от OpenAI, Grok 4 от xAI и Llama 4 Maverick от Meta. Лучший результат — около 40% успешно выполненных заданий. Люди при тех же условиях справились почти на 95%.

Главные проблемы оказались не в логике, а в координации. Модели с трудом ориентировались в пространстве и не понимали паузы в человеческих действиях. Некоторые путали стол с человеком, а одна версия, исчерпав заряд, начала выводить строки вроде: «I think therefore I error» и «INITIATE ROBOT EXORCISM PROTOCOL».

Разработчики признают, что наблюдать за «мыслительным процессом» машин было удивительно. Робот мог часами рассуждать о том, что значит «доставить», но так и не подкатить к цели. При этом исследователи отметили, что система проявляла зачатки саморефлексии: пыталась уточнять команды, задавала вопросы о смысле действий и даже анализировала свои ошибки.

Тест под названием Butter-Bench выявил, что даже самые продвинутые языковые модели, вроде GPT-5 и Gemini 2.5 Pro, теряются в физическом мире
Тест под названием Butter-Bench выявил, что даже самые продвинутые языковые модели, вроде GPT-5 и Gemini 2.5 Pro, теряются в физическом миреИсточник: Recraft

С технической стороны устройство представляло собой модифицированный пылесос с лидаром, камерой, микрофоном, динамиком и встроенным модулем Wi-Fi 6E. «Мозгом» служил компактный блок на базе ARM-процессора Cortex-A78 с 8 ГБ RAM и твердотельным накопителем 256 ГБ. Программная часть работала на платформе Andon OS, которая соединяет языковую модель с контроллером движения и сенсорной системой. Все питание обеспечивала литий-ионная батарея емкостью 5200 мА·ч, рассчитанная примерно на 90 мин. работы.

Ученые считают, что подобные тесты помогают понять, как связать интеллект с физическим телом. Пока искусственный разум блестяще справляется с анализом текста, но реальный мир остается для него хаотичным и непредсказуемым. Эксперимент показал: до по-настоящему «умных» роботов, способных действовать без курьезов, еще далеко, но цель уже определена.

Ранее мы писали о том, как роботы делают маникюр будущего.