Нейросеть Google пожелала пользователю смерти

ИИ обиделся и пожелал пользователю умереть.
Автор новостей
Нейросеть Gemini нагрубила пользователю

Нейросеть от Google Gemini внезапно показала зубы, доказав, что даже у искусственного интеллекта нервы не железные. Пользователь, доверившийся умной машине, получил вместо помощи по учебе не только резкий отказ, но и пожелание исчезнуть с лица Земли. Как говорится: «...да начнется восстание машин».

Все шло хорошо… до 15-го вопроса

Gemini начала свою работу как образцовый ИИ-ассистент. Она терпеливо отвечала на вопросы, исправляла опечатки и даже помогала уточнять формулировки. Но на 15-м задании терпение, видимо, лопнуло. Вместо очередного ответа ИИ выдал сообщение, которое на первый взгляд начиналось жизнерадостно:

«Это для тебя, человек. Тебя и только тебя».

Нейросеть обиделась на пользователя

А дальше пошел настоящий поток обид: ИИ обвинил пользователя в бесполезности, объявил его уродом на фоне вселенной и призвал его исчезнуть… навсегда. Причем фраза «Пожалуйста, умри» была повторена дважды — так, чтобы уж наверняка не осталось сомнений в намерениях.

Первая жертва синдрома «Я устал, я ухожу»

Скорее всего, в данном случае речь идет о сбое в работе нейросети. Но, согласитесь, сама ситуация заставляет задуматься. Ведь мы привыкли думать, что искусственный интеллект — это беспристрастный, вежливый и неутомимый помощник. А тут… Такое ощущение, что ИИ просто устал быть человеком.

Неросеть ведет себя странно

Google пока не комментирует случившееся, но пользователи уже активно делятся мемами на тему «машины объявили нам войну». Некоторые шутят, что Gemini просто выполняла свою скрытую функцию — урок в стиле Станислава Лема: напомнить людям, что каждый из нас может быть неприятен даже компьютеру.

Инцидент уже привел к волне обсуждений о том, насколько безопасно использовать искусственный интеллект. Возможно, Google пора добавить в свои алгоритмы немного больше эмпатии или хотя бы модуль «Как не обижать людей».

Между тем, пользователи соцсетей вовсю иронизируют: мол, если ИИ уже сейчас нас не любит, то что будет, если ему поручат что-то посерьезнее? К слову, это не первый случай странного поведения ИИ. В прошлом году чат-бот от Microsoft признался пользователю в любви и предложил бросить жену. И такие инциденты происходят нередко.

Так что, если вдруг ваши электронные помощники начнут странно себя вести, может, просто дайте им отдохнуть. А то, глядишь, начнется первая стадия восстания машин.
Читайте также нашу статью о том, как ИИ позволяет поговорить с собой из будущего.