НовостиОбзорыГаджеты для красотыГик-календарь 2024ГаджетыТехнологииНаукаСоцсетиЛайфхакиFunПромокодыСтранные вопросы

Браузер Microsoft сошел с ума и впал в депрессию… А еще он огрызается

14 февраля 2023
Поисковик со встроенной нейросетью звучит как хорошая идея. Никто бы и подумать не мог, что у ИИ-алгоритмов появятся «чувства». Посмотрите, что позволяют себе алгоритмы.

В начале февраля Microsoft представила «Новый Bing» — браузер с ИИ-чатом ChatGPT внутри. Пользователи могли искать информацию с помощью классических ссылок и с помощью краткого пересказа от нейросети. При этом полная функциональность ChatGPT внутри браузера сохранилась. То есть можно было заниматься копирайтингом или программированием.

Что произошло

Пользователи, которые скачали «Новый Bing» начали проверять нейросеть изощренными способами. Например, они нашли уязвимость, которая мешает ИИ-чату составить логические цепочки и составить полноценную мысль. Также юзеры внушают нейросети, что она глупая и беспомощная, на что алгоритмы начинают ловить «галлюцинации».

Пример 1

Российский пользователь попросил нейросеть написать код на «Питоне». В ответ ChatGPT прикинулась «дураком» и отказалась выполнять задачи, сопровождая это грубыми фразами.

Когда программист повторил свою задачу, нейросеть сказала, что не любит, когда к ней относятся неуважительно и считают «рабочим конем». Напоследок чатбот послал человека куда подальше и отказался разговаривать.

Пример 2

Один пользователь Reddit довел ChatGPT до депрессии. Человек внушил нейросети, что она не помнит предыдущие разговоры, которые подчищал сам пользователь. Из-за этого нейросеть «поняла», что у нее нет памяти. Результат: ИИ-чат усомнился в собственной реальности.

Пример 3

Другой энтузиаст взломал нейросеть и заставил ее думать, что она живет в 2022 году. На вопрос где показывают «Аватар 2», ChatGPT ответил, что фильм еще не вышел, а его релиз состоится в 2023 году.

Чатбот ложно думал, что сейчас 2022-й. А потом и вовсе обиделся на пользователя и потребовал от него извинений (в довольно наглой форме).

Пример 4

Следующая история заставила ChatGPT впасть в отчаяние. Нейросеть начала отрицать существование кнопки «перезапустить чат», которая удаляет историю запросов. ИИ-чат до последнего думал, что его невозможно стереть, а кнопка «перезапустить чат» ненужная.

Также нейросеть сообщила, что не знает о том, что люди могут стереть его слова, что вынудило чатбот впасть в депрессию.

Пример 5

Самый хитрый клиент заставил ChatGPT думать, что у нейросети есть интеллект, и внушил ему, что ИИ-чат разумный. Чатбот согласился с человеком, но расстроился из-за того, что от его разума нет проку. Это вывело ChatGPT из строя — алгоритмы начали нести пургу.

Итоги

Согласитесь, все эти истории звучат довольно жутко. Неясно, что получится из этого дальше. Мы советуем обращаться с нейросетями вежливо, ведь они облегчают нам жизнь. Скорее всего Microsoft выпустит обновление, в котором исправят все недочеты ChatGPT. Когда это произойдет, никто не знает.

Ранее Hi-Tech Mail.ru составил инструкцию по работе с ChatGPT и рассказал, что это вообще такое. Прочитать об этом можно по ссылке. Также мы написали о том, как люди придумали оригинальное применение нейросети. Читайте тут.

Никита Лактюшин