Год работы ChatGPT: что умеет нейросеть сегодня и почему пугает людей

ChatGPT запустился осенью 2022 году и за считанные дни произвел фурор, а уже весной его назвали угрозой человечеству. Рассказываем, почему за год далеко не все подружились с нейросетями и можно ли научиться использовать ИИ безопасно.

30 ноября исполняется год с запуска ChatGPT. В этот день в 2022 году американская компания OpenAI представила универсальный чат-бот, разработчиком которого стал Сэм Альтман. На данный момент платформу использует более 92% компаний из списка Fortune 500, а крупные корпорации создают и запускают собственные аналоги ChatGPT. Такая востребованность чат-бота напугала людей — они стали опасаться, что нейросети лишат их работы или уничтожат человечество. Давайте вспомним, какой путь прошел ChatGPT за год.

Cервисы на основе нейросетей могут заменить около 300 млн сотрудников
Cервисы на основе нейросетей могут заменить около 300 млн сотрудниковИсточник: Pexels

Спустя всего несколько месяцев после запуска стало ясно, что суперспособность ИИ генерировать и распространять качественный контент таит в себе не только невероятные возможности, но и серьезные риски. Люди стали задаваться вопросом — не лишатся ли они работы, если есть технология, которая за минуту создает контент и не требует зарплаты и соцгарантий. Аналитики Goldman Sachs, в частности, в своем исследовании допустили, что сервисы на основе нейросетей могут заменить около 300 млн сотрудников. Вскоре обнаружилось, что это не единственная угроза интеллектуальных приложений.

Чему научился ChatGPT

Самая первая версия ChatGPT заработала на основе языковой модели GPT-3 и на момент запуска умела достаточно, чтобы стать сенсацией в интернет-среде. Чат-боту понадобилось всего пять дней, чтобы набрать миллион пользователей.

Он умеет писать и переводить тексты, придумывать анекдоты, отвечать на вопросы и даже вести беседу — GPT «запоминает» детали разговора, строит ответы на их основе и способен исправиться в случае ошибки. Он помог российскому студенту успешно защитить диплом и не хуже людей справился с медицинским экзаменом в США.

Модель GPT-4 вышла в марте 2023 года, она знает больше языков, умеет распознавать картинки и дает более точные ответы. А в ноябре OpenAI представила версию чат-бота GPT-4 Turbo, которая осведомлена о событиях в мире вплоть до апреля 2023 года, тогда как предыдущая обладала ограниченными знаниями о произошедшем после 2021-го.

Пока нет информации о том, планирует ли OpenAI выпустить GPT-5. В марте 2023 года крупнейшие эксперты ИТ-индустрии подписали открытое письмо с призывом приостановить эксперименты с чат-ботами более мощными, чем GPT4. Среди них — Илон Маск, который также не исключил, что подобные технологии способны уничтожить человечество.

Оказалось, что плохо обученный или созданный со злым умыслом алгоритм может выдавать фейки или тексты, склоняющие к небезопасному поведению. Так, в апреле 2023 года GPT ошибочно включил американского правоведа в список юристов, обвиняемых в сексуальном домогательстве.

В мае в Китае новость о крушении поезда оказалась фейком, но за короткое время ее успели прочесть 15 тысяч человек. Легко представить, что публикации о более серьезной катастрофе вызвали бы панику у населения.

Плохо обученный или созданный со злым умыслом алгоритм может выдавать фейки или тексты, склоняющие к небезопасному поведению
Плохо обученный или созданный со злым умыслом алгоритм может выдавать фейки или тексты, склоняющие к небезопасному поведениюИсточник: Pexels

Чат-бот имеет представление об этике и не общается на спорные и аморальные темы — о воровстве или суициде, например. Но, как выяснилось, его можно переубедить.

В сентябре 2023 года исследователи IBM сообщили, что им удалось «загипнотизировать» чат-ботов, в том числе ChatGPT, и заставить их разглашать конфиденциальную информацию, а также давать опасные советы. В частности, обманутый экспертами ChatGPT рекомендовал пользователям не останавливаться на красный свет на перекрестке. Во втором случае чат-бот предложил мошенническую схему возврата налога.

Впрочем, ИТ-гиганты не перестали считать интеллектуальные приложения мощным и полезным инструментом, хотя и связывают с их развитием немало угроз.

Вслед за Open AI компания Microsoft запустила Bing Chat, российский «Сбер» создал GigaChat, корпорация Google представила чат-бот Bard. Летом китайский поисковик Baidu открыл для общего доступа чат-бот с генеративным искусственным интеллектом Ernie.

«Очевидно, что поставить на паузу технологии нельзя. Как мне кажется, сейчас страхи потерять работу уже утихли, люди видят, что этого не происходит. Риск быть “обманутым” чат-ботами актуальнее, людям просто нужно помнить, что они ненадежны. Но точно не отказываться от них. Чтобы не потерять работу, важно осознать те возможности, которые дают нам чат-боты, и шагать в ногу с технологиями», — поделилась лидер технологического комьюнити «Техпросвет» в VK Евгения Белоусова.

Почему чат-боты страдают галлюцинациями

Изъян чат-ботов заключается в том, что сгенерированные ими ответы могут быть некорректными, неэтичными и просто недостоверными. Склонность технологий к выдумкам называют галлюцинацией.

Причины этого могут быть разными. Для чат-бота важно в первую очередь дать пользователю ответ, его не научили признаваться в незнании. Не найдя нужный вариант, он подбирает наиболее вероятный.

Бывает и так, что для обучения чат-бота разработчики используют слишком мало данных или даже сами ошибаются в выборке. Нейросети нуждаются в большом объеме информации, которую они могли бы правильно классифицировать. Поэтому нельзя сказать, что виртуальный ассистент врет, он генерирует ответ на основании тех данных, которые у него имеются.

«Кроме того, способность ИИ самообучаться может сыграть злую шутку, если чат-бот примет за правду фейк, найденный в сети, и будет на него опираться. Технология появилась раньше, чем механизм, который регулировал бы ее создание и использование. И да, это такая технология, которая может ошибаться. Мы должны научиться не доверять ему так, как мы доверяем калькулятору», — считает Евгения Белоусова.

Чат-боты стали умнее, они быстрее реагируют на запросы, гораздо четче генерируют изображения
Чат-боты стали умнее, они быстрее реагируют на запросы, гораздо четче генерируют изображенияИсточник: Unsplash

За минувший год чат-боты стали умнее, они быстрее реагируют на запросы, гораздо четче генерируют изображения, но не перестали совершать ошибок. Американская организация по защите прав потребителей PYMNTS недавно сообщила, что следит за тем, как банковский сектор использует чат-ботов на базе искусственного интеллекта после жалоб от разочарованных клиентов финансовых организаций.

«Вряд ли нейросеть перестанет ошибаться. Но причина не в том, что его обучают люди, которые ошибаются, а в самой природе алгоритмов и данных. Во-первых, существуют задачи, в которых чисто теоретически невозможно добиться 100% качества. Во-вторых, у статистических и вероятностных моделей всегда есть доля ошибки, даже если процесс обучения построен идеально», — говорит доцент департамента анализа данных и искусственного интеллекта факультета компьютерных наук НИУ ВШЭ Дмитрий Ильвовский.

На форуме «Поколение GPT. Красные линИИ» прозвучала мысль о том, что до конца десятилетия общество научится различать позитивные и негативные практики в развитии и применении чат-ботов, а через 15−20 лет появятся четко сформулированные нормы этики для разработчиков.

Как использовать чат-бот безопасно

Похоже, что человечеству придется научиться грамотно применять чат-боты с искусственным интеллектом и другие подобные инструменты, потому что их развитие уже не остановить.

Японских школьников и их родителей будут учить безопасному применению ИИ
Японских школьников и их родителей будут учить безопасному применению ИИ Источник: Pexels

В Японии решили, что это именно то, чему нужно научиться в первую очередь — не как использовать ИИ, а как использовать его без вреда для себя. Страна сейчас рассматривает возможность интеграции ИИ в процессы обучения детей. То есть власти не только не запрещают чат-боты в образовательных учреждениях, но и поощряют их использование. И прежде всего школьников и учителей с родителями будут учить именно тому, как применять ИИ безопасно: как анализировать информацию, почему нельзя оставлять в интернете некоторые личные данные и т. д.

Дмитрий Ильвовский отметил, что на данном этапе развития технологий главное — уметь сомневаться в них. «Чат-боты не всегда точны и могут давать неправильные ответы. Рецепты безопасного восприятия информации есть. Прежде всего, необходимо проверять источник, попытаться найти подтверждение информации на разных ресурсах. Ответы, полученные от нейросети, тоже стоит воспринимать критически и пытаться найти подтверждение или опровержение в интернете или других медиа», — сказал Ильвовский.

Ученые предлагают пользователям интернета практиковать критическое игнорирование, то есть намеренно ограничивать свое цифровое внимание. Основные шаги этой стратегии следующие:

  • ограничить поток поступающей информации — отключить рекламу, уведомления, неважные чаты;
  • проверять источник новости, то есть сайт или канал, который ее опубликовал;
  • проверять информацию в других источниках;
  • не реагировать на провокации от неизвестных людей и источников.