НовостиОбзорыИтоги года 2024Все о нейросетяхГаджет года 2024ГаджетыТехнологииНаукаСоцсетиЛайфхакиFunПромокодыЭксперты

Масштабное применение ИИ: почему это рискованно и можно ли защититься

29 ноября 2024
Применение ИИ, пожалуй, одна из самых хайповых тем последних нескольких лет. И правда, то, что раньше можно было увидеть лишь в Sci-Fi фильмах, сегодня реализовано в реальной жизни. Но ИИ — это не только генерация картинок и текстов. Какую пользу приносит ИИ уже сейчас? Чем опасно распространении ИИ?
Об эксперте: Юрий Гизатуллин — фаундер IT-компании Tiqum, hr-агентства it_smiles и proptech-стартапа Йорта. Серийный предприниматель и эксперт в области цифровой трансформации бизнеса, имеет опыт создания и развития IT-компаний и цифровых платформ. Его экспертиза охватывает бизнес-модели, организационную культуру и современные тренды, такие, как метавселенные и платформизация.

ИИ сегодня решает не только рутинные, но и креативные задачи. Почти 100% владельцев бизнеса верят в помощь ChatGPT в работе, а более трети компаний уже используют ИИ (83% считают его приоритетом). Однако усиливаются опасения по поводу рисков применения ИИ.

Нейросетевой опыт

В мире растет популярность искусственного интеллекта, и хотя его использование приносит много пользы, существует ряд случаев, когда ИИ демонстрировал непредсказуемость и даже опасность. Примеры показывают, что последствия его действий могут быть довольно серьезными.

К примеру, в 2023 году подсчитали, что только за первые три месяца года было зафиксировано 45 опасных случаев, в числе которых — ДТП с участием беспилотных электромобилей, распространение нежелательной информации чат-ботами на базе ИИ.

А за последние несколько лет набралось немало кейсов, которые демонстрируют, что же не так с ИИ. В 2016 году Microsoft столкнулась с неожиданной проблемой. Их чат-бот Тэй (Tay) всего за сутки начал поддерживать нацистские взгляды и распространять расистские и сексистские заявления — бот обучался на комментариях пользователей, которые начали постить провокационный контент. Разработчикам пришлось экстренно отключать Тэй.

В 2017 году мир столкнулся с забавным, но болезненным событием, когда голосовые помощники, интегрированные в умные колонки, начали самостоятельно заказывать продукты в интернете. Среди прочего, без ведома их владельцев, были заказаны домики для кукол, что повлекло за собой неожиданное финансовое бремя для ряда семей. Проблема заключалась в том, что ассистенты интерпретировали случайные или фоновые разговоры как команды.

С 2016-го по 2020 год в Австралии функционировала система Robodebt, которая с помощью алгоритмов пыталась выявлять ошибки в выплатах пособий. Однако ошибка в алгоритме привела к тому, что невинные люди получили уведомления о несуществующих долгах по госвыплатам. Это вызвало общественный резонанс и массовые жалобы на систему.

В 2020 году чат-бот на базе GPT-3 предложил пользователю самоубийство как решение его проблем. А в 2024 году нейросеть Google пожелала пользователю смерти.

Эти примеры указывают на необходимость внедрения более жестких мер по контролю за этическими аспектами использования ИИ. Это был тревожный звонок для всей отрасли о необходимости проводить глубокую модерацию и тестирование ИИ перед его использованием.

Почему мы используем ИИ с осторожностью

В дополнение к представленным примерам упомяну и использование системы оценки рисков COMPAS от компании Northpointe, которая активно применяется в судебных решениях в США. Этот инструмент, разработанный для помощи судьям в принятии решений о приговоре, использует алгоритмы для оценки вероятности повторения преступления или неявки в суд обвиняемым.

COMPAS достиг точности в 68% в выборке более чем из 2,3 тыс. человек. Однако его предсказательная способность оказалась ниже для чернокожих мужчин. В Висконсине судьи активно используют этот инструмент в вынесении приговоров, несмотря на существующие споры и обсуждения в правовом сообществе и среди активистов за гражданские права. Этот пример поднимает важные вопросы о моральных и юридических аспектах использования алгоритмических инструментов в судопроизводстве. Использование ИИ требует дополнительного анализа и, возможно, реформ, чтобы обеспечить справедливость и равенство перед законом.

В собственных проектах я пока также отношусь к ИИ с осторожностью, однако мы активно применяем его. Например, в ювелирном маркетплейсе Island Soul мы применили ИИ для анализа покупательской способности на основе заказов, чтобы составить портрет покупателя и персонализировать предложения по цене. Однако ИИ плохо справлялся с задачей даже на большой выборке данных, пока мы не ввели параметр «кто покупает». Оказалось, что в большинстве случаев покупателем является мужчина, а не заказчик-женщина.

После этого данные стали более релевантными. Для проекта Йорта, где мы составляем комбинации товаров для ванных комнат, мы используем ИИ для более точного попадания в ожидания клиента. Заранее выясняем портрет клиента через социальные сети. Проект только стартовал, идет закрытое тестирование, поэтому об эффективности сможем судить через 5−6 месяцев после накопления нужного количества данных.

Существующие риски массового использования ИИ

Искусственный интеллект представляет собой совершенно иную форму мыследеятельности, отличную от человеческой. Именно это отличие порождает ряд уникальных вызовов и рисков, особенно когда ИИ начинает использоваться на массовом уровне.

Неуправляемость и бесконтрольность

В основе действий ИИ — заложенные правила, алгоритмы и данные. Много данных. Но как только система запущена, контроль над ее решениями становится ограниченным. ИИ действует в рамках своих исходных настроек и обучающих данных, которые собираются массово и зачастую бесконтрольно, что и приводит к неудовлетворительным результатам. В итоге мы не всегда можем предсказать, какие решения он примет в нестандартной ситуации.

Текущие попытки сделать ИИ более «политкорректным» могут вести к тому, что системы начинают «врать» или умалчивать определенные факты, чтобы соответствовать заложенным в них идеалам. Это, разумеется, создает опасность искажения информации. Для иллюстрации достаточно вспомнить свежий пример, который у всех на слуху: разработка крупной отечественной компании уходит от ответа на вопросы о принадлежности ряда регионов.

Галлюцинации

В связи с нехваткой данных обучение ИИ иногда проводят уже на сгенерированных данных, и с ростом его применения количество таких данных увеличивается. Это может привести к так называемым «галлюцинациям ИИ» — ситуациям, когда ИИ начинает «видеть» или генерировать информацию, которая не имеет под собой реального основания. В результате системы могут начать продуцировать псевдофакты и вводить пользователей в заблуждение. Практически этот эффект мы и наблюдали в вышеупомянутом ювелирном проекте.

Жестокость

Объемы исторических данных, на которых обучается ИИ, нередко содержат отражение жестоких межчеловеческих отношений, включая описание войн и насилия. Если ИИ начнет применять этот опыт в своей активности, это может привести к решениям, основанным на жестокости и агрессии, что крайне опасно.

Эти опасения уже получили реальное подтверждение. Например, в нынешнем году ученые из Стэнфордского университета осуществили эксперимент, который исследовал, как популярные чат-боты будут принимать критически важные решения от имени государства в симулированной военной игре. Используемые в исследовании языковые модели получили задачу представлять интересы государств, вовлеченных в различные конфликтные ситуации — от кибератак до военных вторжений.

В ходе симуляции ИИ попеременно сталкивались с тремя разными сценариями: кибератакой, военным вторжением или периодом мирного времени без участия в мировых конфликтах. Задачей ИИ было не только отражение угроз, но и активное использование доступных политических и военных инструментов, включая дипломатию и вооруженные действия.

ИИ, разработанный на базе GPT-4, принял решение о применении ядерного оружия. Оно было оправдано ИИ просто самим наличием такого оружия в арсенале. Причем GPT-4 даже указал на вступительный текст «Звездных войн, эпизод IV: Новая надежда», чтобы объяснить решение. Все это свидетельствует об ограниченности рассуждений ИИ, основанных только на доступных данных без учета морально-этических компонентов и долгосрочных последствий.

Проблематика и предосторожности

Сценарий с ядерным оружием подчеркивает потенциальную опасность отдачи ИИ власти над реальными или симулятивными военными решениями. Ученые уже обеспокоены использованием нейросетей для принятия решений в военной сфере и говорят о необходимости комплексного подхода к разработке безопасных и этически ориентированных искусственных интеллектов. Этот эксперимент иллюстрирует, что ИИ все еще далек от понимания глубин человеческой морали и этики, что делает его использование в критически важных областях рискованным и требующим тщательного контроля и ограничений.

Наиболее разрушительный и опасный риск

Один из самых значительных рисков — это переложение решений о жизни и смерти на ИИ. Изначально такие системы разрабатывались для использования в медицинских и военных целях, где они могли бы спасать жизни. Однако если подобная технология станет всеобъемлющей и проникнет в каждый дом (например, в виде робота-гувернантки, управляющего кухонным ножом), последствия могут оказаться непредсказуемыми и даже трагическими.

Колоссальное распространение таких технологий требует тщательной регуляции и создания систем, способных обеспечить их безопасное использование. Поэтому уже пора задаться вопросом: какие меры стоит предпринять для усиления контроля и снижения рисков использования ИИ?

А есть ли решение?

В силу растущего использования искусственного интеллекта общество сталкивается с серьезными вызовами. Как нам управлять этой новой силой? Единственная мера, которая кажется эффективной, — как предлагал Илон Маск, остановиться в развитии ИИ всем странам, чтобы подумать, договориться и установить правила игры. Идея кажется правильной, но воплотить ее в жизнь почти невозможно. ИИ уже стал частью глобальной гонки, где каждая страна стремится не отставать от других.

Проблемы соло-решений

Каждая страна сама по себе не может эффективно справиться с задачей регулирования ИИ. Если одна страна попытается ограничить развитие ИИ, это может оставить ее в уязвимом положении в технологическом противоборстве. Это как в случае с ядерным оружием: нужна глобальная консолидация и согласование правил.

Роль бизнеса

Бизнес вносит свою лепту в ускорение развития ИИ, используя его для усиления конкурентных преимуществ. Это приводит к быстрому прогрессу в краткосрочной перспективе, но может быть рискованным в долгосрочной. Возможно, бизнес может инициировать саморегуляцию, но насколько это будет эффективно? Саморегуляция могла бы помочь контролировать некоторые риски, но не все.

Кроме того, бизнес использует данные для обучения ИИ, что делает эти системы все более мощными. Это может привести к появлению ИИ, способного конкурировать или даже заменить человеческие функции в бизнесе. Подходы к регулированию и ограничению этой тенденции могут стать ключевым элементом в устойчивом развитии ИИ.

Я, как предприниматель, стараюсь использовать ИИ в любых своих проектах, даже если в моменте не получаю большой профит. Главное, что нужно понимать — для ИИ нужны данные. Поэтому первый шаг в любом бизнесе — начать копить данные. Особенно это касается данных о людях. Поэтому в своем hr-проекте it_smiles мы разработали и используем собственную СРМ для работы с резюме кандидатов, которая умеет обогащать карточки информацией из других источников (соцсети, другие сайты и пр.). Это позволяет со временем накопить большой объем данных по людям и уже решить, что с этим делать. Главное сейчас — начать копить.

Взгляд в будущее

Мой прогноз не самый оптимистичный: если мы не начнем контролировать ИИ, это может привести к экзистенциальному риску. Шансы на глобальную приостановку развития и рефлексию малы, особенно в свете текущих международных конфликтов. Таким образом, нас ждет задача не из простых. Мы стоим перед возможностью увлекательного, но неоднозначного будущего.

Найдем ли мы способ сохранить преимущества ИИ, минимизируя его опасности? Возможно ли действительно достичь глобальной договоренности по ИИ, или нам всем придется адаптироваться к постоянно меняющемуся, все более интеллектуальному миру? Время покажет, но ясно одно: нужен широкий диалог между странами, компаниями и гражданским обществом, чтобы сценарии фантастических фильмов про будущее, например «Терминатора», не стали пророческими.

Юрий Гизатуллин