Папа Римский в пуховике и звонок от де Ниро — как обманывают нейросети

Кажется, нейросети умеют все — писать диплом, помогать с поиском избранниц и производить сложные расчеты. А еще эти модели используют мошенники для создания дипфейков, кражи данных и махинаций. Разбираемся, какую опасность представляют нейросети.
Нейросети
Источник: Hi-Tech Mail.ru

Современные технологии не всегда используются в благих целях и стоят на страже безопасности пользователей. Обратная сторона медали технологического развития — возможность совершать более виртуозные преступления. Последние годы наиболее активно идет развитие нейросетей. Эти модели, которые построены на принципах работы человеческого мозга, уже сейчас умеют имитировать речь, внешность и поведение живых людей. В результате появляются все более качественные дипфейки, а мошенники уже научились буквально красть личности жертв. Как же способны навредить нейросети и что делать, чтобы этому противостоять?‎

Как нейросети вводят в заблуждение

Папа Римский Франциск в пуховике словно на показе Баленсиага
Папа Римский Франциск в пуховике словно на показе БаленсиагаИсточник: Inside Edition

Нейросетевые модели научились достаточно качественно подменять изображения и даже создавать целые видеоролики с участием подставных лиц. Так, одной из самых вирусных нейрожаб стала картинка, на которой изображен Папа Римский Франциск в… пуховике. Изображение создано настолько качественно, что сложно заподозрить его в подлоге. Новости о том, что Франциск появился на публике в модном пуховике, уже успели распространиться по миру до того, как стало известно, что фотография фальшивая. Картинка была сгенерирована с помощью графических нейросетей на основе одного из реальных снимков понтифика. Узнал ли о фейке сам Папа Римский, не уточняется.

Еще один пример проникновения сгенерированного контента в жизнь — подмена известными личностями реальных актеров кинолент. Так, бывший президент США Дональд Трамп засветился в качестве одного из героев эпизода популярного американского сериала Breaking Bad. Лицо политика было наложено поверх изображения настоящего актера — Аарона Пола. Если не всматриваться, заподозрить подмену с первого раза и не получится.

Более 10 миллионов просмотров на YouTube собрал ролик с «новыми актерами» первой части фантастической трилогии «Назад в будущее». В одной из сцен в образах Марти Макфлая и Дока появляются Том Холланд и Роберт Дауни-мл. соответственно.

И если эти примеры не так пугают, то видео с фейковым Морганом Фриманом способно шокировать. Голландскому каналу Diep Nep, который специализируется на дипфейк-видео, удалось настолько достоверно передать внешний вид и манеру речи актера, что поверить в фальшь практически невозможно.

Существуют и десятки сервисов, которые предлагают сгенерировать аудиозапись, озвученную голливудской знаменитостью. Спектр доступных голосов самый широкий — от Гвинет Пэлтроу и Снуп Дога до блогера Mr. Beast. Генераторы могут перевести в аудиоформат и озвучить любой текстовый файл.

Реальные опасности…

Новыми технологиями быстро заинтересовались преступники, в результате чего возникли более продвинутые формы мошенничества. Звонками от имени службы безопасности банка или правоохранительных органов уже никого не удивить. А вот появление на другом конце провода сгенерированной нейросетью известной личности может усыпить бдительность даже самого аккуратного человека.

В апреле 2024 года жертвой мошенников, которые использовали нейросеть, стал пенсионер из Москвы. С мужчиной связалась девушка, которая представилась «пресс-секретарем мэра Москвы». Мошенница убедила пенсионера в том, что с ним свяжется лично Сергей Собянин, чтобы спасти денежные средства москвича от похищения. Через некоторое время по видеосвязи мужчине действительно позвонил «мэр Москвы», потом с потерпевшим связался и «генерал спецслужб». Изображение и голос «градоначальника» и «генерала» убедили москвича в подлинности истории, после чего мужчина перевел мошенникам денежные средства. Разумеется, фейковые мэр и генерал тут же исчезли.

Дипфейки в корыстных и преступных целях используют и за океаном. Американский учитель физкультуры захотел подставить директора школы и добиться его увольнения. Для этого учитель сгенерировал в нейросетевом сервисе голос директора, который озвучил расистские и антисемитские высказывания. Афера удалась — руководителя школы сняли с поста. Но полицейские заинтересовались необычным делом и быстро разузнали, что аудиозапись фальшивая. Директора школы восстановили в должности, а вот отвечать перед судом придется уже учителю-мошеннику.

Не только российские пенсионеры становятся жертвами махинаторов с нейросетями. Британские пожилые персоны тоже попадаются в сети нейросетевых аферистов. На связь с 76-летней женщиной из Южного Уэльса вышел сам Роберт де Ниро! «Актер» предложил пенсионерке войти в его фан-клуб. Для этого было необходимо приобрести вип-карту стоимостью 500 фунтов. По словам «де Ниро», все, кто купит карту, получат возможность переписываться с актером, общаться с ним по видеосвязи и даже принять его в гостях! Доверчивую женщину в последний момент спасла ее внучка, которая раскусила мошенников, ведущих переписку от имени актера.

…и как их избежать

Чтобы определить подлинность материала, внимательно проанализируйте его качество
Чтобы определить подлинность материала, внимательно проанализируйте его качествоИсточник: Built In

Определить фейковость ролика и изображения не всегда просто. Но помочь в этом смогут довольно простые советы и рекомендации. Небольшую инструкцию (шуточную!) по определению дипфейков опубликовали на портале Reddit. На примере фотографии британского короля Карла III можно заметить, что должно насторожить в изображении. Впрочем, все это шутка (внимание на руки монарха!), а теперь перейдем к настоящим рекомендациям.

Прежде всего, чтобы не стать жертвой развода с использованием дипфейков, всегда критически относитесь к любому звонку, сообщению и предложению. Выдавая себя за известных личностей, мошенники ведут диалог с фейковых аккаунтов, которые оформлены как настоящие. Если с вами связывается какая-либо селебрити, не ведитесь на это — знаменитости не звонят напрямую поклонникам и тем более — не просят выполнить какие-либо финансовые действия.

Насторожить должно и качество изображения, аудиофайла и видеоролика. Даже самые новые сервисы дипфейков пока не способны идеально сгенерировать картинку и голос. Обращайте внимание на задний фон снимка, размытость углов изображения, отсутствие помех на аудиозаписи и движения губ во время видео. Распознать дипфейк чаще всего можно именно путем анализа материала.

Наконец, всегда проверяйте источник информации. Обычно фейковые фотографии и видеоролики распространяются с малоизвестных аккаунтов и страниц. Перепроверяйте, откуда появились файлы, а также не ориентируйтесь на публикации и посты в соцсетях.