НовостиОбзорыВсе о нейросетяхБытовая техника 2024ГаджетыТехнологииНаукаСоцсетиЛайфхакиFunПромокодыСтранные вопросыЭксперты

Папа Римский в пуховике и звонок от де Ниро — как обманывают нейросети

17 мая 2024
Кажется, нейросети умеют все — писать диплом, помогать с поиском избранниц и производить сложные расчеты. А еще эти модели используют мошенники для создания дипфейков, кражи данных и махинаций. Разбираемся, какую опасность представляют нейросети.

Современные технологии не всегда используются в благих целях и стоят на страже безопасности пользователей. Обратная сторона медали технологического развития — возможность совершать более виртуозные преступления. Последние годы наиболее активно идет развитие нейросетей. Эти модели, которые построены на принципах работы человеческого мозга, уже сейчас умеют имитировать речь, внешность и поведение живых людей. В результате появляются все более качественные дипфейки, а мошенники уже научились буквально красть личности жертв. Как же способны навредить нейросети и что делать, чтобы этому противостоять?‎

Как нейросети вводят в заблуждение

Нейросетевые модели научились достаточно качественно подменять изображения и даже создавать целые видеоролики с участием подставных лиц. Так, одной из самых вирусных нейрожаб стала картинка, на которой изображен Папа Римский Франциск в… пуховике. Изображение создано настолько качественно, что сложно заподозрить его в подлоге. Новости о том, что Франциск появился на публике в модном пуховике, уже успели распространиться по миру до того, как стало известно, что фотография фальшивая. Картинка была сгенерирована с помощью графических нейросетей на основе одного из реальных снимков понтифика. Узнал ли о фейке сам Папа Римский, не уточняется.

Еще один пример проникновения сгенерированного контента в жизнь — подмена известными личностями реальных актеров кинолент. Так, бывший президент США Дональд Трамп засветился в качестве одного из героев эпизода популярного американского сериала Breaking Bad. Лицо политика было наложено поверх изображения настоящего актера — Аарона Пола. Если не всматриваться, заподозрить подмену с первого раза и не получится.

Более 10 миллионов просмотров на YouTube собрал ролик с «новыми актерами» первой части фантастической трилогии «Назад в будущее». В одной из сцен в образах Марти Макфлая и Дока появляются Том Холланд и Роберт Дауни-мл. соответственно.

И если эти примеры не так пугают, то видео с фейковым Морганом Фриманом способно шокировать. Голландскому каналу Diep Nep, который специализируется на дипфейк-видео, удалось настолько достоверно передать внешний вид и манеру речи актера, что поверить в фальшь практически невозможно.

Существуют и десятки сервисов, которые предлагают сгенерировать аудиозапись, озвученную голливудской знаменитостью. Спектр доступных голосов самый широкий — от Гвинет Пэлтроу и Снуп Дога до блогера Mr. Beast. Генераторы могут перевести в аудиоформат и озвучить любой текстовый файл.

Реальные опасности…

Новыми технологиями быстро заинтересовались преступники, в результате чего возникли более продвинутые формы мошенничества. Звонками от имени службы безопасности банка или правоохранительных органов уже никого не удивить. А вот появление на другом конце провода сгенерированной нейросетью известной личности может усыпить бдительность даже самого аккуратного человека.

В апреле 2024 года жертвой мошенников, которые использовали нейросеть, стал пенсионер из Москвы. С мужчиной связалась девушка, которая представилась «пресс-секретарем мэра Москвы». Мошенница убедила пенсионера в том, что с ним свяжется лично Сергей Собянин, чтобы спасти денежные средства москвича от похищения. Через некоторое время по видеосвязи мужчине действительно позвонил «мэр Москвы», потом с потерпевшим связался и «генерал спецслужб». Изображение и голос «градоначальника» и «генерала» убедили москвича в подлинности истории, после чего мужчина перевел мошенникам денежные средства. Разумеется, фейковые мэр и генерал тут же исчезли.

Дипфейки в корыстных и преступных целях используют и за океаном. Американский учитель физкультуры захотел подставить директора школы и добиться его увольнения. Для этого учитель сгенерировал в нейросетевом сервисе голос директора, который озвучил расистские и антисемитские высказывания. Афера удалась — руководителя школы сняли с поста. Но полицейские заинтересовались необычным делом и быстро разузнали, что аудиозапись фальшивая. Директора школы восстановили в должности, а вот отвечать перед судом придется уже учителю-мошеннику.

Не только российские пенсионеры становятся жертвами махинаторов с нейросетями. Британские пожилые персоны тоже попадаются в сети нейросетевых аферистов. На связь с 76-летней женщиной из Южного Уэльса вышел сам Роберт де Ниро! «Актер» предложил пенсионерке войти в его фан-клуб. Для этого было необходимо приобрести вип-карту стоимостью 500 фунтов. По словам «де Ниро», все, кто купит карту, получат возможность переписываться с актером, общаться с ним по видеосвязи и даже принять его в гостях! Доверчивую женщину в последний момент спасла ее внучка, которая раскусила мошенников, ведущих переписку от имени актера.

…и как их избежать

Определить фейковость ролика и изображения не всегда просто. Но помочь в этом смогут довольно простые советы и рекомендации. Небольшую инструкцию (шуточную!) по определению дипфейков опубликовали на портале Reddit. На примере фотографии британского короля Карла III можно заметить, что должно насторожить в изображении. Впрочем, все это шутка (внимание на руки монарха!), а теперь перейдем к настоящим рекомендациям.

Прежде всего, чтобы не стать жертвой развода с использованием дипфейков, всегда критически относитесь к любому звонку, сообщению и предложению. Выдавая себя за известных личностей, мошенники ведут диалог с фейковых аккаунтов, которые оформлены как настоящие. Если с вами связывается какая-либо селебрити, не ведитесь на это — знаменитости не звонят напрямую поклонникам и тем более — не просят выполнить какие-либо финансовые действия.

Насторожить должно и качество изображения, аудиофайла и видеоролика. Даже самые новые сервисы дипфейков пока не способны идеально сгенерировать картинку и голос. Обращайте внимание на задний фон снимка, размытость углов изображения, отсутствие помех на аудиозаписи и движения губ во время видео. Распознать дипфейк чаще всего можно именно путем анализа материала.

Наконец, всегда проверяйте источник информации. Обычно фейковые фотографии и видеоролики распространяются с малоизвестных аккаунтов и страниц. Перепроверяйте, откуда появились файлы, а также не ориентируйтесь на публикации и посты в соцсетях.

Кирилл Мироненко