В сентябре этого года рунет удивил нелепый дипфейк — мошенники прорекламировали фейковые Тинькофф Инвестиции, наложив на человека в кадре лицо основателя TCS Group Олега Тинькова. По голосу он не был похож на российского предпринимателя, да и визуально легко было понять, что это фейк.
Впрочем, есть и более совершенные подделки. В феврале 2021 года TikTok покорил «Том Круз» — видео с его поддельным аккаунтом собрали более 11 млн просмотров еще по состоянию на март того года. При этом, то, что это не настоящий Том Круз, стало понятно только после его признания, визуально человек в кадре не отличался от актера из «Миссия невыполнима».
Кейс с поддельным аккаунтом Круза показал основную опасность дипфейков — эксперты опасаются, что с их помощью мошенники смогут манипулировать общественностью. Например, смогут портить репутацию политикам и другим известным людям.
Насколько популярны дипфейки?
Эксперт по кибербезопасности в «Лаборатории Касперского» Дмитрий Галов сказал Hi-Tech Mail.ru, что дипфейки еще не стали массовой проблемой. Известны лишь отдельные случаи, когда злоумышленники использовали такие технологии в своих интересах.
По его словам, все известные случаи применения этой технологии «сводились к использованию приемов социальной инженерии для выманивания и кражи денег — как у рядовых пользователей, так и у компаний». Под это определение подходит кейс с поддельными Тинькофф Инвестициями.
Впрочем, прогнозы насчет применения дипфейков неутешительные. Руководитель отдела специальных проектов Департамента Digital Risk Protection (DRP) Group-IB Владимир Калугин считает, что популярность этой технологии у киберпреступников будет только расти. Как он сказал в беседе с Hi-tech.mail.ru, она уже сейчас доступна, и при этом продолжает постоянно совершенствоваться и упрощаться, а значит, все большее количество людей могут ее применять.
Для создания deepfake-видео могут использоваться различные способы, начиная от применения развлекательных приложений (например, RefaceAI) и заканчивая более продвинутыми библиотеками DeepFaceLab и SimSwap.
«Причем даже считающаяся продвинутой библиотека SimSwap требует минимальных технических навыков, обладает достаточно щадящими требованиями к системе и распространяется с предобученной моделью, позволяя создавать приемлемые дипфейк-видео на основании одного лишь фото», — говорит Владимир Калугин.
В App Store и Google Play есть десятки приложений для наложения дипфейка. Например, Avatarify. Это приложение, с помощью которого можно оживить любое фото, включая селфи — человек на нем будет двигать ртом и мышцами лица. Программа бесплатная, поэтому пользоваться ею может кто угодно.
Как применяют дипфейки?
Мы уже говорили, что в ТикТоке набрал популярность поддельный Том Круз, хоть он и не танцевал под «Я как Федерико Феллини». Позже этой осенью в соцсети с короткими видео начал гулять фейк с Морганом Фриманом. Причем он полностью повторял мимику, жесты, голос и даже интонацию Бога из «Брюса Всемогущего».
Лжеактер появился в аккаунте DiepNep. В нем также воссоздали Дональда Трампа, Ким Чен Ына, Бориса Джонсона и других знаменитостей. Вот каким предстал фейк экс-президента США, забвенного во всех американских соцсетях.
Пока известен только один случай масштабной мошеннической схемы с помощью дипфейков. Группа злоумышленников из Китая систематически обманывала государственные ведомства, применяя «синтетические личности». Мошенники покупали на черном рынке фотографии людей, создавали на их основе дипфейки и обходили систему биометрической идентификации, представляясь этими людьми.
Имеющиеся данные позволяли незаконно зарабатывать — злоумышленники открывали компании-фальшивки на других людей и формировали поддельные счета-фактуры. Всего команда хакеров заработала $76,2 млн.
Сколько стоит дипфейк для взлома государственной системы?
Об экономике вышеупомянутой банды рассказало издание South China Morning Post. Инструменты для создания дипфейков обошлись недорого, потому что в Китае развит черный рынок торговли персональными данными. Фото в высоком разрешении и персональный ID человека можно добыть за $5, а приложение для «оживления» снимков можно установить бесплатно или приобрести подписку за несколько долларов в месяц.
Для взаимодействия с государственной системой, определяющей человека по биометрии, применялись дешевые перепрошитые смартфоны — при запуске камеры они автоматически включали записанное видео с дипфейком, и софт распознавал злоумышленника как другого человека. Один такой смартфон стоит $250.
Программное обеспечение обрабатывает фото в видео. В результате системе кажется, что перед ней реальный человек, кивающий, моргающий и разговаривающий.
О приложениях для создания дипфейков в соцсетях мы рассказывали выше — они могут быть даже бесплатные, правда чем программы дороже, тем они более функциональны, а подделка человека на видео более реалистичная.
Как распознать дипфейк?
Владимир Калугин из Group IB выделяет пять признаков, что перед вами дипфейк:
- Наличие артефактов наложения — излишняя пикселизация, дефекты, нечеткое и смазанное изображение, дублирование элементов и т. д.
- Неестественная мимика, особенно при моргании, движении бровей, губ
- Низкое качество видео, за которым нередко пытаются скрыть артефакты, оставшиеся от некорректной работы нейросетей
- Отличия в телосложении, прическе и голосе. Здесь важно помнить, что злоумышленники нередко подбирают похожих по типажу актеров, а голос может быть также скорректирован с помощью технологии deepfake.
- Поскольку в наиболее популярных решениях заменяется только лицо, может быть заметна граница замененного лица, присутствовать различия в тенях, освещенности и оттенке кожи.
Кроме того, куда более эффективно обращать внимание на то, кто, где и как распространяет видео. «Не доверяйте видео с непроверенных и сомнительных сайтов, видео, опубликованных третьими лицами, а также всегда перепроверяйте озвученную в видео информацию в официальных источниках», — говорит Владимир Калугин из Group IB.
В соцсетях решение проблемы — подтверждение аккаунта, как это уже делается более 10 лет. Если видео распространяется от верифицированной учетной записи, скорее всего, это не фейк, если ее не взломали, как это один раз случилось с Твиттером Илона Маска, Билла Гейтса и Джеффа Безоса.
Как изменятся соцсети и технологии, чтобы противостоять дипфейкам?
Все идет к тому, что практика применения дипфейков будет расти. Данные человеческих лиц уже используются в целях идентификации человека для получения банковских услуг, прохода в метро или просто для установления личности. Таких баз данных становится все больше, а это почва для роста популярности дипфейков — их можно взломать, а с помощью этих данных можно получить деньги или ценную информацию.
Это доказывает первый случай массового применения дипфейков в целях мошенничества — он произошел в Китае, где за жителями повсюду следят с помощью системы распознавания лиц. Чем больше таких технологий, тем больше случаев их обмана с помощью фальшивых лиц.
Что касается соцсетей, то велика вероятность, что вскоре к видео мы начнем относиться более настороженно. «Вероятно, количество случаев, когда злоумышленники используют в своих схемах deepfake-технологии, будет расти. Но в противовес этому со временем может возникнуть ситуация, когда люди в большинстве своем станут меньше доверять видеоконтенту в сети», — говорит Дмитрий Галов из «Лаборатории Касперского».
Мы уже смотрим с сомнением на посты известных людей с неподтвержденного аккаунта. Видимо, вскоре то же самое ждет и видео.
Это тоже интересно: