Как интернет заполонило фальшивое порно со знаменитостями

Скандал о создании поддельных порнороликов с участием знаменитостей разгорелся с новой силой — теперь любой желающий может выпустить «фейковое» видео, не обладая никакими особыми навыками. Эксперты сходятся во мнении, что эта технология несет в себе опасные для современного общества последствия.

Двухлетку за два месяца

В декабре стало известно о новом алгоритме машинного обучения, который позволяет заменять лица в видеороликах. Его придумал пользователь под никнеймом deepfakes, который поделился на форуме Reddit своим своеобразным «хобби» — с помощью этой технологии он генерирует порноролики со знаменитостями.

Алгоритм позволяет создать крайне достоверный эффект анимации лица благодаря большому количеству фотографий и видео звезд в интернете. Система собирает весь графический контент воедино и компилирует настолько правдоподобную «картинку», что невооруженным глазом можно не заметить подвоха. Deepfakes продемонстрировал результаты работы алгоритма на порно, в котором лицо актрисы было заменено на лицо исполнительницы роли Чудо-Женщины Галь Гадот.

Прошло всего пара месяцев, но выпуск порнороликов с использованием искусственного интеллекта (ИИ) вышел на уровень конвейерного производства.

Один из последователей deepfakes выпустил приложение с простым интерфейсом, которое позволяет человеку без специальных навыков смонтировать видео с той звездой, которая ему нравится.

Это приложение бесплатно, находится в открытом доступе и даже предоставляет уроки для новичков. Сообщается, что для достижения результата пользователю понадобятся всего лишь два видеоролика со знаменитостями в хорошем качестве. Весь процесс создания занимает около 12 часов.

Если в декабре эксперты в области ИИ были настроены довольно пассивно и не видели большого вреда в открытии deepfakes, то при нынешней скорости появления новых роликов со звездами оставаться в стороне уже нельзя. Сам программист не видит в своем алгоритме ничего плохого, ссылаясь на то, что его публикация заинтересовала большое количество людей, которые теперь занимаются новыми технологиями.

Два месяца назад Motherboard связалась с ученым в сфере компьютерных наук из правозащитной организации «Фонд электронных рубежей» Питером Экерсли, чтобы обсудить последствия внедрения такой технологии в повседневную жизнь. Эксперт признал, что на текущий момент создать собственный ролик на базе нейросетей может каждый, но им никого не удастся обмануть — из-за пока еще большого количества шероховатостей и неточностей.

«Такое положение вещей сохранится еще как минимум год или два», — заключил Экерсли.

Как оказалось, хватило всего двух месяцев. На Reddit появились новые порноролики — с «участием» актрис Джессики Альбы и Дэйзи Ридли — и их качество уже значительно превосходит декабрьские видео.

Изображение: FakeApp
Изображение: FakeApp

Правдоподобность этих роликов настолько высока, что их стали принимать за настоящие создатели ресурсов, публикующих интимные фотографии знаменитостей. Один из самых популярных подобных сайтов опубликовал видео с актрисой Эммой Уотсон, где она принимает душ, с заголовком «ранее не опубликованные кадры из частной коллекции». Тем не менее, этот ролик был смонтирован по технологии deepfakes, а сама Эмма Уотсон не имеет к нему никакого отношения, кроме того, что ее лицо было использовано без какого-либо согласия.

Несмотря на то, что пользователей, которых заинтересовало машинное обучение, больше привлекает создание именно порнороликов, случаются и исключения. Один из них — юзер Z3ROCOOL22, который совместил фрагменты выступлений президента Аргентины Маурисио Макри и Адольфа Гитлера, создав «нового» политика.

Никому нельзя верить

В результате простое в использовании приложение позволяет каждому без особых усилий создавать фейковое видео — от интимного видео со своей бывшей девушкой в качестве «порномести» до выступления государственного деятеля, который может сказать с трибуны все что угодно. Эта технология имеет потенциал навсегда изменить потребление медиа-контента в интернете.

Высокая скорость совершенствования алгоритма и эпоха «фейковых» новостей могут привести к тому, что отличить ложь от правды станет практически невозможно.

«Тот факт, что эта технология доступна для каждого, пугает. Из-за этого рушится вся концепция доверия и благонадежности», — считает заслуженный профессор прикладной этики Дебора Джонсон.

Действительно, созданный алгоритм в конечном счете затронет не только знаменитостей, которые и так часто становятся жертвами fake news, но и политику, журналистику и даже сферу безопасности.

Технология явно не ограничится только заменой лиц, и пока остается только догадываться, что еще будет сфабриковано в интернет-пространстве. Но если проблемой лживых новостей уже занялись на уровне крупнейших социальных сетей мира и даже правительств некоторых стран, то проблема «фейкового» порно пока в парламентах ведущих стран даже не обсуждается.