Реалистичность дипфейков требует функции подтверждения достоверности ВКС-звонков

Возросшая реалистичность сгенерированных нейросетями видеозаписей с определенными людьми (дипфейков) требует разработки механизмов подтверждения достоверности видеоконференций для противодействия мошенникам. Такое мнение высказал директор Института системного программирования им. В. П. Иванникова РАН Арутюн Аветисян.
Робот, искусственный интеллектч
Источник: Freepik

Ученый сообщил, что сегодня кто-то снова пытался от его имени звонить сотрудником в мошеннических целях. При этом реалистичность таких дипфейков настолько высока, что даже герой видеоподделок может сам поверить в их достоверность.

«Два года назад банкир в Гонконге был вызван на “ВКС с лондонским офисом”, со всеми поговорил, а потом подписал чек и 25 миллионов долларов ушли не туда, куда нужно. Это сплошь и рядом происходит. Мы живем в мире, где уже не можем доверять своим чувствам. Нужны регламенты: должен быть специальный человек, который подтверждает в определенных случаях, когда идет речь о десятках миллионов долларов, что это действительно ВКС», — сказал Аветисян, выступая на IV международной научно-практической конференции «Цифровые международные отношения 2025: Человек в фокусе цифрового развития».

Академик РАН также указал на важность разработки механизмов, позволяющих массовому потребителю видеоконтента в сети отличать реальные видео от сгенерированных искусственным интеллектом.

«Потому что мое отношение к нему, в зависимости от этого, будет совершенно разное. Я, как свободный человек, хочу смотреть то, что я хочу. При этом, как гражданин, я должен быть защищен от того, чтобы под видом настоящего видео мне давали генеративное», — заключил он, указав на важность маркирования сгенерированного нейросетями контента.