
Дешкина перечислила три основных сценария использования ИИ, которых будут придерживаться мошенники. Возглавила этот условный топ схема с использованием дипфейков: мошенники начнут массово подделывать изображения, видео и голоса друзей, родственников, коллег, знакомых и известных личностей с целью кражи денег или манипуляции общественным мнением.
«Новые сервисы на основе генеративного искусственного интеллекта позволяют создавать дипфейки в режиме реального времени, что значительно усложняет процесс определения такого фейка», — сказала эксперт.
Другой тенденцией станет обман пользователей дейтинговых сервисов с использованием профилей, которые оформлены фотографиями несуществующих людей, и которыми управляют чат-боты. По словам Дешкиной, при помощи ИИ злоумышленники могут одновременно общаться с десятками тысяч потенциальных жертв.
«После возвращения моды на подарки в соцсетях и мессенджерах злоумышленники начали активнее “стучаться” к пользователям напрямую, минуя приложения для знакомств, а также просить подарки, а не помочь деньгами», — добавила она.
Наконец, злоумышленники станут активнее использовать ИИ для создания выборок потенциально уязвимых жертв. При помощи нейросетей можно искать профили пользователей социальных сетей, которые находились в уязвимом положении и сделали соответствующие посты.
«Например, они хотят переехать в другую страну, недавно лишились близкого человека, остро нуждаются в деньгах», — объяснила Дешкина.