Россиян предупредили о мошеннических голосовых роботах: что известно

Аферисты используют передовые ИИ-технологии для обмана. Эксперты рассказали главное о новом методе обмана.
Редактор новостей Hi-Tech Mail
мошенник с ноубтуком
Будьте осторожны при общении с незнакомцамиИсточник: Freepik

Мошенники используют голосовые нейросети для обмана жителей России. Об этом Hi-Tech Mail рассказали в компании Neuro.net, создающей человекоподобных виртуальных операторов и голосовых помощников на основе ИИ-технологий.

Эксперты отметили, что ассистенты с помощью разработок на базе RAG (Retrieval-Augmented Generation — генерация ответа с учетом найденной релевантной информации) стали прорывом в обработке естественного языка. Они анализируют многослойные запросы и дают точные ответы в режиме реального времени. Однако этим пользуются не только компании, работающие с клиентами, но и злоумышленники.

Аферисты могут применять аналогичные инструменты, имитируя звонки от сотрудников банков или государственных учреждений. Так называемые ИИ-мошенники в реальном времени структурируют ответы жертвы, чтобы подстраиваться под конкретные ситуации. Технологии позволяют имитировать эмоциональную окраску голоса, чтобы сделать атаки максимально убедительными.

мужчина разговаривает по телефону
Можно даже не понять, что собеседник — нейросетьИсточник: Unsplash

В Neuro.net подчеркнули, что особую опасность представляет возможность массового обзвона, в котором каждый звонок персонализировать с учетом утечек личных данных. При этом для работы с такими инструментами мошенникам не нужно обладать профессиональными навыками.

Специалисты обращают внимание, что скамеры используют урезанные и небезопасные версии ИИ-технологий. Добросовестные разработчики применяют методы многоуровневой защиты, которые в том числе помогают обнаружить подозрительную активность. 

В Neuro.net рассказали, что робот компании однажды провел полноценный диалог с мошенником. Голосовой ассистент распознал попытку добиться разглашения персональных данных, после чего начал отмалчиваться и намеренно удерживал афериста на линии.

Это был демонстрационный кейс, в котором ассистент компании взаимодействовал с телефонным мошенником, имитируя поведение живого оператора. Сценарий был построен так, чтобы удерживать злоумышленника на линии без передачи чувствительных данных, демонстрируя возможности ИИ как инструмента цифровой защиты.
Разработчики отметили, что подобные случаи показывают, что ИИ-системы могут быть не угрозой, а первым барьером на пути к клиенту.

Ранее маркетплейс Wildberries предупредил пользователей о новой схеме мошенников. В ней скамеры используют мессенджеры, через которые рассылают потенциальным жертвам вредоносные файлы. Их маскируют под фотографии, однако при попытке их открыть смартфон будет заражен.