Mail.RuПочтаМой МирОдноклассникиИгрыЗнакомстваНовостиПоискВсе проекты
Рассылка
Получайте главные новости дня от Hi-Tech Mail.Ru
, Источник: Коммерсантъ-FM

Голосовые помощники могут усложнить жизнь

Что нужно знать об уязвимостях программ. Голосовые помощники выходят из-под контроля. Исследователи обнаружили уязвимость в программах Siri, Alexa и Google Assistant. Как выяснилось, хакеры могут посылать им скрытые звуковые команды и управлять чужими гаджетами. Например, приказать смартфону перевести деньги или набрать номер, а «умной» колонке — открыть дверь. Как такое возможно и чем это грозит пользователям? Об этом — Лилия Пономарева и Анна Пестерева.

Голосовой помощник может усложнить вам жизнь. Студенты Калифорнийского университета Беркли нашли способ активировать Siri, Alexa и Google Assistant без ведома владельца. Все эти приложения работают по одному принципу: переводят звуки, хотя бы отдаленно напоминающие человеческую речь, в буквы, слова и целые фразы.

Так помощнику можно отдать приказ: для этого достаточно отредактировать музыкальную запись или видео в интернете, причем пользователь подвоха не заметит. Технология может, например, заставить гаджет делать покупки в интернете, кому-то позвонить — и вообще все что угодно. Корреспондент «Коммерсантъ FM» попытался спросить о новой уязвимости у самой Siri. Правда, она была не в настроении это обсуждать:

Пока система обмана голосовых помощников не покинула стены университета Беркли. Однако эксперт в области информационной безопасности Максим Эмм уверен, что при желании воспользоваться уязвимостью в реальной жизни будет не так уж и сложно: «Для специалистов, которые занимаются обработкой звуков и алгоритмами распознавания, это не очень сложная работа. Текущий уровень развития голосовых помощников достаточно низок: может распознаться чужой голос, также можно сгенерировать нужный голос».

Работа систем распознования голоса сейчас далека от идеала. Пользователи уже давно жалуются на проблемы. Год назад в Техасе помощник от Амазон отреагировал на вопрос 6-летней девочки — можно ли ей получить кукольный домик — и сделал заказ в интернет магазине. По просьбе ребенка, к игрушке он еще приобрел 4 фунта печенья.

Впрочем, создатели голосовых помощников настаивают: сейчас всё абсолютно безопасно. Google и Amazon утверждают, что их помощники не включаются, если не слышат голос владельца. Apple говорит, что её Сири никоглда не выпонит команду связанную с лиными данными, если iPhone или iPad заблокированы.

Главный редактор AppleInsider.ru Ренат Гришин заключает: Даже если злоумышленники получат доступ к вашему кошельку с помощью тайной команды, потратить деньги он не сможет: «Любые финансовые операции в любом случае осуществляются после идентификации. Говорить о том, что можно совершить какое-то действие, причинить ущерб пользователю, не приходится. Без человека, который держит в руках телефон, ничего сделать нельзя».

В прошлом году уязвимостью голосовых помощников воспользовались рекламщики Burger King. Они запустили рекламу, которая начиналась словами: «OK, Google», а затем просила узнать про их новый товар. В ответ устройства Android с голосовой поддержкой разблокировались и выходили в интернет с соответствующим запросом.

depositphotos.com

Управляющий партнер Fishki.Net Михаил Гуревич отмечает, что новые технологии действительно пока не могут гарантировать ни безопасность, ни защиту от спама, но тех, кто их использует, меньше не станет: «Подобного роди новости, конечно, приводят к всплеску интереса. Технологии в итоге улучшаются, совершенствуются, и все больше людей обращает на них внимание. Так что это работает скорее в плюс, чем в минус».

Порой новые технологии по-настоящему пугают своих владельцев. Пару месяцев назад пользователи соцсетей стали публиковать жалобы на помощника от Amazon, встроенного в колонку Echo. Без видимой причины устройство начинало смеяться. Amazon уже обещала починить не в меру веселого помощника. Его непредсказуемые действия объяснили просто — программа воспринимала окружающие звуки как команду «Alexa, засмейся» и выполняла приказ. Вот только пользователям было не смешно.

Ранее китайские специалисты обнаружили еще одну уязвимость голосовых помощников. Активировать программу можно при помощи звуковых частот, которые человек даже не слышит. Ученые назвали эту технологию «атака дельфина». С ее помощью можно включать камеру на телефоне или отправлять сообщения.

Это тоже интересно:

Расскажите друзьям о проблемах с популярными программами и устройствами, нажмите на кнопки соцсетей ниже.
Обзоры новинок
Подробности о главных премьерах
Вы подписались на рассылку.Отменить
Подписаться на рассылку
Комментарии
9
Анатолий Сосновский
Левин из-за Siri на измене, боярской мозги поправляет.
СсылкаПожаловаться
Justa Rixa
В ответ на комментарий от Justa Rixa История переписки5
Justa Rixa
не, я - истинный ориец... ору со всенго...
СсылкаПожаловаться
*со всего
СсылкаПожаловаться
Justa Rixa
В ответ на комментарий от Ярослав Светлый История переписки4
Комментарий удален.Почему?
не, я - истинный ориец... ору со всенго...
СсылкаПожаловаться
Чтобы оставить комментарий, вам нужно авторизоваться.
Обнаружили ошибку? Выделите ее и нажмите Ctrl+Enter.
Подпишитесь на нас
Новости Hi-Tech Mail.Ru