Голосовой помощник может усложнить вам жизнь. Студенты Калифорнийского университета Беркли нашли способ активировать Siri, Alexa и Google Assistant без ведома владельца. Все эти приложения работают по одному принципу: переводят звуки, хотя бы отдаленно напоминающие человеческую речь, в буквы, слова и целые фразы.
Так помощнику можно отдать приказ: для этого достаточно отредактировать музыкальную запись или видео в интернете, причем пользователь подвоха не заметит. Технология может, например, заставить гаджет делать покупки в интернете, кому-то позвонить — и вообще все что угодно. Корреспондент «Коммерсантъ FM» попытался спросить о новой уязвимости у самой Siri. Правда, она была не в настроении это обсуждать:
Пока система обмана голосовых помощников не покинула стены университета Беркли. Однако эксперт в области информационной безопасности Максим Эмм уверен, что при желании воспользоваться уязвимостью в реальной жизни будет не так уж и сложно: «Для специалистов, которые занимаются обработкой звуков и алгоритмами распознавания, это не очень сложная работа. Текущий уровень развития голосовых помощников достаточно низок: может распознаться чужой голос, также можно сгенерировать нужный голос».
Работа систем распознования голоса сейчас далека от идеала. Пользователи уже давно жалуются на проблемы. Год назад в Техасе помощник от Амазон отреагировал на вопрос 6-летней девочки — можно ли ей получить кукольный домик — и сделал заказ в интернет магазине. По просьбе ребенка, к игрушке он еще приобрел 4 фунта печенья.
Впрочем, создатели голосовых помощников настаивают: сейчас всё абсолютно безопасно. Google и Amazon утверждают, что их помощники не включаются, если не слышат голос владельца. Apple говорит, что её Сири никоглда не выпонит команду связанную с лиными данными, если iPhone или iPad заблокированы.
Главный редактор AppleInsider.ru Ренат Гришин заключает: Даже если злоумышленники получат доступ к вашему кошельку с помощью тайной команды, потратить деньги он не сможет: «Любые финансовые операции в любом случае осуществляются после идентификации. Говорить о том, что можно совершить какое-то действие, причинить ущерб пользователю, не приходится. Без человека, который держит в руках телефон, ничего сделать нельзя».
В прошлом году уязвимостью голосовых помощников воспользовались рекламщики Burger King. Они запустили рекламу, которая начиналась словами: «OK, Google», а затем просила узнать про их новый товар. В ответ устройства Android с голосовой поддержкой разблокировались и выходили в интернет с соответствующим запросом.
Управляющий партнер Fishki.Net Михаил Гуревич отмечает, что новые технологии действительно пока не могут гарантировать ни безопасность, ни защиту от спама, но тех, кто их использует, меньше не станет: «Подобного роди новости, конечно, приводят к всплеску интереса. Технологии в итоге улучшаются, совершенствуются, и все больше людей обращает на них внимание. Так что это работает скорее в плюс, чем в минус».
Порой новые технологии по-настоящему пугают своих владельцев. Пару месяцев назад пользователи соцсетей стали публиковать жалобы на помощника от Amazon, встроенного в колонку Echo. Без видимой причины устройство начинало смеяться. Amazon уже обещала починить не в меру веселого помощника. Его непредсказуемые действия объяснили просто — программа воспринимала окружающие звуки как команду «Alexa, засмейся» и выполняла приказ. Вот только пользователям было не смешно.
Ранее китайские специалисты обнаружили еще одну уязвимость голосовых помощников. Активировать программу можно при помощи звуковых частот, которые человек даже не слышит. Ученые назвали эту технологию «атака дельфина». С ее помощью можно включать камеру на телефоне или отправлять сообщения.
Это тоже интересно: