Специалисты обнаружили уязвимости в голосовых помощниках Google и Amazon
Новости
Обнаруженные бреши в Google Home и Amazon Alexa могут быть использованы злоумышленниками для получения конфиденциальных данных. Ошибки в системах голосовых помощников способны стать причиной массовых хакерских атак.
781 открытий782 показов
Группа китайских и американских исследователей нашла критические ошибки в голосовых помощниках Amazon Alexa и Google Home. Уязвимость позволяет злоумышленникам запускать вредоносное ПО на устройствах, получать конфиденциальные данные и прослушивать пользователей.
Как это работает?
Одна из найденных ошибок получила название Voice Squatting. Принцип её работы основан на фонетическом сходстве пользовательских запросов. Специалисты обнаружили, что системы могут неправильно интерпретировать голосовые команды, которые схожи по произношению. По словам учёных, на привычный пользователю запрос голосовой помощник может запустить вредоносное ПО.
Данная уязвимость не срабатывает при каждом голосовом запросе. Исследователи предполагают, что хакеры могут использовать ошибку на иностранцах с плохим знанием языка или в шумных помещениях.
Ниже представлены два видеоролика, демонстрирующие работу уязвимости Voice Squatting на голосовых помощниках Amazon Alexa и Google Home:
Вторая обнаруженная ошибка получила название Voice Masquerading. Работа уязвимости заключается в продлении активности приложения без уведомления пользователя. Используя обнаруженную ошибку, хакеры могут превращать голосовых помощников в прослушивающие устройства.
В подтверждение своих слов учёные опубликовали видеоролики с демонстрацией работы ошибки:
С каждым годом растёт популярность и востребованность голосовых помощников. Напомним, что в марте 2018 года IBM представила сервис для создания голосовых ассистентов.
781 открытий782 показов