Написать пост

Специалисты обнаружили уязвимости в голосовых помощниках Google и Amazon

Аватар Даниил Шатухин

Обнаруженные бреши в Google Home и Amazon Alexa могут быть использованы злоумышленниками для получения конфиденциальных данных. Ошибки в системах голосовых помощников способны стать причиной массовых хакерских атак.

Группа китайских и американских исследователей нашла критические ошибки в голосовых помощниках Amazon Alexa и Google Home. Уязвимость позволяет злоумышленникам запускать вредоносное ПО на устройствах, получать конфиденциальные данные и прослушивать пользователей.

Как это работает?

Одна из найденных ошибок получила название Voice Squatting. Принцип её работы основан на фонетическом сходстве пользовательских запросов. Специалисты обнаружили, что системы могут неправильно интерпретировать голосовые команды, которые схожи по произношению. По словам учёных, на привычный пользователю запрос голосовой помощник может запустить вредоносное ПО.

Данная уязвимость не срабатывает при каждом голосовом запросе. Исследователи предполагают, что хакеры могут использовать ошибку на иностранцах с плохим знанием языка или в шумных помещениях.

Ниже представлены два видеоролика, демонстрирующие работу уязвимости Voice Squatting на голосовых помощниках Amazon Alexa и Google Home:

Превью видео kIHVJn7MF7Q
Превью видео XDFURioVUDo

Вторая обнаруженная ошибка получила название Voice Masquerading. Работа уязвимости заключается в продлении активности приложения без уведомления пользователя. Используя обнаруженную ошибку, хакеры могут превращать голосовых помощников в прослушивающие устройства.

В подтверждение своих слов учёные опубликовали видеоролики с демонстрацией работы ошибки:

Превью видео BwATCgljP-I
Превью видео JrdsZs9PsPk

С каждым годом растёт популярность и востребованность голосовых помощников. Напомним, что в марте 2018 года IBM представила сервис для создания голосовых ассистентов.

Следите за новыми постами
Следите за новыми постами по любимым темам
781 открытий781 показов