Специалисты обнаружили уязвимости в голосовых помощниках Google и Amazon

Группа китайских и американских исследователей нашла критические ошибки в голосовых помощниках Amazon Alexa и Google Home. Уязвимость позволяет злоумышленникам запускать вредоносное ПО на устройствах, получать конфиденциальные данные и прослушивать пользователей.

Как это работает?

Одна из найденных ошибок получила название Voice Squatting. Принцип её работы основан на фонетическом сходстве пользовательских запросов. Специалисты обнаружили, что системы могут неправильно интерпретировать голосовые команды, которые схожи по произношению. По словам учёных, на привычный пользователю запрос голосовой помощник может запустить вредоносное ПО.

Данная уязвимость не срабатывает при каждом голосовом запросе. Исследователи предполагают, что хакеры могут использовать ошибку на иностранцах с плохим знанием языка или в шумных помещениях.

Ниже представлены два видеоролика, демонстрирующие работу уязвимости Voice Squatting на голосовых помощниках Amazon Alexa и Google Home:

Вторая обнаруженная ошибка получила название Voice Masquerading. Работа уязвимости заключается в продлении активности приложения без уведомления пользователя. Используя обнаруженную ошибку, хакеры могут превращать голосовых помощников в прослушивающие устройства.

В подтверждение своих слов учёные опубликовали видеоролики с демонстрацией работы ошибки:

С каждым годом растёт популярность и востребованность голосовых помощников. Напомним, что в марте 2018 года IBM представила сервис для создания голосовых ассистентов.

Источник: Bleeping Computer

Подобрали три теста для вас:
— А здесь можно применить блокчейн?
Серверы для котиков: выберите лучшее решение для проекта и проверьте себя.
Сложный тест по C# — проверьте свои знания.

Также рекомендуем: