» » Голосовые помощники Siri и Alexa уязвимы к ультразвуковым хакерским атакам

Голосовые помощники Siri и Alexa уязвимы к ультразвуковым хакерским атакам Hi-Tech


Исследователи доказали, что голосовые помощники поддаются управлению с помощью неслышимых ультразвуковых команд, сообщает psm7.com.

 

Голосовые помощники Siri и Alexa уязвимы к ультразвуковым хакерским атакам. Фото: americatv.com.pe

 

Ученые обнаружили, что Siri, AlexaGoogle Now и другие голосовые помощники могут управляться с помощью неслышимых ультразвуковых команд.

 

Исследователи из Чжэцзянского университета в Китае обнаружили, что эти неслышимые команды могут стать новым методом кибератак для хакеров, нацеленных на телефоны, планшеты и даже автомобили.

 

Чтобы доказать свою теорию, исследователи, используя гармонические колебания, создали программу для перевода обычных голосовых команд в частоты, слишком высокие для восприятия человеческим ухом. Этот метод они назвали «DolphinAttack» («атака дельфина»), потому что дельфины используют высокочастотные шумы, которые отталкиваются от окружающих объектов, как форму эхолокации.

 

Исследователи провели тестирования на базе 16 голосовых ассистентов, включая Siri от Apple, Google Now, S Voice от Samsung, Cortana от Microsoft и Amazon Alexa, чтобы выяснить, станут ли они выполнять неслышимые ультразвуковые команды. В ходе эксперимента голосовые помощники выполнили такие команды, как «активировать Siri, чтобы начать разговор на FaceTime на iPhone», «активировать Google Now, чтобы включить режим полета на смартфоне» и даже «управлять системой навигации в автомобиле Audi».

 

Исследователи также объяснили, что ультразвуковой метод может использоваться для совершения вредоносных кибератак. Таким образом можно, например, дать устройству команду перейти на определенный веб-сайт, который будет загружать вирус.

 

Хорошая новость в том, что такой метод хакерства имеет ряд ограничений, поэтому не представляет большой опасности. Например, для совершения атаки злоумышленник должен находиться не более чем в нескольких футах от устройства.

 

Источник: psm7.com

Siri Alexa голосовые помощники безопасность хакеры

Поделиться новостью:

Заметили ошибку на сайте? Выделите текст и нажмите Ctrl+Enter или Cmnd+Enter

Комментарии

Информация
Комментарии к данной статье отсутствуют, вы можете стать первым!

Наверх