Хакеры способны тайно управлять голосовыми помощниками

Технологии >> 12.05.2018, 13:06

Калифорнийские ученые провели эксперимент и доказали, что злоумышленники способны давать команды голосовым помощникам Alexa, Siri и Google Assistant через неслышные для человека звуки. Итоги исследования специалистов из университета Беркли разместил на своем сайте The New York Times.

Высокий спрос на интеллектуальные системы, основанные на голосовых ассистентах, порождают и новые киберугрозы. Исследователи отмечают: все существующие на рынке голосовые ассистенты уязвимы и последствия для владельцев могут быть довольно печальными.

Дело в том, что умные помощники интерпретируют звуки и составляют из них предложения. Однако сигналы могут быть не только голосовыми, но и зашифрованными в роликах на ютьюбе либо вставленными в популярные песни. Благодаря этим звукам хакеры вполне реально способны использовать чужих помощников в собственных корыстных целях. К примеру:

• заставить Alexa открыть дверь в жилище,
• Siri – набрать необходимый им номер,
• Google Assistant «попросить» перевести деньги с карты.

Представители Apple и Amazon уже отреагировали на данное предостережение, заявив, что разрабатывающие систему распознавания речи специалисты непременно усовершенствуют домашних ассистентов. Пока же владельцам колонки Homepod для управления нужными приложениями придется с начала при помощи голосовой команды разблокировать собственный iPhone или iPad.

Российские IT-компании стараются не отставать от зарубежных коллег и также работают над голосовыми помощниками. В середине апреля «Яндекс» заявил, что создает Yandex.iO, которая позволит управлять электроникой и быттехникой через помощника «Алису». Интегрированные с приложениями и сервисами «Алисы» устройства помогут «помощнице» шутить, отвечать на вопросы, играть в игры с пользователем.