Перевод | Базовый лагерь технологий искусственного интеллекта (rgznai100)
Участвовать | шон
Хакеры могут получить контроль над самым популярным в мире голосовым помощником, шепча ему на частотах, которые люди не могут слышать.
Исследователи в Китае обнаружили ужасающие уязвимости в голосовых помощниках Apple, Google, Amazon, Microsoft, Samsung и Huawei. Это затрагивает все iPhone и Macbook с Siri, все телефоны Galaxy, все ПК с Windows 10 и даже помощник Amazon Alexa.
Исследовательская группа из Чжэцзянского университета использовала технику, называемую атакой дельфинов, для преобразования типичных голосовых команд в ультразвуковые частоты, которые слишком высоки для человеческого уха. Но питание наших постоянно включенных голосовых помощников через микрофоны и программное обеспечение совершенно понятно.
Это был относительно простой процесс перевода, и они взяли под контроль гаджет, произнеся несколько слов на частотах, которые мы не могли слышать.
Вместо того, чтобы просто говорить «Привет, Siri» или «ОК, Google», исследователи могли указать iPhone набрать 1234567890 или iPad — номер FaceTime. Они могут заставить Macbook или Nexus 7 открыть вредоносный веб-сайт, они могут дать команду Amazon Echo открыть черный ход, и даже навигационная система Audi Q3 может быть перенаправлена в новое место. «Эти неслышные голосовые команды создают проблемы для обычных конструкций, поскольку предыдущие конструкции были построены на предположении, что злоумышленник в лучшем случае пытается манипулировать голосовым помощником с помощью слышимого голоса и может быть обнаружен путем оповещения пользователей». и он только что был принят на конференции ACM по компьютерной и коммуникационной безопасности.
Другими словами, Силиконовая долина разработала удобные для человека пользовательские интерфейсы с огромным контролем безопасности. Хотя мы можем не слышать плохих парней, наши компьютеры, по-видимому, могут. «С точки зрения пользовательского опыта это было похоже на предательство», — сказал Эйм Эллиотт, директор по дизайну некоммерческой организации SimplySecure. «То, как вы взаимодействуете с устройством, основано на том, чтобы сказать ему, что делать, поэтому тихие, скрытые команды шокируют».
Чтобы взломать каждого голосового помощника, исследователи использовали смартфон с дополнительным оборудованием на 3 доллара, включая крошечный динамик и функции усилителя. Теоретически их метод теперь общедоступен, и им может пользоваться любой, у кого есть немного технических знаний и несколько долларов в кармане. В некоторых случаях эти атаки могут быть осуществлены только с расстояния в несколько дюймов, хотя такие гаджеты, как Apple Watch, уязвимы в пределах нескольких футов. В этом смысле трудно представить, что Amazon Echo подвергнется нападению дельфинов.
Злоумышленник, который хочет открыть заднюю дверь вашего дома, должен сначала проникнуть в ваш дом и подобраться поближе к вашему Эхо. Но взлом iPhone кажется пустяком, хакеру достаточно пройти мимо вас толпой. Они достанут телефон, воспроизведут команду на частоте, которую вы не слышите, и ваш телефон будет болтаться у вас в руке. Так что, возможно, вы не увидите, что Safari или Chrome загружены веб-сайтом, который, в свою очередь, запускает код для установки вредоносного ПО, в то время как контент и сообщения вашего телефона открыты для их изучения.
В документе исследователи объясняют, что уязвимость вызвана сочетанием аппаратных и программных проблем.
Микрофоны и программное обеспечение голосовых помощников, таких как Siri, Alexa и Google Home, могут улавливать звуки выше 20 кГц за пределами человеческого слуха. (Насколько высока частота 20 кГц? Всего несколько лет назад москитная мелодия стала вирусной, позволяя юным ученикам без потери слуха отправлять текстовые сообщения своим друзьям, не будучи услышанными учителями. Короткое сообщение)
По словам Гади Амита, основателя и промышленного дизайнера таких продуктов, как Fitbit,Конструкция этих микрофонов затрудняет защиту от таких атак.. Существуют различные типы самих микрофонных сборок, но большая часть используемого давления воздуха не может быть защищена от ультразвуковых волн. — объяснил Амит. По сути, самые популярные сегодня микрофоны преобразуют турбулентные воздушные или звуковые волны в электрические волны, и заблокировать эти сверхслуховые возможности невозможно.
Это означает, что нам нужно программное обеспечение для расшифровки человеческой речи и машинной речи. Теоретически Apple или Google могли бы приказать своим помощникам никогда не подчиняться командам цифровых аудиофильтров ниже 20 кГц. «Подождите, когда этот человек приказал мне, он исходил из диапазона голосов, которые они не могли произнести! Я не собираюсь их слушать».Но исследователи из Чжэцзяна обнаружили, что каждая крупная компания, занимающаяся голосовыми помощниками, обнаружила уязвимость к отправке команд за пределами 20 кГц..
Почему Amazon и Apple оставили такую огромную дыру, которую можно легко закрыть программным обеспечением?Мы пока не знаем, но мы связались с Apple, Google, Amazon, Microsoft, Samsung и Huawei. Но есть по крайней мере две теории, которые вполне правдоподобны, обе из которых касаются того, чтобы сделать голосовых помощников более удобными для пользователя.
Во-первых, голосовым помощникам на самом деле нужен ультразвук, чтобы слышать голоса людей, а не анализировать звук с помощью этих высокочастотных звуков. "Имейте в виду, что программному обеспечению для анализа речи может потребоваться каждая реплика в вашем голосе, чтобы добиться его понимания, — сказал Амит. — Фильтрация самых высоких частот нашей речевой системы может оказать негативное влияние и снизить понимание во всей системе. Оценка". если людям не нужны ультразвуки, чтобы слышать чужие голоса, возможно, наши компьютеры будут полагаться на них.
Вторая причина заключается в том, что уже есть компании, работающие над использованием ультразвука для улучшения взаимодействия с пользователем, включая связь между телефонами и аксессуарами. В частности, кнопку тире Amazon можно сопоставить с телефоном на частоте 18 Гц, а Google Chromecast можно сопоставить с помощью ультразвука. Для конечного пользователя такой способ сопоставления создает самый волшебный опыт, какой только можно ожидать в эпоху электроники. (Как это работает? Какая разница, это потрясающе!)
Но поскольку мы не слышим их, когда они работают, мы не можем определить, когда они сломаны или взломаны. Они невидимы по дизайну. Это эквивалент вождения автомобиля с бесшумным двигателем. Если ремень ГРМ оборвался, вы об этом узнаете только тогда, когда машина будет остановлена, когда двигатель будет уничтожен. Удобство для пользователя также несет больше рисков для безопасности. Наши браузеры легко и незаметно собирают файлы cookie, которые позволяют маркетологам отслеживать нас в любом месте. Наши телефоны создают резервные копии наших фотографий и контактов в облаке, соблазняя преданных хакеров создать полное хранилище нашей личной жизни.
Каждый раз, когда мы изобретаем хорошо работающую технологию, мы по умолчанию платим за ее скрытую цену: нашу личную уязвимость.Разработка этой голосовой команды является лишь последней в списке многих других недостатков безопасности, вызванных дизайном, но, возможно, лучшим примером пренебрежения Силиконовой долиной к безопасности чего-то нового.
«Я думаю, что в Силиконовой долине есть слепое пятно в отношении того, как не злоупотреблять продуктами, что должно быть самой сильной частью планирования продукта», — сказал Эллиотт. "Голосовые системы трудно защитить, и это также вызывает проблемы, трудно понять, как работает система, и иногда требуется много размышлений, чтобы спроектировать ее. Я чувствую, что нужно проделать большую тяжелую работу, чтобы разгадать бесшовный голос и подумайте о том, как добавить больше визуализации в работу системы».
В настоящее время существует относительно простое решение для атак дельфинов. Все, что вам нужно сделать, это отключить кнопку постоянного включения Siri или Google Assistant на вашем телефоне или планшете, чтобы хакеры не могли отправлять команды на ваш телефон. (За исключением случаев, когда вы разговариваете со своим телефоном), аналогичным образом Amazon Alexa и Google Home имеют кнопки отключения звука, чтобы противодействовать большинству этих уловок (Google Home не тестировался, но теоретически он столь же уязвим).
Конечно, эти решения могут быть обречены на провал, и если единственный способ безопасно использовать голосовых помощников — это сделать так, чтобы они не были слышны, то какова цель нашего исследования голосовых помощников? Возможно, эти компьютеры вообще не существовали в нашей жизни, или общественные места были не везде.
Мы связались с Apple, Google, Amazon, Microsoft, Samsung и Huawei. Если в будущем будет больше историй, мы продолжим обновлять.
Автор|Mark WilsonСтарший писатель в Fast Company, создавший веб-сайт Philanthroper, — это простой способ отблагодарить его.
исходный адресhttp://www.fastcodesign.com/90139019/a-simple-design-flaw-makes-it-astoundingly-easy-to-hack-siri-and-alexa