Pesquisadores da Royal Holloway University, na Inglaterra, e da Universidade de Catania, na Itália, descobriram como usar comandos de voz da Alexa para hackear dispositivos Echo. Apelidado de “Alexa versus Alexa (AvA)”, o ataque analisado (e publicado aqui) consiste em fazer os alto-falantes inteligentes da Amazon executar comandos de voz, mesmo quando tais solicitações são reproduzidas pelo próprio aparelho.
Em outras palavras, um invasor assumindo o controle do alto-falante consegue fazer com que ele diga instruções maliciosas em voz alta para si mesmo. Por meio da técnica, um dispositivo vulnerável pode ser solicitado a fazer compras não autorizadas da Amazon ou ativar/desativar dispositivos IoT em casa ou no escritório.
“É pra já, Alexa”
Estamos falando de um invasor controlar outros aparelhos smart dentro de um ecossistema. Ou seja, realizar ações fúteis, como ligar e desligar as luzes, ou acionar um forno microondas inteligente – e definir o aquecimento para uma temperatura insegura – e desbloquear fechaduras conectadas.
Mesmo quando os dispositivos Echo solicitam confirmação verbal de um comando sensível, os pesquisadores descobriram que era possível ignorar a verificação. Bastou adicionar um único comando “sim”, que é reproduzido automaticamente após seis segundos, caso o alto-falante solicite a confirmação verbal antes de continuar.
Também foi possível enviar comandos longos com sucesso, graças a uma outra vulnerabilidade descoberta, que foi chamada de “Vulnerabilidade de Volume Total (FVV)”. Por padrão, os dispositivos Amazon Echo diminuem o volume sempre que ouvem sua palavra de ativação, mas o estudo conseguiu fazer os dispositivos realizarem comandos auto-emitidos contornando essa diminuição de som.
Hackers respondendo aos comandos direcionados à Alexa
Os pesquisadores dizem que outra vulnerabilidade encontrada permite que hackers criem uma habilidade silenciosa que faz o usuário pensar que está falando com a Alexa. Porém, é um agente mal intencionado que está interceptando e respondendo aos comandos.
Esse tipo de ataque man-in-the-middle pode permitir a um invasor espionar todos os comandos que uma pessoa deu ao seu dispositivo Alexa e também pode enviar respostas falsas de volta ao usuário do alto-falante inteligente. Como mostra um vídeo publicado no YouTube por um dos autores do artigo, Sergio Esposito:
Em uma das cenas do vídeo, os pesquisadores demonstram, por exemplo, como um pedido para Alexa “calcular 10 mais 11” poderia ter como resposta falsa “77”.
Usando até Bluetooth
Para deixar o alto-falante inteligente vulnerável ao ataque AvA, os pesquisadores analisaram técnicas como uma estação de rádio e até aplicativos de conversão de texto em fala para transmitir comandos de voz para o Echo. Um invasor próximo ao alto-falante inteligente também poderia usar um dispositivo habilitado e emparelhado para Bluetooth.
Felizmente, em resposta à pesquisa, a Amazon emitiu vários patchs para corrigir vários desses pontos fracos. Isso significa que não é mais possível usar as habilidades da Alexa para ativar dispositivos, nos quais o ataque ao Bluetooth dependia, ou usar estações de rádio para fornecer comandos auto-emitidos.
O site Tom’s Guide lembra que esta não é a primeira vez que alto-falantes inteligentes e outros assistentes de voz da Amazon mostram falhas de segurança relacionadas a comandos de voz e Alexa. Casos anteriores incluem funcionários da empresa que podiam ouvir áudios das pessoas e aplicativos aprovados espionando os usuários na tentativa de phishing de senhas, por exemplo.
Um ex-executivo da Amazon, inclusive, admitiu desligar os aparelhos inteligentes da empresa sempre que realiza conversas privadas, como vimos aqui. Esta ameaça representada pelo AvA foi considerada de gravidade “média” pela Amazon.