Alexa compartilhou aleatoriamente conversas de uma família com seus contatos sem que fosse dado um comando específico para a ação

Privacidade em riso



Uma família de Portland, no Estado norte-americano do Oregon, descobriu que a Alexa, assistente de voz da Amazon, gravou conversas e enviou aleatoriamente para seus contatos.


O episódio revelou que a Alexa pode interpretar conversas como um pedido de acionamento ou um comando de voz. A Amazon afirma que ocorreu uma “improvável… série de eventos” que fizeram a assistente de voz enviar aleatoriamente as gravações de áudio da família para contatos. 





O KIRO 7, um veículo da imprensa local, reportou que uma mulher com dispositivos da Amazon em sua casa recebeu uma chamada há duas semanas de um funcionário de seu marido, dizendo que a Alexa tinha gravado uma conversa de sua família sobre pisos de madeira e enviado para ele.


“Eu me senti invadida”, disse a mulher, identificada apenas como Danielle, segundo a reportagem. “Uma total invasão de privacidade. Imediatamente eu disse, ‘eu nunca vou ligar esse dispositivo de novo porque não posso confiar nele'”.


Alexa, que vem com caixas de som Echo e outros aparelhos, começa a gravar depois de ouvir seu nome ou outra “palavra de ativação” selecionada pelo usuário. Isso significa que uma expressão parecida com Alexa, mesmo de um comercial de TV, pode ativar o dispositivo.


Foi isso que aconteceu no incidente, disse a Amazon.


“Conversa subsequente foi ouvida como um pedido de ‘enviar a mensagem'”, disse a empresa em um comunicado. “Naquele ponto, Alexa disse em voz alta ‘para quem?’ e a conversa de fundo foi interpretada como um nome na lista de contatos do cliente.”


A Amazon acrescentou que a empresa está “avaliando as opções para tornar esse caso ainda menos provável.”


Garantindo aos consumidores que a segurança da Alexa é crucial para a Amazon, que tem ambições de que o dispositivo seja onipresente – seja controlando as luzes para os clientes ou fazendo pedidos junto à maior varejista online no mundo.


Pesquisadores da universidades de Berkeley e Georgetown descobriram em um estudo de 2016 que sons ininteligíveis para humanos podem disparar assistentes de voz em geral, o que levantou preocupações sobre o uso para ataques. A Amazon não comentou imediatamente sobre o assunto, mas anteriormente disse ao New York Times que tomou medidas para manter seus dispositivos seguros.



DEIXE UMA RESPOSTA

Please enter your comment!
Please enter your name here