Alexa: Você está ouvindo?

Amazon Alexa IOT

Dispositivos Smart Speakers com assistentes de voz, como Amazon Echo e Google Home, e Smartphones oferecem benefícios e conveniência, mas também levantam preocupações de privacidade devido a seus microfones continuamente ativos.

Interessante destacar que, no entanto, pouca literatura crítica tem abordado o fato de que muitos destes VPAs – e particularmente os principais VPAs no mercado hoje: Alexa (Amazônia), Cortana (Microsoft) e Siri (Apple), – aparecem com o gênero feminino e produzidos com nomes míticos e especificamente através de uma voz feminina que os usuários acham mais confortável para instruir e dar ordens do que uma voz masculina. (mas esse é assunto de outro post)

O Smart Speakers da Amazon Echo estreou em novembro de 2014. Desde então, Google, Apple e Microsoft introduziram seus próprios Smart Speakers, e empresas de áudio começaram a integrar o Alexa, o assistente de voz inteligente da Amazon, em seus próprios produtos. Milhões de Smart Speakers foram vendidos e estima-se que os gastos mundiais com esses dispositivos superem US$ 2 bilhões até 2022.

Os Smart Speakers oferecem aos usuários controle de voz sem as mãos, mas para detectar e responder aos comandos de voz, os microfones têm que escutar continuamente sua palavra de despertar (por exemplo, “Alexa”). As implicações de privacidade desta capacidade técnica – especialmente quando colocada na intimidade de casas pessoais – tem sido o foco de muito debate público, levando os consumidores a questionar o que está sendo registrado, como as informações coletadas serão usadas, como serão protegidas, e se será usado para publicidade direcionada.(LAU; ZIMMERMAN; SCHAUB, 2018)

Em 4 de dezembro de 2020, o Congresso dos EUA decretou a Lei sobre Internet das Coisas e da Ciber-segurança para criar padrões mínimos de segurança para a Internet dos dispositivos de Coisas. A Internet das Coisas (IoT) é um sistema de sensores e atuadores combinados com objetos físicos e ligados entre si por redes sem fio, como já falamos em posts anteriores.

A Lei sobre Internet das Coisas e da Ciber-segurança de 2020 reconheceu uma necessidade de padrões e regulamentos mais elevados no que diz respeito à segurança dos dados em torno de IoT. Os Estados têm reconhecido cada vez mais a necessidade de mais privacidade proteções à medida que a tecnologia continua a avançar, inovar e se infiltrar quase todas as facetas da vida de uma pessoa. Os dispositivos acionados por sensores têm se tornado cada vez mais acessível ao mercado consumidor em geral, principalmente por estarem integrados aos Smartphones.(MINORINI, 2020)

Pesquisas anteriores exploraram as preocupações dos consumidores com a privacidade com a tecnologia doméstica inteligente, brinquedos conectados, medidores inteligentes, e robôs. Outras pesquisas estudaram como as pessoas usam assistentes de voz em público baseados no smartphone, mostraram como o dispositivo está incorporado no dia-a-dia, de conversação, e identificou os benefícios que as pessoas com deficiência poderiam obter de usar Smart Speakers em suas casas, tais como terapia da fala e apoio aos cuidadores. (BONALDO; CUGINI, 2020)

Enquanto isso, pesquisadores de segurança identificaram vulnerabilidades de segurança que permitiriam atacantes para explorar alto-falantes inteligentes como escutas. Apesar do potencial intrusivo de privacidade dos Smart Speakers a capacidade dos dispositivos de gravar continuamente vozes em espaços íntimos como a casa, o consumidor preocupações com a privacidade e como essas preocupações afetam a adoção de Smart Speakers e uso não foram estudados em detalhes.

Uma melhor compreensão destes aspectos pode informar futuros projetos de Smart Speakers e controle de privacidade. Assim, trazemos três questionamentos reflexivos:

(1) Que fatores afetam a (não) adoção de Smart Speakers?

(2) Quais são as percepções e preocupações das pessoas com relação à privacidade dos Smart Speakers?

(3) Como essas preocupações de privacidade afetam seu comportamento em torno e com os Smart Speakers?

Por outro lado, importante destacar que o relatório da UE ‘Declaração sobre IA, Robótica e Sistemas Autônomos’ estabelece uma série de princípios éticos baseados nos valores da Carta dos Direitos Fundamentais da UE e dos Tratados da UE, para orientar o desenvolvimento de uma estrutura para regulamentação da IA. Analogamente aos relatórios do Reino Unido e dos EUA, um dos princípios éticos estabelecidos neste relatório da UE observa a importância de garantir que os conjuntos de dados sejam justos e não prejudiciais.(ADAMS; LOIDEAIN, 2020)

No entanto, o relatório também inclui um número de outros princípios que juntos fornecem uma estrutura ética mais convincente para combater o impacto social potencialmente negativo da IA do que os relatórios do Reino Unido e dos EUA. Estes princípios incluem um princípio sobre a dignidade humana, que estabelece como abrangendo a questão de que “há limites para determinações e classificações relativas a pessoas, feitas com base em algoritmos e sistemas “autônomos”, especialmente quando aqueles afetados por elas não são informados sobre elas”.

O outro princípio de interesse aqui é o Princípio (g) sobre “Segurança, proteção, integridade física e mental”, qual seja:

A segurança e a segurança de sistemas “autônomos” se materializa em três formas: (1) segurança externa para seu ambiente e usuários, (2) confiabilidade e robustez interna, por exemplo, contra hacking, e (3) segurança emocional no que diz respeito à interação homem-máquina. Todas as dimensões da segurança devem ser levadas em consideração pelos desenvolvedores de IA e rigorosamente testadas antes da liberação, a fim de garantir que sistemas “autônomos” não infrinjam o direito humano à integridade física e mental e a um ambiente seguro e protegido. Por este meio, deve ser dada atenção especial às pessoas que se encontram em uma posição vulnerável.

As tecnologias da Internet das Coisas colocam complexas implicações de privacidade. A sensibilidade de uma atividade, a localização física dos dados sensoriais, o tipo de dados coletados e o período de retenção de dados afetarão o quanto as pessoas se sentem confortáveis com a coleta de seus dados. A casa é um dos locais mais sensíveis à privacidade para a coleta de dados de IOT. A coleta de dados detalhados de um único dispositivo em casa e a agregação de dados sensoriais podem revelar percepções íntimas sobre as atividades dos residentes, por exemplo, quando as medições de potência podem revelar quando ninguém está em casa.(ADAMS; LOIDEAIN, 2020)

Quando dispositivos IoT são usados para vigilância, uma consequência não intencional pode ser uma perda de confiança, como quando os pais usam sistemas IoT para monitorar o paradeiro de seus filhos adolescentes.

Em nossos posts anteriores apresentamos que os dispositivos domésticos IoT permitem ainda mais o monitoramento das atividades das crianças, e também a prevenir danos às pessoas. Agora desafiamos a refletir sobre o respeito pela privacidade de filhos, idosos e todos nós. Qual o limite ético e jurídico entre proteção, privacidade e segurança?

Finalmente, as empresas privadas que fabricam dispositivos IoT domésticos muitas vezes têm interesses de coleta e uso de dados que diferem dos interesses de seus usuários, criando conflitos de interesses. Os consumidores têm que equilibrar a troca entre a manutenção de sua privacidade e a conveniência proporcionada pela tecnologia.

____________________

Heloisa Helena de Almeida Portugal

 

Referências

________________________________________

ADAMS, R.; LOIDEAIN, N. N. From Alexa to Siri and the GDPR: The gendering of Virtual Personal Assistants and the role of Data Protection Impact Assessments | Elsevier Enhanced Reader. Computer Law & Security Review, v. 36, 2020.

BONALDO, A.; CUGINI, G. Intelligenza artificiale: responsabilità nella progettazione e utilizzo di sistemi. p. 6, 2020.

LAU, J.; ZIMMERMAN, B.; SCHAUB, F. Alexa, Are You Listening?: Privacy Perceptions, Concerns and Privacy-seeking Behaviors with Smart Speakers. Proceedings of the ACM on Human-Computer Interaction, v. 2, n. CSCW, p. 1–31, nov. 2018.

MINORINI, K. A VENDETTA AGAINST ALEXA: PRIVACY CONCERNS IN THE AGE OF THE SMART HOME. Boston College Intellectual Property & Technology Forum, 2020.

Compartilhe nas Redes Sociais
Share on facebook
Share on twitter
Share on linkedin
Share on whatsapp
Share on email
Continue Lendo
Anúncio