Apple, Pornografia infantil e Proteção de Dados

Apple, Pornografia infantil e Proteção de Dados

proteção de dados

No âmbito do Direito Digital a proteção de dados é um dos temas mais debatidos nos últimos anos, de modo que, inúmeras pesquisas têm sido desenvolvidas, nos mais diferentes vieses. Seja no Brasil, ou em outros países democráticos, paulatinamente as pessoas se atentam à importância de resguardar seus dados e informações, especialmente aqueles disponíveis em ambiente digital.1

Nesse contexto a Apple, uma das gigantes do mercado de tecnologia, desenvolveu um sistema de verificação automática de mídias, com o intuito de encontrar indícios de material que possam envolver o abuso de crianças. O software atua nas mídias armazenadas na nuvem – Icloud – ou no próprio aparelho, denominado CSAM Detection, (Child Sexual Abuse Material Detection).2

De acordo com a empresa o software será implementado ainda no ano de 2021, nos próximos updates para usuários dos Estados Unidos, em consonância com as práticas da empresa para maximizar a proteção de crianças contra abusadores sexuais.

Após o anúncio da empresa diversas pessoas elucidaram suas preocupações em relação a criação de um algoritmo capaz de detectar conteúdos ilícitos nos dados dos usuários. Posto que, a ação, ainda que positiva sob um viés de proteção as crianças e adolescentes, significa a criação de uma fragilidade no tocante a proteção de dados dos usuários da marca.3

O sistema da Apple é capaz de contornar as barreiras protetivas estabelecidas pelos aplicativos de mensagem com criptografia de ponta-a-ponta, uma vez que atua somente após o recebimento da mensagem e salvamento da mídia no aparelho ou na nuvem.

O algoritmo é capaz de verificar as mídias salvas e cruza-las com as disponíveis em uma base de dados do Centro Nacional para Crianças desaparecidas e Exploradas dos Estados Unidos da América (NCMEC). Caso a avaliação constate indícios da existência de material ilícito o algoritmo criará um voucher de segurança criptográfico, os quais, caso acumulados, em determinada quantidade não informada pela empresa, criará um alerta nos sistemas da Apple para verificação humana do conteúdo. Por fim, caso se verifique a existência de material sensível relativo ao abuso infantil o usuário será denunciado e sua conta Apple será suspensa.4

Nenhum algoritmo possui 100% de acurácia, de modo que nudes de adultos poderão ser, incorretamente, reportados como conteúdo de abuso infantil. Especialmente em razão de as diferenças anatômicas entre uma pessoa de 16, 17, 18 e, até mesmo, 19 anos, serem sutis. Nesse cenário, qualquer pessoa que enviar ou receber uma mídia com nudez poderá ter sua imagem visualizada por outro indivíduo, em favor de uma verificação do conteúdo compartilhado.

A criação do referido algoritmo maximizou o debate acerca do risco derivado da verificação dos dados pessoais por empresas e autoridades. De modo que, se hoje a Apple possui recursos tecnológicos suficientes para identificar material relativo à pornografia infantil, a empresa consegue monitorar qualquer outro tipo de informações sobre seus usuários.

Nessa perspectiva Edward Snowden, ex-administrador de sistemas da CIA, famoso mundialmente por tornar público a existência de programas dos E.U.A de vigilância global já em 2013, expressou suas preocupações por meio de sua conta oficial no Twitter:

“No matter how well-intentioned, Apple is rolling out mass surveillance to the entire world with this. Make no mistake: if they can scan for kiddie porn today, they can scan for anything tomorrow”.5 

Os dados podem ser utilizados das mais diversas maneiras possíveis, especialmente quando atrelados a um algoritmo ou a uma inteligência artificial. A utilização indevida do mecanismo da empresa pode ser utilizado, exemplificativamente, por Estados Autoritários para encontrar opositores ou dissidentes e, até mesmo, espionar os próprios cidadãos.

As possibilidades advindas da utilização do referido algoritmo são infinitas, todavia as perspectivas não são promissoras. A despeito do inegável trabalho da empresa em favor da proteção e resguardo das crianças e adolescentes, o software da Apple pode ser utilizado de inúmeras maneiras gravosas a todos os usuários da marca e mesmo a não usuários que compartilhem mídias com usuários da marca.

____________________

Clayton Douglas Pereira Guimarães

Glayder Daywerth Pereira Guimarães

 

Referências

________________________________________

1. Sobre o assunto recomenda-se a leitura de: FALEIROS JÚNIOR, José Luiz de Moura; LONGUI, João Victor Rozatti; GUGLIARA, Rodrigo (coords.). Proteção de dados pessoais na sociedade da informação: entre dados e danos. Indaiatuba: Foco, 2021.

2. APPLE. CSAM Detection Technical Summary. 2021. Disponível em: https://apple.co/2WXK1cS. Acesso em: 07 ago. 2021.

3. ALBERGOTTI, Reed. Apple is prying into iPhones to find sexual predators, but privacy activists worry governments could weaponize the feature. The Washington Post. 2021. Disponível em: https://wapo.st/3rXHdbi. Acesso em: 07 ago. 2021.

4. MCMILLAN, Robert. Apple Plans to Have iPhones Detect Child Pornography, Fueling Privacy Debate. The Wall Street Journal. 2021. Disponível em: https://on.wsj.com/3jxOU4f. Acesso em: 07 ago. 2021.

5. SNOWDEN, Edward. No matter how well-intentioned. Twitter. 2021. Disponível em: https://bit.ly/3yrrnYR. Acesso em: 07 ago. 2021.

Compartilhe nas Redes Sociais
Anúncio