Fui salvo por um robô? O uso da Inteligência Artificial no salvamento de vidas

direito digital

Cara, todo mundo está se afastando de mim, eu sou culpada de tudo, eu sou o desgosto da família, amigos? Quero colocar um fim em tudo isso. Quando eu mais precisava deles eles sumiram do nada, riram da minha cara, e eu cansei de tudo isso sabe, eu só queria ser feliz, ter um amigo. Quero acabar com esse sofrimento. (post no facebook de Xisto Figura – nome falso)

A cada 40 segundos, uma pessoa morre por suicídio. É a segunda principal causa de morte de pessoas entre 15 e 29 anos. A IA no Facebook poderia ajudar? O caso apresentado, ajudou. Utilizamos aqui um nome falso, porém por meio da IA do Facebook foi acionado o CVV – Centro de Valorização a Vida e várias mensagens com o número 188 apareceram na tela da pessoa com ideação suicida. Essa pessoa ligou e salvou sua vida.

Usando aprendizado de máquina, o Facebook visa ajudar as pessoas necessitadas a tempo. A ferramenta usa sinais como frases em postagens ou comentários para identificar postagens de pessoas que podem precisar de ajuda.

Um homem que mora na cidade de Chongqing, no sudoeste da China, pai biológico de Fu, estava procurando por seu filho nos últimos 27 anos E um homem chinês de 33 anos, chamado Fu, finalmente se reencontrou com seus pais biológicos 27 anos depois de ser sequestrado aos 6 anos, e tudo graças a um tipo de IA. conhecido como reconhecimento facial. Fu foi levado para a província de Fujian, no sudeste, após seu sequestro (“QPSOFTWARE | Web Agency, Software & Mobile Development in Shanghai”, 2017)

Em 2009, ele decidiu postar suas informações em um site criado para localizar crianças desaparecidas, mas sem resultados. Recentemente, porém, o site informou que havia uma possível correspondência e, após a realização de um teste de DNA, a correspondência foi confirmada. Esta correspondência bem-sucedida só foi possível graças ao recente reconhecimento facial A.I. tecnologia. Ele usa recursos faciais humanos para permitir a detecção, o reconhecimento e a correspondência de rostos em todas as categorias de idade. Em março de 2018, aplicaram essa tecnologia ao banco de dados de crianças desaparecidas com o objetivo de ajudar no combate ao tráfico de pessoas.

Estes são somente dois dos vários exemplos do uso da IA como recurso de prevenção a violência. O campo da violência e prevenção de conflitos está prestes a enfrentar uma reviravolta ao enfrentar novas questões sobre sua capacidade de analisar dados, mitigar riscos e exercer liderança normativa em uma era de ameaças à segurança convergentes. As ameaças aos direitos humanos e à segurança desencadeadas por inteligência artificial (IA) e tecnologias de captura de dados exigirão que os atores da construção da paz e da prevenção da violência preencham a lacuna entre o alerta precoce e a resposta e antecipem novos desafios.(PAUWELS, 2020).

O potencial dessas tecnologias convergentes para controlar e influenciar o comportamento humano tem implicações diretas na violência para ONU e nos esforços de prevenção de conflitos. Como também em sua agenda de direitos humanos, incluindo os esforços para combater o terrorismo e prevenir o extremismo violento.

Os algoritmos podem identificar dados biométricos, como características faciais, impressões digitais, geometria do lóbulo da mão e da orelha, DNA e amostras de voz, detectando e processando padrões e formas específicas de um indivíduo (por exemplo, segmentando e indexando a varredura da íris de alguém). Algoritmos que realizam identificação e verificação de dados biométricos podem não ter conjuntos de dados de treinamento ideais, podem ser propensos a erros e podem amplificar o viés existente nas medições biométricas. Os algoritmos também estão adquirindo a capacidade de analisar dados visuais que constituem informações demográficas e pessoais, como sexo, raça e idade, e coletar informações sobre a aparência externa dos indivíduos.(NAST, [s.d.])

Por meio da IA é possível o reconhecimento da ação humana. Os algoritmos são capazes de interpretar e entender o mundo visual, e o processamento de linguagem natural permite que eles entendam diferentes idiomas. Eles podem, assim, analisar e interpretar as ações humanas, desde “reconhecer ações humanas simples, como andar e correr” até reconhecer “atividades humanas realistas envolvendo várias pessoas e objetos”.(RODRÍGUEZ et al., 2021)

A função final de tais algoritmos não é apenas interpretar as ações humanas, mas também predizê-las. Análise de multidão também pode já ser feira por meio da IA. A inteligência artificial pode ajudar a detectar e qualificar comportamentos de multidões, mapear interações sociais ou “agrupamentos” em multidões e sinalizar comportamentos anômalos ou atípicos. Embora a análise de multidões tenha grande potencial para apoiar a vigilância epidemiológica, ela levanta a perspectiva de vigilância política e social de eventos como protestos.

E ainda, o reconhecimento de afeto que é uma técnica dentro da computação afetiva, um campo que visa interpretar os estados emocionais dos indivíduos, ensinando algoritmos de visão computacional para analisar suas expressões faciais e modulação de voz, movimentos oculares e dilatação da pupila, marcha e respostas corporais. Tal IA está sendo testada no combate à violência doméstica e infantil. Embora o reconhecimento de afeto careça de validade científica, a técnica já é usada na academia e na indústria para criar aplicações que abrangem gerenciamento de dor médica, publicidade no varejo, headhunting, avaliação de estudantes e até mesmo policiamento preditivo e justiça criminal.

A violência contra crianças é uma ameaça global de saúde pública de considerável preocupação. Pelo menos metade de todas as crianças em todo o mundo sofrem violência todos os anos; globalmente, o número total de crianças entre 2 e 17 anos que sofreram violência em qualquer ano é de um bilhão.

A vantagem de usar um sistema de conhecimento automatizado é a redução do erro humano na tomada de decisão, bem como a capacidade de utilizar enormes volumes de dados em um ritmo que excede em muito a capacidade humana. Big Data são conjuntos de dados extremamente grandes que podem ser analisados computacionalmente para revelar padrões, tendências e associações, e podem ser usados para informar IA e aprendizado de máquina. (HUNT et al., 2020)

O Twitter tem 330 milhões de usuários ativos, o Facebook 2,5 bilhões de usuários e o Instagram 1 bilhão. Esses indivíduos, nessas plataformas, geram milhões de pontos de dados (tweets, postagens, compartilhamentos e imagens ou vídeos) a cada hora de cada dia. Talvez não seja surpreendente, então, que pesquisadores interessados em desenvolver algoritmos de aprendizado de máquina tenham se voltado muito cedo para as mídias sociais para dados de entrada.

Em aplicação ao problema da violência, o uso de dados de mídia social tem sido amplamente confinado ao processamento de linguagem natural. Usando esses métodos, os dados de mídia social podem fornecer aos intervencionistas quantidades substanciais de informações sobre comunidades marginalizadas em risco de violência (Patton et al., 2018).

O laboratório de pesquisa SAFE da Universidade de Columbia, liderado por Desmond Patton, desenvolveu algoritmos de processamento de linguagem natural para identificar emoções expressas (principalmente focadas em luto e agressão) em dados do Twitter de jovens envolvidos em gangues. Os pesquisadores afirmam que esses dados podem fornecer uma indicação precoce de intenção violenta e prever violência futura. Da mesma forma, a iniciativa Cure Violence E-Responder de Nova York treina indivíduos para identificar conteúdo de mídia social de alto risco e reduzir conflitos potencialmente violentos online em sites na cidade de Nova York.

Está sendo aplicado nas mídias sociais um sistema de decisão que analisa a linguagem online para identificar a violência cibernética. A inovação dos pesquisadores é nova, pois pode detectar casos em que a linguagem abusiva (linguagem abusiva, gíria e palavrões) foi ofuscada (as palavras problemáticas ocultas ou outros termos usados em seu lugar). O sistema de decisão integrado mostrou uma precisão de 94,08% na detecção de palavras maliciosas para comentários de notícias, uma precisão de 89,97% na detecção de palavras maliciosas para comentários de comunidades online e uma precisão de 90,65% na detecção de palavras maliciosas para tweets do Twitter.(HUNT et al., 2020)

Vale a pena notar que, em relação a muitos dos exemplos acima, o uso de sistemas de tomada de decisão de especialistas em IA levantou preocupações em relação à privacidade, perfis e a criação de expectativas que excedem o que os sistemas especialistas podem razoavelmente fazer, com precisão. De maneira mais geral, é amplamente debatido se o monitoramento de dados individuais, mesmo para um bem maior, é ético, especialmente quando aqueles que estão sendo monitorados não sabem que estão sendo vigiados.

____________________

Heloisa Helena de Almeida Portugal

 

Referências

________________________________________

HUNT, X. et al. Artificial Intelligence, Big Data, and mHealth: The Frontiers of the Prevention of Violence Against Children. Frontiers in Artificial Intelligence, v. 3, 2020.

NAST, C. Police built an AI to predict violent crime. It was seriously flawed. Wired UK, [s.d.].

PAUWELS, E. Artificial Intelligence and Data Capture Technologies in Violence and Conflict Prevention: Opportunities and Challenges for the International Community. [s.l.] Global Center on Cooperative Security, 2020. Disponível em: <https://www.jstor.org/stable/resrep27551>. Acesso em: 26 abr. 2022.

QPSOFTWARE | Web Agency, Software & Mobile Development in Shanghai. Disponível em: <https://qpsoftware.net/blog/artificial-intelligence-saves-boys-life>. Acesso em: 26 abr. 2022.

RODRÍGUEZ, D. A. et al. A Systematic Review of Computer Science Solutions for Addressing Violence Against Women and Children. IEEE Access, v. 9, p. 114622–114639, 2021.

Compartilhe nas Redes Sociais
Share on facebook
Share on twitter
Share on linkedin
Share on whatsapp
Share on email
Continue Lendo
Anúncio