Os Danos silenciosos decorrentes da Inteligência artificial: uma perspectiva da responsabilidade civil

Os Danos silenciosos decorrentes da Inteligência artificial: uma perspectiva da responsabilidade civil

Cérebro Digital em fundo azul, representando a coluna direito 4.0: fronteiras digitais do portal jurídico magis

Hoje o tema da Inteligência Artificial (“IA”) é dos assuntos mais comentados pelos juristas como uma das novas fronteiras conceituais a serem desbravadas e, pretensamente, inexploradas dogmática e sistematicamente pela doutrina.

A pretensão da doutrina nacional não é pequena, sendo prudente lembrar Eça de Queiroz em sua célebre frase em sua obra As Cidades e as Serras: “Não há nada novo sob o Sol, e a eterna repetição das coisas é a eterna repetição dos males”.

Já pontuava José de Aguiar Dias sobre a permeabilidade do direito civil aos avanços sociais, notadamente no âmbito da responsabilidade civil,1 sendo certo que a inteligência artificial representa um notável avanço tecnológico que os juristas de debatem para entender sua natureza e, por consequência, seus reflexos no mundo jurídico.

O reflexo mais notável é certamente o positivo, com o oferecimento de serviços cada vez mais inteligentes, com altíssimo poder de predição, alta capacidade de processamento de dados (em tempo real e históricos), aprimorando resultados e antecipando pedidos do ser humano e, inclusive, prevenção de danos.

Entretanto, debruça-se o direito sobre os fatos jurídicos, aqui tomando o termo no sentido técnico de fatos da vida com consequências jurídicas. No sentido de Pontes de Miranda é todo fato ou complexo de fatos sobre o qual incide a regra jurídica.2

Marcos Bernardes de Melo ponta que dos fatos jurídicos, resultam em obrigação de indenizar os atos-fatos jurídicos indenizativos, que são aqueles nos quais de um ato humano lícito decorrem danos à terceiros, incorrendo o lesante, sem culpa, no dever de indenizar por ato-fato danoso, quando expressamente tipificada em lei a respectiva hipótese legal.

No caso de existir culpa na conduta, não se está diante de ato fato, mas efetivamente de fato ilícito puro, que também resulta no dever de indenizar.

Daqui resulta uma primeira conclusão interessante: para a ocorrência de ilícito é imprescindível vontade, e para a ocorrência de qualquer ato indenizativo, é imprescindível a mera conduta lícita ou não, sendo certo que a IA, no estado de desenvolvimento científico hoje, não é um ser pensante ou autônomo ou sequer que tenha personalidade jurídica própria, de forma que nunca age com dolo ou culpa, recaindo a “sua” responsabilização à produtores/desenvolvedores e usuários.

Daí a segunda importante conclusão: para se analisar os danos decorrentes de atos de uma IA faz-se importante analisar o complexo de relações jurídicas que se concatenam e levam a IA a tirar determinado resultado que gerou o dano, dano aqui tomado em sentido lato, abrangendo o dano decorrente de evento lesivo, o dano no sentido de efeito econômico negativo e dano como liquidação pecuniária decorrente do efeito econômico negativo provocado.3

Assim, a Inteligência Artificial é passível de entrar no mundo jurídico a provocar consequências jurídicas aptas a enseja indenização pela mão dos humanos que nela atuam, não servindo esse brevíssimo texto a apurar as consequências jurídicas por atos da inteligência artificial forte nos termos da Resolução de 20 de outubro de 2020, que contêm especificamente as recomendações à comissão sobre o regime de responsabilidade civil aplicável à inteligência artificial na União Europeia (2020/2014(INL)), na qual considerou a responsabilidade objetiva para esses casos.

Um passo a trás, importante aqui conceituar a inteligência artificial enquanto um processo informático ou eletrônico que, mesmo complexo, trata-se de uma automação dedutiva, seja na automação residencial, seja na automação de dispositivos de segurança ativos e passivos para automóveis ou automação preditiva na gestão de manutenção inteligente de máquina ou no uso de qualquer sistema baseado em telemetria ou eletrônica sensorial. 4

O professor Eduardo Tomasevicius Filho traz uma importante distinção entre o conceito de IA autônoma versus o conceito de automação, que não se confundem, muito embora haja uma sobreposição: a IA autônoma seria o conjunto de rotinas lógicas aplicada no campo da ciência da computação, o que permitiria aos computadores dispensar a necessidade de supervisão humana na tomada de decisões e na interpretação de mensagens analógicas e digitais, permitindo que acumule informações e experiências pretéritas suas e de outros usuários ou mesmo outras IA e tome decisões baseadas nesses dados.5

Um exemplo do professor, que inclusive pontua que a inteligência artificial está sendo aplicada a vários anos, é a ferramenta computacional para correção de texto, quando o software identifica a palavra ou conjugação ou sintaxe incorreta e assinala para o usuário, ferramenta essa que passou a ser aplicada em tradutores, ocorre que os primeiros resultados mostravam um resultado bruto, ou seja, as palavras traduzidas ou corrigidas eram desconexas do texto ou do sentido geral da frase, falava-se em tradução “ao pé da letra”. Após o aprimoramento do chamado aprendizado de máquina, que passou a interpretar as frases e colocá-las em contexto, colhendo o retorno dos usuários que usavam a ferramenta, a ferramenta de correção de texto passou a apresentar significativas melhoras na compreensão de frases.6

Outro exemplo são as buscas na internet, que passaram de buscas textuais simples para as chamadas buscas heurísticas, que visam antecipar ao usuário os resultados da busca em ordem de importância, ou já realizam a pesquisa com filtros automaticamente escolhidos, o método ocorre nos buscadores de redes sociais, no qual a IA aprende os gostos do usuário e passa a lhe sugerir material compatível com seu perfil ou amigos potenciais,7 que inclui não só os gostos, mas também o fluxo de informações que advêm de um determinado IP, de uma determinada localização, etc.

Já a automação consiste em processo similar, mas ausente a capacidade de auto adaptação, o exemplo do professor é o termostato do ar-condicionado, ao ajustar uma temperatura específica o equipamento se ajusta para alcançar o comando designado, atingindo a temperatura ele desliga, sem qualquer interação com o ambiente em que está inserido.8

Entretanto, o desenvolvimento das novas tecnologias suscita discussões sobre a capacidade do ordenamento jurídico de dirimir eventuais danos que sejam causados pela IA: a aplicação da IA abre uma porta para a ocorrência de novos danos por meio de um leque múltiplo de causas, resultando em complexificação de nexos de causalidade, tais como: sistemas de IA desprovidos de seguranças suficientes que permitam a intervenção de terceiros mal intencionados (hackers), falha de programação que gere a má interpretação de dados, alimentação das IA com dados imprecisos/incorretos, ou criação de IA que interpretem dados de forma pura, desprovidos de filtros éticos capazes de filtrar padrões de comportamentos discriminatórios que os dados podem conter, ou ainda identificar padrões distorcidos que colocam em condição precária grupos sociais vulneráveis.

A questão central não é a própria IA em si, mas a complexidade do processo tecnológico que a permeia, sendo que a IA, enquanto software/algoritmo, é a ponta da cadeia de uma série de processos eletrônico informáticos que lhe são inerentes.

Melhor dizendo, a IA, para funcionar de forma plena, demanda conjunto de sensores para coleta de informações em tempo real de determinado ambiente/pessoa, demanda coleta de informações/experiências anteriores de usuários e/ou ambientes análogos para criar uma biblioteca de experiências que permita que ela “aprenda” rapidamente a tarefa que lhe foi posta para ser cumprida, esse é o famoso conceito de machine learning ou aprendizado de máquina, e o resultado danoso pode advir de um erro do próprio machine learning, ou seja no processamento das informações, produzindo resultado inesperado, ou mal interpretado da realidade, ou ainda: erro na conexão de internet que não permitiu uma atuação rápida da IA para determinada situação, coleta de informações de baixa qualidade (seja por dados disponibilizados na internet serem de baixa precisão ou porque seus sensores de coleta de dados em tempo real são defeituosos ou de são de baixa precisão).

Observe que a análise da “conduta” da IA perpassa pela complexificação do nexo de causalidade, multiplicidade de incidências de regime de responsabilidade, mas cada qual sob um “trecho” da cadeia de fatos informáticos: responsabilidade clássica do produtor no caso de falha mecânica, responsabilidade do desenvolvedor do software no caso de má interpretação de dados ou falta de certificação das informações coletadas e a própria responsabilidade do detentor da IA pelo mal treinamento da IA.

Nesse sentido a professora Giusella Finocchiaro compartilha do entendimento do professor Eduardo Tomasevicius Filho ao assinalar que o paradigma da responsabilidade civil da inteligência artificial teria que ser analisado não sob os parâmetros clássicos da responsabilidade civil, mas sim sob o prisma da GDPR europeia ou LGPD brasileira, pois essencialmente o maior potencial de dano das IA não seria o acidente de carro autônomo, ou o robô doméstico que trai a confiança de seu dono e toma uma decisão inesperada, mas sim a coleta e tratamento de dados pessoais que as IA utilizam para funcionar, a qualidade dos dados utilizados para o funcionamento do aprendizado de máquina e os impactos disso no estudo da responsabilidade civil.9

Muito embora se noticie os acidentes com carros e drones autônomos, os danos ocasionados por robôs cirúrgicos ou erro de diagnósticos por IAs, é certo que a principal matéria prima das IA nem é visível: os dados maciços que ela capta e trata para proferir os resultados.

O problema da IA é, essencialmente, o que os seres humanos não conseguem ver e a capacidade da IA de processar e traçar perfis dos próprios “donos” ou de terceiros, aprendendo o comportamento humano das redes sociais e cruzando dados de forma inesperada e em um limite claro de seu tratamento ou processamento. Ou ainda, restringir-se à interpretação dos dados brutos, lhe escapando muitas vezes a dimensão intangível do dado, daí se compreender a discussão sobre os paradigmas éticos que devem nortear a atuação da IA.

De fato, o ser humano não sabe a dimensão da coleta de seus dados, sequer o peso que esses dados têm na tomada de decisão da IA e o que um conjunto de dados seus pode gerar de vantagens (e desvantagens) para sua vida em sociedade.

O dano silencioso/imperceptível não é um fenômeno exclusivo da IA, mas sim do mundo tecnológico no geral, que se apresenta com a falsa ideia de que o dano é algo tangível, mensurável e observável de pronto, mas esse paradigma é superado: caso dos fenômenos de profiling e sharenting no qual o dano é experimentado/sentido eventualmente após anos de compartilhamento de dados e tratamento destes por algoritmos de IA, seja o dano no seu aspecto moral com a exposição abusiva da intimidade de crianças, ou perfilização precoce de usuários, cujos dados são vendidos e alimentam IAs manipuladoras de informação, formadoras de opinião e/ou induzidoras de comportamento compulsivo de consumo.

O dano silencioso tem ínsito um aspecto quase traiçoeiro, e sua responsabilização é possível pelo estabelecimento de standards de conduta e responsabilidade por accountability,10 no qual o titular responsável pelo tratamento de dados deve ter condições de demonstrar que empreendeu os melhores esforços por meio de um sistema complessivo de medidas jurídicas, administrativas, técnicas e organizacionais lato sensu para assegurar a proteção de dados pessoais, o que constou nos itens 49 a 59 da das Disposições de Direito Civil sobre a robótica (2015/2103(INL)).

A accountability é um mecanismo que atua em duas camadas: de um lado trata da necessidade de se adotar medidas e procedimentos atualizados para se mitigar riscos e de outro lado mantém o princípio da relatividade das provas.

Pressupõe, em essência, que o titular do tratamento de dados deve determinar as medidas de segurança adequadas ao respectivo ato jurídico, tomando ciência do “estado da arte” na área de segurança da informação, com pleno conhecimento da atividade que desempenha, do seu contexto, da sua finalidade e dos riscos potenciais envolvidos, além dos eventuais perigos à liberdade das pessoas físicas.

Assim, o suporte fático da accountability imputa ao titular do tratamento não apenas a responsabilidade da implementação das medidas de segurança da informação suficientes, como também a avaliação dos dados coletados, de forma que propõe a autora trazer esse conceito para reformular a responsabilidade civil da inteligência artificial, devendo a accountability ser analisada em conjunto com a teoria tradicional da imputação de culpa e nexo de causalidade da responsabilidade civil. Esse é o sentido, inclusive, da LGPD brasileira em seus artigos 42 a 45.

Os danos decorrentes de incidentes de informação, mal uso, mal tratamento que, eventualmente, possam desaguar em danos diretos materiais e/ou morais são, efetivamente, um dos maiores perigos que a IA representa e demanda resposta diversa do ordenamento jurídico que foge ao conceito da responsabilidade civil e demanda aplicação temperada da cláusula geral de responsabilidade, ganhando relevo pelo seu aspecto imperceptível ao agente que sofreu o dano e que, eventualmente, apenas o perceberá no futuro, quando os dados vazados ou expostos sem intensão, muitas vezes pelo próprio titular, já provocaram efeito nefasto e muitas vezes irreversível à moral.

____________________

Lucas Morelli

 

 

Referências

________________________________________

1. Da responsabilidade civil, Rio de Janeiro, Forense, 1974, p.27.

2. M. Bernardes de Melo, Teoria do Fato Jurídico, Plano da Existência, 15ª ed, São Paulo, Saraiva, 2008, p.113.

3. C. Massimo Bianca, Diritto Civile, la responsabilità, 3ªed, Milano, Griuffrè, 2021, p.117.

4. G. Pasceri, Il Naturale Progresso dell’innovazione tecnologica, in Intelligenza artificiale, algoritmo e machine learning, lá responsabilitá del medico e dell’aministrazione sanitaria, Milano, Griuffrè, 2021, p.12.

5. A inteligência artificial e direitos da personalidade: uma contradição em termos?, Revista Da Faculdade De Direito, Universidade De São Paulo, 113, 133-149, disponível em https://bit.ly/3ErEM98, acesso em 10.02.2022, pp.133-139.

6. Inteligência artificial e direitos da personalidade: uma contradição em termos?, Revista da Faculdade de Direito da Universidade de São Paulo, v. 113, jan/2018, pp. 137-138.

7. Inteligência artificial e direitos da personalidade: uma contradição em termos?, Revista da Faculdade de Direito da Universidade de São Paulo, v. 113, jan/2018, pp. 138.

8. Inteligência artificial e direitos da personalidade: uma contradição em termos?, Revista da Faculdade de Direito da Universidade de São Paulo, v. 113, jan/2018, pp. 135-136.

9. Intelligenza artificiale, dirrito e responsabilità, in P. Perlingieri, S. Stefania Giova, I. Prisco, Rapporti Civilistici e intelligenza artificiali: attovotà e responsabilità, Napoli, Edizioni Scientifiche Italiane, 2020, p.38

10. A referência consta no artigo 5º, item 2, da GDPR: “Principles relating to processing of personal data: (…)The controller shall be responsible for, and be able to demonstrate compliance with, paragraph 1 (‘accountability’).

Compartilhe nas Redes Sociais
Anúncio