O uso da inteligência artificial está começando a ser implementado em diversos setores da vida civil. Com o enorme volume de dados que todas as grandes corporações precisam lidar hoje em dia, a inteligência artificial pode ser uma grande aliada na análise de informações e conclusões sobre esses dados.
A inteligência artificial é um campo das ciências da computação que explora a capacidade de máquinas reproduzirem comportamentos e capacidade humanas, dentre elas, a habilidade de aprender (machine learning). Presente nas novelas e filmes de ficção científica, com robôs temperamentais ou estrategistas, como os visto em Star Wars, uma realidade antes presente apenas na imaginação de escritores e roteiristas, começa a chegar em nosso cotidiano.
O ESG (meio ambiente, social e governança) trabalha com uma grande massa de dados, para a avaliação se determinada conduta da empresa está de acordo com esses princípios. A inteligência artificial já é utilizada para o processamento da dados sobre fenômenos naturais, como chuvas, ondas de calor e outros episódios. No campo da governança, a capacidade inigualável de análise de números de uma inteligência artificial pode evitar gastos desnecessários e manter as diretrizes sempre atualizadas, para práticas comerciais idôneas e lícitas.
No vértice social, a inteligência artificial poderá apurar informações sobre diversidade nas empresas, bem como analisar pautas que possam ser relevantes à marca, a fim de direcionar práticas de mercado e o setor de marketing. Em relação ao compliance, a inteligência artificial poderá monitorar práticas empresariais, e trazer alertas sobre desconformidades legais, a partir da análise maciça de dados.
Em suma, a IA pode fortalecer as práticas de ESG, permitindo às empresas uma análise mais abrangente, eficiente e precisa de questões ambientais, sociais e de governança, levando a uma tomada de decisão mais informada e responsável.
Mas existem desafios éticos e filosóficos por de trás do uso de inteligência artificial em práticas atreladas à ética empresarial. Tudo perpassa por quais valores serão os preponderantes quando se falar em uso de inteligência artificial. Por exemplo, já se constatou que algoritmos podem ser racistas ou utilizarem de uma definição de “homem padrão” ou “mulher padrão”, para tentar identificar pessoas que se enquadrariam nesses modelos, o que consequentemente pode levar a exclusão de outras.1
Além disso, eventuais diretrizes de uma empresa podem confundir a inteligência artificial e estimular práticas predatórias de mercado, como por exemplo, orientar uma IA a aprender a forma de tornar a empresa a mais lucrativa, com o mínimo de empregados possível. Não se sabe qual parâmetro a IA poderá seguir, até porque não haverá um limite de lucratividade.
Já se tem notícias de uso de inteligência artificial para decisões acerca de mercados financeiros e negociações na Bolsa de Valores. Segundo consta, a diferença entre a inteligência artificial e o agente financeiro (humano) é a capacidade de analisar um grande volume de dados e encontrar mais oportunidades, com maior precisão.2 Porém, insiste-se, não se compreende qual o limite dessas decisões de inteligência artificial.
Com efeito, a IA deve ser concebida como uma ferramenta a serviço do ser humano, para a substituição de atividades maçantes e penosas, e não como uma forma de sobrepor a capacidade criativa e decisória das pessoas. O que se percebe, em alguns momentos, é que o objetivo é que a inteligência artificial supere a inteligência humana.
Contudo, o contexto moderno (ou pós-moderno) é feito da análise de um volume imenso de dados em busca de conexões inesperadas, para soluções criativas. Diante desse cenário, empresas que se denominam redes sociais, na realidade, são grandes mineradoras e centro de distribuição de dados, os quais fornecemos de bom grado, em troca de entretenimento gratuito (se você não paga pelo produto, você é o produto).
Esse volume imensurável de dados não pode ser analisado por seres humanos, dessa maneira, será necessário o apoio de inteligência artificial. Então, surge a questão: como a inteligência artificial interpretará esses dados e direcionará práticas empresariais? A IA pode ser racista, gananciosa, exploradora ou machista? Ou ela aprenderá valores justos, éticos e inclusivos? O desafio está lançado.
Na realidade, a inteligência artificial lança um campo próprio para o compliance e o ESG voltarem o seu foco. Será importante que práticas de boa-governança não se limitem a utilizar da inteligência artificial, mas também a monitorar, sob olhos humanos, as práticas e decisões das IA’s.
O legislador brasileiro já está atentando a essa situação, com quase cinquenta projetos de lei com essa temática tramitando no Congresso Nacional,3 se destacando o Projeto de Lei n. 2338, de 2023, do Senador Rodrigo Pacheco, que tenta ser uma lei de caráter mais abrangente, regulando a questão de forma genérica4 (outras leis acabam se focando em questões de deepfakes, uso de dados, controle de IA’s, com várias facetas do problema).
Chama a atenção os princípios que deverão guiar a implementação e os sistemas de inteligência artificial, previstos no Projeto de Lei:
“Art. 3º O desenvolvimento, a implementação e o uso de sistemas de inteligência artificial observarão a boa-fé e os seguintes princípios:
I – crescimento inclusivo, desenvolvimento sustentável e bem-estar;
II – autodeterminação e liberdade de decisão e de escolha;
III – participação humana no ciclo da inteligência artificial e supervisão humana efetiva;
IV – não discriminação;
V – justiça, equidade e inclusão;
VI – transparência, explicabilidade, inteligibilidade e auditabilidade;
VII – confiabilidade e robustez dos sistemas de inteligência artificial e segurança da informação;
VIII – devido processo legal, contestabilidade e contraditório;
IX – rastreabilidade das decisões durante o ciclo de vida de sistemas de inteligência artificial como meio de prestação de contas e atribuição de responsabilidades a uma pessoa natural ou jurídica;
X – prestação de contas, responsabilização e reparação integral de danos;
XI – prevenção, precaução e mitigação de riscos sistêmicos derivados de usos intencionais ou não intencionais e de efeitos não previstos de sistemas de inteligência artificial; e
XII – não maleficência e proporcionalidade entre os métodos empregados e as finalidades determinadas e legítimas dos sistemas de inteligência artificial.” Sem grifos no original.
Interessante notar a preocupação do legislador que o uso de IA obedeça a critérios de ESG e compliance, como inclusão, liberdade de escolha, auditabilidade e possibilidade de responsabilização por atos ilícitos. Além disso, elenca questões até de direitos humanos e pontos constitucionais, como a não maleficência e o respeito ao devido processo legal.
Então, a inteligência artificial, quando relacionada com o ESG e compliance não será apenas uma ferramenta, mas um campo próprio de atenção das empresas, pois a inteligência artificial terá que se guiar pelas regras de boa-governança, preservação ambiental e respeito a pautas sociais, nas suas decisões, sempre atenta ao agir conforme a Lei. Diante disso, haverá um cenário inverso, em que a inteligência humana deverá fiscalizar a inteligência artificial.
O Poder Judiciário não está ficando para trás. No final do ano passado, sob a presidência do Ministro Luís Roberto Barroso, o STF passou a implementar um sistema de inteligência artificial, para julgamentos realizados no Tribunal. Segundo consta, a proposta é que a IA seja utilizada para a análise massiva de dados, bem como automação de rotinas processuais, a fim de facilitar a tramitação de processos.5
É curioso observar a proposta de analisar processos como se fossem “dados”, o que é uma questão um tanto paradoxal. Direito e justiça são matérias às vezes subjetivas (o justo pode ser diferente para uma pessoa em relação a outra), por isso é importante que cada caso seja analisado individualmente e de maneira criteriosa; por outro lado, existe uma necessidade de padronização de julgados, para que se tenha uma jurisprudência coerente e segura. Processos não deixam de ser dados, mas, em alguns momentos, é muito mais do que isso.
Inclusive, o STF já lançou o sistema VictorIA, que seria uma espécie de inteligência artificial que analisaria o enquadramento de recursos extraordinários em temas de repercussão geral já analisados pela Corte Superior, logo, não poderiam ser recebidos. É importante mencionar que esse um projeto piloto, que está em desenvolvimento e ainda não atua sozinho, ou seja, é submetido à revisão humana.6
O Judiciário, obviamente, poderá se beneficiar da inteligência artificial. Hoje, já existe um modelo de agrupamento de processos e julgamentos, permitindo a gestão de processos de massa, ou com pedidos idênticos ou até similares. Além disso, a mecanização de rotinas processuais é uma necessidade premente, não havendo justificativa para que um servidor faça um movimento padronizado, como “vista à réplica” ou uma certidão de retorno dos autos, quando um algoritmo, se bem treinado, pode fazer isso com muito mais facilidade.
Portanto, o uso de inteligência artificial não é o futuro, ele já é o presente. A discussão não é mais se a IA será utilizada, mas como ela poderá ser uma ferramenta a serviço do ser humano, que efetivamente possa contribuir para uma sociedade melhor.
Referências1
____________________
1. Disponível em: link. Acesso em 05 abr. 2023.
2. Disponível em: link. Acesso em 05 abr. 2023.
3. Disponível em: link. Acesso em 05 abr. 2023.
4. Disponível em: link. Acesso em 05 abr. 2023.