A cada novo dia, a Inteligência Artificial (IA) vem despertando inquietações em todas as pessoas, em todos os lugares do mundo. O medo da substituição é assunto em todas as pautas, processos repetitivos perdem-se neste novo oceano de facilidades, assim como antigas atividades “predominantemente humanas” esvaem-se na mesma velocidade que avança tal fenômeno. Mas a pergunta que nos fazemos hoje, no meio científico e docente é: a IA fará com que os pesquisadores (docentes e discentes) parem de pensar?
É sabido que a dádiva humana é a sua capacidade de pensar, diferenciando-nos, inclusive, dos animais por isso. Não há dúvidas que aquilo que nos distingue das máquinas é a possibilidade de pensar e criar. É certo que trazer algo novo ao mundo, reinventar, é papel humano. Mas também não se pode negar que a IA auxilia – e muito, alguns destes processos, seja pela facilitação na concatenação de materiais, seja na própria capacidade de encontrá-los, pois tudo isso hoje, é possibilitado por um “click”.
Ocorre que, a invasão da Inteligência Artificial (IA) no mundo científico não afasta a necessidade de alocar quesitos como autoria e responsabilidade. O espaço da IA precisa ser bem-marcado, sob pena de suas benesses sucumbirem frente a avalanche de efeitos colaterais, desde já, acessíveis aos olhos: violação de dados pessoais, morais e éticos. O assunto é tão atual que os Órgãos1 responsáveis por este tipo de debate já se manifestaram no sentido de que a IA não poder ser coautora de escritos acadêmicos, justamente, porque não poderá, em tese, assumir responsabilidade pelo conteúdo ali criado ou por desvios de autoria (plágios), ou seja, a IA não poderá sofrer sanções por eventual inconformidade em algum texto.
O desafio se torna ainda mais dificultoso no contexto da pesquisa jurídica, pois, a IA não declararia de forma evidente todas as fontes a que acessa, bem como não explicitaria todas as razões que fundamentam determinados entendimentos por ela mencionados. Não se pode olvidar, a tornar ainda mais complexo o quadro supra, sua tremenda rapidez para organizar ideias e firmar posições, o que impõe uma desconfiança apriorística (e saudável) em seus resultados.
Mas não atuemos como os ludistas: não é o caso de defenestrar o uso da IA em pesquisas científicas, nem mesmo no campo jurídico. É necessário reconhecer que a IA pode servir como ferramenta de pesquisa, facilitadora no filtro de materiais e aceleradora de etapas.
No entanto, por dever de transparência no uso da IA, em caso de utilização pelos autores de tais artifícios, bastaria que estes sinalizassem a utilização do mecanismo “tal” para dar início, impulsionar ou alicerçar a pesquisa, em razão de práticas facilitadoras, organizacionais e/ou auxiliares na busca e sistematização de materiais, etc.2
Inconteste que tudo que permeia a aproximação entre a pesquisa jurídica e a IA ainda demandará muito estudo e debate. Mas a boa notícia é que não desaprenderemos a pensar, pois apesar da incontroversa facilidade de captura e organização das informações, a IA não desenvolve respostas que demandem criatividade e a sensibilidade, qualidades potencialmente humanas.
Por mais paradoxal que seja, a mesma tecnologia que ameaça a participação humana nos processos científicos, é a mesma que por ela foi municiada de informações (armazenamento de dados e abastecimento de materiais) e, por isto, urge a apreciação sob outra ótica: se o mesmo instrumento, ora tido como potencial vilão, foi alimentado por certa figura humana envolvida, por que defenestrá-lo?
Não se pode esquecer que, ao cabo, o resultado também envolve a participação humana que, agora, poderá dedicar sua inteligência à análise dos dados, utilizando-se da IA para o garimpo e sistematização das informações obtidas nas fontes juscientíficas.
Mas, certamente, autoridades reguladoras e comunidade juscientífica devem continuar a observar, acompanhar e, definitivamente, disciplinar qual será o limite e o papel da IA no mundo da pesquisa jurídica. De toda sorte, a certeza até agora firmada, é que a participação dos pesquisadores humanos é necessária, e que a IA servirá (e deverá seguir servindo) tão somente como instrumento facilitador dos processos de pesquisa.
Autoras
____________________
Denise Pires Fincato: Pós-Doutorado em Direito do Trabalho pela Universidad Complutense de Madrid (España). Doutora em Direito pela Universidad de Burgos (España). Professora Pesquisadora do PPGD da Pontifícia Universidade Católica do Rio Grande do Sul. Advogada e Consultora Trabalhista. CEO do Instituto Workab. Endereço eletrônico: dpfincato1@gmail.com. Lattes: http://lattes.cnpq.br/2978023445556532.
Andressa Munaro Alves: Doutoranda e Mestre em Direito pela Pontifícia Universidade Católica do Rio Grande do Sul (PUCRS). Professora de Direito do Trabalho e Previdenciário PUCRS / UOL. Especialista em Direito do Trabalho e Previdenciário. Professora na UniRitter. Advogada. andressa.castroalvesadv@gmail.com.
Referências
____________________
1. Authorship and AI tools. Promoting integrity in scholarly research and its publication. COPE Council. COPE position. Disponível em: https://publicationethics.org/cope-position-statements/ai-author. Acesso em 10 fev. 2025.
2. VASCONCELLOS, Vinicius G. Editorial – Inteligência artificial e coautoria de trabalhos científicos: discussões sobre utilização de ChatGPT em pesquisa e redação científicas. Revista Brasileira de Direito Processual Penal, vol. 9, n. 3, p. 1047-1057, set./dez. 2023. https://doi.org/10.22197/rbdpp.v9i3.913. p. 1054