Uma das principais razões para se ter uma regulamentação comum para a inteligência artificial é evitar a fragmentação e a incompatibilidade entre as diferentes normas e legislações que possam ser adotadas por cada setor, estado ou país.
Isso poderia gerar conflitos, incertezas, barreiras e custos adicionais para o desenvolvimento e a aplicação da Inteligência Artificial, prejudicando a inovação, a competitividade e a cooperação internacional. Além disso, uma regulamentação comum pode garantir um nível mínimo de proteção, governança e responsabilidade para os cidadãos, consumidores, trabalhadores e empresas que desenvolvem, utilizam ou são afetados pela Inteligência Artificial, constituindo em suas enunciações normativas boas práticas e parâmetros.
Importante entender que regular não é proibir, mas sim dar um norte, um caminho para determinado tema.
Outro aspecto importante é a necessidade de se ter um órgão regulador independente e multidisciplinar para a Inteligência Artificial no Brasil, que possa acompanhar, fiscalizar e orientar o uso dos sistemas inteligentes em consonância com os princípios éticos, jurídicos e sociais estabelecidos pela regulamentação.
Esse órgão deveria contar com a participação de representantes de diferentes setores, como academia, indústria, governo, sociedade civil e organizações internacionais, para garantir a pluralidade, a transparência e a legitimidade das decisões e ações tomadas, uma vez que temos infindáveis aplicações das diferentes técnias de aprendizado e utilização da Inteligência Artificial.
Um órgão regulador independente e multidisciplinar também poderia estimular o desenvolvimento e a inovação da Inteligência Artificial no Brasil, promovendo a pesquisa, a educação, o financiamento, a infraestrutura e a difusão da IA, de forma ética, segura e sustentável, com governança e ações afirmativas (inclusive de letramento, educação e mindset apropriados para essa maravilhosa tecnologia!).
A inteligência artificial (IA) é uma tecnologia que vem transformando diversos setores da sociedade, como saúde, educação, transporte, segurança, entretenimento e muitos outros. Porém, junto com os benefícios, os sistemas inteligentes e seus aprendizados, bem como a visão computacional, também possuem seus desafios e riscos, como questões éticas, sociais, jurídicas e econômicas.
Por isso, é fundamental que haja uma regulamentação adequada, um marco positivo e direcionador, para garantir o uso responsável e seguro, respeitando os direitos humanos e os valores democráticos.
Atualmente, existem diferentes iniciativas de regulamentação da Inteligência Artificial em diferentes países e regiões, mas não há uma harmonização global, apesar de as legislações mais importantes, como os Frameworks de governança de I.A. serem próximos em suas preocupações e fatores de implementação mais específicos para uso ético e confiável.
Alguns setores podem ter regulamentações mais rigorosas ou mais flexíveis do que outros, criando desigualdades e distorções no mercado e na sociedade, por isso multidisciplinariedade é tão importante para o tema da Inteligência Artificial e para seu futuro regulatório.
Uma regulamentação comum para todos os setores que utilizam sistemas de IA poderia trazer benefícios como:
- Um dos principais desafios para estabelecer princípios e padrões universais para a IA é a diversidade de contextos, valores e interesses envolvidos na sua concepção, desenvolvimento e uso. Não há um consenso sobre o que constitui uma IA ética, responsável e sustentável, nem sobre quais são os critérios e as métricas adequados para avaliar seus impactos sociais, econômicos, ambientais e humanitários. Por isso, é necessário um processo participativo, inclusivo e multissetorial, que leve em conta as diferentes perspectivas e necessidades dos stakeholders da IA, bem como as evidências científicas e as normas internacionais de direitos humanos;
- Facilitar a interoperabilidade, a transparência e a accountability (prestação de contas) dos sistemas de IA, promovendo a confiança e a segurança dos usuários e dos afetados pela Inteligência artificial é uma das formas de garantir uma regulamentação comum para todos os setores que utilizam essa tecnologia. A interoperabilidade se refere à capacidade dos sistemas de IA de se comunicarem e colaborarem entre si, independentemente de suas plataformas, linguagens ou protocolos. Isso pode facilitar o compartilhamento de dados, conhecimentos e recursos, bem como a integração de soluções de IA em diferentes domínios e aplicações. A transparência se refere à disponibilização de informações sobre os objetivos, processos, métodos, fontes e resultados dos sistemas de IA, de forma clara, compreensível e acessível para os usuários e os afetados. Isso pode aumentar a compreensão, a explicabilidade e a verificabilidade dos sistemas de IA, bem como possibilitar o monitoramento e a auditoria de seus impactos. A accountability se refere à atribuição de responsabilidades e obrigações aos desenvolvedores, provedores e usuários dos sistemas de IA, de acordo com os princípios éticos, legais e sociais que regem seu funcionamento. Isso pode estimular o cumprimento de normas, padrões e boas práticas, bem como a implementação de mecanismos de prevenção, mitigação e reparação de danos causados pelos sistemas de IA. Essas três dimensões podem contribuir para promover a confiança e a segurança dos usuários e dos afetados pela IA, fortalecendo seus direitos, interesses e expectativas em relação à tecnologia.
Para facilitar a interoperabilidade, a transparência e a accountability dos sistemas de IA, algumas medidas que podem ser adotadas são:
- Estabelecer marcos regulatórios e normativos comuns, baseados em princípios e valores universais, que orientem o desenvolvimento e o uso da IA em diferentes setores e contextos;
- Fomentar a adoção de padrões técnicos, éticos e de qualidade, que garantam a compatibilidade, a eficiência e a robustez dos sistemas de IA, bem como o respeito aos direitos humanos, à diversidade e à sustentabilidade;
- Desenvolver e disseminar ferramentas, metodologias e indicadores, que permitam avaliar e comunicar os benefícios, os riscos e os desafios dos sistemas de IA, bem como assegurar sua rastreabilidade, sua governabilidade e sua prestação de contas;
- Promover a educação, a capacitação e a conscientização dos usuários e dos afetados pela IA, para que possam compreender, utilizar e fiscalizar os sistemas de IA de forma crítica, informada e responsável.
- Estimular a inovação e a competitividade, reduzindo a burocracia e os custos de conformidade para os desenvolvedores, fornecedores e usuários de sistemas de IA, sem comprometer os padrões éticos e de qualidade;
- Apoiar a pesquisa, o desenvolvimento e a transferência de tecnologia em IA incentivando a colaboração entre os setores público e privado, bem como entre os países em diferentes estágios de desenvolvimento;
- Fomentar a criação e o fortalecimento de ecossistemas de IA, que favoreçam o surgimento e a consolidação de empresas, especialmente as de pequeno e médio porte, que ofereçam soluções inovadoras e sustentáveis baseadas em IA.
Uma das principais questões que se colocam na governança da IA é como garantir a participação e a representatividade dos diversos atores sociais que são impactados pela tecnologia. Governos, empresas, academia, sociedade civil e organizações internacionais têm diferentes interesses, valores e visões sobre o desenvolvimento e o uso da IA, e é fundamental que haja espaços de cooperação e diálogo entre eles para construir consensos e soluções compartilhadas.
Nesse sentido, algumas ações afirmativas que podem contribuir para esse objetivo são:
- Criar mecanismos multissetoriais e multilaterais de consulta e deliberação sobre os princípios, as normas e as políticas públicas relacionadas à IA respeitando a diversidade de perspectivas e a pluralidade de vozes;
- Fomentar a produção e a disseminação de conhecimento científico e técnico sobre a IA incentivando a colaboração entre pesquisadores, desenvolvedores, usuários e reguladores, bem como a divulgação de dados e resultados de forma aberta e transparente;
- Estabelecer padrões éticos e de qualidade para o desenvolvimento e o uso da IA, baseados nos direitos humanos e nos valores democráticos, e promover a adoção de boas práticas e códigos de conduta pelos diversos atores envolvidos;
- Desenvolver capacidades e competências para a compreensão e a utilização crítica da IA, por meio de iniciativas de educação, formação e conscientização, que ampliem o acesso e a inclusão digital e reduzam as desigualdades e as lacunas existentes.
A regulação da inteligência artificial (IA) fundada em princípios, valores e governança é essencial para garantir que essa tecnologia seja usada de forma responsável, ética e democrática. Ao estabelecer padrões de qualidade e direitos humanos, ao desenvolver capacidades e competências, ao fomentar a produção e a disseminação de conhecimento e ao criar mecanismos de consulta e deliberação, podemos assegurar que a IA contribua para o bem comum e para o desenvolvimento sustentável, a chamada I.A. for Good. A regulação da IA não é uma restrição à inovação, mas sim uma forma de orientá-la para que respeite os valores e interesses da sociedade.