No dia 7 de maio, durante a primeira Sessão Plenária da Reunião Magna 2024, a Academia Brasileira de Ciências (ABC) convidou a advogada Tainá Junquilho, o comunicólogo Ricardo Fabrino e o cientista político Fernando Filgueiras, para um debate sobre regulação digital com ênfase nos novos desafios postos pelas IA.

Inteligência Artificial e Democracia

Doutor em Comunicação e professor do Departamento de Ciência Política da Universidade Federal de Minas Gerais (UFMG), Ricardo Fabrino alertou sobre como os algoritmos já mudaram a forma como nos locomovemos, trabalhamos e até mesmo buscamos relações amorosas. No âmbito institucional, essas ferramentas já se inseriram nos sistemas de saúde, segurança pública, judiciário e podem otimizar os demais serviços públicos. “Temos uma possibilidade de tornar as instituições públicas mais rápidas, capazes de cruzar um número muito maior de dados de forma muito mais efetiva”, analisou.

Mas essas mudanças não chegam sem riscos. Na comunicação em particular, os algoritmos das redes sociais revolucionaram a forma como conversamos, principalmente sobre política, de uma forma que comprometeu seriamente o debate público. “Além de tornar a desinformação cada vez mais complexa e colaborar para deslegitimar as instituições, o que as redes têm feito é uma ‘perfilização’, ou seja, dividir as pessoas em nichos e bolhas, enfraquecendo a experiência comum que nos une enquanto cidadãos”, explicou Fabrino.

Outro risco é o fortalecimento das desigualdades. Algoritmos de IA trabalham com dados, cuja disponibilidade e fornecimento reflete as disparidades entre nós. Nesse cenário, sistemas que não são capazes de fazer uma avaliação ética tendem a reproduzir a desigualdade. “Há muitos vieses nos dados que alimentam os modelos. Corremos o risco de criar um futuro que é apenas a repetição do passado presente nos dados. Um exemplo de riscos é o uso dessas tecnologias pela polícia”, avaliou o palestrante.

Segundo ele, já há quem pense que a participação popular na gestão pública vai se tornar obsoleta, o que fortalece um ideal tecnocrático perigoso. “Há uma crença na gestão pública de que talvez o movimento em direção à IA torne a política desnecessária. Nesse sentido, surge mais um desafio à democracia”.

Por tudo isso, Ricardo Fabrino nos convida a uma reflexão simples: “Como democratizar a IA?”. Ele lembra que a História está repleta de instituições cuja origem não era democrática mas que foram democratizadas ao longo dos anos, e nada impede que o mesmo ocorra com a IA. “O desafio é entender como fazer isso para uma tecnologia que não parece plenamente controlável e compreensível, atravessada por interesses econômicos gigantescos e cujos impactos se dão em cascata na sociedade”, argumentou.

Para ele, a comunidade científica não pode furtar-se de discutir o tema, e algumas linhas gerais precisarão ser seguidas. “É papel da ciência pensar regulação. Para isso, é fundamental pensar numa participação popular em escala supra-nacional, tendo em vista as assimetrias internacionais no acesso à essas tecnologias. É preciso promover a pluralidade e enfraquecer as bolhas. Também precisamos pensar seriamente em responsabilização e em proteção das liberdades fundamentais”.

Desafios epistêmicos e jurídicos

Professor de ciência política na Universidade Federal de Goiás (UFG), Fernando Filgueiras entende a IA como uma tecnologia que não muda apenas a forma como fazemos as coisas, mas a própria forma como produzimos conhecimento e ciência. “Pela maneira como a inteligência humana – individual e coletiva – e a IA interagem, cada vez mais surgem novas formas de resolver problemas e realizar tarefas. Chamo isso de ‘transinteligência’, uma interação que continuamente está gerando resultados inovadores e impensáveis. Por isso a própria regulação precisará ser disruptiva”, avaliou.

Em sua visão, todas as abordagens regulatórias pensadas até agora esbarraram em limitações. “A ideia de autorregulação é a mesma coisa que não regular. Mas mesmo a regulação voltada para riscos, como da União Européia, a regulação do mercado de IA, dos EUA, ou regulações ainda mais rígidas de controle estatal, todas estas entendem a IA como um produto qualquer, o que é um erro. É preciso entendê-la como agente”.

Nesse sentido, Filgueiras é contra uma regulação universal para todas as aplicações da IA. “O uso de IA na saúde tem desafios muito particulares quando comparados ao uso em governos, ou no campo da física, por exemplo. Uma regulação única não será capaz de prever todos os efeitos não intencionais. O principal desafio é entender como a IA impacta na construção de conhecimento. Não é algo trivial”.

O palestrante defende que qualquer solução deverá ser desenvolvida coletivamente. “Precisamos pensar em mecanismos de co-regulação, estabelecendo um diálogo constante entre os atores envolvidos. Não deve ser uma regulação propriamente estatal, a partir de uma burocracia centralizada. É preciso um processo em que estado e os vários setores se reúnam, definam uma agenda regulatória e a apliquem. Dessa forma compartilham a responsabilidade, o que é fundamental para fortalecer os mecanismos democráticos”, defendeu.

PL 2338: Construindo consensos?

A advogada e pesquisadora Tainá Junquilho, vice-líder do Laboratório de Governança e Regulação da Inteligência Artificial do Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa (IDP), afirmou que a regulação hoje já é um consenso. “Visões utópicas que defendiam que IA – bem como as demais tecnologias digitais – não deveria ser regulada não se sustentam mais. Hoje já temos riscos concretos e comprovados, mas também não podemos ceder a discursos apocalípticos. Precisamos sair desses extremos e pensar de forma responsável que valores queremos promover em IA. Não é mais ‘se’, mas ‘como’ regular”.

Junquilho fez um apanhado sobre como as discussões legislativas evoluíram no país, mas afirmou que grande parte do esforço se tornou obsoleto com o advento das IA generativas em 2022. “Novos desafios surgiram e precisou-se repensar a regulação, realizar novos debates, novas audiências públicas para embasar novas propostas. O projeto anterior foi transformado no Projeto de Lei 2338/2023, que é mais pormenorizado”, explicou.

O projeto tem inspiração no AI Act da União Européia, que aborda o tema a partir dos riscos, definindo três classes: riscos excessivos, que são vedados, altos e moderados, os quais são permitidos desde que respeitadas certas pré-condições e aos quais se atribuem responsabilizações, caso os riscos se concretizem, independentemente da análise de culpa.

São considerados riscos excessivos o uso de IA para influenciar de forma prejudicial o comportamento de pessoas com relação à sua própria segurança e da sociedade, e também o uso por parte de governos para ranquear ou classificar cidadãos com base em comportamento e personalidade. “Dessa forma, o uso de IA para influenciar no debate público e atacar a democracia será considerado risco excessivo e estará vedado”, avaliou Junquilho.

Já os riscos altos englobam o uso de IA para seleção de candidatos à uma vaga de emprego ou universidades, por exemplo, bem como avaliações de acesso à crédito, serviços públicos ou tratamentos de saúde. Alguns setores, porém, estão excluídos do PL 2338/2023, como aplicações em defesa nacional e segurança pública. “Dessa forma, debates cruciais como o uso de armas autônomas e o reconhecimento facial pela polícia ficam de fora”, lamentou a palestrante.

Um dos pontos mais quentes e cruciais para a legislação é a definição de uma autoridade regulatória. Uma vez que a tecnologia é muito dinâmica, a análise de riscos estará sempre sujeita a reavaliações, que não poderão esperar novos projetos de lei. A palestrante afirma que a necessidade de um sistema nacional de regulação e governança em IA é consenso, mas que as partes divergem no desenho institucional final. Por exemplo, essa autoridade será um órgão novo ou a adaptação de algo já existente?

Em outros pontos importantes, a proposta de lei aborda aspectos fundamentais para a ciência. “São criados incentivos ao fomento de pesquisas em IA e à criação de bases de dados públicas e robustas, além de incentivos à realização de consultas públicas entre os diversos setores que são impactados pela tecnologia”, concluiu Junquilho.

Assista a sessão a partir dos 40 minutos: