Em artigo para o site Poder 360, o Acadêmico Virgílio Augusto Fernandes Almeida e o professor Danilo Doneda falam sobre a clareza dos critérios em sorteios oficiais e mencionam o caso do STF.

A Política e os Algoritmos: o caso do STF

Uma das características do processo político é sua capacidade de colocar na pauta das discussões nacionais novas palavras, expressões e conceitos. Ao longo dos últimos anos, temos visto surgir novas palavras/expressões como mensalão, valerioduto, CPI chapa-branca, silêncio dos intelectuais, homem da mala, lava jato, delação premiada, pós-verdade e outras. O recentíssimo episódio do sorteio do Ministro responsável pela relatoria do processo da Operação Lava Jato no Supremo Tribunal Federal colocou em evidência algo que já permeia várias atividades do dia a dia, mas que permanece invisível para grande parte da sociedade. Trata-se dos algoritmos e, em especial, do algoritmo responsável pelo sorteio do STF.

De um “sorteio”, é natural que se espere o elemento da aleatoriedade, do acaso que governa uma escolha. Assim como se espera do resultado de um lance de dados. O fato do resultado deste sorteio ter atingido um determinado desfecho, porém, acabou por alimentar uma série de suposições sobre outros elementos que eventualmente também teriam influência no seu resultado. E, certamente, uma grande contribuição para diferentes narrativas é a negativa do próprio STF em tornar público o seu algoritmo de escolha, negativa que seguiu a um pedido feito por pesquisadores com base na Lei de Acesso à Informação. A corte baseou a negativa no fato de não haver previsão normativa para o acesso requerido. Em outras palavras, o algoritmo, ou seja as regras e critérios de escolha, continua sendo opaco e impenetrável.

Há diversos aspectos na discussão sobre a “aleatoriedade” da escolha feita pelo algoritmo. Em primeiro lugar, o algoritmo em questão não coloca todos os possíveis relatores com idênticas chances de serem escolhidos, dado que leva em conta, por exemplo, o número de processos pelo qual cada um é responsável, de modo a equilibrar o passivo processual entre os vários gabinetes. Desta forma, um ministro com menos tempo de casa (com menos processos em seu gabinete) teria mais chances de ser escolhido do que os demais. E aí, dado o desconhecimento do algoritmo, várias questões naturalmente surgem. Qual é essa probabilidade de escolha cada Ministro? Ela pode ser manipulada? Há outros meios para que se obtenha ou se facilite a obtenção de um determinado resultado?

Infelizmente, não há meios técnicos para que se responda concretamente a nenhuma destas perguntas sem maior transparência neste processo. E, nisto, a situação não difere de tantas outras em que, cotidianamente, algoritmos tomam decisões com efeitos diretos sobre nossas vidas. Decisões que vão desde sobre quais notícias iremos receber nas redes sociais até a concessão ou não de um pedido de crédito ou de um visto de entrada num determinado país. A lógica e a motivação das decisões algorítmicas são cada vez mais inescrutáveis para nós cidadãos. Cada processo automático que depende de algoritmos tem sua própria complexidade. Se no sorteio mencionado, o elemento da aleatoriedade é fundamental, em outros, como o processo de seleção de candidatos a uma vaga de trabalho, é necessário saber quais dados e critérios o algoritmo de classificação leva em conta, de modo a evitar discriminação por raça ou fatores sócio-econômicos. Por um lado, os algoritmos, associados a grandes massas de dados, tem criados serviços globais extremamente eficientes e convenientes, como as plataformas de busca na Internet, serviços de comunicação por mensagens, redes sociais, comércio eletrônico e serviços financeiros. Por outro lado, esses algoritmos, que cada vez mais influenciam o comportamento dos indivíduos e da sociedade, são extremamente complexos. Por isso mesmo cresce a necessidade de se obter informações sobre como e por que os algoritmos tomam suas decisões, afim de que não se tornem caixas pretas que operam em função de interesses muitas vezes ocultos.

Em vários países vem se desenvolvendo a ideia de que o uso dos algoritmos, principalmente em áreas críticas, deve se balizar por alguns princípios. O 1º é o da responsabilidade, afinal quem são as pessoas ou as empresas responsáveis por certos algoritmos críticos? O 2º princípio é o da compreensibilidade, que busca garantir que as decisões tomadas por algoritmos possam ser explicadas àqueles afetados por essas decisões. O 3º princípio é o da precisão, que visa identificar fontes de erros e minimizar seus impactos. O 4º princípio é o da auditabilidade, que permite a terceiros monitorar o comportamento dos algoritmos em determinadas decisões. O último principio é o da justiça, que busca assegurar que as decisões baseadas em algoritmos não tenham impacto injusto ou discriminatório em diferentes segmentos da sociedade.

Estes princípios podem estar insculpidos em regulação, em códigos de conduta e mesmo nos próprios programas de computador que implementam os algoritmos. Em certos casos, como no novo regulamento europeu de proteção de dados, o tema é levado à legislação, com a atualização de um tradicional princípio de proteção de dados, que é o de que o cidadão não deve ser obrigado a se submeter a decisões a seu respeito tomadas por meios exclusivamente automatizados. Esta regra se consubstancia no novo regulamento como o que alguns comentadores vêm denominando de “direito à explicação”, que seria o direito de ter conhecimento dos critérios utilizados por algoritmos para que tomem decisões e evoca o princípio da compreensibilidade. Uma regra semelhante existe no Brasil, a respeito de decisões tomadas com base em históricos de crédito, na Lei 12.4141/2011.

Com o avanço da digitalização da sociedade, é necessário que o Brasil discuta políticas e os princípios que devem reger as decisões baseadas em algoritmos, sob o risco de que se consolide mais uma camada de opacidade em mecanismos decisórios que, mais do que nunca, devem ser transparentes para que atinjam o objetivo de servirem à cidadania.