Leia artigo de opinião de Virgílio Almeida* e Francisco Gaetani** publicado no Valor em 1º de agosto:
As tecnologias de inteligência artificial (IA) avançam rapidamente em todos os setores da sociedade. Apesar das inúmeras possibilidades positivas de uso para a sociedade e para a economia, a IA também tem sido utilizada na criação de ambientes tóxicos e perigosos para a convivência social e para a democracia. A política e o poder sempre fizeram uso de tecnologias emergentes para conquistar o eleitor, desde o radio, a TV, a internet, os celulares e as redes sociais. E com a IA não será diferente. Poderá ser usada para informar melhor ao eleitor sobre planos e projetos. Mas será usada também para disseminar mentiras e falsas ilusões.
No passado, as campanhas eleitorais se baseavam em programas, alianças e lideranças. Nos últimos 30 anos, marqueteiros, tempo de propaganda e redes sociais passaram a influenciar fortemente os resultados. Na próxima eleição, a IA deverá ter papel central. Se será decisiva, ainda é incerto. Dessa maneira, a pergunta que naturalmente surge é: Como as campanhas e o marketing político irão arquitetar o uso da inteligência artificial para conquistar os votos dos brasileiros em 2026? E quais serão os “guardrails’’, os limites, para coibir o uso indevido dessa poderosa tecnologia e garantir uma eleição livre, limpa e justa?
O avanço da IA tem gerado tanto deslumbramento quanto incertezas. Para se compreender de forma mais realista as possibilidades da IA nas eleições, o melhor caminho é observar países que passaram recentemente por processos eleitorais, como a Índia. As eleições gerais em 2024, serviram como um verdadeiro teste para o uso da IA em campanhas políticas. Embora não tenham provocado os impactos negativos na escala que muitos temiam, o uso da tecnologia revelou tanto seu potencial inovador, quanto vulnerabilidades importantes, especialmente diante do contexto social e econômico do país. O caso indiano – a maior democracia do mundo, com 968 milhões de eleitores – é relevante devido ao intenso uso de IA e tecnologias digitais ao longo do processo eleitoral.
A IA trouxe inovação às campanhas eleitorais, reduzindo custos e permitindo que candidatos com poucos recursos e partidos pequenos criassem e divulgassem conteúdos eficazes – democratizou mais as disputas. Mas facilitou a produção de desinformação sofisticada, com deepfakes, clonagem de voz e vídeos manipulados, ameaçando a integridade do processo eleitoral e explorando o prestígio de figuras públicas (inclusive já falecidas) para enganar a população.
No entanto, a principal preocupação em relação ao uso de IA nas eleições é o perfilamento e segmentação de eleitores para envio de mensagens hiperpersonalizadas — muitas vezes falsas — criadas com áudios e imagens gerados por IA. Na Índia, com menos de R$ 400 mil reais, foi possível fazer cerca de 500 mil ligações com mensagens personalizadas usando voz (real ou falsa) de um político, substituindo discursos genéricos em comícios. Para funcionar, esse tipo de estratégia depende de dados detalhados dos eleitores — o que, no Brasil, pode configurar violação da Lei Geral de Proteção de Dados Pessoais (LGPD). Nesse cenário, redes sociais e aplicativos de comunicação têm papel crucial, pois concentram dados e interesses pessoais de mais de 100 milhões de brasileiros em plataformas como Facebook, Instagram, WhatsApp, YouTube e TikTok.
Eventos recentes apontam mudanças importantes que vão moldar o futuro próximo: o STF, numa decisão sobre o artigo 19 do Marco Civil da Internet, define que as big techs têm responsabilidade limitada por conteúdos nocivos, introduzindo a moderação pró-ativa e fortalecendo o papel do TSE no processo eleitoral. Já o Ministério da Justiça e Segurança Pública (MJSP) publicou portarias sobre a proteção de crianças na mídia e nas redes, o uso de câmeras corporais por policiais e diretrizes para o uso de tecnologias digitais — incluindo IA — em investigações alinhadas a princípios democráticos. Essas medidas do MJSP se destacam pelo gradualismo, legitimidade e foco em temas que unem a sociedade. Embora portarias possam parecer limitadas, representam um avanço relevante, inclusive internacionalmente, dentro de um cenário político complexo.
A campanha eleitoral já começou, e o mundo observa o Brasil como um laboratório para os desafios regulatórios globais. O país é um mercado estratégico para as big techs, tem uma das maiores democracias ocidentais e uma sociedade aberta ao debate. As pressões sobre as big techs vão além do Brasil, mas elas resistem a agir de forma mais proativa para evitar precedentes globais. Essa postura, anti-regulatória, contrasta com as demandas de países que buscam proteger sua soberania e enfrentar impactos sociais e políticos das redes. As big techs poderiam colaborar na construção de soluções. Têm conhecimento, tecnologia e influência para isso. No entanto, ao adotarem uma postura defensiva, preferem judicializar e desqualificar esforços nacionais, tratando qualquer mudança como ameaça. Elas resistem a agir de forma proativa por temerem criar precedentes globais, entrincheirando-se no laissez-faire predominante. Não precisa ser assim. Essa postura não é inevitável. Com domínio tecnológico e influência, essas empresas podem colaborar na criação de soluções mais equilibradas para as redes sociais, em vez de apenas reagir às tentativas de regulação. Ao adotarem uma postura anti-regulatória a priori, ignoram as necessidades de países muito diferentes que precisam encontrar respostas nacionais para suas especificidades.
O Brasil, que já liderou inovações replicadas internacionalmente — como a Lei do Patrimônio Genético e Repartição de Benefícios —pode fazer o mesmo na regulação digital. Por que as big techs não se somam a esse esforço? A IA estará nas eleições de 2026, mas antes disso já terá moldado o cotidiano de milhões. Nas urnas, porém, o impacto é decisivo: define quem governa. A democracia depende de eleições justas e representativas — e nisso as plataformas também possuem sua parcela de responsabilidades.
[1] Francisco Gaetani é professor da EBAPE/FGV e Secretário Extraordinário para a Transformação do Estado, do Ministério de Gestão e da Inovação em Serviços Públicos.
[2] Virgilio Almeida é professor associado ao Berkman Klein Center da Universidade de Harvard, professor emérito da UFMG, ex-secretário de Política de Informática do Ministério da Ciência e Tecnologia e Inovação e membro titular da Academia Brasileira de Ciências.