Para a primeira Conferência Magna da Reunião Magna 2024, a Academia Brasileira de Ciências (ABC) teve o prazer de receber on-line, no Museu do Amanhã, o matemático norte-americano Vinton Cerf, vice-presidente da Google e considerado um dos pais da Internet moderna por ter co-projetado o protocolo TCP/IP que define como os computadores se comunicam em rede.
Apesar de não ser um especialista em inteligência artificial, como ele próprio se descreve, Vinton Cerf está numa posição de liderança na mais famosa big tech do planeta, entendendo o potencial revolucionário dessa tecnologia. Ele explicou que a ideia de criar sistemas artificiais de interpretação de dados já motiva pesquisas desde a década de 60, mas estes protótipos sempre sofreram para progredir conforme o volume e a complexidade dos dados aumentavam.
Nos anos 90, surgiu a ideia das redes neurais, uma forma de modelo matemático inpirado no cérebro humano – a partir de milhares de nós interconectados em redes dispostas em centenas de camadas. Através desse modelo, é possível encontrar padrões semelhantes em grandes quantidades de dados. As redes neurais são parte de um conjunto de algoritmos conhecidos como algoritmos de aprendizado de máquina (machine learning), onde os próprios algoritmos aprendem a reconhecer um padrão, por exemplo, a partir dos dados de entrada. “Na Google temos o Google Knowledge Graph, que associa entidades, como o nome de pessoas ou lugares, a fatos sobre elas. que melhoram o desempenho desses algoritmos. Já temos cerca de 5 bilhões de entidades com 500 bilhões de informações relacionadas”, exemplificou Cerf.
As redes neurais são a base dos chamados Large Language Models (LLM), dos quais o ChatGPT talvez seja o mais famoso. O ChatGPT consegue reconhecer comandos de texto complexos e responder através da geração de textos também altamente complexos. Ele faz isso pela associação de palavras, analisando bases de dados imensas para determinar quais palavras são as mais prováveis a partir de textos anteriores e do contexto de uma conversa. Tecnologias semelhantes já são utilizadas para geração de imagens e funcionam de forma parecida, a partir de modelos de aprendizado de máquina.
“Algumas aplicações possíveis estão na tradução e geração de textos, controle de sistemas de resfriamento de reatores, programação automatizada e até no diagnóstico de doenças por imagens. Mas é preciso ter cuidado. Com textos, por exemplo, se você não dominar um assunto, um LLM pode fornecer respostas falsas. É o que chamamos de ‘alucinação’”, afirmou Cerf.
Em um experimento prático, o palestrante disse que pediu para um LLM escrever um obituário de si mesmo, com base em diversos obituários da internet e em sua própria biografia. “Ele inventou uma data – próxima demais pro meu gosto! – misturou coisas que eu fiz com coisas que outras pessoas fizeram e chegou até mesmo a inventar familiares”, contou bem-humorado.
Para resolver essas “alucinações”, os engenheiros terão de trabalhar para que cada vez mais as máquinas entendam contextos. “Quando treinamos um LLM, o modelo não tem muito contexto para saber onde surgem conflitos nos dados. Dessa forma, peças de origens diferentes podem ser unidas, gerando informações completamente falsas. O problema é que quando usamos isso para diagnósticos médicos ou análises financeiras estamos em áreas de alto risco. É preciso proteger o usuário”, explicou.
Mas para além de problemas técnicos, existem também os riscos que essas tecnologias representam quando utilizadas de forma consciente para fins espúrios. “A geração de imagens e sons com alta qualidade, por exemplo, pode gerar um volume imenso de fake news. É fácil imaginar essas tecnologias sendo ótimas para a indústria do entretenimento e péssimas para o mundo político e o debate público”, alertou Cerf.
Em debate junto aos cientistas brasileiros, Vinton Cerf foi mais a fundo em aplicações específicas da inteligência artificial. Respondendo à presidente da ABC, Helena Nader, sobre como cientistas poderiam confiar nos resultados fornecidos por esses sistemas, o palestrante disse que é preciso nunca perder de vista a origem daquele resultado. “Qualquer output deve vir junto do input, daquilo que foi pedido, deve-se levar em consideração como o sistema foi calibrado e quais bases de dados foram utilizadas. E sempre ter em mente que pode estar incorreto, é preciso olhar criticamente para o resultado”.
Isso vale também para aplicações na educação. “Me parece possível que as IA sejam utilizadas de forma tutorial, ajudando os estudantes a entender e interpretar suas respostas de forma personalizada e detectando lacunas no aprendizado. Talvez a parte mais importante seja fazer os estudantes quererem aprender e utilizar os sistemas a seu favor. Mas, para isso, precisamos primeiro resolver o problema das alucinações”, avaliou Cerf.
O palestrante se mostrou otimista quanto a riscos existenciais dessa tecnologia. “Sem dúvida é algo que pode fazer estrago, por exemplo quando utilizado na tomada de decisão sobre penas criminais. Precisamos ter um foco regulatório no uso da IA e demonstração por parte dos provedores de que eles estão atuando para mitigar os riscos. Não há dúvidas de que a IA pode fazer coisas que não podemos, mas não acho que os robôs nos dominarão se utilizarmos de forma responsável”.
Assista a palestra de Vinton Cerf a partir de 2h49m:
Confira a galeria de fotos da Reunião Magna 2024: