pt_BR

Matthias Scheffler: O número de materiais possíveis é praticamente infinito

Matthias Scheffler (Foto: Marcos André Pinto)

O número de materiais possíveis é praticamente infinito, o desafio é identifica-los. É com base nessa premissa que o físico teórico Matthias Scheffler, professor emérito do Instituto Fritz Haber na Sociedade Max Planck, trabalha aplicando sistemas de Inteligência Artificial para encontrar quais os melhores materiais para desempenhar uma determinada função. Ele apresentou seu trabalho durante a Reunião Magna de 2024 da Academia Brasileira de Ciências (ABC).

Para explicar, Scheffler pega emprestado um conceito da biologia, descrevendo o que chama de “genes materiais”. Um gene é uma unidade molecular fundamental que serve como um manual, uma parte do projeto que virá a ser um ser vivo. São os genes em nosso DNA que definem a probabilidade de desenvolvermos um câncer, ou qual vai ser a cor da nossa pele. Da mesma forma, um “gene material” é uma propriedade fundamental do material, definida pelas características de seus átomos e suas estruturas mais basais, que dita quais serão suas características. Por exemplo, um determinado material será capaz de conduzir eletricidade ou calor?

Descobrir esses “genes materiais” não é algo trivial. Pelo contrário, o palestrante afirma que esse tipo de pesquisa está inserida no que chama de quarto paradigma da pesquisa científica. A ciência começou puramente empírica, observando e descrevendo fenômenos naturais; depois tornou-se teórica, exemplificada nas leis da mecânica clássica de Newton. Conforme as leis teóricas se tornaram cada vez mais complexas – e com o advento da computação – cada vez mais os cientistas começaram a fazer simulações para descrever os fenômenos, gerando dados simulacionais que hoje pouco se distinguem dos dados observacionais.

O quarto paradigma contemporâneo descreve uma ciência cada vez mais baseada nesse volume imenso de dados. Não mais se sustenta numa relação clássica de causa e efeito, mas nas correlações observadas nos dados. “É uma nova forma de pensar. A relação entre esses ‘genes materiais’ e a propriedade de interesse não está descrita por leis científicas, mas por probabilidade. Nós reconhecemos que existe uma complexidade maior no mundo que não pode ser descrita pela matemática clássica, pois não há só um processo em curso. Por isso, trabalhamos com correlações e regras probabilísticas”, explica o palestrante.

Esse tipo de abordagem só é possível porque, ao redor do mundo, uma quantidade imensa de informação está sendo gerada todos os dias na ciência dos materiais, a maior parte das quais nunca verá a luz do sol. Pensando nisso, Scheffler desenvolveu a plataforma NOMAD, que se tornou a maior base de dados em materiais da Europa. “Convidamos os cientistas a depositarem seus dados em nosso repositório de forma simples e sem barreiras. Nós pedimos apenas que depositem também os metadados gerados durante o processo, para que possam ser reproduzidos. Lá seus dados são processados e disponibilizados de forma utilizável para outros cientistas”, descreveu Scheffler.

Navegar manualmente por todo esse oceano de informação é impossível mesmo unindo os esforços de todos os engenheiros do planeta, e é aí que a IA entra em cena. Ela cria “mapas de materiais”, a partir das propriedades de interesse. Cada material testado será representado por uma função que se encaixará em uma região diferente de um gráfico. Dessa forma, é possível descobrir quais materiais melhor correlacionam as propriedades buscadas. “Por exemplo, fizemos um projeto com 732 materiais possíveis e descobrimos 16 na região de interesse para baixa condutividade elétrica. Mas é sempre bom lembrar, A IA é um método estatístico que te dá previsões, a partir dela é preciso olhar com cuidado para cada material”, frisou.

Exemplo de mapa de materiais apresentado pelo palestrante, materiais diferentes geram funções que ocupam posições diferentes com base nas características (eixos X e Y) escolhidas.

Isso porque os algoritmos não são infalíveis e estão em constante aperfeiçoamento. Por ser um trabalho estatístico, há sempre uma incerteza estimada e é preciso lidar com ela. Há também os chamados eventos raros, alterações detectadas quando os materiais são observados por um longo período de tempo, podendo gerar falsos negativos no algoritmo ou, inversamente, falsos positivos podem ser interpretados como eventos raros. Por tudo isso, repetições são fundamentais. “Quando você gera vários modelos é possível entender em que regiões há mais incerteza. Acende um sinal de alerta que te leva a fazer novos cálculos. Fica mais caro, mas é melhor do que não ter ideia do nível de incerteza”, explicou o palestrante.

Todo esse trabalho se sustenta num ecossistema em que os dados são abertos e acessíveis para qualquer pesquisador. A ideia é que dados irrelevantes gerados em uma pesquisa podem ser fundamentais para outra. Reduzir o desperdício e aumentar a velocidade da geração de conhecimento é uma das maiores oportunidades que a IA nos oferece. Na ciência dos materiais, isso significa que temos uma chance antes inimaginável de encontrar materiais ótimos para quase todas as aplicações que pensarmos, seja para melhorar a saúde, a eficiência energética ou a sustentabilidade.

“A história da coleta e análise de dados é bem capturada pela relação tensa entre Tycho Brahe e Johannes Kepler. Por volta do ano 1600, Brahe tinha os melhores dados sobre o movimento planetário, mas não gostava de compartilhá-los, enquanto Kepler era o melhor matemático, mas não tinha acesso. Só quando Brahe morreu que Kepler pôde analisar seus dados e revolucionou a forma como compreendemos os astros. Hoje, estátuas de ambos estão erguidas lado a lado na República Tcheca”, resumiu o palestrante.

Estátuas de Tycho Brahe e Johannes Kepler lado a lado na República Tcheca. Em vida, os cientistas tiveram uma relação tensa, mas suas contribuições, juntas, revolucionaram nosso conhecimento sobre os astros (Foto: Wikipedia)

 

Assista à palestra a partir do minuto 7:

 

Sessão Plenária V: Inteligência Artificial e Agricultura

No dia 9 de maio, a Academia Brasileira de Ciências (ABC) recebeu, na Sessão Plenária V da Reunião Magna 2024, no Museu do Amanhã, a engenheira agrícola Gleyce Figueiredo, o cientista da computação Gilberto Câmara e o físico Silvio Crestana para um debate sobre aplicações de inteligência artificial e outras tecnologias na agricultura brasileira.

IA aplicada ao monitoramento de sistemas agrários integrados

A agricultura moderna enfrenta um duplo desafio no século 21. É preciso aumentar a produção de alimentos e, ao mesmo tempo, minimizar os impactos ambientais em meio à crise climática. Nesse cenário, a professora da Universidade Estadual de Campinas (Unicamp) e pesquisadora em gestão agrícola Gleyce Figueiredo defende que sistemas integrados entre plantio, pecuária e floresta são fundamentais. “A integração diminui a pressão por novas áreas, melhora a ciclagem de nutrientes no solo e recupera áreas degradadas”, resumiu.

No Brasil são cerca de 17 milhões de hectares de áreas integradas, 83% apenas entre lavoura e pecuária. Desde 2010 o país tem o Plano Agricultura de Baixo Carbono (Plano ABC) que prevê um acréscimo de 9 milhões de hectares de sistemas integrados até 2030. Cumprir essa meta requer monitoramento contínuo para identificar se a ciclagem das áreas está sendo cumprida. É aí que entra o trabalho da palestrante com sensoriamento por satélite. “Sensores em satélites estão evoluindo muito, tanto públicos quanto privados. Não é qualquer satélite que serve para isso, precisamos de uma boa resolução visual para identificar a integração e também uma boa resolução temporal. A pergunta é: quanto tempo vai demorar pro sensor passar novamente por aquela área?”

Outro problema para o monitoramento é a cobertura de nuvens. Para resolver isso, existem alguns satélites que contam também com a prospecção por radar, que permite perpassar essa barreira. A situação comum em que os pesquisadores se encontram é a coleta de dados por vários equipamentos diferentes, cada qual com suas forças e fraquezas. Para condensar tudo isso e analisar um volume cada vez maior de dados, sistemas de inteligência artificial já começaram a ser usados.

“Alguns trabalhos usam dados com alta resolução espacial mas baixa temporal, e vice-versa. Outros perceberam que era possível juntar isso com mapas já prontos, como os do MapBiomas. Em 2022, eu e meu grupo aplicamos algoritimos de deep learning para fundir imagens de sensores diferentes extraindo o melhor de cada em imagem, tempo e espectro. O mais difícil é fazer o sistema compreender a dinâmica temporal do campo”, explicou Figueiredo.

Para o futuro, a palestrante avalia que será importante também juntar dados coletados em terra, fortalecendo a metodologia com as características físicas de cada bioma para poder expandir cada vez mais o monitoramento. “Para expandir é preciso entender se o modelo é transferível. Será que o que eu faço pro Mato Grosso é aplicável para São Paulo, por exemplo? São perguntas que precisamos nos fazer”, concluiu.

A tradição brasileira em monitoramento por satélite

Gilberto Câmara é cientista da computação especializado em geoinformática, reconhecido internacionalmente pela defesa de sistemas gratuitos de acesso a dados geoespaciais e por promover um monitoramento muito eficiente da Amazônia quando foi diretor do Instituto Nacional de Pesquisas Espaciais (INPE), entre 2005 e 2012. Ele destacou que o Brasil precisa se orgulhar de ser referência no uso de dados via satélite. “O satélite enxerga onde e quando teve desmatamento, e, aliado aos dados do cadastro rural de propriedades, quem desmatou. Até o Papa já usou os dados do Inpe”, brincou.

Os dados brasileiros são utilizados, por exemplo, pela Convenção de Clima da ONU para definir o financiamento de países que atuam para reduzir o desmatamento pelos programas REDD e REDD+. O Brasil também possui uma legislação bastante avançada na área. O Decreto 6666 de 2008 obriga a disseminação e o compartilhamento de dados espaciais. “Ter uma lei que deixe isso explícito é crucial, vários países não tem”, avaliou o palestrante.

A importância dessa obrigação se dá porque dados geoespaciais podem revelar muita coisa, inclusive fracassos que governos queiram esconder. Em outras palavras, geomonitoramento aberto é política de Estado e não de governo. Câmara conta que em 2004, quando tomou a decisão de abrir os dados do Projeto de Monitoramento do Desmatamento na Amazônia Legal por Satélite (PRODES), enfrentou resistências dentro do governo. Hoje, o sistema é um dos mais transparentes e consolidados no monitoramento ambiental brasileiro.

Mas os dados de satélite não substituem a análise dos pesquisadores e o Brasil tem bastante expertise na área. “Sempre trago o exemplo de um mapa da cobertura vegetal global elaborado em 2020 pela Agência Espacial Europeia. O mapa não diferenciava entre áreas de pastagens e o cerrado brasileiro, classificando tudo como ‘grassland’. Esse é um exemplo forte de que não há modelo que capture as especificidades de cada lugar. Ninguém vai resolver nosso problema por nós”, alertou Câmara.

Para o futuro, o palestrante defende plataformas cada vez mais abertas para governos, empresas, academia e o terceiro setor. Atualmente, está em desenvolvimento o Brazil Data Cube, que promete cumprir essa função, fornecendo dados integrados e prontos para análise de forma aberta. “Além da consolidação dos softwares, é preciso uma consolidação institucional. É diferente de criar um software específico para uma análise e para publicar um artigo. Éeum sistema colaborativo que permita a usuários diferentes adicionarem seus próprios algoritmos e contribuições”, finalizou.

Não há crescimento em agropecuária sem ciência

A agropecuária é responsável por mais de 20% do PIB brasileiro, garantindo um saldo positivo na balança comercial do país. O setor cresceu muito nas últimas décadas, refletindo investimentos públicos robustos em pesquisa que fizeram do país um líder científico no setor. “A contradição é que, enquanto os valores do agro e do PIB crescem, os investimentos em ciência diminuem ano após ano”, apontou Silvio Crestana, pesquisador da Empresa Brasileira de Pesquisa Agropecuária (Embrapa).

O palestrante alertou que a tendência contínua de crescimento no agro, constante por 30 anos, estagnou em 2016. Desde então, flutuações nas safras tem afetado a produtividade no campo e isso se reflete no preço da cesta básica. Em parte, essa estagnação se deve aos novos desafios climáticos, fator novo na equação, e enfrentá-los vai demandar inovações que só podem ser desenvolvidas com ciência. “Quando falamos em estresses térmicos não falamos apenas de temperatura, mas de umidade, de ventos e de radiação. Estresses hídricos e biológicos nós aprendemos a lidar, mas os térmicos ainda sabemos muito pouco o que fazer”, alertou.

A agricultura contemporânea é digital e cada vez mais orientada por dados. A coleta de informações robusta vai desde características biogeofísicas até análises de mercado. Para lidar com um volume crescente de dados, sistemas de inteligência artificial são fundamentais, mas fazê-los chegar nos agricultores não é uma tarefa trivial. “Não se faz mais agricultura apenas pela intuição”, resumiu Crestana.

O palestrante frisa que tecnologia nenhuma vai substituir o agricultor e que, para que essa transferência ocorra, alguns desafios precisam ser superados. Entre eles estão a baixa conectividade do campo, questões de privacidade de dados – fundamental para que muitos agricultores sintam-se seguros em adotar novas ferramentas – e a falta de suporte técnico especializado. Mas talvez o fator mais fundamental seja o preço, tecnologias de ponta ainda tem custos impeditivos, sobretudo para o pequeno e médio proprietário.

Todos esses desafios impõe riscos. Por exemplo, hubs de tecnologia e inovação estão concentrados nas regiões Sul e Sudeste. Quanto mais avançamos na fronteira agrícola, nas regiões Centro-Oeste e Norte, menos tecnológica a agricultura. “A desigualdade no acesso à tecnologia arrisca aumentar o abismo entre agricultores tecnificados e não-tecnificados. Seria fundamental fixar cientistas nessas regiões, isso é difícil e requer políticas públicas robustas. Nós temos dois agros, aquele organizado na forma de empresas e cooperativas, e aquele completamente desorganizado e que não usa as melhores práticas agrícolas”, avaliou Crestana.

Outro perigo é a perda de ocupação numa agricultura cada vez mais automatizada, com muitos agricultores tendo poucos horizontes de requalificação. O impulso pelas IA pode gerar também uma dependência do país em Big Techs estrangeiras, criando problemas de soberania para um dos setores mais importantes da economia brasileira. “Lembrando as palavras do querido professor Sérgio Mascarenhas, ‘só temos um caminho para o progresso: educação, ciência e humanismo’. Sem humanismo teremos tecnologias super-avançadas mas o resultado para nós não será bom”, concluiu.

Assista à sessão plenária a partir dos 33 minutos:

Sessão Plenária VI: Inteligência Artificial e Saúde

No dia 9 de maio, a última sessão plenária da Reunião Magna da ABC 2024, realizada no Museu do Amanhã, contou com apresentações de Antônio Luiz Pinho Ribeiro (UFMG), Helder Nakaya (USP) e Ana Estela Haddad (USP).

IA em Saúde: da invenção à implementação

Antônio Luiz Pinho Ribeiro é médico, com especialização em Clínica Médica e Cardiologia. É doutor em Medicina pela UFMG, de cuja Faculdade de Medicina é professor titular do Departamento de Clínica Médica. Atua também como coordenador de Pesquisa e Inovação do Centro de Telessaúde do Hospital das Clínicas da UFMG (HC-UFMG/MCTI) e como orientador pleno dos programas de pós-graduação de Infectologia e Medicina Tropical e Clínica Médica, entre outras atividades.

Estamos num momento de convergência entre o avanço dos métodos, o avanço do poder das máquinas e do avanço da capacidade de armazenar informações. A medicina se apropriou desses avanços de forma muito clara e passamos a ter um número muito grande de fontes de dados em saúde, desde os prontuários eletrônicos e os exames de laboratório, mas também governamentais, dados externos de redes sociais, dos celulares, relógios enfim gerando um número grande de informações que está transformando como o conhecimento médico, em saúde, se dá. Essa revolução chegou de forma mais acentuada em meados do século XX e desde então houve uma explosão de métodos de deep learning que possibilitam o rastreamento de problemas, de avaliação de prognóstico, de risco.

O grande problema é que esses modelos não foram incorporados na nossa prática como esperávamos, é uma revolução que ainda não se materializou em ferramentas na nossa prática clínica. Sobre os motivos: há o temos da própria classe médica de serem substituídos. Na verdade, a IA é uma ferramenta como tantas outras. A medicina já teve várias revoluções tecnológicas. Essa provavelmente vai mudar nossa prática, mas num horizonte visível ela não tem nenhuma perspectiva de substituir o trabalho do médico.

As dificuldades para a implementação são muito grandes, existe uma dificuldade regulatória, as agências estão tendo que se adaptar, o número de produtos incorporados ainda é restrito, pouco impactando na nossa prática clínica.

Ribeiro apresentou o exemplo da Rede de Telessaúde de Minas Gerais, na qual trabalha há 20 anos. Implantaram núcleos de telessaúde nas universidades do país, projeto que contou também com a contribuição de Ana Estela Haddad. Ampla gama de ações de telessaúde à distância educação e saúde e principalmente o telediagnóstico e o tele eletrocardiograma, teleatendimento a ambulâncias, além de outros procedimentos. Também trabalhamos com pesquisa em implementação de saúde digital e de inteligência artificial. A peça de resistência dessa rede é essa oferta nacional de telediagnóstico, que começou em MG, em 82 municípios, e com apoio do ministério da Saíde a rede se expandiu para 12 estados do país. Núcleos regionais de telessaúde nesses estados. Hoje são mais de 1400 pontos de atendimento com atendimento 24hs, com execução de mais de 7 mil ECGs por dia, laudados em 2 minutos. Um a cada dez eletros do SUS são feitos dessa forma. Isso gerou uma base de dados que se tornou uma das maiores do mundo e pareado com o SUS, que tem um sistema de dados muito organizado.  Nos últimos dois anos as aplicações de IA em saúde explodiram e temos inúmeros outros locais e parceiros.

Os dados do ECG servem para vários fins: para diagnóstico, para fazer o laudo, para triagem, monitoramento e rastreamento para identificação de outras doenças, como insuficiência cardíaca, e para predizer mortes, arritmias, infartos. O IA-ECG aumenta a acuidade dos resultados, reduz o tempo de trabalho e reduz custos. Um marcador interessante é quando a idade real do paciente e a idade do coração diferem em mais de oito anos, há um risco maior de morte, perceptível mesmo nos ECGs normais.

Estão estudando, em grupo com a Ester Sabino, como se pode pelos ECGs-IA identificar se a pessoa tem doença de Chagas, que é uma doença que mata silenciosamente, sem sintomas e, portanto, muitas vezes tb sem diagnóstico.

Resumindo, Ribeiro ressaltou que a IA abre novas possibilidades para os sistemas de saúde e para a prática clínica, que a implementação e incorporação na rotina das ferramentas de AI-ECG ainda não estão resolvidas e que o SUS brasileiro pode ter papel relevante na avaliação crítica da incorporação da IA em saúde.

A Nova Era da Saúde: O Impacto Transformador da IA na Prática e Pesquisa Médica

O bioinformata Helder Nakaya é doutor em Ciências Biológicas/Bioquímica pela Universidade de São Paulo (USP). É pesquisador sênior do Hospital Israelita Albert Einstein e membro do comitê científico da Sociedade Brasileira de Imunologia. É professor adjunto da Universidade Emory, em Atlanta, nos Estados Unidos, é docente e foi vice-diretor da Faculdade de Ciências Farmacêuticas da Universidade de São Paulo (USP). É consultor da CEPI (Coalition for Epidemic Preparedness Innovations) e da IUIS (International Union of Immunological Societies) e membro do conselho consultivo científico do consórcio europeu da vacina do ebola e do Instituto Internacional de Análise de Sistemas Aplicados (IIASA). É do Comitê de Assessoramento Científico da Sclavo Vaccines Association, Itália. Foi membro afiliado da Academia Brasileira de Ciências (2017-2021).

Nakaya começou comparando o médico ao computador. “O médico vai pegar uma lista de sintomas, exames, processar tudo na cabeça, interpretar, analisar as imagens e os resultados de exames de acordo com o que aprendeu, dar um diagnóstico e prescrever um tratamento. Do ponto de vista de um bioinformata, é igualzinho a um computador. Você tem um input, que é a inclusão dos dados, tem um processamento e tem um output, que seria o diagnóstico e o tratamento”, explicou.

Ele ainda acrescentou que na interpretação dos dados o médico leva em conta também a parte epidemiológica, a genética do paciente, casos anteriores que ele já tenha visto, artigos científicos relacionados, enfim, busca identificar alterações de padrões. “Imagina se conseguíssemos colocar na cabeça de um médico milhões de imagens, milhões de dados, milhões de artigos científicos… então é isso que a IA faz, torna mais eficiente o resultado do processamento. As possibilidades computacionais da IA são quase infinitas.”

Em seu laboratório no Einstein e na USP, Nakaya e seu grupo usam IA principalmente em medicina de precisão. Isso significa que pegam um grupo de pessoas que tem a mesma doença, foram vacinadas e tratadas da mesma forma, com o mesmo fármaco e observam que o desfecho da doença dentre essas pessoas é diferente. “Algumas ficam bem, outras nem tanto, tem pessoas que morrem. Isso vai depender de fatores genéticos, idade, sexo, estresse, enfim, diversos fatores que influenciam o desfecho médico.  Nós conseguimos medir milhares de componentes”, explicou. 

O bioinformata esclareceu que seu grupo consegue medir a atividade 30 mil genes, milhares de proteínas, metabólitos, enfim, uma quantidade imensa de dados. Apenas algoritmos de machine learning, relata, permitem que se processe essa rede complexa no pedacinho que importa para o profissional predizer se aquela pessoa vai morrer de febre amarela depois da infecção aguda, ou se aquela mãe que foi infectada com zika na gravidez vai dar origem a um bebê com microcefalia, enfim, “obtemos informações precisas sobre as perspectivas do indivíduo”. Na verdade, isso não é muita novidade. Nakaya explicou que hoje temos as tecnologias, mas que Hipócrates, o “pai” da medicina, já dizia, em 480 a.C., que “é mais importante conhecer a pessoa que tem a doença do que a doença que a pessoa tem”. 

Ao longo desses anos, o grupo de Nakaya desenvolveu diversas ferramentas computacionais para ajudar os profissionais a fazerem essas análises complexasmuito com o Sistema Único de Saúde (SUS).  Como admirador profundo do SUS, Nakaya apontou um problema do sistema: as bases de dados descentralizadas. “Tem uma base pra HIV, uma base pra malária, uma base pra dengue… Se conseguimos linkar duas bases, por exemplo, como fizemos com um grupo de 15 mil pessoas no Amazonas, podemos ver que quem tem HIV tem mais chance de também ter malária. Isso para um gestor é importantíssimo, saber que comorbidades podem existir para tomar decisões médicas ou até em políticas públicas.

O problema de integrar as bases de dados é o seguinte: a forma de entrar com os dados muitas vezes é diferente. “Um Luiz Mendonça está com z numa base e com s em outra base, o nome da mãe está incompleto numa delas ou com uma letra trocada, enfim, a mesma pessoa está em várias bases com esses erros e isso impede que o cruzamento de dados seja feito de forma correta”, observou. Então existem métodos probabilísticos e determinísticos, como: “se o CPF for igual, então é a mesma pessoa”. Mas têm muitas falhas.

Nakaya ficou pensando sobre como achar um método que seja bom. “Então me lembrei de um programa antigo, que compara de forma muito rápida e muito eficaz bilhões de sequências de DNA, é chamado de BLAST, e começamos a usá-lo”, relatou. O método envolve pegar os dados pessoais e “transformar em DNA”, e funcionou, permitiu a linkagem.

“E com isso descobrimos uma imensa quantidade de dados repetidos, redundâncias, informações perdidas ou excessivas, apenas por conta dos métodos probabilísticos e determinísticos”, contou. Agora o grupo está tentando encriptar em DNA para proteger os dados sensíveis. 

Outra linha do laboratório é o de visão computacional.  “Começamos a usá-la para detectar parasitas, primeiro com tripanossomas da doença de Chagas e depois para Leishmania. Usamos também vídeos”, relatou. Um exemplo é um programa que detecta estresse respiratório em bebês, respirações anormais, feito com vídeos — o médico pode ver  o bebê e observar a respiração. Fizeram também um modelo que detecta lesões de monkey pox com boa acurácia. “O meu sonho é criar um scanner portátil no qual se coloque o software que está por trás disso tudo, que possa ser levado para regiões remotas do país.

Outro problema que procuramos lidar é com os dados referentes às novas publicações, revistas, artigos, em cada área. Hoje, a quantidade de informação nova é imensa. “Não conseguimos ler 45 milhões de artigos, mas uma máquina consegue ler. Então fizemos esssee programa e criamos grafos de conhecimentos, nos quais a gente conecta doenças, drogas, genes e assim conseguimos usar os cientistas para fazer perguntas, ter insights a partir desses grafos de conhecimento. Usamos também para fazer reposicionamento de fármacos e para ver o que os brasileiros mais publicam, desde 1993.

Nakaya referiu-se ainda ao projeto de uso dos grandes modelos de linguagem, como o ChatGPT. “Temos uma riqueza muito grande nas anamneses médicas, quando o médico anota os sintomas, exames etc. O problema é que quando tentamos ler esse material e organizar essa informação usando mineração de textos e as regras anteriores normais temos problemas, porque encontramos abreviações, erros de digitação, ausência de acentos, enfim, fica difícil organizar. E são milhões de dados relevantes que não são usados para pesquisa por conta disso. Então nossa ideia é pegar esses dados através de uma IA e organizar, usar para vigilância, para sabermos quando houver um surto, ou para hipóteses diagnósticas. Conseguimos fazer isso até em tempo real. O modelo consegue adicionar coisas que o médico não falou, por ter toda a base de dados organizada por trás. Faz diagnóstico, sugere exames, faz prescrição médica, baseado no contexto específico. E é muito útil, porque se são 15 minutos de consulta e o médico passa dez minutos anotando, ele perde a parte mais importante, que é a interação médico-paciente.

Finalmente, Nakaya focou na questão maior, que é quando vamos conseguir todas as doenças e prevenir a velhice. “Bom, é difícil prever o futuro, porque nós, humanos, somos pensadores lineares, conseguimos compreender a realidade e extrapolar um pouquinho — mas é difícil pensar nisso quando é algo exponencial. E exponencial é exatamente como o nosso conhecimento evoluiu ao longo de 150.000 anos. É difícil entender esse crescimento exponencial”. Ele deu um exemplo interessante: o Projeto Genoma Humano. “Ao longo de 14 anos, foram investidos 2.7 bilhões de dólares. Até a metade do projeto, após sete anos, somente 1% do genoma estava sequenciado. No entanto, nos set anos seguintes os 99% faltantes foram sequenciados. Isso é ser exponencial. Quando muda uma tecnologia, no ano seguinte isso já pode estar impactando a vida de todo mundo”, destacou.

A ciência evolui de forma incremental e, às vezes acontecem esses grandes saltos da ciência, as mudanças de paradigma. Os modelos atuais de IA, de acordo com Nakaya, estão ajudando a ciência de forma incremental. “No momento em que isso se tornar uma super inteligência é que vamos ver as coisas explodirem, de uma forma que nem poderíamos prever. E aí virá a nova era da medicina, com a economia da IA”, pontou. O bioinformata realtou que já existe um chatbot melhorado, que imita uma enfermeira até no jeito de falar e consegue ter empatia, se relacionar com a pessoa com que ela está lidando, não é só um algoritmo de perguntas e respostas. “Acho que isso vai ter um impacto enorme na saúde mental”, refletiu.

Só que não adianta criar uma IA fantástica que fique restrita a um número pequeno de pessoas privilegiadas. Agora, a questão é de escala. “Temos que conseguir baratear esses recursos para que haja equidade e universalidade no acesso. Tem um bonde chegando. A gente pode se empenhar pra pegar esse bonde ou ficar distraído. Dizem que informação é o novo petróleo. Então o DATASUS é o nosso pré-sal”, concluiu.

Transformação Digital do SUS: Programa SUS Digital

Ana Estela Haddad é doutora em Ciências Odontológicas pela Universidade de São Paulo  (USP), onde é professora titular do Departamento de Ortodontia e Odontopediatria da Faculdade de Odontologia (FOUSP) e docente permanente do Programa de Pós-Graduação em Ciências Odontológicas. Atualmente é membro do Comitê Assessor da Rede Universitária de Telemedicina (RUTE) e do Grupo SAITE (Saúde, Inovação, Tecnologia e Educação) de Pesquisa do CNPq. É coordenadora adjunta do Núcleo de Apoio à Pesquisa em Políticas Públicas para a Metrópole (NAP Escola da Metrópole) e coordenadora da Estação Multicêntrica de Estudos e Tendências de Recursos Humanos em Saúde (FOUSP-ABENO) da Rede de Observatórios de Recursos Humanos em Saúde (Ministério da Saúde/OPAS). É uma das representantes do Brasil na Red de Lideres por la Primera Infância, rede latino-americana integrada por líderes de 28 países. Atualmente é secretária de Informação e Saúde Digital do Ministério da Saúde.

Ana Estela referiu-se às palestras anteriores, lembrando que todos os programas e projetos citados demandam muitas camadas de trabalho. “Quando pensamos na política de saúde, o que é necessário para a gente chegar a fazer isso crescer em termos populacionais e não individuais, vemos que o DATASUS é realmente um grande passo já andado”, observa. Ela explica que na gestão da ministra Nísia Trindade no Ministério da Saúde foi criada a Secretaria de Informação e Saúde Digital, para a qual os dados são fundamentais. À frente da nova Secretaria Ana Estela contextualizou o SUS: são 2,8 bilhões de atendimentos por ano, sendo que 70% da população brasileira depende do Sistema Único de Saúde (SUS). “Nenhum país no mundo com mais de 100 milhões de habitantes oferece um Sistema Único de Saúde, só o Brasil”, ressaltou.

Conforme já foi visto nas sessões anteriores do evento, sabemos dos riscos com tecnologias emergentes, como a IA. “Temos, por exemplo, o risco de vieses. Por isso é importante conhecer a entrada dos bancos de dados, como eles são formados, que informações são essas que estamos colocando e a relação com as informações que vão sair do outro lado. Tem a questão da segurança da informação, da proteção de dados. Hoje os dados de saúde são muito preciosos e estamos sob constante ataque. O DATASUS é muito monitorado e é sempre tensa essa questão. Essa secretaria que foi formada tem essa missão: acelerar a transformação digital do SUS, mas com uso técnico e crítico dessas novas tecnologias”, firmou.

As aplicações de IA na Saúde englobam a atenção integral à saúde, vigilância em saúde; pesquisa, desenvolvimento e inovação em saúde; formação e educação permanente dos trabalhadores e profissionais de saúde; gestão do SUS, que envolve planejamento, monitoramento e avaliação. Dentre os desafios a enfrentar, Ana Estela destacou a necessidade de superar a fragmentação, reunindo as informações num só lugar; implementar o uso de diferentes tecnologias; garantir a segurança da informação; assegurar a proteções privacidade dos dados; construir uma visão nacional; e garantir a governança e soberania dos dados.

O objetivo de tudo isso é viabilizar o acesso universal num sistema de saúde que é público. É também empoderar o cidadão, que tem direito à posse do seu prontuário para tomar as melhores decisões no seu autocuidado, dar continuidade a esse cuidado”. Ana Estela ressalta que o cidadão precisa de cuidado integrado de promoção, de continuidade e de prevenção. “A informação é um bem público. Com grandes bancos de dados podems fazer predições, fazer vigilância em saúde, perceber quando uma epidemia começa a aparecer e começar a atuar preventivamente. Além de melhorar a qualidade de vida do cidadão, que é prioridade, isso também resulta numa redução de custos.”

Diversos setores foram criados na Secretaria conduzida por Ana Estela, visando possibilitar a implementação de todas as IAs previstas, como o Laboratório de Inovação em Saúde Digital e o Índice Nacional de Maturidade em Saúde Digital, ferramenta criada para diagnosticar a situação de cada estado e município e apoiar os respectivos gestores; e a criação da Rede Nacional de Dados em Saúde (RNDS), que é o caminho para centralizar e universalizar os dados de saúde. Ana Estela destacou que já existe o SUS Digital para o Cidadão, app para celular que é a porta de entrada do cidadão para acesso aos serviços do SUS com qualidade, apontando no sentido da autonomia do sujeito.

E qual o benefício que a RNDS traz? segundo Ana Estela, essa plataforma materializa a ideia de um prontuário único eletrônico do cidadão. “Com os dados de saúde reunidos numa única plataforma é possível acompanhar todo o histórico clínico de uma paciente. Na prática, quer dizer que se a paciente tomou uma vacina em Manaus quando estava visitando sua mãe, seu registro de saúde vai ter esse dado. Essa ferramenta alcança os povos indígenas e todos os outros periféricos”, conclui.

Saiba tudo sobre a Reunião Magna e Sessão Solene da ABC 2024

MATÉRIAS REUNIÃO MAGNA 2024


 

Conferências Magnas

Sessão Solene da ABC e CNPq 2024: parte 1
Sessão Solene da ABC e CNPq 2024: parte 2


Sessão Plenária III: Especulando sobre o Futuro com a IA

No dia 8 de maio, a Reunião Magna 2024 da Academia Brasileira de Ciências (ABC) convidou o advogado Carlos Affonso Souza, o ecólogo Fabio Scarano e a socióloga Elisa Reis, para compor a Sessão Plenária III, um debate especulativo sobre o futuro de nosso planeta e da sociedade com a inteligência artificial.

Como o Direito vem legislando sobre as tecnologias digitais?

Continuando as discussões sobre regulamentação das tecnologias digitais – tema de uma sessão plenária no dia anterior – o jurista Carlos Affonso Souza, diretor do Instituto de Tecnologia e Sociedade do Rio de Janeiro (ITS Rio) e professor da Universidade do Estado do Rio de Janeiro (Uerj), traçou um panorama de trinta anos da experiência legislativa global com a internet.

As discussões começaram nos EUA dos anos 90, onde o advento da rede mundial foi acompanhado de otimismo e expectativas por uma nova era de liberdade de expressão irrestrita. Nessa época, movimentos progressistas advogavam por uma “Declaração de Independência da Internet”, defendendo que o Estado não deveria ter qualquer tipo de inserção neste novo espaço.

“Em 1996, o Congresso americano elaborou o Communications Decency Act, que obrigava as plataformas digitais a criarem filtros para que menores não pudessem acessar conteúdo adulto. Entretanto, a lei impunha obrigações impossíveis de serem implementadas e foi considerada inconstitucional pela Suprema Corte. Sobrou apenas a seção 230, que isentava as plataformas de responsabilidade sobre as postagens de usuários. De certa maneira, essa ampla imunidade fez com que os EUA dominassem o mercado digital nas décadas seguintes”, explicou o palestrante.

A partir dos anos 2000, surge a ideia da “Web Colaborativa”, onde o foco passa a estar cada vez mais no usuário como produtor de conteúdo. No Brasil, esse movimento demorou a ser compreendido pelas autoridades. Uma série de decisões judiciais acabaram resultando na derrubada de plataformas inteiras. Em 2006, quando um vídeo íntimo de uma celebridade viralizou no Youtube, o site foi proibido de atuar no país durante dias. “Começou-se a perceber que as soluções estavam desproporcionais, afetando centenas de outros atores que nada tinham a ver com o mal-feito”, contou Souza.

A ideia de que a regulamentação precisava equilibrar a liberdade coletiva com os direitos individuais começou a ganhar força. Em 2013, após anos de debates e consultas públicas online, o Brasil aprovou o Marco Civil da Internet. “Foi um texto muito original para a época, elogiado inclusive pelo “pai” da Internet, Tim Berners-Lee, e inspirou regulações na Itália e depois na França”, contou.

Outro marco legal foi a Lei Geral de Proteção de Dados (LGPD), de 2018. A lei veio na esteira do escândalo da Cambridge Analytica, empresa ligada a um professor da Universidade de Cambridge que comercializou dados de usuários do Facebook para guiar a campanha presidencial de Donald Trump, nos EUA, em 2016. “De certa forma nunca nos recuperamos desse escândalo, que aumentou a desconfiança mútua entre academia e setor privado. Hoje, grandes empresas fecham o acesso aos seus dados ou colocam preços impeditivos, o que dificulta muito a pesquisa”, explicou o palestrante.

Atualmente, Souza acredita que o país peca por não atualizar as legislações, já que a internet evoluiu muito nesse período. Ainda assim, considera que tanto o Marco Civil quanto a LGPD devem servir de exemplo para um marco regulatório em inteligência artificial. “O Marco Civil foi uma lei principiológica, nunca objetivou ser uma lei final. Muitos temas novos não foram abarcados, é preciso um novo olhar. Minha preocupação com as IA é o Congresso criar uma lei e achar que está tudo resolvido. Se tem uma lição que aprendemos é que a tecnologia traz desafios progressivos, o desenho regulatório de IA precisará de calibragem periódica”.

A inteligência natural da biotecnosfera

Fabio Scarano é professor de Ecologia na Universidade Federal do Rio de Janeiro (UFRJ), curador do Museu do Amanhã e titular da Catédra Unesco de Alfabetização em Futuros, uma parceria entre o Museu do Amanhã e a UFRJ. A Cátedra trabalha com ensino, pesquisa e extensão a partir das perspectivas de um grupo diverso de saberes e pessoas, promovendo educação socioambiental e pensando formas criativas de buscar um futuro sustentável para além das perspectivas limitadas do presente.

O palestrante iniciou sua fala analisando etimologicamente a palavra “inteligência”. “Temos o costume de associá-la a humanos, o que é uma confusão entre inteligência e racionalidade. A palavra vem do latim e junta os termos intus, ‘entre’, e legere, que significa ‘escolher’ ou ‘ler’. Inteligência, portanto, é discernir, saber escolher a melhor alternativa. É uma propriedade de todos os seres vivos”.

Para ele, a inteligência artificial (IA) se insere no que chama de “biotecnosfera”, a soma da matéria biológica com a matéria transformada pela ação humana. Ele lembra que se somarmos o peso de tudo que o homem construiu no planeta ultrapassamos o peso de toda a biomassa. Nesse cenário, Scarano ecoa a ideia do célebre filósofo Bertrand Russel que, na primeira metade do século 20, já defendia que possuíamos o suficiente para sustentar uma jornada de trabalho de seis horas diárias. “Mas o que temos feito é justamente o contrário, cada vez mais transformamos a natureza e as próprias pessoas em commodities”, criticou.

Em referência a outros grandes pensadores, o professor lembrou da visão positiva que o teólogo francês Teilhard de Chardin tinha sobre o rádio, o qual unia a todos numa consciência única universal. Também evocou o geógrafo Milton Santos para lembrar que há um intervalo de tempo entre o surgimento de ferramentas técnicas e sua incorporação no dia-a-dia. “Diante de tudo isso, o que falta para que de fato incorporemos essas tecnologias, de forma a termos mais tempo livre e nos unirmos definitivamente enquanto humanos?”, indagou. “Está tudo ao nosso alcance.”

Nesse cenário, a IA surge como mais uma dessas ferramentas que podem transformar nossas vidas. Entretanto, o mundo está cada vez mais fraturado e não parecemos saber consertar. “Talvez a IA possa ser uma camada a mais, uma ferramenta para que todas as inteligências do planeta se conectem e se permitam transcender essa estranha fase que vivemos. A essência da tecnologia é fazer o bem, é melhorar a nossa vida”, avaliou.

Scarano lembrou que a antecipação e a prevenção são características fundamentais da espécie humana que não estão sendo exercitadas no presente. “Cada vez mais olhamos para as tragédias com distância, como se nunca fosse acontecer com a gente. É o caso da crise climática, foi o caso do coronavírus. Precisamos regenerar nossa conexão com o mundo”, finalizou.

Uma visão social sobre IA

Elisa Reis é socióloga e atual coordenadora do Núcleo Interdisciplinar de Estudos sobre Desigualdade na Universidade Federal do Rio de Janeiro (NIED-UFRJ), onde também é professora no Programa de Pós-Graduação em Sociologia e Antropologia. Ao lado de Virgilio Almeida, foi uma das idealizadores do tema da Reunião Magna de 2024. Sua palestra começou lembrando que inovações tecnológicas sempre foram recebidas com perplexidade ao longo da história. “Paul Berger, ‘pai’ da engenharia genética, temeu tanto seus usos que liderou um movimento por sua regulação”, exemplificou.

Com a inteligência artificial estamos vendo movimentos parecidos. Enquanto ocupava a posição de Alta-Comissária da ONU para Direitos Humanos, a ex-presidente chilena Michelle Bachelet chegou a pedir uma moratória no comércio e desenvolvimento de IA até que a humanidade compreendesse melhor seus riscos. No campo oposto, o cientista-chefe em IA da gigante de tecnologia Meta e vencedor do Prêmio Turing, Yann LeCun, defende que a regulação prematura pode matar a tecnologia ainda no berço. “Nós da comunidade cientifica precisamos fazer um balanço entre riscos e oportunidades. A ciência tem o compromisso de minimizar os primeiros e maximizar os segundos. Mas não é só papel nosso, é também da política e da moral”, sumarizou Reis.

Para ela, ter máquinas mais inteligentes do que nós é, ao mesmo tempo, assustador e emocionante. “Quando afirmamos que as máquinas permanecerão sob nosso controle, precisamos nos perguntar: ‘nós quem?’. Pensamos sempre nos ganhos para a humanidade, mas quais os objetivos imediatos de quem de fato tem o controle. A IA vem evoluindo de forma muito mais veloz que outras inovações do passado, demandando recursos crescentes. Ao mesmo tempo, o espaço dos estados nacionais é cada vez mais restrito”.

Ainda assim, a experiência recente mostra que as nações mais poderosas ainda conseguem manter as rédeas da inovação, como mostra a crescente queda de braço entre EUA e China sobre o TikTok. Para Elisa Reis, todos nós hoje vivemos numa dupla dinâmica: convivemos num espaço global possibilitado pelas redes mas ainda somos cidadãos de Estados-Nação nos moldes tradicionais. “Sempre é preciso lembrar que grande parte das pessoas vivem uma cidadania de segunda classe e ainda estão afastadas das revoluções da comunicação. No Brasil, isso significa que, mesmo que logremos nos inserir nessa tecnologia, arriscamos produzir um apartheid cultural ainda mais profundo que já temos”, alertou.

“Há muitos motivos para alarme. Nossos jovens não estão sendo preparados para um futuro de IA, mesmo nas melhores universidades do país. A grande maioria chega ao ensino superior sem a motivação e o arcabouço necessário para fazer as perguntas que levem ao desenvolvimento. O elitismo é tão naturalizado entre nós que nos privamos de recursos valiosos para avançar. Ao desperdiçar talentos renunciamos à inteligência coletiva do nosso país”, completou a palestrante.

A Acadêmica defende que o futuro da IA começa hoje, definindo metas básicas de avanço social e utilizando-a nesse sentido. A tecnologia pode ser chave para uma gestão pública mais veloz e transparente, com políticas sociais mais efetivas e focalizadas. Mas para que isso se concretize é preciso investir em capacitação. “Eu vejo a IA do futuro como um instrumento que pode agravar ou romper padrões excludentes, compete a nós fazer dela algo positivo”.

Assista a sessão a partir dos 26 minutos:

Sessão Plenária I: Inteligência Artificial e Regulação

No dia 7 de maio, durante a primeira Sessão Plenária da Reunião Magna 2024, a Academia Brasileira de Ciências (ABC) convidou a advogada Tainá Junquilho, o comunicólogo Ricardo Fabrino e o cientista político Fernando Filgueiras, para um debate sobre regulação digital com ênfase nos novos desafios postos pelas IA.

Inteligência Artificial e Democracia

Doutor em Comunicação e professor do Departamento de Ciência Política da Universidade Federal de Minas Gerais (UFMG), Ricardo Fabrino alertou sobre como os algoritmos já mudaram a forma como nos locomovemos, trabalhamos e até mesmo buscamos relações amorosas. No âmbito institucional, essas ferramentas já se inseriram nos sistemas de saúde, segurança pública, judiciário e podem otimizar os demais serviços públicos. “Temos uma possibilidade de tornar as instituições públicas mais rápidas, capazes de cruzar um número muito maior de dados de forma muito mais efetiva”, analisou.

Mas essas mudanças não chegam sem riscos. Na comunicação em particular, os algoritmos das redes sociais revolucionaram a forma como conversamos, principalmente sobre política, de uma forma que comprometeu seriamente o debate público. “Além de tornar a desinformação cada vez mais complexa e colaborar para deslegitimar as instituições, o que as redes têm feito é uma ‘perfilização’, ou seja, dividir as pessoas em nichos e bolhas, enfraquecendo a experiência comum que nos une enquanto cidadãos”, explicou Fabrino.

Outro risco é o fortalecimento das desigualdades. Algoritmos de IA trabalham com dados, cuja disponibilidade e fornecimento reflete as disparidades entre nós. Nesse cenário, sistemas que não são capazes de fazer uma avaliação ética tendem a reproduzir a desigualdade. “Há muitos vieses nos dados que alimentam os modelos. Corremos o risco de criar um futuro que é apenas a repetição do passado presente nos dados. Um exemplo de riscos é o uso dessas tecnologias pela polícia”, avaliou o palestrante.

Segundo ele, já há quem pense que a participação popular na gestão pública vai se tornar obsoleta, o que fortalece um ideal tecnocrático perigoso. “Há uma crença na gestão pública de que talvez o movimento em direção à IA torne a política desnecessária. Nesse sentido, surge mais um desafio à democracia”.

Por tudo isso, Ricardo Fabrino nos convida a uma reflexão simples: “Como democratizar a IA?”. Ele lembra que a História está repleta de instituições cuja origem não era democrática mas que foram democratizadas ao longo dos anos, e nada impede que o mesmo ocorra com a IA. “O desafio é entender como fazer isso para uma tecnologia que não parece plenamente controlável e compreensível, atravessada por interesses econômicos gigantescos e cujos impactos se dão em cascata na sociedade”, argumentou.

Para ele, a comunidade científica não pode furtar-se de discutir o tema, e algumas linhas gerais precisarão ser seguidas. “É papel da ciência pensar regulação. Para isso, é fundamental pensar numa participação popular em escala supra-nacional, tendo em vista as assimetrias internacionais no acesso à essas tecnologias. É preciso promover a pluralidade e enfraquecer as bolhas. Também precisamos pensar seriamente em responsabilização e em proteção das liberdades fundamentais”.

Desafios epistêmicos e jurídicos

Professor de ciência política na Universidade Federal de Goiás (UFG), Fernando Filgueiras entende a IA como uma tecnologia que não muda apenas a forma como fazemos as coisas, mas a própria forma como produzimos conhecimento e ciência. “Pela maneira como a inteligência humana – individual e coletiva – e a IA interagem, cada vez mais surgem novas formas de resolver problemas e realizar tarefas. Chamo isso de ‘transinteligência’, uma interação que continuamente está gerando resultados inovadores e impensáveis. Por isso a própria regulação precisará ser disruptiva”, avaliou.

Em sua visão, todas as abordagens regulatórias pensadas até agora esbarraram em limitações. “A ideia de autorregulação é a mesma coisa que não regular. Mas mesmo a regulação voltada para riscos, como da União Européia, a regulação do mercado de IA, dos EUA, ou regulações ainda mais rígidas de controle estatal, todas estas entendem a IA como um produto qualquer, o que é um erro. É preciso entendê-la como agente”.

Nesse sentido, Filgueiras é contra uma regulação universal para todas as aplicações da IA. “O uso de IA na saúde tem desafios muito particulares quando comparados ao uso em governos, ou no campo da física, por exemplo. Uma regulação única não será capaz de prever todos os efeitos não intencionais. O principal desafio é entender como a IA impacta na construção de conhecimento. Não é algo trivial”.

O palestrante defende que qualquer solução deverá ser desenvolvida coletivamente. “Precisamos pensar em mecanismos de co-regulação, estabelecendo um diálogo constante entre os atores envolvidos. Não deve ser uma regulação propriamente estatal, a partir de uma burocracia centralizada. É preciso um processo em que estado e os vários setores se reúnam, definam uma agenda regulatória e a apliquem. Dessa forma compartilham a responsabilidade, o que é fundamental para fortalecer os mecanismos democráticos”, defendeu.

PL 2338: Construindo consensos?

A advogada e pesquisadora Tainá Junquilho, vice-líder do Laboratório de Governança e Regulação da Inteligência Artificial do Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa (IDP), afirmou que a regulação hoje já é um consenso. “Visões utópicas que defendiam que IA – bem como as demais tecnologias digitais – não deveria ser regulada não se sustentam mais. Hoje já temos riscos concretos e comprovados, mas também não podemos ceder a discursos apocalípticos. Precisamos sair desses extremos e pensar de forma responsável que valores queremos promover em IA. Não é mais ‘se’, mas ‘como’ regular”.

Junquilho fez um apanhado sobre como as discussões legislativas evoluíram no país, mas afirmou que grande parte do esforço se tornou obsoleto com o advento das IA generativas em 2022. “Novos desafios surgiram e precisou-se repensar a regulação, realizar novos debates, novas audiências públicas para embasar novas propostas. O projeto anterior foi transformado no Projeto de Lei 2338/2023, que é mais pormenorizado”, explicou.

O projeto tem inspiração no AI Act da União Européia, que aborda o tema a partir dos riscos, definindo três classes: riscos excessivos, que são vedados, altos e moderados, os quais são permitidos desde que respeitadas certas pré-condições e aos quais se atribuem responsabilizações, caso os riscos se concretizem, independentemente da análise de culpa.

São considerados riscos excessivos o uso de IA para influenciar de forma prejudicial o comportamento de pessoas com relação à sua própria segurança e da sociedade, e também o uso por parte de governos para ranquear ou classificar cidadãos com base em comportamento e personalidade. “Dessa forma, o uso de IA para influenciar no debate público e atacar a democracia será considerado risco excessivo e estará vedado”, avaliou Junquilho.

Já os riscos altos englobam o uso de IA para seleção de candidatos à uma vaga de emprego ou universidades, por exemplo, bem como avaliações de acesso à crédito, serviços públicos ou tratamentos de saúde. Alguns setores, porém, estão excluídos do PL 2338/2023, como aplicações em defesa nacional e segurança pública. “Dessa forma, debates cruciais como o uso de armas autônomas e o reconhecimento facial pela polícia ficam de fora”, lamentou a palestrante.

Um dos pontos mais quentes e cruciais para a legislação é a definição de uma autoridade regulatória. Uma vez que a tecnologia é muito dinâmica, a análise de riscos estará sempre sujeita a reavaliações, que não poderão esperar novos projetos de lei. A palestrante afirma que a necessidade de um sistema nacional de regulação e governança em IA é consenso, mas que as partes divergem no desenho institucional final. Por exemplo, essa autoridade será um órgão novo ou a adaptação de algo já existente?

Em outros pontos importantes, a proposta de lei aborda aspectos fundamentais para a ciência. “São criados incentivos ao fomento de pesquisas em IA e à criação de bases de dados públicas e robustas, além de incentivos à realização de consultas públicas entre os diversos setores que são impactados pela tecnologia”, concluiu Junquilho.

Assista a sessão a partir dos 40 minutos:

Karen Strier: tecnologias de IA podem contribuir com a conservação das espécies

No dia 9 de maio, durante a última tarde de sua Reunião Magna 2024, a Academia Brasileira de Ciências (ABC) teve o prazer de receber a primatóloga Karen Strier, professora da Universidade de Wisconsin, EUA, e autoridade global sobre os macacos muriqui, da mata atlântica brasileira. Por conta de seu campo de estudo, a palestrante tem uma relação muito próxima com o Brasil e com a ABC. Strier também é co-presidente da Rede Interamericana de Academias de Ciências (Ianas), ao lado de Helena Nader.

Os muriquis são os maiores primatas do Novo Mundo, podendo chegar a 70 centímetros de altura, com o mesmo tamanho de cauda. Atualmente existem duas espécies, os muriqui-do-sul (Brachyteles arachnoides), que habitam os estados de São Paulo, Rio de Janeiro e Paraná; e os muriqui-do-norte (Brachyteles hypoxanthus), que se espalham por Minas Gerais, Bahia e Espírito Santo. Estes últimos são considerados os primatas em maior risco de extinção do mundo. “São espécies em alto risco porque moram na mata atlântica, onde sobrou apenas 12% de área conservada. Mas estudá-los me ensinou muito sobre resistência e resiliência, por isso sou muito otimista quanto ao futuro deles”, avaliou a palestrante.

Segundo ela, atualmente existem cerca de 15 populações desses primatas na natureza, mas a maior parte delas é muito pequena, com dezenas de indivíduos, e por isso têm pouca viabilidade de sobrevivência a longo prazo sem intervenção humana. Mas também existem entre duas a quatro populações viáveis, com centenas de macacos, e uma delas se tornou o ponto focal dos estudos de campo da pesquisadora. “Essa população está num fragmento de floresta conservada em Caratinga, Minas Gerais, onde o proprietário, o senhor Feliciano Abdala, decidiu criar um santuário de primatas. Essa é uma história que vale a pena ser contada, pois mostra o impacto que uma pessoa sozinha consegue ter”.

Uma família de muriquis-do-norte (Foto: Marcos Amend)

É lá que Karen Strier e sua equipe trabalham monitorando os animais, sempre da forma menos invasiva possível. A utilização de tags e outros aparelhos físicos de identificação foi preterida pelo monitoramento por câmeras e pela análise de fezes, fazendo com que os cientistas não precisem tocar nos animais. Esse bom relacionamento se reflete no comportamento e a maioria dos muriquis é curiosa e não tem medo de humanos. “Acabamos por nos apegar a eles, reconhecê-los como indivíduos que não são nossas cobaias, damos até nomes”, conta a pesquisadora.

Mas esse comportamento dócil também reflete a própria natureza dos muriquis, que diferentemente de outros primatas, são menos territorialistas e possessivos. Ao contrário de outros macacos, os machos não são expulsos do bando quando se tornam adultos e também não há disputas por fêmeas, com cada macaco possuindo vários parceiros. Raramente se observam brigas ou agressões entre eles. “A National Geographic certa vez os chamou de ‘macacos hippies’”, brincou Strier.

A análise contínua e não-invasiva foi o que permitiu que o grupo de Strier descrevesse esses comportamentos atípicos dos muriquis, bem como definir que a gestação dura sete meses e que os filhotes levam nove anos até chegar a idade reprodutiva. Análises genéticas posteriores possibilitaram confirmar o que já se pensava a muito tempo: os muriquis do norte e do sul constituem duas espécies distintas.

“Acho que a contribuição cientifica mais importante dos muriquis é a identificação de quais características de seu comportamento são flexíveis. Eles são muito flexíveis ecologicamente, nas dietas, na forma de socializar. Ao mesmo tempo, eles são vulneráveis a certas mudanças em seu habitat. Por exemplo, quando a população cresce demais o fragmento de floresta se torna pequeno, e observamos macacos descendo das árvores para comer restos de frutas. Observar isso é de partir o coração”, contou.

Por conta dessa fragmentação, Strier defende a importância dos corredores ecológicos conectando diferentes fragmentos, o que ajuda na proteção e na diversificação genética da população, algo fundamental para a sobrevivência a longo prazo. Além disso, avalia que as novas tecnologias de inteligência artificial – tema principal da reunião deste ano – podem dar contribuições fundamentais à conservação, sobretudo para lidar com o alto número de dados e regiões focais num país tão extenso quanto o Brasil.

Mas sobretudo, conservar espécies nativas tem a ver com vontade política. Por isso, cientistas que trabalham nessa área precisam ser ativos no debate público mais do que qualquer outro, para que suas demandas não caiam no esquecimento. “É um trabalho sobre resiliência, persistência, otimismo e esperança. Mas também sobre a responsabilidade que precisamos ter para com estes animais”, concluiu.

Sessão Plenária IV: Inteligência Artificial, Educação e ChatGPT

0A sessão plenária da Reunião Magna da ABC 2024 na tarde de 8 de maio contou com o Acadêmico Renato Janine Ribeiro (USP), Teresa Ludermir (UFPE) e Naomar Monteiro (UFBA). 

“Da tabuada à redação: como ficará a expressão com a IA?” 

O Acadêmico Renato Janine Ribeiro é doutor em Filosofia pela Universidade de São Paulo (USP), onde é professor sênior de Ética e Filosofia Política. Atua na área de filosofia política, com ênfase em teoria política. Professor honorário do Instituto de Estudos Avançados da USP. Foi ministro de Estado da Educação (2015). É pesquisador sênior do Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq). É membro titular da Academia Brasileira de Ciências e presidente da Sociedade Brasileira para o Progresso da Ciência (SBPC).

Sua apresentação era intitulada Ele faz uma comparação bastante pertinente: quando a calculadora se tornou portátil, veio um grande medo das crianças nunca mais aprenderem a fazer contas. “Hoje tem calculadora no celular. Alfabetização em matemática inclui fazer contas, mas não é preciso ter a tabuada na ponta da língua. Não tem mais sentido que as crianças façam cálculos. A matemática é uma linguagem, tem que aprender o raciocínio. O que as pessoas vão aprender é a interpretar dados, a fazer programação, a explorar a matemática em toda a sua utilidade”, argumentou o filósofo.  

Mas e na redação? Nesse caso, a expressão pessoal é a meta. Então, o argumento de Janine se inverte. “O Chat GPT produz textos razoáveis, mas não faz nada original. Se não treinar, como escrever? Se não aprender, como criar? Como haverá expressão?”

De fato, a IA não inova. “Ela não fala sobre o que o homem faz, mas sobre o que o homem fez. [O grande matemático e cientista da computação inglês] AlanTuring disse que ‘uma máquina infalível não será inteligente’. Aprendemos de modo geral por ensaio e erro. É preciso errar para aprender. O ChatGPT não pensa, não cria nada – ainda”.

Apesar de toda essa argumentação, Janine ressalta que na nossa cultura existe o fantasma da criatura que escapa ao criador, como o monstro do Dr. Frankenstein, de Mary Shelley,o Pigmaleão de Bernard Shaw e o robô do filme de Kubrick 2001, Uma Odisseia no Espaço. “Esse é um medo que o mundo da IA pode despertar”, alerta o Acadêmico.

Como a IA e o ChatGPT podem ajudar na educação? 

A Acadêmica Teresa Bernarda Ludermir é doutora pelo Colégio Imperial Imperial de Ciência, Tecnologia e Medicina da Universidade de Londres, na Grã-Bretanha. É professora titular da Universidade Federal de Pernambuco (UFPE), coordena o Instituto Nacional de Inteligência Artificial (INCT) e dirige o Centro de Pesquisa Aplicada em Inteligência Artificial para Segurança Cibernética. É membra da Academia Pernambucana de Ciências, membra sênior do Instituto de Engenheiros Elétricos e Eletrônicos (IEEE), membra da International Neural Network Society (INNS) e membra titular da Academia Brasileira de Ciências (ABC).

Refletindo sobre como o IA e o ChatGPT podem ajudar na educação, ela aponta que o Brasil não pode correr o risco de ser apenas um usuário de soluções de IA concebidas no exterior. “O desenvolvimento de uma IA ética e responsável para a educação é crucial para construir um futuro em que a tecnologia contribua para a democratização do conhecimento e a formação de cidadãos críticos e engajados”, apontou.

Ela explicou que o ChatGPT não é uma IA de propósito geral: é um sistema de IA gerador de textos como bom desempenho. Porém, o uso enorme de poder computacional ainda consome muita energia, não é sustentável.

Sobre as possibilidades de uso na educação, Teresa defende a IA como um parceiro do professor. “Não é substituir o professor por um programa e sim integrar o ensino de IA no currículo da educação básica e superior”, explicou.

A IA está fazendo diferença em diversas áreas na educação. A principal é a personalização do aprendizado. Com ajuda da IA, é possível de fato promover uma educação inclusiva. “Primeiro, ela pode ajudar o professor sugerindo novos métodos de ensino, melhorias do processo de avaliação e na criação de conteúdo. “Os jovens de hoje têm dificuldade de concentração, só dão atenção a pouquíssimos minutos de aulas. Os tutores propõem jogos e novas atividades, podem dar ao professor um feedback. Dão assistência na preparação de materiais didáticos, ajudam o professor”, destaca Teresa. “E no caso do aluno com dificuldade, a IA oferece tutores individuais que acompanham individualmente cada um e ele consegue evoluir. Além disso, os benefícios na gestão escolar são imensos. E dá acesso à educação de qualidade em locais distantes, onde não há professores suficientes”, complementa.

O desenvolvimento de uma IA ética e responsável para a educação é crucial para construir um futuro em que a tecnologia contribua para a democratização do conhecimento e a formação de cidadãos críticos e engajados. Mas Teresa sabe que nem tudo são flores. Os desafios da implementação da IA na educação são grandes, especialmente na formação de professores e engajamento dos alunos, assim como há questões no uso da IA com ética e responsabilidade. “A desigualdade digital, em vez de ser reduzida, pode aumentar, por conta de falta de infraestrutura e dos custos de implementação. E há pontos fundamentais, como a regulamentação e políticas públicas. Estas têm que promover a inclusão digital para não perdermos esse bonde.” Ela defende a promoção de campanhas de conscientização pública sobre os benefícios e riscos de IA.

Além destes desafios, existe a própria questão tecnológica. “Precisamos melhorar o desenvolvimento de modelos. Nem toda IA é uma IA responsável, porque precisamos de mais ciência nos modelos para reduzir o viés algorítmico, avaliar a qualidade dos dados. Dados tem erros. E precisamos saber reduzir o tamanho dos modelos”, apontou a palestrante.

E para tudo isso, evidentemente, é preciso financiamento. Primeiro. para a formação de recursos humanos qualificados em inteligência artificial. Segundo, mas ao mesmo tempo, para o aumento imediato da capacidade computacional do país. “Temos que estabelecer centros internacionais de pesquisa no Brasil, atraindo especialistas em IA e estabelecendo política para fixação de talentos, com remuneração competitiva com mercado internacional”, finalizou Teresa Ludermir.

Inteligência Artificial na Saúde: Desmitificar para Avançar

O médico Naomar Monteiro é Ph.D. em Epidemiologia e doutor honoris causa pela Universidade McGill, no Canadá. É professor aposentado do Instituto de Saúde Coletiva da Universidade Federal da Bahia (UFBA), onde coordena o Instituto Nacional de Ciência e Tecnologia de Inovação, Tecnologia e Equidade em Saúde (Inteq-Saúde). Também atua como professor visitante no Instituto de Estudos Avançados da Universidade de São Paulo (IEA-USP), onde ocupa a Cátedra Alfredo Bosi de Educação Básica, desenvolvendo estudos sobre a relação entre universidade, educação, história e sociedade. Ele desenvolve pesquisas no campo da epidemiologia de transtornos mentais, particularmente o efeito de raça, racismo, gênero e classe social sobre a saúde mental.

Naomar apresentou um mapa conceitual de 2022 do campo da saúde digital, no qual a inteligência artificial (IA) é o centro de tudo: saúde móvel, saúde eletrônica, telemedicina e telessaúde. “No mapa de 2016, a IA nem aparecia”, observou. Naomar apontou que o uso de IA em saúde tem sido mostrado como uma das aplicações positivas. “Porém, está sendo feito com pressa, sem muita reflexão. A otimização visa a lucratividade, sem dúvida, e não a equidade no atendimento.”

Sobre os desafios e perspectivas do uso pedagógico de IA na educação superior, Naomar destacou que é preciso promover transversalidades, reinventar a ideia de competência crítica e pautar a formação de formadores numa cultura digital sensível. “E superar a confusão conceitual, como a noção de letramento digital. ‘Letramento’ é uma tradução do inglês, de ‘literacy’, que significa ‘alfabetização’. Então, rigorosamente, ‘letramento digital’ é alfabetizar pessoas para programar, mas não é como o termo vem sendo usado: ele vem sendo usado como a capacidade de lidar com os dispositivos mínimos, como o celular e o laptop”.

“Promover transversalidades”, de acordo com Naomar, envolve operar em torno de eixos temáticos e vetores do conhecimento coerentes com a complexidade de organização do saber científico na atualidade. “O repertório curricular deve ser menos rígido, sem caráter obrigatório, mais inter e transdisciplinar, incorporando conhecimentos e valores relativos às humanidades, ciências sociais e artes. Para a formação de um indivíduo é fundamental buscar equilíbrio entre conhecimento e imaginação, entre efetividade e excelência, entre racionalidade e sensibilidade”, apontou.

Sobre a priorização das competências tecnológicas críticas, a educação deve envolver a compreensão de lógicas, mecanismos e efeitos das técnicas e instrumentos de práticas, a fim de possibilitar intervenções nos corpos sociais, individuais e coletivos com propriedade e qualidade. Para Naomar, o professor do século XXI deve desenvolver habilidades para aplicar tecnologias no máximo de eficácia, focando na eficiência (custo-benefício), na efetividade concreta (qualidade-equidade) e, assim, promovendo uma transformação social sustentável.

“Professores devem ser capazes de utilizar saberes, práticas e técnicas, a partir de avaliação crítica dos seus aspectos operativos, principalmente o potencial de valorizar a sensibilidade ecossocial”, explicou. Esta “sensibilidade ecossocial” envolveria, entre outros pontos, a consciência planetária, a ética e respeito à diversidade humana e aos diferentes saberes, assim como o estímulo à solidariedade e empatia.

teste