pt_BR

Saiba tudo sobre a Reunião Magna da ABC

MATÉRIAS REUNIÃO MAGNA 2024

Sessão Plenária I: Inteligência Artificial e Regulação

Sessão Plenária II: Avanços da Computação e Inteligência Artificial

Sessão Plenária III: Especulando Sobre o Futuro Com a Inteligência Artificial

Sessão Plenária IV: Inteligência Artificial, Educação e ChatGPT

Sessão Plenária V: Inteligência Artificial e Agricultura

Sessão Plenária VI: Inteligência Artificial e Saúde

Conferências Magnas

Vinton Cerf: IA ainda não compreende contextos

Nick Couldry: “IA não é inteligência, nem é artificial”

Margaret Martonosi: desenvolvimento de IA requer pegada de carbono acoplada

Ranveer Chandra: agricultura de precisão feita com smartphones

Karen Strier: tecnologias de IA podem contribuir com a conservação das espécies

Sessão Plenária III: Especulando sobre o Futuro com a IA

No dia 8 de maio, durante a terceira Sessão Plenária da Reunião Magna 2024, a Academia Brasileira de Ciências (ABC) convidou o advogado Carlos Affonso Souza, o ecólogo Fabio Scarano e a socióloga Elisa Reis, para um debate especulativo sobre o futuro de nosso planeta e sociedade com a inteligência artificial.

Como o Direito vem legislando sobre as tecnologias digitais?

Continuando as discussões sobre regulamentação das tecnologias digitais – tema de uma sessão plenária no dia anterior – o jurista Carlos Affonso Souza, diretor do Instituto de Tecnologia e Sociedade do Rio de Janeiro (ITS Rio) e professor da Universidade do Estado do Rio de Janeiro (UERJ), traçou um panorama de trinta anos da experiência legislativa global com a Internet.

As discussões começaram nos EUA dos anos 90, onde o advento da rede mundial foi acompanhado de otimismo e expectativas por uma nova era de liberdade de expressão irrestrita. Nessa época, movimentos progressistas advogavam por uma “Declaração de Independência da Internet”, defendendo que o Estado não deveria ter qualquer tipo de inserção neste novo espaço.

“Em 96, o Congresso americano elaborou o Communications Decency Act, que obrigava as plataformas digitais a criarem filtros para que menores não pudessem acessar conteúdo adulto. Entretanto, a lei impunha obrigações impossíveis de serem implementadas e foi considerada inconstitucional pela Suprema Corte. Sobrou apenas a seção 230, que isentava as plataformas de responsabilidade sobre as postagens de usuários. De certa maneira, essa ampla imunidade fez com que os EUA dominassem o mercado digital nas décadas seguintes”, explicou o palestrante.

A partir dos anos 2000, surge a ideia da “Web Colaborativa”, onde o foco passa a estar cada vez mais no usuário como produtor de conteúdo. No Brasil, esse movimento demorou a ser compreendido pelas autoridades. Uma série de decisões judiciais acabaram resultando na derrubada de plataformas inteiras. Em 2006, quando um vídeo íntimo de uma celebridade viralizou no Youtube, o site foi proibido de atuar no país durante dias. “Começou-se a perceber que as soluções estavam desproporcionais, afetando centenas de outros atores que nada tinham a ver com o mal-feito”, contou Souza.

A ideia de que a regulamentação precisava equilibrar a liberdade coletiva com os direitos individuais começou a ganhar força. Em 2013, após anos de debates e consultas públicas online, o Brasil aprovou o Marco Civil da Internet. “Foi um texto muito original para a época, elogiado inclusive pelo pai da Internet, Tim Berners-Lee, e inspirou regulações na Itália e depois na França”, contou.

Outro marco legal foi a Lei Geral de Proteção de Dados (LGPD), de 2018. A lei veio na esteira do escândalo da Cambridge Analytica, empresa ligada a um professor da Universidade de Cambridge que comercializou dados de usuários do Facebook para guiar a campanha presidencial de Donald Trump, nos EUA, em 2016. “De certa forma nunca nos recuperamos desse escândalo, que aumentou a desconfiança mútua entre academia e setor privado. Hoje, grandes empresas fecham o acesso aos seus dados ou colocam preços impeditivos, o que dificulta muito a pesquisa”, explicou o palestrante.

Atualmente, Souza acredita que o país peca por não atualizar as legislações, já que a Internet evoluiu muito nesse período. Ainda assim, considera que tanto o Marco Civil quanto a LGPD devem servir de exemplo para um marco regulatório em Inteligência Artificial. “O Marco Civil foi uma lei principiológica, nunca objetivou ser uma lei final. Muitos temas novos não foram abarcados, é preciso um novo olhar. Minha preocupação com as IA é o Congresso criar uma lei e achar que está tudo resolvido. Se tem uma lição que aprendemos é que a tecnologia traz desafios progressivos, o desenho regulatório de IA precisará de calibragem periódica”.

A inteligência natural da Biotecnosfera

Fabio Scarano é professor de Ecologia na Universidade Federal do Rio de Janeiro (UFRJ), curador do Museu do Amanhã e titular da Catédra UNESCO de Alfabetização em Futuros, uma parceria entre o Museu do Amanhã e a UFRJ. A Cátedra trabalha com ensino, pesquisa e extensão a partir das perspectivas de um grupo diverso de saberes e pessoas, promovendo educação socioambiental e pensando formas criativas de buscar um futuro sustentável para além das perspectivas limitadas do presente.

O palestrante iniciou sua fala analisando etimologicamente a palavra “inteligência”. “Temos o costume de associá-la a humanos, o que é uma confusão entre inteligência e racionalidade. A palavra vem do latim e junta os termos intus, ‘entre’, e legere, que significa ‘escolher’ ou ‘ler’. Inteligência, portanto, é discernir, saber escolher a melhor alternativa. É uma propriedade de todos os seres vivos”.

Para ele, a Inteligência Artificial se insere no que chama de “biotecnosfera”, a soma da matéria biológica com a matéria transformada pela ação humana. Ele lembra que se somarmos o peso de tudo que o homem construiu no planeta ultrapassamos o peso de toda a biomassa. Nesse cenário, Scarano ecoa a ideia do célebre filósofo Bertrand Russel, que, na primeira metade do século 20, já defendia que possuíamos o suficiente para sustentar uma jornada de trabalho de seis horas diárias. “Mas o que temos feito é justamente o contrário, cada vez mais transformamos a natureza e as próprias pessoas em commodities”, criticou.

Em referência a outros grandes pensadores, o professor lembrou da visão positiva que o teólogo Teilhard de Chardin tinha sobre o rádio, o qual unia a todos numa consciência única universal. Também evocou o geógrafo Milton Santos para lembrar que há um intervalo de tempo entre o surgimento de ferramentas técnicas e sua incorporação no dia-a-dia. “Diante de tudo isso, o que falta para que de fato incorporemos essas tecnologias, de forma a termos mais tempo livre, e nos unirmos definitivamente enquanto humanos?”, indagou. “Está tudo ao nosso alcance”.

Nesse cenário, a IA surge como mais uma dessas ferramentas que podem transformar nossas vidas. Entretanto, o mundo está cada vez mais fraturado e não parecemos saber consertar. “Talvez a IA possa ser uma camada a mais, uma ferramenta para que todas as inteligências do planeta se conectem e se permitam transcender essa estranha fase que vivemos. A essência da tecnologia é fazer o bem, é melhorar a nossa vida”, avaliou.

Scarano lembrou que a antecipação e a prevenção são características fundamentais da espécie humana que não estão sendo exercitadas no presente. “Cada vez mais olhamos para as tragédias com distância, como se nunca fosse acontecer com a gente. É o caso da crise climática, foi o caso do coronavírus. Precisamos regenerar nossa conexão com o mundo”, finalizou.

Uma visão social sobre IA

Elisa Reis é socióloga e atual coordenadora do Núcleo Interdisciplinar de Estudos sobre Desigualdade na Universidade Federal do Rio de Janeiro (NIED-UFRJ), onde também é professora no Programa de Pós-Graduação em Sociologia e Antropologia. Ao lado de Virgilio Almeida, foi uma das idealizadores do tema da Reunião Magna de 2024. Sua palestra começou lembrando que inovações tecnológicas sempre foram recebidas com perplexidade ao longo da história. “Paul Berger, pai da engenharia genética, temeu tanto seus usos que liderou um movimento por sua regulação”, exemplificou.

Com a inteligência artificial estamos vendo movimentos parecidos. Enquanto ocupava a posição de Alta-Comissária da ONU para Direitos Humanos, a ex-presidente chilena Michelle Bachelet chegou a pedir uma moratória no comércio e desenvolvimento de IA até que a humanidade compreendesse melhor seus riscos. No campo oposto, o cientista-chefe em IA da gigante de tecnologia Meta e vencedor do Prêmio Turing, Yann LeCun, defende que a regulação prematura pode matar a tecnologia ainda no berço. “Nós da comunidade cientifica precisamos fazer um balanço entre riscos e oportunidades. A ciência tem o compromisso de minimizar os primeiros e maximizar os segundos. Mas não é só papel nosso, é também da política e da moral”, sumarizou Reis.

Para ela, ter máquinas mais inteligentes do que nós é, ao mesmo tempo, assustador e emocionante. “Quando afirmamos que as máquinas permanecerão sob nosso controle, precisamos nos perguntar: ‘nós quem?’. Pensamos sempre nos ganhos para a humanidade, mas quais os objetivos imediatos de quem de fato tem o controle. A IA vem evoluindo de forma muito mais veloz que outras inovações do passado, demandando recursos crescentes. Ao mesmo tempo, o espaço dos estados nacionais é cada vez mais restrito”.

Ainda assim, a experiência recente mostra que as nações mais poderosas ainda conseguem manter as rédeas da inovação, como mostra a crescente queda de braço entre EUA e China sobre o TikTok. Para Elisa Reis, todos nós hoje vivemos numa dupla dinâmica: convivemos num espaço global possibilitado pelas redes mas ainda somos cidadãos de Estados-Nação nos moldes tradicionais. “Sempre é preciso lembrar que grande parte das pessoas vivem uma cidadania de segunda classe e ainda estão afastadas das revoluções da comunicação. No Brasil, isso significa que, mesmo que logremos nos inserir nessa tecnologia, arriscamos produzir um apartheid cultural ainda mais profundo que já temos”, alertou.

“Há muitos motivos para alarme. Nossos jovens não estão sendo preparados para um futuro de IA, mesmo nas melhores universidades do país. A grande maioria chega ao ensino superior sem a motivação e o arcabouço necessário para fazer as perguntas que levem ao desenvolvimento. O elitismo é tão naturalizado entre nós que nos privamos de recursos valiosos para avançar. Ao desperdiçar talentos renunciamos à inteligência coletiva do nosso país”, completou a palestrante.

A Acadêmica defende que o futuro da IA começa hoje, definindo metas básicas de avanço social e utilizando-a nesse sentido. A tecnologia pode ser chave para uma gestão pública mais veloz e transparente, com políticas sociais mais efetivas e focalizadas. Mas para que isso se concretize é preciso investir em capacitação. “Eu vejo a IA do futuro como um instrumento que pode agravar ou romper padrões excludentes, compete a nós fazer dela algo positivo”.

Assista a sessão a partir dos 26 minutos:

Sessão Plenária I: Inteligência Artificial e Regulação

No dia 7 de maio, durante a primeira Sessão Plenária da Reunião Magna 2024, a Academia Brasileira de Ciências (ABC) convidou a advogada Tainá Junquilho, o comunicólogo Ricardo Fabrino e o cientista político Fernando Filgueiras, para um debate sobre regulação digital com ênfase nos novos desafios postos pelas IA.

Inteligência Artificial e Democracia

Doutor em Comunicação e professor do Departamento de Ciência Política da Universidade Federal de Minas Gerais (UFMG), Ricardo Fabrino alertou sobre como os algoritmos já mudaram a forma como nos locomovemos, trabalhamos e até mesmo buscamos relações amorosas. No âmbito institucional, essas ferramentas já se inseriram nos sistemas de saúde, segurança pública, judiciário e podem otimizar os demais serviços públicos. “Temos uma possibilidade de tornar as instituições públicas mais rápidas, capazes de cruzar um número muito maior de dados de forma muito mais efetiva”, analisou.

Mas essas mudanças não chegam sem riscos. Na comunicação em particular, os algoritmos das redes sociais revolucionaram a forma como conversamos, principalmente sobre política, de uma forma que comprometeu seriamente o debate público. “Além de tornar a desinformação cada vez mais complexa e colaborar para deslegitimar as instituições, o que as redes têm feito é uma ‘perfilização’, ou seja, dividir as pessoas em nichos e bolhas, enfraquecendo a experiência comum que nos une enquanto cidadãos”, explicou Fabrino.

Outro risco é o fortalecimento das desigualdades. Algoritmos de IA trabalham com dados, cuja disponibilidade e fornecimento reflete as disparidades entre nós. Nesse cenário, sistemas que não são capazes de fazer uma avaliação ética tendem a reproduzir a desigualdade. “Há muitos vieses nos dados que alimentam os modelos. Corremos o risco de criar um futuro que é apenas a repetição do passado presente nos dados. Um exemplo de riscos é o uso dessas tecnologias pela polícia”, avaliou o palestrante.

Segundo ele, já há quem pense que a participação popular na gestão pública vai se tornar obsoleta, o que fortalece um ideal tecnocrático perigoso. “Há uma crença na gestão pública de que talvez o movimento em direção à IA torne a política desnecessária. Nesse sentido, surge mais um desafio à democracia”.

Por tudo isso, Ricardo Fabrino nos convida a uma reflexão simples: “Como democratizar a IA?”. Ele lembra que a História está repleta de instituições cuja origem não era democrática mas que foram democratizadas ao longo dos anos, e nada impede que o mesmo ocorra com a IA. “O desafio é entender como fazer isso para uma tecnologia que não parece plenamente controlável e compreensível, atravessada por interesses econômicos gigantescos e cujos impactos se dão em cascata na sociedade”, argumentou.

Para ele, a comunidade científica não pode furtar-se de discutir o tema, e algumas linhas gerais precisarão ser seguidas. “É papel da ciência pensar regulação. Para isso, é fundamental pensar numa participação popular em escala supra-nacional, tendo em vista as assimetrias internacionais no acesso à essas tecnologias. É preciso promover a pluralidade e enfraquecer as bolhas. Também precisamos pensar seriamente em responsabilização e em proteção das liberdades fundamentais”.

Desafios epistêmicos e jurídicos

Professor de ciência política na Universidade Federal de Goiás (UFG), Fernando Filgueiras entende a IA como uma tecnologia que não muda apenas a forma como fazemos as coisas, mas a própria forma como produzimos conhecimento e ciência. “Pela maneira como a inteligência humana – individual e coletiva – e a IA interagem, cada vez mais surgem novas formas de resolver problemas e realizar tarefas. Chamo isso de ‘transinteligência’, uma interação que continuamente está gerando resultados inovadores e impensáveis. Por isso a própria regulação precisará ser disruptiva”, avaliou.

Em sua visão, todas as abordagens regulatórias pensadas até agora esbarraram em limitações. “A ideia de autorregulação é a mesma coisa que não regular. Mas mesmo a regulação voltada para riscos, como da União Européia, a regulação do mercado de IA, dos EUA, ou regulações ainda mais rígidas de controle estatal, todas estas entendem a IA como um produto qualquer, o que é um erro. É preciso entendê-la como agente”.

Nesse sentido, Filgueiras é contra uma regulação universal para todas as aplicações da IA. “O uso de IA na saúde tem desafios muito particulares quando comparados ao uso em governos, ou no campo da física, por exemplo. Uma regulação única não será capaz de prever todos os efeitos não intencionais. O principal desafio é entender como a IA impacta na construção de conhecimento. Não é algo trivial”.

O palestrante defende que qualquer solução deverá ser desenvolvida coletivamente. “Precisamos pensar em mecanismos de co-regulação, estabelecendo um diálogo constante entre os atores envolvidos. Não deve ser uma regulação propriamente estatal, a partir de uma burocracia centralizada. É preciso um processo em que estado e os vários setores se reúnam, definam uma agenda regulatória e a apliquem. Dessa forma compartilham a responsabilidade, o que é fundamental para fortalecer os mecanismos democráticos”, defendeu.

PL 2338: Construindo consensos?

A advogada e pesquisadora Tainá Junquilho, vice-líder do Laboratório de Governança e Regulação da Inteligência Artificial do Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa (IDP), afirmou que a regulação hoje já é um consenso. “Visões utópicas que defendiam que IA – bem como as demais tecnologias digitais – não deveria ser regulada não se sustentam mais. Hoje já temos riscos concretos e comprovados, mas também não podemos ceder a discursos apocalípticos. Precisamos sair desses extremos e pensar de forma responsável que valores queremos promover em IA. Não é mais ‘se’, mas ‘como’ regular”.

Junquilho fez um apanhado sobre como as discussões legislativas evoluíram no país, mas afirmou que grande parte do esforço se tornou obsoleto com o advento das IA generativas em 2022. “Novos desafios surgiram e precisou-se repensar a regulação, realizar novos debates, novas audiências públicas para embasar novas propostas. O projeto anterior foi transformado no Projeto de Lei 2338/2023, que é mais pormenorizado”, explicou.

O projeto tem inspiração no AI Act da União Européia, que aborda o tema a partir dos riscos, definindo três classes: riscos excessivos, que são vedados, altos e moderados, os quais são permitidos desde que respeitadas certas pré-condições e aos quais se atribuem responsabilizações, caso os riscos se concretizem, independentemente da análise de culpa.

São considerados riscos excessivos o uso de IA para influenciar de forma prejudicial o comportamento de pessoas com relação à sua própria segurança e da sociedade, e também o uso por parte de governos para ranquear ou classificar cidadãos com base em comportamento e personalidade. “Dessa forma, o uso de IA para influenciar no debate público e atacar a democracia será considerado risco excessivo e estará vedado”, avaliou Junquilho.

Já os riscos altos englobam o uso de IA para seleção de candidatos à uma vaga de emprego ou universidades, por exemplo, bem como avaliações de acesso à crédito, serviços públicos ou tratamentos de saúde. Alguns setores, porém, estão excluídos do PL 2338/2023, como aplicações em defesa nacional e segurança pública. “Dessa forma, debates cruciais como o uso de armas autônomas e o reconhecimento facial pela polícia ficam de fora”, lamentou a palestrante.

Um dos pontos mais quentes e cruciais para a legislação é a definição de uma autoridade regulatória. Uma vez que a tecnologia é muito dinâmica, a análise de riscos estará sempre sujeita a reavaliações, que não poderão esperar novos projetos de lei. A palestrante afirma que a necessidade de um sistema nacional de regulação e governança em IA é consenso, mas que as partes divergem no desenho institucional final. Por exemplo, essa autoridade será um órgão novo ou a adaptação de algo já existente?

Em outros pontos importantes, a proposta de lei aborda aspectos fundamentais para a ciência. “São criados incentivos ao fomento de pesquisas em IA e à criação de bases de dados públicas e robustas, além de incentivos à realização de consultas públicas entre os diversos setores que são impactados pela tecnologia”, concluiu Junquilho.

Assista a sessão a partir dos 40 minutos:

Karen Strier: tecnologias de IA podem contribuir com a conservação das espécies

No dia 9 de maio, durante a última tarde de sua Reunião Magna 2024, a Academia Brasileira de Ciências (ABC) teve o prazer de receber a primatóloga Karen Strier, professora da Universidade de Wisconsin, EUA, e autoridade global sobre os macacos muriqui, da mata atlântica brasileira. Por conta de seu campo de estudo, a palestrante tem uma relação muito próxima com o Brasil e com a ABC. Strier também é co-presidente da Rede Interamericana de Academias de Ciências (Ianas), ao lado de Helena Nader.

Os muriquis são os maiores primatas do Novo Mundo, podendo chegar a 70 centímetros de altura, com o mesmo tamanho de cauda. Atualmente existem duas espécies, os muriqui-do-sul (Brachyteles arachnoides), que habitam os estados de São Paulo, Rio de Janeiro e Paraná; e os muriqui-do-norte (Brachyteles hypoxanthus), que se espalham por Minas Gerais, Bahia e Espírito Santo. Estes últimos são considerados os primatas em maior risco de extinção do mundo. “São espécies em alto risco porque moram na mata atlântica, onde sobrou apenas 12% de área conservada. Mas estudá-los me ensinou muito sobre resistência e resiliência, por isso sou muito otimista quanto ao futuro deles”, avaliou a palestrante.

Segundo ela, atualmente existem cerca de 15 populações desses primatas na natureza, mas a maior parte delas é muito pequena, com dezenas de indivíduos, e por isso têm pouca viabilidade de sobrevivência a longo prazo sem intervenção humana. Mas também existem entre duas a quatro populações viáveis, com centenas de macacos, e uma delas se tornou o ponto focal dos estudos de campo da pesquisadora. “Essa população está num fragmento de floresta conservada em Caratinga, Minas Gerais, onde o proprietário, o senhor Feliciano Abdala, decidiu criar um santuário de primatas. Essa é uma história que vale a pena ser contada, pois mostra o impacto que uma pessoa sozinha consegue ter”.

Uma família de muriquis-do-norte (Foto: Marcos Amend)

É lá que Karen Strier e sua equipe trabalham monitorando os animais, sempre da forma menos invasiva possível. A utilização de tags e outros aparelhos físicos de identificação foi preterida pelo monitoramento por câmeras e pela análise de fezes, fazendo com que os cientistas não precisem tocar nos animais. Esse bom relacionamento se reflete no comportamento e a maioria dos muriquis é curiosa e não tem medo de humanos. “Acabamos por nos apegar a eles, reconhecê-los como indivíduos que não são nossas cobaias, damos até nomes”, conta a pesquisadora.

Mas esse comportamento dócil também reflete a própria natureza dos muriquis, que diferentemente de outros primatas, são menos territorialistas e possessivos. Ao contrário de outros macacos, os machos não são expulsos do bando quando se tornam adultos e também não há disputas por fêmeas, com cada macaco possuindo vários parceiros. Raramente se observam brigas ou agressões entre eles. “A National Geographic certa vez os chamou de ‘macacos hippies’”, brincou Strier.

A análise contínua e não-invasiva foi o que permitiu que o grupo de Strier descrevesse esses comportamentos atípicos dos muriquis, bem como definir que a gestação dura sete meses e que os filhotes levam nove anos até chegar a idade reprodutiva. Análises genéticas posteriores possibilitaram confirmar o que já se pensava a muito tempo: os muriquis do norte e do sul constituem duas espécies distintas.

“Acho que a contribuição cientifica mais importante dos muriquis é a identificação de quais características de seu comportamento são flexíveis. Eles são muito flexíveis ecologicamente, nas dietas, na forma de socializar. Ao mesmo tempo, eles são vulneráveis a certas mudanças em seu habitat. Por exemplo, quando a população cresce demais o fragmento de floresta se torna pequeno, e observamos macacos descendo das árvores para comer restos de frutas. Observar isso é de partir o coração”, contou.

Por conta dessa fragmentação, Strier defende a importância dos corredores ecológicos conectando diferentes fragmentos, o que ajuda na proteção e na diversificação genética da população, algo fundamental para a sobrevivência a longo prazo. Além disso, avalia que as novas tecnologias de inteligência artificial – tema principal da reunião deste ano – podem dar contribuições fundamentais à conservação, sobretudo para lidar com o alto número de dados e regiões focais num país tão extenso quanto o Brasil.

Mas sobretudo, conservar espécies nativas tem a ver com vontade política. Por isso, cientistas que trabalham nessa área precisam ser ativos no debate público mais do que qualquer outro, para que suas demandas não caiam no esquecimento. “É um trabalho sobre resiliência, persistência, otimismo e esperança. Mas também sobre a responsabilidade que precisamos ter para com estes animais”, concluiu.

Sessão Plenária IV: Inteligência Artificial, Educação e ChatGPT

A sessão plenária da Reunião Magna da ABC 2024 na tarde de 8 de maio contou com o Acadêmico Renato Janine Ribeiro (USP), Teresa Ludermir (UFPE) e Naomar Monteiro (UFBA). 

“Da tabuada à redação: como ficará a expressão com a IA?” 

O Acadêmico Renato Janine Ribeiro é doutor em Filosofia pela Universidade de São Paulo (USP), onde é professor sênior de Ética e Filosofia Política. Atua na área de filosofia política, com ênfase em teoria política. Professor honorário do Instituto de Estudos Avançados da USP. Foi ministro de Estado da Educação (2015). É pesquisador sênior do Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq). É membro titular da Academia Brasileira de Ciências e presidente da Sociedade Brasileira para o Progresso da Ciência (SBPC).

Sua apresentação era intitulada Ele faz uma comparação bastante pertinente: quando a calculadora se tornou portátil, veio um grande medo das crianças nunca mais aprenderem a fazer contas. “Hoje tem calculadora no celular. Alfabetização em matemática inclui fazer contas, mas não é preciso ter a tabuada na ponta da língua. Não tem mais sentido que as crianças façam cálculos. A matemática é uma linguagem, tem que aprender o raciocínio. O que as pessoas vão aprender é a interpretar dados, a fazer programação, a explorar a matemática em toda a sua utilidade”, argumentou o filósofo.  

Mas e na redação? Nesse caso, a expressão pessoal é a meta. Então, o argumento de Janine se inverte. “O Chat GPT produz textos razoáveis, mas não faz nada original. Se não treinar, como escrever? Se não aprender, como criar? Como haverá expressão?”

De fato, a IA não inova. “Ela não fala sobre o que o homem faz, mas sobre o que o homem fez. [O grande matemático e cientista da computação inglês] AlanTuring disse que ‘uma máquina infalível não será inteligente’. Aprendemos de modo geral por ensaio e erro. É preciso errar para aprender. O ChatGPT não pensa, não cria nada – ainda”.

Apesar de toda essa argumentação, Janine ressalta que na nossa cultura existe o fantasma da criatura que escapa ao criador, como o monstro do Dr. Frankenstein, de Mary Shelley,o Pigmaleão de Bernard Shaw e o robô do filme de Kubrick 2001, Uma Odisseia no Espaço. “Esse é um medo que o mundo da IA pode despertar”, alerta o Acadêmico.

Como a IA e o ChatGPT podem ajudar na educação? 

A Acadêmica Teresa Bernarda Ludermir é doutora pelo Colégio Imperial Imperial de Ciência, Tecnologia e Medicina da Universidade de Londres, na Grã-Bretanha. É professora titular da Universidade Federal de Pernambuco (UFPE), coordena o Instituto Nacional de Inteligência Artificial (INCT) e dirige o Centro de Pesquisa Aplicada em Inteligência Artificial para Segurança Cibernética. É membra da Academia Pernambucana de Ciências, membra sênior do Instituto de Engenheiros Elétricos e Eletrônicos (IEEE), membra da International Neural Network Society (INNS) e membra titular da Academia Brasileira de Ciências (ABC).

Refletindo sobre como o IA e o ChatGPT podem ajudar na educação, ela aponta que o Brasil não pode correr o risco de ser apenas um usuário de soluções de IA concebidas no exterior. “O desenvolvimento de uma IA ética e responsável para a educação é crucial para construir um futuro em que a tecnologia contribua para a democratização do conhecimento e a formação de cidadãos críticos e engajados”, apontou.

Ela explicou que o ChatGPT não é uma IA de propósito geral: é um sistema de IA gerador de textos como bom desempenho. Porém, o uso enorme de poder computacional ainda consome muita energia, não é sustentável.

Sobre as possibilidades de uso na educação, Teresa defende a IA como um parceiro do professor. “Não é substituir o professor por um programa e sim integrar o ensino de IA no currículo da educação básica e superior”, explicou.

A IA está fazendo diferença em diversas áreas na educação. A principal é a personalização do aprendizado. Com ajuda da IA, é possível de fato promover uma educação inclusiva. “Primeiro, ela pode ajudar o professor sugerindo novos métodos de ensino, melhorias do processo de avaliação e na criação de conteúdo. “Os jovens de hoje têm dificuldade de concentração, só dão atenção a pouquíssimos minutos de aulas. Os tutores propõem jogos e novas atividades, podem dar ao professor um feedback. Dão assistência na preparação de materiais didáticos, ajudam o professor”, destaca Teresa. “E no caso do aluno com dificuldade, a IA oferece tutores individuais que acompanham individualmente cada um e ele consegue evoluir. Além disso, os benefícios na gestão escolar são imensos. E dá acesso à educação de qualidade em locais distantes, onde não há professores suficientes”, complementa.

O desenvolvimento de uma IA ética e responsável para a educação é crucial para construir um futuro em que a tecnologia contribua para a democratização do conhecimento e a formação de cidadãos críticos e engajados. Mas Teresa sabe que nem tudo são flores. Os desafios da implementação da IA na educação são grandes, especialmente na formação de professores e engajamento dos alunos, assim como há questões no uso da IA com ética e responsabilidade. “A desigualdade digital, em vez de ser reduzida, pode aumentar, por conta de falta de infraestrutura e dos custos de implementação. E há pontos fundamentais, como a regulamentação e políticas públicas. Estas têm que promover a inclusão digital para não perdermos esse bonde.” Ela defende a promoção de campanhas de conscientização pública sobre os benefícios e riscos de IA.

Além destes desafios, existe a própria questão tecnológica. “Precisamos melhorar o desenvolvimento de modelos. Nem toda IA é uma IA responsável, porque precisamos de mais ciência nos modelos para reduzir o viés algorítmico, avaliar a qualidade dos dados. Dados tem erros. E precisamos saber reduzir o tamanho dos modelos”, apontou a palestrante.

E para tudo isso, evidentemente, é preciso financiamento. Primeiro. para a formação de recursos humanos qualificados em inteligência artificial. Segundo, mas ao mesmo tempo, para o aumento imediato da capacidade computacional do país. “Temos que estabelecer centros internacionais de pesquisa no Brasil, atraindo especialistas em IA e estabelecendo política para fixação de talentos, com remuneração competitiva com mercado internacional”, finalizou Teresa Ludermir.

Inteligência Artificial na Saúde: Desmitificar para Avançar

O médico Naomar Monteiro é Ph.D. em Epidemiologia e doutor honoris causa pela Universidade McGill, no Canadá. É professor aposentado do Instituto de Saúde Coletiva da Universidade Federal da Bahia (UFBA), onde coordena o Instituto Nacional de Ciência e Tecnologia de Inovação, Tecnologia e Equidade em Saúde (Inteq-Saúde). Também atua como professor visitante no Instituto de Estudos Avançados da Universidade de São Paulo (IEA-USP), onde ocupa a Cátedra Alfredo Bosi de Educação Básica, desenvolvendo estudos sobre a relação entre universidade, educação, história e sociedade. Ele desenvolve pesquisas no campo da epidemiologia de transtornos mentais, particularmente o efeito de raça, racismo, gênero e classe social sobre a saúde mental.

Naomar apresentou um mapa conceitual de 2022 do campo da saúde digital, no qual a inteligência artificial (IA) é o centro de tudo: saúde móvel, saúde eletrônica, telemedicina e telessaúde. “No mapa de 2016, a IA nem aparecia”, observou. Naomar apontou que o uso de IA em saúde tem sido mostrado como uma das aplicações positivas. “Porém, está sendo feito com pressa, sem muita reflexão. A otimização visa a lucratividade, sem dúvida, e não a equidade no atendimento.”

Sobre os desafios e perspectivas do uso pedagógico de IA na educação superior, Naomar destacou que é preciso promover transversalidades, reinventar a ideia de competência crítica e pautar a formação de formadores numa cultura digital sensível. “E superar a confusão conceitual, como a noção de letramento digital. ‘Letramento’ é uma tradução do inglês, de ‘literacy’, que significa ‘alfabetização’. Então, rigorosamente, ‘letramento digital’ é alfabetizar pessoas para programar, mas não é como o termo vem sendo usado: ele vem sendo usado como a capacidade de lidar com os dispositivos mínimos, como o celular e o laptop”.

“Promover transversalidades”, de acordo com Naomar, envolve operar em torno de eixos temáticos e vetores do conhecimento coerentes com a complexidade de organização do saber científico na atualidade. “O repertório curricular deve ser menos rígido, sem caráter obrigatório, mais inter e transdisciplinar, incorporando conhecimentos e valores relativos às humanidades, ciências sociais e artes. Para a formação de um indivíduo é fundamental buscar equilíbrio entre conhecimento e imaginação, entre efetividade e excelência, entre racionalidade e sensibilidade”, apontou.

Sobre a priorização das competências tecnológicas críticas, a educação deve envolver a compreensão de lógicas, mecanismos e efeitos das técnicas e instrumentos de práticas, a fim de possibilitar intervenções nos corpos sociais, individuais e coletivos com propriedade e qualidade. Para Naomar, o professor do século XXI deve desenvolver habilidades para aplicar tecnologias no máximo de eficácia, focando na eficiência (custo-benefício), na efetividade concreta (qualidade-equidade) e, assim, promovendo uma transformação social sustentável.

“Professores devem ser capazes de utilizar saberes, práticas e técnicas, a partir de avaliação crítica dos seus aspectos operativos, principalmente o potencial de valorizar a sensibilidade ecossocial”, explicou. Esta “sensibilidade ecossocial” envolveria, entre outros pontos, a consciência planetária, a ética e respeito à diversidade humana e aos diferentes saberes, assim como o estímulo à solidariedade e empatia.

Margaret Martonosi: desenvolvimento de IA requer pegada de carbono acoplada

No dia 8 de maio, como parte de sua Reunião Magna 2024, a Academia Brasileira de Ciências teve a honra de receber no Museu do Amanhã a cientista da computação Margaret Martonosi, professora da Universidade de Princeton, EUA, para falar sobre inteligência artificial – tema da reunião deste ano – do ponto de vista dos computadores e chips. Martonosi é especialista em arquitetura de computadores, com ênfase em eficiência energética, tema central para o desenvolvimento de IA.  De 2020 até 2023, Martonosi foi diretora da área de Ciências da Computação, Informação e Engenharia da National Science Foundation, principal órgão federal de fomento à ciência nos EUA.

A palestrante iniciou lembrando que em 1950, quando os computadores ainda eram máquinas gigantescas com pouca capacidade de processamento, o pai da computação moderna, Alan Turing publicou um artigo em que ponderava: “Podem as máquinas pensar?” Mais de sete décadas depois, essa pergunta continua mais atual do que nunca com a evolução das IA.

Martonosi comparou os diversos elementos, ou camadas, que compunham os computadores de 1950 e hoje em dia.  Esses elementos vão desde os transistores, na camada inferior, até as linguagens de programação e os algoritmos nas camadas superiores. Todas essas partes trabalham juntas para a máquina funcionar. “Cada vez mais vemos camadas intermediárias nesse bolo sendo substituídos por sistemas otimizados para aplicativos e o mesmo pode ocorrer para sistemas de IA. Talvez daqui a uma ou duas décadas a arquitetura computacional predominante seja outra”, observou.

Margaret Martonosi durante a Reunião Magna 2024 (Foto: Marcos André Pinto)

Entre os desafios do desenvolvimento de hardware moderno está aumentar a eficiência energética. Num mundo que exige cada vez mais sustentabilidade, conservar energia é fundamental. Para se ter uma ideia, a maior parte das operações realizadas na internet hoje em dia depende de grandes datacenters que podem chegar a uma demanda energética de 100 megawatts, suficiente para abastecer uma cidade com 60 mil domicílios. “A boa notícia é que a capacidade computacional dos datacenters está aumentando de forma muito mais rápida do que a demanda energética. De 2010 a 2018, a primeira aumentou em 550% enquanto a segunda apenas 6%”, contou a palestrante.

Mas desde 2018 a computação, e em especial a inteligência artificial, evoluiu bastante, elevando o custo energético. “Em especial, a pegada de carbono acoplada, isto é, a demanda energética envolvida desde a manufatura até o descarte dos equipamentos, é ainda maior que a demanda operacional. Precisamos pensar em ferramentas que quantifiquem melhor e ajudem engenheiros a colocar essa pegada de carbono na equação quando desenvolvem sistemas”, alertou Martonosi.

Um exemplo de evolução no hardware é o descrito pela “Lei de Moore”. Em 1965 o engenheiro Gordon Moore observou que o número de transistores – um tipo de semicondutor – em um chip dobrava a cada dois ou três anos. Longe de ser uma lei universal, a “Lei de Moore” acabou se mantendo verdadeira por muito mais tempo que seu próprio autor acreditou que seria. Mas, de acordo com a palestrante, isso começou a mudar nas últimas duas décadas. “Podemos continuar empilhando transistores, mas não ganhamos mais a mesma performance. Começamos a atingir limites energéticos ou mesmo físicos”, analisou. “Chips hoje em dia estão ficando tão quentes quanto lâmpadas, é algo que precisamos que considerar”, completou.

Outro desafio referente a IA tem a ver com a própria sociedade. Muitos analistas observam com preocupação a capacidade que essa tecnologia tem de criar abismos sociais ainda maiores. Para a palestrante, mitigar isso passa por um letramento em IA para todas as idades – “do jardim de infância aos cabelos brancos”. Ela acredita também que quanto mais inclusivo se tornar o corpo profissional em IA, problemas como vieses de dado diminuirão naturalmente. “Inclusão não é necessária apenas para quem se beneficia diretamente. Conseguimos melhores soluções de engenharia e pesquisa quando temos uma diversidade de mentes trabalhando. Isso é particularmente verdadeiro para IA, que depende de bancos de dados ainda muito concentrados em conteúdo de alguns países”.

Assista a palestra a partir de 2h40m:

Nick Couldry: “IA não é inteligência, nem é artificial”

O sociólogo Nick Couldry trabalha na London School of Economics and Political Science, no Reino Unido. Seu trabalho é voltado principalmente para estudos de mídia e comunicações, cultura e poder, e teoria social. Ele apresentou uma Conferência Magna intitulada “IA como Mito e Colonialismo de Dados” na Reunião Magna da ABC 2024, no dia 7 de maio.

Couldry descreve a inteligência artificial (IA) como uma evolução da computação. “Não é inteligência, nem é artificial, porque depende do trabalho humano para treiná-la. É apenas probabilística, não é criativa”. E vai além: afirma que é uma descrição equivocada, que cria um reconhecimento equivocado. “No mínimo, é um exagero de marketing que serve aos interesses de algumas grandes corporações de tecnologia.”

O sociólogo entrou on-line, do Reino Unido

Couldry defende que as práticas e discursos que chamamos de “IA” representam uma redefinição fundamental do conhecimento e de suas relações de poder. “E se impõe com a nossa participação, que incorporamos a IA na vida cotidiana sem entender o que está em jogo”, alertou.

Nossa ordem socioeconômica está sendo transformada através da IA, aponta Couldry, transformando a vasta capacidade de computação expandida em algo que chamamos de “inteligência”, mas são os resultados matemáticos de vasta e direcionada computação interativa que é… eficaz. “Mas não pode explicar por que é eficaz!” Ele citou Vint Cerf, que diz que a IA generativa gera previsões cujo único critério de eficácia é “credibilidade gramatical”. Couldry alerta que “confundir” os resultados da IA com conhecimento é cometer um erro de categoria profundo. “Se os resultados da IA, por mais eficazes que sejam como hipóteses, não podem explicar por que são plausíveis, então a IA é fundamentalmente diferente da inteligência humana”, observou. 

E essa é uma questão importante, de acordo com Couldry, porque nossa percepção da IA pode reconfigurar o que chamamos de “conhecimento” e como ele estará incorporado à vida social. O que a IA entrega é uma produção acelerada de resultados ‘suficientemente bons’. E isso é uma mudança na construção social do conhecimento”, afirmou.

As consequências podem ser impactantes para a liberdade social, se esse poder cognitivo for continuamente aplicado e ocorra um aumento da “espionagem em massa” através da IA em grande escala. E podem impactar também nas instituições de conhecimento de todos os tipos: como, e em que termos, elas podem confiar no conhecimento baseado na experiência humana se ele se torna um ativo financeiro?

Assim, Couldry considera que vivemos uma nova fase nas relações entre colonialismo e capitalismo, que é o colonialismo de dados, uma ordem emergente para a apropriação da vida humana, de modo que os dados possam ser continuamente extraídos dela, com valor agregado. “O colonialismo de dados prepara o terreno para um novo modo de produção capitalista e organização socioeconômica, enquanto coexiste com o legado neocolonial. É uma continuação da tentativa do Ocidente de impor uma única versão de racionalidade ao mundo”, explicou o sociólogo.

Para o palestrante, estamos reimaginando o conhecimento em prol do poder computacional comercial massivo controlado, enquanto imaginamos os limites inerentes à computação. “E essa visão de conhecimento produz ignorância”, pontuou.

E Couldry propõe uma tomada de posição. “Se o ‘risco existencial’ da IA reside nas transformações sociais que se desdobram em torno dela, o papel das ciências sociais não deveria ser a aceitação, mas sim a crítica da IA.”

Ranveer Chandra: agricultura de precisão feita com smartphones

Desenvolver uma agricultura mais produtiva e de menos impacto ambiental é um dos grandes desafios do século 21. Como parte do último dia da Reunião Magna 2024, a Academia Brasileira de Ciências teve a honra de receber no Museu do Amanhã o diretor de Pesquisa para a Indústria e Chief Technology Officer (CTO) de agricultura e alimentos da Microsoft, Ranveer Chandra. Ele compartilhou algumas das experiências da empresa no desenvolvimento de soluções para o setor nos EUA, no Brasil e na Índia.

Chandra lembrou que a agricultura do futuro é a de precisão. Mas mesmo que esse conceito tenha sido introduzido há 40 anos, ele ainda não decolou. Os motivos para isso giram em torno de custos proibitivos e dificuldades de inserção dessas tecnologias entre os fazendeiros. “Nossa meta é a democratização no acesso a soluções baseados em big data e inteligência artificial de forma que qualquer agricultor possa utilizar”, disse.

Ranveer Chandra, CTO em AgriFood da Microsoft

Mas para isso, existem alguns desafios. O maior deles é o da conectividade no campo. A maior parte das propriedades rurais possui sinal de internet nas casas, mas isso não é necessariamente verdade para todo o resto. O problema é que para se ter um acompanhamento continuado da produção agrícola é preciso a coleta de informações justamente onde o sinal é escasso. “Estamos trabalhando para levar sinal de wi-fi através de sinais de televisão, mais precisamente de frequências vagas que não possuem um canal associado. Também estamos tentando métodos similares para fazer isso por satélite, sem precisar de antenas”, contou Chandra.

Diminuir a dependência de infraestruturas nas fazendas é importante, pois um dos gargalos é o custo de equipamentos necessários à agricultura de precisão. Cada vez mais fica claro que o ideal é que os agricultores possam fazer a maior parte das medições utilizando seus próprios celulares. Chandra vem trabalhando numa forma de possibilitar medições de umidade do solo através de smartphones, e mostrou-se esperançoso de que a tecnologia permita um dia também medições de taxas de carbono.

Outras inovações apresentadas são o uso de chatbots, ou seja, sistemas de IA generativa de texto, como verdadeiros “assistentes agrícolas”. Essas plataformas podem utilizar os dados da fazenda para definir pontos ótimos para instalação de sensores, detectar pragas e doenças, ajudar o fazendeiro a navegar em questões de regulação e até mesmo guiar a manutenção de tratores. “Como experimento, fizemos nossas plataformas realizarem exames de agências reguladoras da agricultura nos três países, e elas tiveram notas suficientes para a aprovação. São tecnologias que não substituem o agrônomo, mas podem servir como uma segunda opinião”, contou Chandra.

Como resultados iniciais, Chandra apresentou a visão de alguns fazendeiros que colaboram com a empresa na utilização e testagem dessas soluções. Em um caso de sucesso, uma propriedade rural nos EUA pôde diminuir o uso de agrotóxicos em 38%. Esse é um exemplo de como tecnologias disruptivas podem contribuir para reduzir custos e gerar uma produção mais sustentável.

Assista a palestra a partir de 2h55m:

Confira a galeria de fotos da Reunião Magna 2024:

teste