pt_BR

Sessão Plenária I: Inteligência Artificial e Regulação

No dia 7 de maio, durante a primeira Sessão Plenária da Reunião Magna 2024, a Academia Brasileira de Ciências (ABC) convidou a advogada Tainá Junquilho, o comunicólogo Ricardo Fabrino e o cientista político Fernando Filgueiras, para um debate sobre regulação digital com ênfase nos novos desafios postos pelas IA.

Inteligência Artificial e Democracia

Doutor em Comunicação e professor do Departamento de Ciência Política da Universidade Federal de Minas Gerais (UFMG), Ricardo Fabrino alertou sobre como os algoritmos já mudaram a forma como nos locomovemos, trabalhamos e até mesmo buscamos relações amorosas. No âmbito institucional, essas ferramentas já se inseriram nos sistemas de saúde, segurança pública, judiciário e podem otimizar os demais serviços públicos. “Temos uma possibilidade de tornar as instituições públicas mais rápidas, capazes de cruzar um número muito maior de dados de forma muito mais efetiva”, analisou.

Mas essas mudanças não chegam sem riscos. Na comunicação em particular, os algoritmos das redes sociais revolucionaram a forma como conversamos, principalmente sobre política, de uma forma que comprometeu seriamente o debate público. “Além de tornar a desinformação cada vez mais complexa e colaborar para deslegitimar as instituições, o que as redes têm feito é uma ‘perfilização’, ou seja, dividir as pessoas em nichos e bolhas, enfraquecendo a experiência comum que nos une enquanto cidadãos”, explicou Fabrino.

Outro risco é o fortalecimento das desigualdades. Algoritmos de IA trabalham com dados, cuja disponibilidade e fornecimento reflete as disparidades entre nós. Nesse cenário, sistemas que não são capazes de fazer uma avaliação ética tendem a reproduzir a desigualdade. “Há muitos vieses nos dados que alimentam os modelos. Corremos o risco de criar um futuro que é apenas a repetição do passado presente nos dados. Um exemplo de riscos é o uso dessas tecnologias pela polícia”, avaliou o palestrante.

Segundo ele, já há quem pense que a participação popular na gestão pública vai se tornar obsoleta, o que fortalece um ideal tecnocrático perigoso. “Há uma crença na gestão pública de que talvez o movimento em direção à IA torne a política desnecessária. Nesse sentido, surge mais um desafio à democracia”.

Por tudo isso, Ricardo Fabrino nos convida a uma reflexão simples: “Como democratizar a IA?”. Ele lembra que a História está repleta de instituições cuja origem não era democrática mas que foram democratizadas ao longo dos anos, e nada impede que o mesmo ocorra com a IA. “O desafio é entender como fazer isso para uma tecnologia que não parece plenamente controlável e compreensível, atravessada por interesses econômicos gigantescos e cujos impactos se dão em cascata na sociedade”, argumentou.

Para ele, a comunidade científica não pode furtar-se de discutir o tema, e algumas linhas gerais precisarão ser seguidas. “É papel da ciência pensar regulação. Para isso, é fundamental pensar numa participação popular em escala supra-nacional, tendo em vista as assimetrias internacionais no acesso à essas tecnologias. É preciso promover a pluralidade e enfraquecer as bolhas. Também precisamos pensar seriamente em responsabilização e em proteção das liberdades fundamentais”.

Desafios epistêmicos e jurídicos

Professor de ciência política na Universidade Federal de Goiás (UFG), Fernando Filgueiras entende a IA como uma tecnologia que não muda apenas a forma como fazemos as coisas, mas a própria forma como produzimos conhecimento e ciência. “Pela maneira como a inteligência humana – individual e coletiva – e a IA interagem, cada vez mais surgem novas formas de resolver problemas e realizar tarefas. Chamo isso de ‘transinteligência’, uma interação que continuamente está gerando resultados inovadores e impensáveis. Por isso a própria regulação precisará ser disruptiva”, avaliou.

Em sua visão, todas as abordagens regulatórias pensadas até agora esbarraram em limitações. “A ideia de autorregulação é a mesma coisa que não regular. Mas mesmo a regulação voltada para riscos, como da União Européia, a regulação do mercado de IA, dos EUA, ou regulações ainda mais rígidas de controle estatal, todas estas entendem a IA como um produto qualquer, o que é um erro. É preciso entendê-la como agente”.

Nesse sentido, Filgueiras é contra uma regulação universal para todas as aplicações da IA. “O uso de IA na saúde tem desafios muito particulares quando comparados ao uso em governos, ou no campo da física, por exemplo. Uma regulação única não será capaz de prever todos os efeitos não intencionais. O principal desafio é entender como a IA impacta na construção de conhecimento. Não é algo trivial”.

O palestrante defende que qualquer solução deverá ser desenvolvida coletivamente. “Precisamos pensar em mecanismos de co-regulação, estabelecendo um diálogo constante entre os atores envolvidos. Não deve ser uma regulação propriamente estatal, a partir de uma burocracia centralizada. É preciso um processo em que estado e os vários setores se reúnam, definam uma agenda regulatória e a apliquem. Dessa forma compartilham a responsabilidade, o que é fundamental para fortalecer os mecanismos democráticos”, defendeu.

PL 2338: Construindo consensos?

A advogada e pesquisadora Tainá Junquilho, vice-líder do Laboratório de Governança e Regulação da Inteligência Artificial do Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa (IDP), afirmou que a regulação hoje já é um consenso. “Visões utópicas que defendiam que IA – bem como as demais tecnologias digitais – não deveria ser regulada não se sustentam mais. Hoje já temos riscos concretos e comprovados, mas também não podemos ceder a discursos apocalípticos. Precisamos sair desses extremos e pensar de forma responsável que valores queremos promover em IA. Não é mais ‘se’, mas ‘como’ regular”.

Junquilho fez um apanhado sobre como as discussões legislativas evoluíram no país, mas afirmou que grande parte do esforço se tornou obsoleto com o advento das IA generativas em 2022. “Novos desafios surgiram e precisou-se repensar a regulação, realizar novos debates, novas audiências públicas para embasar novas propostas. O projeto anterior foi transformado no Projeto de Lei 2338/2023, que é mais pormenorizado”, explicou.

O projeto tem inspiração no AI Act da União Européia, que aborda o tema a partir dos riscos, definindo três classes: riscos excessivos, que são vedados, altos e moderados, os quais são permitidos desde que respeitadas certas pré-condições e aos quais se atribuem responsabilizações, caso os riscos se concretizem, independentemente da análise de culpa.

São considerados riscos excessivos o uso de IA para influenciar de forma prejudicial o comportamento de pessoas com relação à sua própria segurança e da sociedade, e também o uso por parte de governos para ranquear ou classificar cidadãos com base em comportamento e personalidade. “Dessa forma, o uso de IA para influenciar no debate público e atacar a democracia será considerado risco excessivo e estará vedado”, avaliou Junquilho.

Já os riscos altos englobam o uso de IA para seleção de candidatos à uma vaga de emprego ou universidades, por exemplo, bem como avaliações de acesso à crédito, serviços públicos ou tratamentos de saúde. Alguns setores, porém, estão excluídos do PL 2338/2023, como aplicações em defesa nacional e segurança pública. “Dessa forma, debates cruciais como o uso de armas autônomas e o reconhecimento facial pela polícia ficam de fora”, lamentou a palestrante.

Um dos pontos mais quentes e cruciais para a legislação é a definição de uma autoridade regulatória. Uma vez que a tecnologia é muito dinâmica, a análise de riscos estará sempre sujeita a reavaliações, que não poderão esperar novos projetos de lei. A palestrante afirma que a necessidade de um sistema nacional de regulação e governança em IA é consenso, mas que as partes divergem no desenho institucional final. Por exemplo, essa autoridade será um órgão novo ou a adaptação de algo já existente?

Em outros pontos importantes, a proposta de lei aborda aspectos fundamentais para a ciência. “São criados incentivos ao fomento de pesquisas em IA e à criação de bases de dados públicas e robustas, além de incentivos à realização de consultas públicas entre os diversos setores que são impactados pela tecnologia”, concluiu Junquilho.

Assista a sessão a partir dos 40 minutos:

Karen Strier: tecnologias de inteligência artificial podem contribuir com a conservação das espécies

No dia 9 de maio, durante a última tarde de sua Reunião Magna 2024, a Academia Brasileira de Ciências (ABC) teve o prazer de receber a primatóloga Karen Strier, professora da Universidade de Wisconsin, EUA, e autoridade global sobre os macacos muriqui, da mata atlântica brasileira. Por conta de seu campo de estudo, a palestrante tem uma relação muito próxima com o Brasil e com a ABC. Strier também é co-presidente da Rede Interamericana de Academias de Ciências (Ianas), ao lado de Helena Nader.

Os muriquis são os maiores primatas do Novo Mundo, podendo chegar a 70 centímetros de altura, com o mesmo tamanho de cauda. Atualmente existem duas espécies, os muriqui-do-sul (Brachyteles arachnoides), que habitam os estados de São Paulo, Rio de Janeiro e Paraná; e os muriqui-do-norte (Brachyteles hypoxanthus), que se espalham por Minas Gerais, Bahia e Espírito Santo. Estes últimos são considerados os primatas em maior risco de extinção do mundo. “São espécies em alto risco porque moram na mata atlântica, onde sobrou apenas 12% de área conservada. Mas estudá-los me ensinou muito sobre resistência e resiliência, por isso sou muito otimista quanto ao futuro deles”, avaliou a palestrante.

Segundo ela, atualmente existem cerca de 15 populações desses primatas na natureza, mas a maior parte delas é muito pequena, com dezenas de indivíduos, e por isso têm pouca viabilidade de sobrevivência à longo prazo sem intervenção humana. Mas também existem entre duas a quatro populações viáveis, com centenas de macacos, e uma delas se tornou o ponto focal dos estudos de campo da pesquisadora. “Essa população está num fragmento de floresta conservada em Caratinga, Minas Gerais, onde o proprietário, o senhor Feliciano Abdala, decidiu criar um santuário de primatas. Essa é uma história que vale a pena ser contada, pois mostra o impacto que uma pessoa sozinha consegue ter”.

Uma família de muriquis-do-norte (Foto: Marcos Amend)

É lá que Karen Strier e sua equipe trabalham monitorando os animais, sempre da forma menos invasiva possível. A utilização de tags e outros aparelhos físicos de identificação foi preterida pelo monitoramento por câmeras e pela análise de fezes, fazendo com que os cientistas não precisem tocar nos animais. Esse bom relacionamento se reflete no comportamento e a maioria dos muriquis é curiosa e não tem medo de humanos. “Acabamos por nos apegar a eles, reconhecê-los como indivíduos que não são nossas cobaias, damos até nomes”, conta a pesquisadora.

Mas esse comportamento dócil também reflete a própria natureza dos muriquis, que diferentemente de outros primatas, são menos territorialistas e possessivos. Ao contrário de outros macacos, os machos não são expulsos do bando quando se tornam adultos e também não há disputas por fêmeas, com cada macaco possuindo vários parceiros. Raramente se observam brigas ou agressões entre eles. “A National Geographic certa vez os chamou de ‘macacos hippies’”, brincou Strier.

A análise contínua e não-invasiva foi o que permitiu que o grupo de Strier descrevesse esses comportamentos atípicos dos muriquis, bem como definir que a gestação dura sete meses e que os filhotes levam nove anos até chegar a idade reprodutiva. Análises genéticas posteriores possibilitaram confirmar o que já se pensava a muito tempo: os muriquis do norte e do sul constituem duas espécies distintas.

“Acho que a contribuição cientifica mais importante dos muriquis é a identificação de quais características de seu comportamento são flexíveis. Eles são muito flexíveis ecologicamente, nas dietas, na forma de socializar. Ao mesmo tempo, eles são vulneráveis à certas mudanças em seu habitat. Por exemplo, quando a população cresce demais o fragmento de floresta se torna pequeno, e observamos macacos descendo das árvores para comer restos de frutas. Observar isso é de partir o coração”, contou.

Por conta dessa fragmentação, Strier defende a importância dos corredores ecológicos conectando diferentes fragmentos, o que ajuda na proteção e na diversificação genética da população, algo fundamental para a sobrevivência a longo prazo. Além disso, avalia que as novas tecnologias de inteligência artificial – tema principal da reunião deste ano – podem dar contribuições fundamentais à conservação, sobretudo para lidar com o alto número de dados e regiões focais num país tão extenso quanto o Brasil.

Mas sobretudo, conservar espécies nativas tem a ver com vontade política. Por isso, cientistas que trabalham nessa área precisam ser ativos no debate público mais do que qualquer outro, para que suas demandas não caiam no esquecimento. “É um trabalho sobre resiliência, persistência, otimismo e esperança. Mas também sobre a responsabilidade que precisamos ter para com estes animais”, concluiu.

Sessão Plenária IV: Inteligência Artificial, Educação e ChatGPT

A sessão plenária da Reunião Magna da ABC 2024 na tarde de 8 de maio contou com o Acadêmico Renato Janine Ribeiro (USP), Teresa Ludermir (UFPE) e Naomar Monteiro (UFBA). 

“Da tabuada à redação: como ficará a expressão com a IA?” 

O Acadêmico Renato Janine Ribeiro é doutor em Filosofia pela Universidade de São Paulo (USP), onde é professor sênior de Ética e Filosofia Política. Atua na área de filosofia política, com ênfase em teoria política. Professor honorário do Instituto de Estudos Avançados da USP. Foi ministro de Estado da Educação (2015). É pesquisador sênior do Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq). É membro titular da Academia Brasileira de Ciências e presidente da Sociedade Brasileira para o Progresso da Ciência (SBPC).

Sua apresentação era intitulada Ele faz uma comparação bastante pertinente: quando a calculadora se tornou portátil, veio um grande medo das crianças nunca mais aprenderem a fazer contas. “Hoje tem calculadora no celular. Alfabetização em matemática inclui fazer contas, mas não é preciso ter a tabuada na ponta da língua. Não tem mais sentido que as crianças façam cálculos. A matemática é uma linguagem, tem que aprender o raciocínio. O que as pessoas vão aprender é a interpretar dados, a fazer programação, a explorar a matemática em toda a sua utilidade”, argumentou o filósofo.  

Mas e na redação? Nesse caso, a expressão pessoal é a meta. Então, o argumento de Janine se inverte. “O Chat GPT produz textos razoáveis, mas não faz nada original. Se não treinar, como escrever? Se não aprender, como criar? Como haverá expressão?”

De fato, a IA não inova. “Ela não fala sobre o que o homem faz, mas sobre o que o homem fez. [O grande matemático e cientista da computação inglês] AlanTuring disse que ‘uma máquina infalível não será inteligente’. Aprendemos de modo geral por ensaio e erro. É preciso errar para aprender. O ChatGPT não pensa, não cria nada – ainda”.

Apesar de toda essa argumentação, Janine ressalta que na nossa cultura existe o fantasma da criatura que escapa ao criador, como o monstro do Dr. Frankenstein, de Mary Shelley,o Pigmaleão de Bernard Shaw e o robô do filme de Kubrick 2001, Uma Odisseia no Espaço. “Esse é um medo que o mundo da IA pode despertar”, alerta o Acadêmico.

Como a IA e o ChatGPT podem ajudar na educação? 

A Acadêmica Teresa Bernarda Ludermir é doutora pelo Colégio Imperial Imperial de Ciência, Tecnologia e Medicina da Universidade de Londres, na Grã-Bretanha. É professora titular da Universidade Federal de Pernambuco (UFPE), coordena o Instituto Nacional de Inteligência Artificial (INCT) e dirige o Centro de Pesquisa Aplicada em Inteligência Artificial para Segurança Cibernética. É membra da Academia Pernambucana de Ciências, membra sênior do Instituto de Engenheiros Elétricos e Eletrônicos (IEEE), membra da International Neural Network Society (INNS) e membra titular da Academia Brasileira de Ciências (ABC).

Refletindo sobre como o IA e o ChatGPT podem ajudar na educação, ela aponta que o Brasil não pode correr o risco de ser apenas um usuário de soluções de IA concebidas no exterior. “O desenvolvimento de uma IA ética e responsável para a educação é crucial para construir um futuro em que a tecnologia contribua para a democratização do conhecimento e a formação de cidadãos críticos e engajados”, apontou.

Ela explicou que o ChatGPT não é uma IA de propósito geral: é um sistema de IA gerador de textos como bom desempenho. Porém, o uso enorme de poder computacional ainda consome muita energia, não é sustentável.

Sobre as possibilidades de uso na educação, Teresa defende a IA como um parceiro do professor. “Não é substituir o professor por um programa e sim integrar o ensino de IA no currículo da educação básica e superior”, explicou.

A IA está fazendo diferença em diversas áreas na educação. A principal é a personalização do aprendizado. Com ajuda da IA, é possível de fato promover uma educação inclusiva. “Primeiro, ela pode ajudar o professor sugerindo novos métodos de ensino, melhorias do processo de avaliação e na criação de conteúdo. “Os jovens de hoje têm dificuldade de concentração, só dão atenção a pouquíssimos minutos de aulas. Os tutores propõem jogos e novas atividades, podem dar ao professor um feedback. Dão assistência na preparação de materiais didáticos, ajudam o professor”, destaca Teresa. “E no caso do aluno com dificuldade, a IA oferece tutores individuais que acompanham individualmente cada um e ele consegue evoluir. Além disso, os benefícios na gestão escolar são imensos. E dá acesso à educação de qualidade em locais distantes, onde não há professores suficientes”, complementa.

O desenvolvimento de uma IA ética e responsável para a educação é crucial para construir um futuro em que a tecnologia contribua para a democratização do conhecimento e a formação de cidadãos críticos e engajados. Mas Teresa sabe que nem tudo são flores. Os desafios da implementação da IA na educação são grandes, especialmente na formação de professores e engajamento dos alunos, assim como há questões no uso da IA com ética e responsabilidade. “A desigualdade digital, em vez de ser reduzida, pode aumentar, por conta de falta de infraestrutura e dos custos de implementação. E há pontos fundamentais, como a regulamentação e políticas públicas. Estas têm que promover a inclusão digital para não perdermos esse bonde.” Ela defende a promoção de campanhas de conscientização pública sobre os benefícios e riscos de IA.

Além destes desafios, existe a própria questão tecnológica. “Precisamos melhorar o desenvolvimento de modelos. Nem toda IA é uma IA responsável, porque precisamos de mais ciência nos modelos para reduzir o viés algorítmico, avaliar a qualidade dos dados. Dados tem erros. E precisamos saber reduzir o tamanho dos modelos”, apontou a palestrante.

E para tudo isso, evidentemente, é preciso financiamento. Primeiro. para a formação de recursos humanos qualificados em inteligência artificial. Segundo, mas ao mesmo tempo, para o aumento imediato da capacidade computacional do país. “Temos que estabelecer centros internacionais de pesquisa no Brasil, atraindo especialistas em IA e estabelecendo política para fixação de talentos, com remuneração competitiva com mercado internacional”, finalizou Teresa Ludermir.

Inteligência Artificial na Saúde: Desmitificar para Avançar

O médico Naomar Monteiro é Ph.D. em Epidemiologia e doutor honoris causa pela Universidade McGill, no Canadá. É professor aposentado do Instituto de Saúde Coletiva da Universidade Federal da Bahia (UFBA), onde coordena o Instituto Nacional de Ciência e Tecnologia de Inovação, Tecnologia e Equidade em Saúde (Inteq-Saúde). Também atua como professor visitante no Instituto de Estudos Avançados da Universidade de São Paulo (IEA-USP), onde ocupa a Cátedra Alfredo Bosi de Educação Básica, desenvolvendo estudos sobre a relação entre universidade, educação, história e sociedade. Ele desenvolve pesquisas no campo da epidemiologia de transtornos mentais, particularmente o efeito de raça, racismo, gênero e classe social sobre a saúde mental.

Naomar apresentou um mapa conceitual de 2022 do campo da saúde digital, no qual a inteligência artificial (IA) é o centro de tudo: saúde móvel, saúde eletrônica, telemedicina e telessaúde. “No mapa de 2016, a IA nem aparecia”, observou. Naomar apontou que o uso de IA em saúde tem sido mostrado como uma das aplicações positivas. “Porém, está sendo feito com pressa, sem muita reflexão. A otimização visa a lucratividade, sem dúvida, e não a equidade no atendimento.”

Sobre os desafios e perspectivas do uso pedagógico de IA na educação superior, Naomar destacou que é preciso promover transversalidades, reinventar a ideia de competência crítica e pautar a formação de formadores numa cultura digital sensível. “E superar a confusão conceitual, como a noção de letramento digital. ‘Letramento’ é uma tradução do inglês, de ‘literacy’, que significa ‘alfabetização’. Então, rigorosamente, ‘letramento digital’ é alfabetizar pessoas para programar, mas não é como o termo vem sendo usado: ele vem sendo usado como a capacidade de lidar com os dispositivos mínimos, como o celular e o laptop”.

“Promover transversalidades”, de acordo com Naomar, envolve operar em torno de eixos temáticos e vetores do conhecimento coerentes com a complexidade de organização do saber científico na atualidade. “O repertório curricular deve ser menos rígido, sem caráter obrigatório, mais inter e transdisciplinar, incorporando conhecimentos e valores relativos às humanidades, ciências sociais e artes. Para a formação de um indivíduo é fundamental buscar equilíbrio entre conhecimento e imaginação, entre efetividade e excelência, entre racionalidade e sensibilidade”, apontou.

Sobre a priorização das competências tecnológicas críticas, a educação deve envolver a compreensão de lógicas, mecanismos e efeitos das técnicas e instrumentos de práticas, a fim de possibilitar intervenções nos corpos sociais, individuais e coletivos com propriedade e qualidade. Para Naomar, o professor do século XXI deve desenvolver habilidades para aplicar tecnologias no máximo de eficácia, focando na eficiência (custo-benefício), na efetividade concreta (qualidade-equidade) e, assim, promovendo uma transformação social sustentável.

“Professores devem ser capazes de utilizar saberes, práticas e técnicas, a partir de avaliação crítica dos seus aspectos operativos, principalmente o potencial de valorizar a sensibilidade ecossocial”, explicou. Esta “sensibilidade ecossocial” envolveria, entre outros pontos, a consciência planetária, a ética e respeito à diversidade humana e aos diferentes saberes, assim como o estímulo à solidariedade e empatia.

Margaret Martonosi: desenvolvimento de IA requer pegada de carbono acoplada

No dia 8 de maio, como parte de sua Reunião Magna 2024, a Academia Brasileira de Ciências teve a honra de receber no Museu do Amanhã a cientista da computação Margaret Martonosi, professora da Universidade de Princeton, EUA, para falar sobre inteligência artificial – tema da reunião deste ano – do ponto de vista dos computadores e chips. Martonosi é especialista em arquitetura de computadores, com ênfase em eficiência energética, tema central para o desenvolvimento de IA.  De 2020 até 2023, Martonosi foi diretora da área de Ciências da Computação, Informação e Engenharia da National Science Foundation, principal órgão federal de fomento à ciência nos EUA.

A palestrante iniciou lembrando que em 1950, quando os computadores ainda eram máquinas gigantescas com pouca capacidade de processamento, o pai da computação moderna, Alan Turing publicou um artigo em que ponderava: “Podem as máquinas pensar?” Mais de sete décadas depois, essa pergunta continua mais atual do que nunca com a evolução das IA.

Martonosi comparou os diversos elementos, ou camadas, que compunham os computadores de 1950 e hoje em dia.  Esses elementos vão desde os transistores, na camada inferior, até as linguagens de programação e os algoritmos nas camadas superiores. Todas essas partes trabalham juntas para a máquina funcionar. “Cada vez mais vemos camadas intermediárias nesse bolo sendo substituídos por sistemas otimizados para aplicativos e o mesmo pode ocorrer para sistemas de IA. Talvez daqui a uma ou duas décadas a arquitetura computacional predominante seja outra”, observou.

Margaret Martonosi durante a Reunião Magna 2024 (Foto: Marcos André Pinto)

Entre os desafios do desenvolvimento de hardware moderno está aumentar a eficiência energética. Num mundo que exige cada vez mais sustentabilidade, conservar energia é fundamental. Para se ter uma ideia, a maior parte das operações realizadas na internet hoje em dia depende de grandes datacenters que podem chegar a uma demanda energética de 100 megawatts, suficiente para abastecer uma cidade com 60 mil domicílios. “A boa notícia é que a capacidade computacional dos datacenters está aumentando de forma muito mais rápida do que a demanda energética. De 2010 a 2018, a primeira aumentou em 550% enquanto a segunda apenas 6%”, contou a palestrante.

Mas desde 2018 a computação, e em especial a inteligência artificial, evoluiu bastante, elevando o custo energético. “Em especial, a pegada de carbono acoplada, isto é, a demanda energética envolvida desde a manufatura até o descarte dos equipamentos, é ainda maior que a demanda operacional. Precisamos pensar em ferramentas que quantifiquem melhor e ajudem engenheiros a colocar essa pegada de carbono na equação quando desenvolvem sistemas”, alertou Martonosi.

Um exemplo de evolução no hardware é o descrito pela “Lei de Moore”. Em 1965 o engenheiro Gordon Moore observou que o número de transistores – um tipo de semicondutor – em um chip dobrava a cada dois ou três anos. Longe de ser uma lei universal, a “Lei de Moore” acabou se mantendo verdadeira por muito mais tempo que seu próprio autor acreditou que seria. Mas, de acordo com a palestrante, isso começou a mudar nas últimas duas décadas. “Podemos continuar empilhando transistores, mas não ganhamos mais a mesma performance. Começamos a atingir limites energéticos ou mesmo físicos”, analisou. “Chips hoje em dia estão ficando tão quentes quanto lâmpadas, é algo que precisamos que considerar”, completou.

Outro desafio referente a IA tem a ver com a própria sociedade. Muitos analistas observam com preocupação a capacidade que essa tecnologia tem de criar abismos sociais ainda maiores. Para a palestrante, mitigar isso passa por um letramento em IA para todas as idades – “do jardim de infância aos cabelos brancos”. Ela acredita também que quanto mais inclusivo se tornar o corpo profissional em IA, problemas como vieses de dado diminuirão naturalmente. “Inclusão não é necessária apenas para quem se beneficia diretamente. Conseguimos melhores soluções de engenharia e pesquisa quando temos uma diversidade de mentes trabalhando. Isso é particularmente verdadeiro para IA, que depende de bancos de dados ainda muito concentrados em conteúdo de alguns países”.

Assista a palestra a partir de 2h40m:

Nick Couldry: “IA não é inteligência, nem é artificial”

O sociólogo Nick Couldry trabalha na London School of Economics and Political Science, no Reino Unido. Seu trabalho é voltado principalmente para estudos de mídia e comunicações, cultura e poder, e teoria social. Ele apresentou uma Conferência Magna intitulada “IA como Mito e Colonialismo de Dados” na Reunião Magna da ABC 2024, no dia 7 de maio.

Couldry descreve a inteligência artificial (IA) como uma evolução da computação. “Não é inteligência, nem é artificial, porque depende do trabalho humano para treiná-la. É apenas probabilística, não é criativa”. E vai além: afirma que é uma descrição equivocada, que cria um reconhecimento equivocado. “No mínimo, é um exagero de marketing que serve aos interesses de algumas grandes corporações de tecnologia.”

O sociólogo entrou on-line, do Reino Unido

Couldry defende que as práticas e discursos que chamamos de “IA” representam uma redefinição fundamental do conhecimento e de suas relações de poder. “E se impõe com a nossa participação, que incorporamos a IA na vida cotidiana sem entender o que está em jogo”, alertou.

Nossa ordem socioeconômica está sendo transformada através da IA, aponta Couldry, transformando a vasta capacidade de computação expandida em algo que chamamos de “inteligência”, mas são os resultados matemáticos de vasta e direcionada computação interativa que é… eficaz. “Mas não pode explicar por que é eficaz!” Ele citou Vint Cerf, que diz que a IA generativa gera previsões cujo único critério de eficácia é “credibilidade gramatical”. Couldry alerta que “confundir” os resultados da IA com conhecimento é cometer um erro de categoria profundo. “Se os resultados da IA, por mais eficazes que sejam como hipóteses, não podem explicar por que são plausíveis, então a IA é fundamentalmente diferente da inteligência humana”, observou. 

E essa é uma questão importante, de acordo com Couldry, porque nossa percepção da IA pode reconfigurar o que chamamos de “conhecimento” e como ele estará incorporado à vida social. O que a IA entrega é uma produção acelerada de resultados ‘suficientemente bons’. E isso é uma mudança na construção social do conhecimento”, afirmou.

As consequências podem ser impactantes para a liberdade social, se esse poder cognitivo for continuamente aplicado e ocorra um aumento da “espionagem em massa” através da IA em grande escala. E podem impactar também nas instituições de conhecimento de todos os tipos: como, e em que termos, elas podem confiar no conhecimento baseado na experiência humana se ele se torna um ativo financeiro?

Assim, Couldry considera que vivemos uma nova fase nas relações entre colonialismo e capitalismo, que é o colonialismo de dados, uma ordem emergente para a apropriação da vida humana, de modo que os dados possam ser continuamente extraídos dela, com valor agregado. “O colonialismo de dados prepara o terreno para um novo modo de produção capitalista e organização socioeconômica, enquanto coexiste com o legado neocolonial. É uma continuação da tentativa do Ocidente de impor uma única versão de racionalidade ao mundo”, explicou o sociólogo.

Para o palestrante, estamos reimaginando o conhecimento em prol do poder computacional comercial massivo controlado, enquanto imaginamos os limites inerentes à computação. “E essa visão de conhecimento produz ignorância”, pontuou.

E Couldry propõe uma tomada de posição. “Se o ‘risco existencial’ da IA reside nas transformações sociais que se desdobram em torno dela, o papel das ciências sociais não deveria ser a aceitação, mas sim a crítica da IA.”

Ranveer Chandra: agricultura de precisão feita com smartphones

Desenvolver uma agricultura mais produtiva e de menos impacto ambiental é um dos grandes desafios do século 21. Como parte do último dia da Reunião Magna 2024, a Academia Brasileira de Ciências teve a honra de receber no Museu do Amanhã o diretor de Pesquisa para a Indústria e Chief Technology Officer (CTO) de agricultura e alimentos da Microsoft, Ranveer Chandra. Ele compartilhou algumas das experiências da empresa no desenvolvimento de soluções para o setor nos EUA, no Brasil e na Índia.

Chandra lembrou que a agricultura do futuro é a de precisão. Mas mesmo que esse conceito tenha sido introduzido há 40 anos, ele ainda não decolou. Os motivos para isso giram em torno de custos proibitivos e dificuldades de inserção dessas tecnologias entre os fazendeiros. “Nossa meta é a democratização no acesso a soluções baseados em big data e inteligência artificial de forma que qualquer agricultor possa utilizar”, disse.

Ranveer Chandra, CTO em AgriFood da Microsoft

Mas para isso, existem alguns desafios. O maior deles é o da conectividade no campo. A maior parte das propriedades rurais possui sinal de internet nas casas, mas isso não é necessariamente verdade para todo o resto. O problema é que para se ter um acompanhamento continuado da produção agrícola é preciso a coleta de informações justamente onde o sinal é escasso. “Estamos trabalhando para levar sinal de wi-fi através de sinais de televisão, mais precisamente de frequências vagas que não possuem um canal associado. Também estamos tentando métodos similares para fazer isso por satélite, sem precisar de antenas”, contou Chandra.

Diminuir a dependência de infraestruturas nas fazendas é importante, pois um dos gargalos é o custo de equipamentos necessários à agricultura de precisão. Cada vez mais fica claro que o ideal é que os agricultores possam fazer a maior parte das medições utilizando seus próprios celulares. Chandra vem trabalhando numa forma de possibilitar medições de umidade do solo através de smartphones, e mostrou-se esperançoso de que a tecnologia permita um dia também medições de taxas de carbono.

Outras inovações apresentadas são o uso de chatbots, ou seja, sistemas de IA generativa de texto, como verdadeiros “assistentes agrícolas”. Essas plataformas podem utilizar os dados da fazenda para definir pontos ótimos para instalação de sensores, detectar pragas e doenças, ajudar o fazendeiro a navegar em questões de regulação e até mesmo guiar a manutenção de tratores. “Como experimento, fizemos nossas plataformas realizarem exames de agências reguladoras da agricultura nos três países, e elas tiveram notas suficientes para a aprovação. São tecnologias que não substituem o agrônomo, mas podem servir como uma segunda opinião”, contou Chandra.

Como resultados iniciais, Chandra apresentou a visão de alguns fazendeiros que colaboram com a empresa na utilização e testagem dessas soluções. Em um caso de sucesso, uma propriedade rural nos EUA pôde diminuir o uso de agrotóxicos em 38%. Esse é um exemplo de como tecnologias disruptivas podem contribuir para reduzir custos e gerar uma produção mais sustentável.

Assista a palestra a partir de 2h55m:

Confira a galeria de fotos da Reunião Magna 2024:

Brasil precisa multiplicar investimento em IA por dez, diz Virgílio Almeida

O Brasil pode perder a onda da inteligência artificial e ficar para trás em inovação se não mudar de postura, diz o professor de ciência da computação da UFMG (Universidade Federal de Minas Gerais) Virgilio Almeida, que está no grupo de especialistas chamados ao Palácio do Planalto para falar sobre os impactos da IA na economia, no mundo do trabalho e o desafio regulatório.

Almeida foi convocado para aconselhar o presidente Luiz Inácio Lula da Silva (PT) sobre a tecnologia e avalia que o investimento em pesquisa precisa subir dez vezes.

Segundo ele, o país precisa definir os incentivos corretos para prevenir que IAs desenvolvidas no exterior não tenham “efeitos indesejados” como a substituição descontrolada do trabalho.

Embora Lula tenha eleito a IA como uma prioridade para o encontro do G20 em julho, o Estado brasileiro avançou muito pouco desde novembro, quando a ABC (Academia Brasileira de Ciências) divulgou um estudo coordenado por Almeida com um alerta: o país está dez anos atrasado na pesquisa em inteligência artificial.

“Nada mudou”, diz Almeida, que passou pelo Berkman Klein Center for Internet and Society na Universidade de Harvard.

(…)

Leia a matéria completa na Folha.

Faperj, ABC e Mast formalizam colaboração para digitalizar acervo da Academia

Matéria original no site da Faperj*

A história da Academia Brasileira de Ciências (ABC), fundada em 1916 e sediada hoje no Centro (Rua Anfilófio de Carvalho, 29), se confunde com a própria trajetória de desenvolvimento da pesquisa nacional. Para resguardar o acervo dessa instituição centenária, a Faperj irá financiar, por meio do Programa de Apoio às Academias Nacionais Sediadas no Estado do Rio de Janeiro, o projeto “Memória Histórica da Academia Brasileira de Ciências”.

A iniciativa tem o objetivo de tratar e digitalizar os arquivos da ABC, em parceria com profissionais da área de Arquivologia do Museu de Astronomia e Ciências Afins (Mast). Para isso, foi formalizada na manhã desta quarta-feira, 8 de maio, a assinatura do Protocolo de Intenções de Colaboração entre a ABC e o Mast para a execução do projeto. A solenidade ocorreu durante uma das atividades da Reunião Magna da ABC, realizada de 7 a 9 de maio, no Museu do Amanhã, com o tema “Inteligência Artificial e as Ciências – Oportunidades e Riscos”.

Participaram da assinatura do Protocolo o presidente da Faperj, Jerson Lima; a presidente da ABC, Helena Nader; e o diretor substituto do Mast, José Benito, que é historiador e atua na área de Pesquisa e Arquivo no museu. De acordo com Benito, a parceria é uma oportunidade de fortalecimento entre os laços das instituições envolvidas. “Nós do Mast estamos honrados em poder ajudar a ABC com a nossa expertise em organização de arquivos relevantes para a história da Ciência e Tecnologia brasileiras”, disse. “O objetivo do projeto é tratar, organizar e posteriormente disponibilizar esse material histórico pela internet ao grande público, em um grande acervo virtual, que servirá como matéria-prima para diversas pesquisas e ajudará a difundir o conhecimento sobre a atuação dessa instituição tão importante para a sociedade”, acrescentou.

O presidente da Faperj destacou a relevância do Programa de Apoio às Academias Nacionais Sediadas no Estado do Rio de Janeiro, que destinou ao todo cerca de R$ 4 milhões para incentivar atividades de editoração, publicação, aquisição e manutenção de acervo, divulgação por via impressa ou eletrônica, e melhoria organizacional e de infraestrutura das academias nacionais sediadas em território fluminense. “O programa de apoio às academias está gerando frutos significativos, e um deles é o projeto ‘Memória Histórica da Academia Brasileira de Ciências’, que envolve essa parceria entre a ABC e o Mast. A ABC é uma instituição centenária com um arquivo extremamente rico da história científica do nosso país”, afirmou Lima, acrescentando que a ABC foi outorgada com recursos da ordem de R$ 1 milhão.

A presidente da ABC reconheceu a necessidade de se resgatar a memória da Academia e elogiou o trabalho conjunto entre as três instituições. “Para mim é um sonho que se tornou realidade. Uma coisa que me deixava triste é que a Academia Brasileira de Ciências, que vai fazer 110 anos em 2026, não tinha a sua história devidamente documentada, catalogada. Agora, a Faperj, com esse edital para as academias, permitiu juntar o desejo com o fato de termos o material, e, mais ainda, um outro parceiro, o Mast, que sabe tratar a memória. Sabe pegar documentos e deixar em boas condições. Se você olhar, é triparte. A ABC com o desejo e tendo os documentos; o Mast, que sabe fazer; e a Faperj, que, tendo uma visão estratégica, financiou”, refletiu.

Estiveram presentes na solenidade os membros da ABC Diogenes de Almeida Campos, naturalista e paleontólogo; Maria Domingues Vargas, química; e Patrícia Torres Bozza, médica, entre diversos outros representantes da comunidade acadêmica fluminense.

Helena Nader assina termo de cooperação para criação de acervo histórico da ABC (Foto: Marcos André Pinto)
teste