O dia 11 de maio foi data de comemoração para mais cinco novos cientistas que passaram a integrar do quadro de membros afiliados da ABC na regional Rio de Janeiro por cinco anos – de 2017 a 2021. Após a sessão de abertura e além da diplomação, discursos e agradecimentos, e das respectivas apresentações das pesquisas dos novos membros, dois Acadêmicos titulares falaram sobre ciência: Rosalia Mendez-Otero (IBCCF/UFRJ) e Nelson Francisco Favilla Ebecken (Coppe/UFRJ).

Células-Tronco e Medicina Regenerativa: Promessas e Realidade

A Acadêmica Rosalia Mendez-Otero é graduada em medicina pela Universidade Federal do Rio de Janeiro (UFRJ), com mestrado e doutorado em Ciências Biológicas pela mesma instituição, na qual é hoje professora titular, no Instituto de Biofísica Carlos Chagas Filho. Ela trabalha com neurociências com ênfase em desenvolvimento e plasticidade do sistema nervoso, atuando como coordenadora da Rede Nacional de Terapia Celular e do INCT de Medicina Regenerativa.

Rosalia começou apresentando os objetivos da medicina regenerativa, que envolvem substituir células e/ou tecidos perdidos em doenças ou lesões, assim como diminuir a morte celular e/ou aumentar a capacidade de regeneração do próprio tecido.

Para alcançar estes objetivos, as pesquisas com células-tronco podem contribuir muito. “As células-tronco são células não especializadas, com capacidade de auto renovação, que podem originar os diferentes tipos celulares do organismo”, explicou Rosalia, acrescentando que elas inicialmente podiam ser obtidas do embrião, do feto ou do adulto. Estas células, segundo a palestrante, podem ser usadas para estudar o desenvolvimento normal, para o screening de drogas e toxinas. E para as terapias celulares, qual seriam as melhores células? Embrionárias, fetais ou adultas?

A primeira linhagem de células tronco humanas embrionárias (ES, na sigla em inglês) foi derivada de blastocistos, doada em 1998 pelo pesquisador norte-americano James Thomson, da Universidade de Wisconsin.

Porém, após 20 anos de pesquisa com ES, nenhuma terapia celular chegou a prática clínica. Os motivos são muitos, dentre eles o fato de o presidente George Bush ter retirado o apoio federal às pesquisas sobre as novas linhas de ES criadas nos EUA entre 2001 e 2009. A patente da Universidade de Wisconsin expirou em 2015.

No Brasil, foi sancionada a Lei de Biossegurança em 24 de março de 2005. Em maio de 2008, o Supremo Tribunal Federal (STF) liberou pesquisas com células-tronco embrionárias. EM setembro do mesmo ano, uma equipe da USP, liderada pela pesquisadora Ligia da Veiga Pereira produziu a primeira linhagem brasileira de ES. A partir de então, o cientista Ricardo Azevedo do IBCCF/UFRJ e outros pesquisadores desenvolveram outras linhagens, através da diferenciação de células embrionárias humanas e murinas em células do sistema nervoso, e vários grupos passaram a se dedicar a desenvolver maneiras alternativas de obter células pluripotentes.

Houve, então, uma nova revolução. Surgiram as células-tronco de pluripotência induzida (iPSCs na sigla em inglês). O pesquisador japonês Shinya Yamanaka publicou seus resultados em 2007 e ganhou o Prêmio Nobel por elas em 2012.

Nesse procedimento, fibroblastos humanos são transformados em células pluripotentes através da introdução de genes específicos. Hoje, já existem perspectivas de terapias com iPSCs.

Em julho de 2010, o primeiro estudo clínico utilizando células embrionárias humanas foi aprovado pelo FDA nos EUA. Atualmente, vários estudos clínicos estão sendo conduzidos para degeneração macular, mal de Parkinson, diabetes e outras doenças. Os resultados ainda indicam questões de segurança que desafiam os cientistas, como as relacionadas à cultura das diversas populações, à rejeição do organismo, ao surgimento de teratomas e a dificuldade de se obter estabilidade genômica. Mas os caminhos estão sendo abertos e percorridos. “Chegaremos lá”, concluiu Rosalia.

Processamento intensivo de dados

Nelson Ebecken é formado em engenharia civil pela Universidade Federal Fluminense (UFF) e fez seu mestrado e doutorado na mesma área pela Universidade Federal do Rio de Janeiro (UFRJ). Ele atua nas áreas de engenharia do petróleo com ênfase em sistemas computacionais e realiza pesquisa relacionada aos temas de engenharia civil, ciência da computação e ciência da informação.

O Acadêmico iniciou dando um panorama cronológico do avanço do processamento de dados na ciência. Estruturada com base na observação direta, os dados foram sendo gerados. Em seguida, pesquisadores passaram a construir modelos analíticos para elaborar predições. Já com a ciência computacional, os modelos analíticos passaram a ser simulados e, em seguida, validados, assim como as predições. Finalmente, com a ciência de exploração do conhecimento criou-se o sistema de armazenamento de dados capturados, que são, em seguida, processados por softwares e os resultados, analisados por cientistas. A teoria da obtenção de conhecimento por meio do processamento intensivo de dados feito por máquinas é chamada por muitos de Quarto Paradigma da Ciência da era eScience, como mostrou o professor.

O mundo produz uma quantidade massiva de dados por segundo, que fica em trânsito por meio da internet e de acesso livre. Em termos gerais, o que a ciência de dados proporciona é o armazenamento de uma quantidade incontável destes dados e dados de monitoramentos por sensores, que são números, figuras, textos e vídeos que gerarão diagnósticos e predições baseados em uma “pergunta” feita à essas informações. Os modelos criados respondem à essas perguntas e cabe aos cientistas fazer a interpretação das informações geradas por ele.

O processamento de dados, no entanto, não tem sido feito da mesma forma desde sua criação. Na década de 80, com a computação paralela, passou-se a dividir o problema e trabalhar cada pedaço dele em um processador. Ao fim, era feito um exame dos resultados obtidos após recuperar-se as informações que passaram pelos processadores. O Message Passing Interface (MPI) é um padrão que funciona sob esta lógica de “dividir o problema em pedaços”.

Atualmente, o que é feito é uma computação intensiva dos dados. Não há mais lei matemática para modelar o fenômeno. É considerada uma sequência grande de amostras em tempo real e essas amostras constroem e atualizam continuamente os modelos. Esse processo reúne conhecimentos de estatística, aprendizagem de máquina e áreas afins.

Em 2004, a Google divulgou um novo modelo de programação denominado MapReduce, que permite a manipulação de um volume massivo de dados de forma para
lela e distribuída. Em resumo, este paradigma permite o processamento eficiente de grandes massas de dados. Com esse enfoque, caso um processador falhe, não é perdida toda a execução. “O MapReduce modificou a forma de implementar algoritmos e modelar, processando diretamente os dados e não as partes do modelo”, explica Ebecken.

Depois desse modelo, foram lançados o ambiente Hadoop e o Spark que, com o uso de linguagens mais eficientes, têm como objetivo tornar possível a construção simultânea de grande quantidade de modelos mais precisos.

Para ilustrar os usos das bases de dados em diversos tipos de pesquisa, Ebecken trouxe três tipos de problemas: o monitoramento em tempo real de ecossistemas marítimos, a predição da produção em campos de petróleo e modelos a partir de ligações da telefonia celular. O exemplo do uso de dados de telefonia celular permite traçar um padrão de mobilidade urbana. O estudo funciona de forma que os registros das ligações são relacionados às coordenadas geográficas da antena do celular utilizado. Esses registros mostram um padrão de deslocamento que converge para uma mesma distribuição de probabilidades. Esses padrões reproduzíveis de mobilidade urbana podem ser usados para se criarem modelos de dinâmica urbana usados no estudo de uso de terras, propagação de epidemias, transporte e outros.

O uso de Big Data é uma ciência ainda em processo, mas que tem inúmeros benefícios a oferecer a diversas áreas da indústria e ciência. Com a possibilidade de análises preditivas é possível reduzir-se gastos e aumentar a eficiência e a competividade da produção tecnológica. Ebecken atenta, no entanto, para a atual falta de profissionais na área. “Há uma falta de mão de obra especializada em projetos de e-Science e o aumento de projetos nessa área tem elevado a disputa por profissionais com sofisticada expertise em sistemas computacionais”, comenta.