Encontro de História e Filosofia da Biologia 2010: inscrições até 12 de abril

quarta-feira, março 31, 2010

JC e-mail 3980, de 31 de Março de 2010.

28. Encontro de História e Filosofia da Biologia 2010: inscrições até 12 de abril

Evento será realizado no Instituto de Biociências da USP, de 11 a 13 de agosto

O prazo de inscrição de trabalhos para o Encontro de História e Filosofia da Biologia 2010 foi prorrogado até 12 de abril.

O encontro visa à apresentação e discussão de trabalhos sobre todos os temas relacionados com História da Biologia e Filosofia da Biologia, incluindo suas aplicações ao ensino.

Mais informações pelo e-mail ehfb2010@abfhib.org ou no site da Associação Brasileira de Filosofia e História da Biologia (ABFHiB), que promove este evento: http://www.abfhib.org/index_arquivos/Encontro_2010.html

Inscrições abertas para a Reunião Anual da Federação de Sociedades de Biologia Experimental (FeSBE)

JC e-mail 3980, de 31 de Março de 2010.
26. Inscrições abertas para a Reunião Anual da Federação de Sociedades de Biologia Experimental (FeSBE)

Prazo para envio de resumos e inscrições com desconto termina no dia 10 de abril

A XXV Reunião Anual da Federação de Sociedades de Biologia Experimental (FeSBE) acontece entre os dias 25 e 28 de agosto, em Águas de Lindoia, São Paulo.

O prazo para inscrições com desconto e para aqueles que pretendem enviar resumos de trabalhos científicos termina em 10 de abril.

A FeSBE é um foro ágil de intercâmbio e troca de experiências científicas e reunirá neste ano congressos das Sociedades Brasileira de Biofísica, Brasileira de Investigação Clínica, o XLV Congresso Brasileiro de Fisiologia e o VII Congresso do Brazilian Society for Research on Vision and Ophthalmology.

Durante o evento serão oferecidos quatro prêmios: Jovem Investigador Michel Jamra, para estudantes de iniciação científica e de mestrado, cujo trabalho tenha sido desenvolvido em instituição de pesquisa brasileira; o prêmio Roberto Alcântara Gomes, para jovens pesquisadores matriculados em curso de graduação ou pós-graduação com menos de 35 anos; prêmio Álvaro Ozório de Almeida, para candidatos com no máximo 30 anos e pesquisa realizada no Brasil; o Bravo/Allergan, para estudante de graduação, pós-graduação ou pós-doutorando; e o prêmio SBEM de Incentivo à Pesquisa, direcionado à área de pesquisa clínica básica ou aplicada na área de endocrinologia.

Mais informações e inscrições no sitehttp:

Geo-engenharia: nós todos queremos mudar o mundo


We all want to change the world

Dealing with climate change might mean tinkering with the oceans and the atmosphere. Those who could do so would like the regulations to be clear

Mar 31st 2010 | ASILOMAR | From The Economist print edition

IN 1975 scientists expert in a new and potentially world-changing technology, genetic engineering, gathered at Asilomar, on the Monterey peninsula in California, to ponder the ethics and safety of the course they were embarking on. The year before, they had imposed on themselves a voluntary moratorium on experiments which involved the transfer of genes from one species to another, amid concerns about the risk to human health and to the environment which such “transgenic” creations might pose. That decision gave the wider world confidence that the emerging field of biotechnology was taking its responsibilities seriously, which meant that the Asilomar conference was able to help shape a safety regime that allowed the moratorium to be lifted. That, in turn, paved the way for the subsequent boom in molecular biology and biotechnology.

Another bunch of researchers, accompanied by policy experts, social scientists and journalists, gathered in Asilomar between March 22nd and 26th, hoped for a similar outcome to their deliberations. This time the topic under discussion was not genetic engineering but geoengineering—deliberately rather than accidentally changing the world’s environment.

Geoengineering is an umbrella term for large-scale actions intended to combat the climate-changing effects of greenhouse-gas emissions without actually curbing those emissions. Like genetic engineering was in the 1970s, the very idea of geoengineering is controversial. Most of those who fear climate change would prefer to stop it by reducing greenhouse-gas emissions. Geoengineers argue that this may prove insufficient and that ways of tinkering directly with the atmosphere and the oceans need to be studied. Some would like to carry out preliminary experiments, and wish to do so in a clear regulatory framework so that they know what is allowed and what is not.
Ruled in or ruled out?

Like the biotechnology of the 1970s, geoengineering cannot be treated just as science-as-usual. There are, however, important differences between the subjects. One is that in the 1970s it was clear that the ability to move genes between creatures was going to bring about a huge change in the practice of science itself, and biologists were eager for that to happen. Modern climate scientists, by contrast, usually see geoengineering research as niche, if not fringe, stuff. Many wish it would go away completely. Another difference is that in the 1970s there was a worry that DNA experiments could in themselves present dangers. With geoengineering the dangers are more likely to be caused by large-scale deployment than by any individual scientific experiment.

There are two broad approaches to geoengineering. One is to reduce the amount of incoming sunlight that the planet absorbs. The other is to suck carbon dioxide out of the atmosphere and put it somewhere else. The second of these approaches is not particularly in need of new regulation. Whether the carbon dioxide is captured by real trees, as some would like, or by artificial devices, environmental problems caused by the process would be local ones at the site of the sucking. Underground storage of the captured carbon would be regulated in the same way that carbon dioxide sequestered from power stations might be—again, for the most part, a local matter. Even the most potentially disturbing suggestion, which involves fertilising the oceans with iron in order to promote the growth of planktonic algae (in the hope that they would sink to the seabed, taking their carbon with them), can be covered by the London Convention on marine pollution, which regulates dumping at sea, and has already addressed itself to research in the area.

Read more here/Leia mais aqui: The Economist

O mestre da célula

The Scientist

Volume 24 | Issue 4 | Page 42
Date: 2010-04-01

By Judy Lieberman

Master of the Cell

RNA interference, with its powerful promise of therapy for many diseases, may also act as a master regulator of most—if not all—cellular processes.

RNA silencing. Computer artwork showing a length of RNA (yellow with red rings) bound to an RNA-induced silencing complex (RISC).
© Medi-Mation Ltd / Photo Researchers, Inc.

One of the biggest surprises in biology in the past decades was the discovery that humans have about the same number of protein coding genes as a worm. That puzzling finding began to make sense when we realized that we were missing a big part of the picture: a lot of DNA is transcribed into RNA but never into proteins. The more we learn about these RNAs, the more we realize how much complexity they add. Some of these noncoding RNAs, called microRNAs because of their small size, interfere with protein expression by chopping up protein coding transcripts or inhibiting their translation into proteins. Their effect on cell fate and function is far wider than we initially thought. In recent years, it has become clear that microRNAs can act as master switches by regulating large networks of genes.

I came to work on microRNAs by a circuitous path. I started as a theoretical high-energy particle physicist, but after 8 years decided to go to medical school to do work that more directly helped people. As part of my medical training in hematology and oncology, I began a postdoc at MIT in the lab of Herman Eisen in the early eighties when molecular biology was just coming into its own: The T-cell receptor had just been discovered (work to which the Eisen lab contributed), and HIV was about to be identified as the cause of AIDS. With no therapy available then, AIDS patients died a truly gruesome death. The Eisen lab studied the cytotoxic T cells that were supposed to protect us against viral infections like HIV.

After my postdoc, I was offered a job at Tufts–New England Medical Center that combined clinical work in hematology with running a lab. I decided that my new lab would work on understanding the T-cell response to HIV and why these cells fail to control the infection, with an eye towards developing immune-based therapy. We also investigated how cytotoxic T cells activate programmed cell death (apoptosis) in virally infected cells.

I was immersed in HIV and T-cell immunology work in 1998 when I read the Fire and Mello paper1describing one of the first examples of RNA interference (RNAi) inC. elegans. I was intrigued and perplexed by the paper: how could a double-stranded RNA possibly silence gene expression? I would periodically ask a colleague working on worms, Keith Blackwell, if there was an explanation for this strange phenomenon.
Read more here/Leia mais aqui: The Scientist

Na enxurrada seca

Na enxurrada seca
Sapos da Caatinga têm adaptações fisiológicas para sobreviver aos meses sem chuva

Maria Guimarães

Pesquisa Fapesp
Edição Impressa 169 - Março 2010

                              Abraçado à fêmea, macho bate muco e produz um ninho para os ovos

Quando a chuva desaba no sertão potiguar, a paisagem se modifica subitamente. De um instante a outro rios se formam, lagoas se enchem e do chão brotam centenas de sapos. É assim próximo a Angicos, no centro do Rio Grande do Norte. Ali os sapos Pleurodema diplolistris passam os 10 ou 11 meses anuais de seca enterrados na areia, de onde os machos já emergem cantando em uníssono, como uma enorme sirene, e logo saltam para a lagoa mais próxima. Atraídas pela cantoria, as fêmeas escolhem seus pares e liberam dezenas de óvulos que, depois de fecundados, são envoltos num muco semelhante a clara de ovo que o macho bate em neve. Em um ou no máximo dois meses, quando as chuvas cessam e os rios desaparecem como por um passe de mágica, os sapinhos recém-nascidos precisam estar completamente formados e prontos para se enterrarem na areia. Entender como esses anfíbios resistem a tanto tempo sem água e sem alimento tem sido um dos enigmas explorados pelos fisiologistas Carlos Navas, da Universidade de São Paulo (USP), e José Eduardo Carvalho, do campus de Diadema da Universidade Federal de São Paulo (Unifesp).

Durante todo o período em que não chove os Pleurodema se mantêm enterrados e sem comer, em estivação – o correspondente no verão à hibernação, em que animais passam o inverno inativos. Entender os processos fisiológicos que tornam esse feito possível é o ponto de encontro dos projetos coordenados pelos dois pesquisadores: o de Navas, que une fisiologia e conservação no contexto de mudanças do clima, e o de Carvalho, sobre fisiologia comparada de répteis e anfíbios, no âmbito do Instituto Nacional de Ciência e Tecnologia (INCT) de Fisiologia Comparada, ambos com financiamento da FAPESP. “Na estivação, a inatividade acontece quando o ambiente não favorece”, explica Carvalho, “quando a temperatura está alta, o metabolismo dos animais costuma ficar mais rápido, e não o contrário”. Em busca de reunir o conhecimento sobre aspectos diversos – como a atividade dos genes, os efeitos nos músculos e o que se vê no registro fóssil – em animais diferentes – de esponjas a mamíferos –, os dois pesquisadores editaram o livro Aestivation: molecular and physiological aspects, com autores de vários países, publicado este ano pela editora internacional Springer. “A síntese de cada capítulo pode nos ajudar a traçar quais são os mecanismos comuns a grupos diferentes”, diz Navas.

Leia mais aqui e aqui.

Vida a partir de um mundo RNA

The Ancestor Within

A majority of evolutionary biologists believe that we now can envision our biological predecessors—not the first, but nearly the first, living beings on Earth. Life from an RNA World is about these vanished forebears, sketching them in the distant past just as their workings first began to resemble our own. The advances that have made such a pursuit possible are rarely discussed outside of bio-labs. So here, says author Michael Yarus, is an album for interested non-biologists, an introduction to our relatives in deep time, slouching between the first rudimentary life on Earth and the appearance of more complex beings.

The era between, and the focus of Yarus’ work, is called the RNA world. It is RNA (ribonucleic acid) long believed to be a mere biologic copier and messenger, that offers us this glimpse into our ancient predecessors. To describe early RNA creatures, here called “ribocytes” or RNA cells, Yarus deploys some basics of molecular biology. He reviews our current understanding of the tree of life, examines the structure of RNA itself, explains the operation of the genetic code, and covers much else—all in an effort to reveal a departed biological world across billions of years between its heyday and ours.

Courting controversy among those who question the role of “ribocytes”—citing the chemical fragility of RNA and the uncertainty about the origin of an RNA synthetic apparatus—Yarus offers an invaluable vision of early life on Earth. And his book makes that early form of life, our ancestor within, accessible to all of us.


Excerpt/Excerto [Free PDF Grátis]



The Ancestor Within


Quatro pontos centrais sobre coevolução

Journal Evolution: Education and Outreach
Publisher Springer New York
ISSN 1936-6426 (Print) 1936-6434 (Online)
Issue Volume 3, Number 1 / March, 2010
Category Original Scientific Article
DOI 10.1007/s12052-009-0200-x
Pages 7-13

Four Central Points About Coevolution

John N. Thompson1 
(1) Department of Ecology and Evolutionary Biology, University of California, Santa Cruz, Santa Cruz, CA 95064, USA

Published online: 21 January 2010


Much of evolution is about the coevolution of species with each other. In recent years, we have learned that coevolution is much more pervasive, dynamic, and relentless than we previously thought. There are four central points about coevolution that we should teach the next generation of students to help them understand the importance of the coevolutionary process in shaping the web of life. (1) Complex organisms require coevolved interactions to survive and reproduce. (2) Species-rich ecosystems are built on a base of coevolved interactions. (3) Coevolution takes multiple forms and generates a diversity of ecological outcomes. (4) Interactions coevolve as constantly changing geographic mosaics.

Keywords Coevolution - Competition - Evolutionary arms race - Mutualism - Symbiosis
John N. Thompson
Email: thompson@biology.ucsc.edu


Coevolução e a teia da vida

Journal Evolution: Education and Outreach
Publisher Springer New York
ISSN 1936-6426 (Print) 1936-6434 (Online)
Issue Volume 3, Number 1 / March, 2010
Category Introduction to the Special Issue
DOI 10.1007/s12052-009-0198-0

Coevolution and the Web of Life

John N. Thompson1 and Rodrigo Medel2
(1) Department of Ecology and Evolutionary Biology, University of California, Santa Cruz, CA 95064, USA

(2) Departamento de Ciencias Ecológicas, Facultad de Ciencias, Universidad de Chile, Casilla 653, Santiago, Chile

No abstract.

Published online: 7 January 2010

Pesquisa do LHC também começa em São Paulo


Por Fábio Reynol

Agência FAPESP – Às 13h06 desta terça-feira (30/3), horário local, o acelerador de partículas LHC (Large Hadron Collider, ou “grande colisor de hádrons”), localizado na fronteira da Suíça com a França, inaugurou seu programa de pesquisa ao provocar um choque de duas nuvens de prótons com energia total de 7 teraelétron-volts (TeV).

Ao mesmo tempo, 8h06 pelo horário de Brasília, no bairro da Barra Funda na capital paulista, uma equipe de físicos do Centro Regional de Análise de São Paulo (Sprace) do Instituto de Física Teórica da Universidade Estadual Paulista (IFT-Unesp) pôde acompanhar a colisão em uma sala ligada por uma rede de alta velocidade ao Centro Europeu de Pesquisas Nucleares (Cern), que administra o LHC.

Unesp inaugura centro de controle para monitorar experiências realizadas no maior experimento científico do mundo, o acelerador de partículas que inaugurou seu programa de pesquisa nesta terça-feira (30/3), com choques de 7 teraelétron-volts (LHC/Cern)

A Unesp aproveitou a ocasião para inaugurar o seu centro de controle do experimento CMS (sigla em inglês para “Solenoide de Múon Compacto”), que conta com 35 unidades semelhantes espalhadas pelo mundo e nas quais é possível acompanhar em tempo real as atividades realizadas no LHC e participar do seu monitoramento.

O CMS Center @ São Paulo, nome oficial do centro, utiliza uma conexão internacional de 10 Gbs, financiada pela FAPESP. “É a rede mais rápida do Brasil”, disse o professor Sérgio Ferraz Novaes, coordenador do Sprace. Os equipamentos do CMS Center @ São Paulo foram adquiridos com apoio da Rede Nacional de Física de Altas Energias (Renafae), do Ministério da Ciência e Tecnologia.

Além do transporte de dados dos experimentos, a velocidade da rede permite o funcionamento de sistemas de telefonia e videoconferência de alta qualidade, proporcionando uma interação instantânea com o centro de controle do Cern.

Por conta disso, os usuários do centro paulista poderão atuar na calibração dos subdetectores, monitorar a qualidade dos dados gerados e ainda analisar essas informações.

“Podemos acompanhar as informações ao vivo por meio de monitores e, caso detectemos alguma irregularidade, temos condições de chamar um especialista do LHC pelo sistema de videoconferência”, explicou o físico Franciole Marinho, pós-doutorando do Sprace que participa do projeto e conta com Bolsa da FAPESP.

A Fundação também está financiando a atualização dos terminais do campus da Barra Funda da Unesp a fim de aumentar a sua capacidade de processamento. O próprio Sprace foi implantado em 2003 por meio do Projeto Temático “Física Experimental de Anéis de Colisão: Sprace e HEPGrid−Brazil”, coordenado por Novaes.

Na América Latina, há apenas dois centros ligados ao CMS, o da Unesp e o da Universidade Estadual do Rio de Janeiro (Uerj).

Física de partículas

O CMS é um dos quatro experimentos de pesquisa do LHC e cada um deles conta com equipes e equipamentos exclusivos para suas finalidades. Além do CMS, os experimentos Atlas e LHCb também registraram as colisões efetuadas na terça-feira. De modo similar ao CMS, o Atlas é um experimento multipropósito que fornece dados para trabalhos em diversas áreas da física.

Já o LHCb é focado no chamado quark B, partícula que poderá fornecer pistas sobre a relação entre matéria e antimatéria presentes no Universo. O quarto experimento, Alice, é voltado a análises com íons pesados e deve começar a operar em 2011, com o disparo de partículas de ouro ou chumbo.

O Brasil já participa intensamente no processamento dos dados coletados no Cern. Segundo Novaes, é importante para o país aumentar sua participação no desenvolvimento de software e hardware necessários às pesquisas no acelerador. “O LHC é um instrumento único que abrirá várias portas para o desenvolvimento científico e tecnológico brasileiro”, afirmou.

Mas a formação e a pesquisa brasileiras em física de altas energias já estão ganhando com os experimentos. Os dados observados do campus da Barra Funda alimentarão trabalhos de mestrado, doutorado e pós-doutorado de estudantes da Unesp.

Por meio da rede de alta velocidade KyaTera, do Programa Tecnologia da Informação no Desenvolvimento da Internet Avançada (Tidia) da FAPESP, que cobre o Estado de São Paulo, esses dados poderão ser partilhados com outras unidades de pesquisa.

Respostas a grandes questões

A comunidade científica espera que os experimentos realizados no LHC forneçam respostas para algumas das principais questões atuais da física. “O que se convencionou chamar de ‘física de partículas’ tem um aspecto muito mais amplo do que o nome sugere. Ela se propõe a responder do que é feita a matéria, como ela interage e quais são as forças da natureza”, explicou Novaes.

Entre as expectativas em relação ao LHC estão pistas a respeito da chamada matéria escura que surgiu como explicação para o comportamento de corpos no Universo.

“Apenas a massa da matéria visível não seria suficiente para explicar o comportamento das galáxias. A matéria escura seria o montante faltante nessa equação. Mas, no momento, trata-se apenas de uma hipótese”, disse Sérgio Lietti, pesquisador do CMS Center @ São Paulo.

De modo análogo, a chamada energia escura é uma hipótese elaborada para explicar a expansão do Universo. Ainda sem comprovação empírica, essa é outra teoria que o trabalho no LHC também poderá ajudar a comprovar ou a negar.

A assimetria entre matéria e antimatéria percebida no Universo é outro enigma que os físicos esperam poder elucidar com ajuda das colisões no anel europeu.

“Em laboratório, conseguimos perceber que cada partícula é acompanhada de sua antipartícula, isso nos leva a perguntar por que observamos muito mais matéria do que antimatéria no Universo, ou seja, há uma aparente assimetria entre as duas”, disse Marinho.

A maior das expectativas, no entanto, repousa sobre a comprovação ou não do chamado bóson de Higgs, cuja existência hipotética foi levantada pelo físico britânico Peter Ware Higgs de modo a tentar explicar a origem da massa das partículas elementares. “O LHC foi especialmente desenhado para estudar o bóson de Higgs”, disse Novaes.

No entanto, o professor da Unesp estima que essas grandes perguntas não serão respondidas tão cedo. O LHC está em fase de testes, o que exige inicialmente a execução de experimentos cujos resultados já são conhecidos.

“É uma espécie de calibração. Caso os resultados sejam discrepantes em relação aos que já conhecemos pode ser sinal de algum defeito no equipamento”, disse Novaes.

Mesmo após o acelerador comprovar a sua confiabilidade, os grandes resultados ainda deverão levar algum tempo. Segundo o professor da Unesp, será preciso agrupar um enorme volume de dados para poder comprovar uma teoria.

Isso dependerá do número de colisões que o LHC poderá proporcionar, chamado “índice de luminosidade”. Quanto mais eventos forem registrados, mais dados serão coletados para compor os resultados finais que serão gerados por estatísticas.

Além das questões que intrigam a física contemporânea, o LHC ainda poderá gerar descobertas imprevisíveis. “A história da ciência está repleta de episódios em que o acaso gerou descobertas impensáveis até então. Nada impede que isso possa se repetir aqui”, disse Novaes.

Mais informações sobre o LHC: http://public.web.cern.ch/public

Caminhos para o clima


Por Fábio de Castro

Agência FAPESP – Cientistas brasileiros e britânicos discutiram nesta terça-feira (30/3), por meio de videoconferência, possibilidades de cooperação entre instituições dos dois países para desenvolvimento de estudos e programas de pesquisa conjuntos na área de geoengenharia, que inclui diversos métodos de intervenção de larga escala no sistema climático do planeta, com a finalidade de moderar o aquecimento global.

O “Café Scientifique: Encontro Brasileiro-Britânico sobre Geoengenharia”, promovido pelo British Council, Royal Society e FAPESP, foi realizado nas sedes do British Council em São Paulo e em Londres, na Inglaterra.

Cientistas discutem possibilidades de cooperação em estudos de geoengenharia para realizar intervenções capazes de moderar as mudanças climáticas

O ponto de partida para a discussão foi o relatório Geoengenharia para o clima: Ciência, governança e incerteza, apresentado pelo professor John Shepherd, da Royal Society. Em seguida, Luiz Gylvan Meira Filho, pesquisador do Instituto de Estudos Avançados da Universidade de São Paulo (USP), apresentou um breve panorama da geoengenharia no Brasil.

A FAPESP foi representada pelo coordenador executivo do Programa FAPESP de Pesquisa sobre Mudanças Climáticas Globais, Carlos Afonso Nobre, pesquisador do Centro de Previsão de Tempo e Estudos Climáticos (CPTEC) do Instituto Nacional de Pesquisas Espaciais (Inpe).

De acordo com Nobre, a reunião serviu para um contato inicial entre os cientistas dos dois países. “A reunião teve um caráter exploratório, já que o próprio conceito de geoengenharia ainda não foi definido com precisão. O objetivo principal era avaliar o interesse das duas partes em iniciar alguma pesquisa conjunta nessa área e expor potenciais contribuições que cada um pode dar nesse sentido”, disse Nobre à Agência FAPESP.

Segundo Nobre, a geoengenharia é um conjunto de possibilidades de intervenção dividido em dois métodos bastante distintos: o manejo de radiação solar e a remoção de dióxido de carbono. Durante a reunião, os brasileiros deixaram claro que têm interesse apenas na segunda vertente.

O manejo de radiação solar, de acordo com o relatório britânico, inclui técnicas capazes de refletir a luz do Sol a fim de diminuir o aquecimento global, como a instalação de espelhos no espaço, o uso de aerossóis estratosféricos – com aplicação de sulfatos, por exemplo –, reforço do albedo das nuvens e incremento do albedo da superfície terrestre, com instalação de telhados brancos nas edificações.

A remoção de dióxido de carbono, por outro lado, inclui metodologias de captura do carbono da atmosfera – ou “árvores artificiais” –, geração de carbono por pirólise de biomassa, sequestro de carbono por meio de bioenergia, fertilização do oceano e armazenamento de carbono no solo ou nos oceanos.

A principal diferença entre as duas vertentes é que os métodos de manejo de radiação solar funcionam com mais rapidez, em prazos de um ou dois anos, enquanto os métodos de remoção de gás carbônico levam várias décadas para surtirem efeito.

Sem plano B

O relatório avaliou todas as técnicas segundo eficácia, prazo de funcionamento, segurança e custo. Seria preciso ainda estudar os impactos sociais, politicos e éticos, de acordo com os cientistas britânicos.

Nobre aponta que o Brasil teria interesse em contribuir com estudos relacionados à vertente da remoção de dióxido de carbono, que seria coerente com o estágio avançado das pesquisas já realizadas no país em áreas como bioenergia e métodos de captura de carbono.

“Sou muito cético em relação ao manejo de energia de radiação solar. A implementação dessas técnicas é rápida, mas, quando esses dispositivos forem desativados – o que ocorrerá inevitavelmente, já que não é sustentável mantê-los por vários milênios –, a situação do clima voltará rapidamente ao cenário anterior. Seria preciso, necessariamente, reduzir rapidamente a causa das mudanças climáticas, que são as emissões de gases de efeito estufa”, disse Nobre.

De acordo com ele, as técnicas de manejo de energia solar são vistas, em geral, como um “plano B”, em caso de iminência de um desastre climático de grandes consequências. Ou seja, seriam acionadas emergencialmente quando os sistemas climáticos estivessem atingindo pontos de saturação que provocariam mudanças irreversíveis – os chamados tipping points.

“Mas o problema é que vários tipping points foram atingidos e já não há mais plano B. O derretimento do gelo do Ártico, por exemplo, de acordo com 80% dos glaciologistas, atingiu o ponto de saturação. Em algumas décadas, no verão, ali não haverá mais gelo. Não podemos criar a ilusão de que é possível acionar um plano B. Não há sistemas de governança capazes de definir o momento de lançar essas alternativas”, disse.

A vertente da remoção do dióxido de carbono, por outro lado, deverá ser amplamente estudada, de acordo com Nobre. “Essa vertente segue a linha lógica do restabelecimento da qualidade atmosférica. O princípio é fazer a concentração dos gases voltar a um estado de equilíbrio no qual o planeta se manteve por pelo menos 1 ou 2 milhões de anos.”

Ainda assim, essas soluções de engenharia climáticas devem ser encaradas com cuidado. “A natureza é muito complexa e as soluções de engenharia não são fáceis, especialmente em escala global. Acho que vale a pena estudar as várias técnicas de remoção de gás carbônico e definir quais delas têm potencial – mas sempre lembrando que são processos lentos que vão levar décadas ou séculos. Nada elimina a necessidade de reduzir emissões”, disse Nobre.

Algas contra obesidade


Agência FAPESP – Algas marinhas podem se tornar uma importante alternativa contra a epidemia de obesidade. A conclusão é de uma pesquisa feita no Reino Unido e apresentada na reunião da American Chemical Society, em São Francisco, na semana passada.

O estudo verificou que as algas têm potencial de reduzir a quantidade de gordura pelo organismo em cerca de 75%. Os pesquisadores, da Universidade de Newcastle, adicionaram fibras obtidas das algas em pães, de modo a desenvolver alimentos que ajudem a perder peso ao serem consumidos.

Estudo feito no Reino Unido reforça que algas marinhas têm elevado potencial de reduzir a absorção de gordura pelo organismo. Produto foi testado em pães (foto: NOAA)

O grupo liderado por Iain Brownlee e Jeff Pearson observou que o alginato, a fibra natural encontrada nas algas, diminui a absorção de gordura pelo organismo de modo muito mais eficiente do que a maioria dos tratamentos atuais contra obesidade.

Com o uso de um sistema digestivo artificial, os cientistas testaram a eficácia de mais de 60 tipos de fibras naturais ao medir a quantidade de gordura que era digerida e absorvida em cada caso. As algas apresentaram o melhor resultado.

Alginatos são comumente usados como espessantes ou estabilizantes em alguns tipos de alimentos. Segundo os pesquisadores, quando adicionados à massa de pães em testes cegos, os produtos resultantes foram considerados melhores do que o pão branco comum com relação à textura e gosto.

“Obesidade é um problema que não para de crescer e muitas pessoas acham difícil seguir uma dieta ou um programa de exercícios físicos com o objetivo de perder peso”, disse Brownlee.

“Os alginatos têm um grande potencial para o uso no controle de peso e, quando adicionados aos alimentos, oferecem a vantagem adicional de ampliar a quantidade de fibra”, apontou.

A próxima etapa da pesquisa será verificar, por meio de experimentos com voluntários, se os resultados observados no laboratório podem ser reproduzidos em circustâncias normais.

“Verificamos que o alginato reduz significativamente a digestão de gorduras. Isso sugere que, se pudermos adicionar essa fibra natural a produtos ingeridos diariamente – como pão, biscoitos ou iogurte –, até três quartos da gordura contida nessa refeição podem simplesmente passar pelo corpo sem serem absorvidos”, disse Brownlee.

A pesquisa é parte de um projeto de três anos financiado pelo Biotechnology and Biological Sciences Research Council, do Reino Unido.

Por uma fração de tempo, cientistas podem ter quebrado uma lei da Física

For One Tiny Instant, Physicists May Have Broken a Law of Nature

ScienceDaily (Mar. 30, 2010) — For a brief instant, it appears, scientists at Brook haven National Laboratory on Long Island recently discovered a law of nature had been broken.

This image of a full-energy collision between gold ions shows the paths taken by thousands of subatomic particles produced during the impact. (Credit: Image courtesy of Yale University)

Action still resulted in an equal and opposite reaction, gravity kept the Earth circling the Sun, and conservation of energy remained intact. But for the tiniest fraction of a second at the Relativistic Heavy Ion Collider (RHIC), physicists created a symmetry-breaking bubble of space where parity no longer existed.

Parity was long thought to be a fundamental law of nature. It essentially states that the universe is neither right- nor left-handed -- that the laws of physics remain unchanged when expressed in inverted coordinates. In the early 1950s it was found that the so-called weak force, which is responsible for nuclear radioactivity, breaks the parity law. However, the strong force, which holds together subatomic particles, was thought to adhere to the law of parity, at least under normal circumstances.

Now this law appears to have been broken by a team of about a dozen particle physicists, including Jack Sandweiss, Yale's Donner Professor of Physics. Since 2000, Sandweiss has been smashing the nuclei of gold atoms together as part of the STAR experiment at RHIC, a 2.4-mile-circumference particle accelerator, to study the law of parity under the resulting extreme conditions.

The team created something called a quark-gluon plasma -- a kind of "soup" that results when energies reach high enough levels to break up protons and neutrons into their constituent quarks and gluons, the fundamental building blocks of matter.

Theorists believe this kind of quark-gluon plasma, which has a temperature of four trillion degrees Celsius, existed just after the Big Bang, when the universe was only a microsecond old. The plasma "bubble" created in the collisions at RHIC lasted for a mere millionth of a billionth of a billionth of a second, yet the team hopes to use it to learn more about how structure in the universe -- from black holes to galaxies -- may have formed out of the soup.

Read more here/Leia mais aqui: Science Daily

Lato sensu para a rede pública estadual


Agência FAPESP – Os professores da rede estadual de ensino de São Paulo terão cursos lato sensu. O anúncio foi feito na segunda-feira (29/3) pelo governador José Serra, na formalização da Rede São Paulo de Formação Docente (Redefor), que será desenvolvida em parceria com as universidades estaduais paulistas.

Com investimento de R$ 109 milhões, a iniciativa tem como objetivo melhorar a capacitação de professores, diretores e supervisores do ensino fundamental ciclo 2 (de 5ª a 8ª série) e do ensino médio.

Redefor investirá R$ 109 milhões para capacitar cerca de 30 mil profissionais da rede pública até 2012. Serra com os secretários do Ensino Superior (Carlos Vogt, à esq. na foto) e da Educação (Paulo Renato Souza)(foto: GESP)

O programa, executado por meio da Escola Paulista de Formação Docente, oferecerá cursos de especialização a distância para 30 mil profissionais da rede pública de São Paulo até 2012.

Segundo a Secretaria da Educação, serão oferecidos 16 cursos, com duração de 360 horas, em um período entre 12 e 14 meses. A especialização em docência engloba 13 disciplinas do currículo. Para os diretores, será oferecida uma especialização em gestão escolar. Haverá também cursos para professores-coordenadores (gestão do currículo) e para supervisores de ensino (gestão da rede pública).

Os cursos serão oferecidos em duas etapas. A primeira (2010-2011) terá início no segundo semestre deste ano e capacitará 10 mil educadores.

Na segunda, compreendida entre 2011-2012, cerca de 20 mil profissionais serão contemplados. Os convênios terão vigência até 31 de dezembro de 2012. Em três anos, o programa terá um investimento total de R$ 109 milhões, sendo R$ 32 milhões previstos somente para 2010.

A Universidade de São Paulo (USP) ministrará cursos para docentes em ciências, biologia, sociologia, além de especializações em gestão da escola para diretores, em gestão do currículo para professores-coordenadores e em gestão da rede pública para supervisores de ensino. Serão oferecidas 4.060 vagas entre 2010-2011 e outras 8.140 entre 2011 e 2012.

A Universidade Estadual de Campinas (Unicamp) oferecerá cursos de especialização para docentes em língua portuguesa, matemática, física, história e educação física, em um total de 4.050 vagas, entre 2010 e 2011, e 8 mil vagas entre 2011 e 2012.

A Universidade Estadual Paulista (Unesp) disponibilizará cursos de especialização para docentes em língua inglesa, filosofia, arte, química e geografia, sendo 1.800 vagas entre este e o próximo ano e mais 3.950 vagas entre 2011 e 2012.

Os critérios para seleção serão divulgados por meio de resolução que será publicada no Diário Oficial do Estado de São Paulo.

Mais informações: www.educacao.sp.gov.br

Dinossauro veloz desenterrava cupins e formigas

'Road-Runner' Dinosaur Lived In The Fast Lane, Dug Termites And Ants

ScienceDaily (Mar. 29, 2010) — A new study published in the scientific journal Zootaxa by Chinese, Canadian and British researchers describes a new dinosaur that was one of the smallest known and also one of the best adapted for running. The fossil skeleton of the tiny animal, named Xixianykus zhangi, is highly incomplete but would probably have measured around half a meter in length. The specimen comes from Xixia County in Henan province, China.

Artist's reconstruction of Xixianykus. (Credit: Matt van Rooijen)

This Late Cretaceous 'road-runner' had a number of adaptations for fast, efficient locomotion. Most strikingly, the upper leg (the femur or thigh bone) is particularly short in comparison to the lower leg and the foot -- a pattern seen in many running animals today. Other features of the hind limb, pelvis and backbone would have promoted stability and reduced superfluous, energy-wasting movements asXixianykus dashed across prehistoric landscapes.

Dr. Corwin Sullivan, a Canadian researcher and one of the authors of the study said: "The limb proportions of Xixianykus are among the most extreme ever recorded for a theropod dinosaur. This doesn't provide a basis for estimating its top speed, but it does show that Xixianykus was a highly efficient runner. Several other characteristics of the skeleton reinforce this impression."

Read more here/Leia mais aqui: Science Daily


Zootaxa 2413: 1-68 (29 Mar. 2010)

A basal parvicursorine (Theropoda: Alvarezsauridae) from the Upper
Cretaceous of China


1Key Laboratory of Evolutionary Systematics of Vertebrates, Institute of Vertebrate Paleontology & Paleoanthropology, Chinese Academy of Sciences, Beijing 100044, China

2Scientific Academy of Land and Resources of Henan, Zhengzhou 450000, China 

3Xixia Museum of Dinosaur Fossil Eggs of China, Xixia, Henan 474550, China


A new alvarezsaurid theropod, Xixianykus zhangi gen. et sp. nov., is described based on a partial postcranial skeleton collected from the Upper Cretaceous Majiacun Formation of Xixia County, Henan Province. The new taxon can be diagnosed by the following autapomorphies: sacral rib-transverse process complexes and zygapophyses fused to form separate anterior and posterior laminae; distinct fossa dorsal to antitrochanter on lateral surface of ilium; short ridge along posterior surface of pubic shaft near proximal end; distinct depression on lateral surface of ischium near proximal end; sharp groove along posterior surface of ischium; distal end of femur with transversely narrow ectocondylar tuber that extends considerable distance proximally as sharp ridge; transversely narrow tibial cnemial crest with sharp, ridgelike distal half; lateral margin of tibiotarsus forms step near distal end; fibula with substantial extension of proximal articular surface onto posterior face of posteriorly curving shaft; distal tarsals and metatarsals co-ossified to form tarsometatarsus; and sharp flange along anteromedial margin of metatarsal IV near proximal end. Cladistic analysis places this taxon as a basal parvicursorine within the Alvarezsauridae, a position consistent with the presence of several incipiently developed parvicursorine features in this taxon and also with its relatively early geological age. A brief analysis of vertebral functional morphology, together with data from the hindlimb, suggests that parvicursorines represent extreme cursors among non-avian dinosaurs.

Key words: Late Cretaceous, Majiacun Formation, Parvicursorinae, Theropoda, cursoriality


Unicamp abre vagas para professor titular


Agência FAPESP – A Universidade Estadual de Campinas (Unicamp) abriu processo seletivo para contratação de oito professores titulares em regime de turno parcial (MS-6).

Podem se inscrever docentes portadores do título de livre-docente há pelo menos três anos. As vagas são para vários departamentos, com datas que variam entre 7 e 22 de abril e 11 e 31 de maio, a depender da área.

São quatro vagas para atuar no Instituto de Química, duas na área de físico-química e uma na área de química analítica e uma na área de química analítica e química orgânica.

Há duas vagas na Faculdade de Engenharia Mecânica, na área projeto mecânico, e uma no Instituto de Geociências, na área de gestão de ciência, tecnologia e inovação. A Faculdade de Educação, na área de psicologia educacional, também tem uma vaga.

O concurso será constituído de prova de títulos e didática, além de prova de arguição. A critério da instituição, o docente admitido neste concurso poderá ter o seu regime de turno parcial estendido ao regime de dedicação integral à docência e à pesquisa.

As inscrições serão recebidas, mediante protocolo, na Secretaria Geral da Unicamp, sala 14, situada na Cidade Universitária.

Mais informações: www.sg.unicamp.br/dca/concursos_docentes.htm#cc_titular

Juízos morais podem ser alterados: basta alterar uma região específica do cérebro

Moral Judgments Can Be Altered: Neuroscientists Influence People’s Moral Judgments by Disrupting Specific Brain Region

ScienceDaily (Mar. 30, 2010) — MIT neuroscientists have shown they can influence people's moral judgments by disrupting a specific brain region -- a finding that helps reveal how the brain constructs morality.

In a new study, researchers disrupted activity in the right temporo-parietal junction by inducing a current in the brain using a magnetic field applied to the scalp. They found that the subjects' ability to make moral judgments that require an understanding of other people's intentions -- for example, a failed murder attempt -- was impaired. (Credit: Graphic by Christine Daniloff)

To make moral judgments about other people, we often need to infer their intentions -- an ability known as "theory of mind." For example, if a hunter shoots his friend while on a hunting trip, we need to know what the hunter was thinking: Was he secretly jealous, or did he mistake his friend for a duck?

Previous studies have shown that a brain region known as the right temporo-parietal junction (TPJ) is highly active when we think about other people's intentions, thoughts and beliefs. In the new study, the researchers disrupted activity in the right TPJ by inducing a current in the brain using a magnetic field applied to the scalp. They found that the subjects' ability to make moral judgments that require an understanding of other people's intentions -- for example, a failed murder attempt -- was impaired.

The researchers, led by Rebecca Saxe, MIT assistant professor of brain and cognitive sciences, report their findings in the Proceedings of the National Academy of Sciences.

The study offers "striking evidence" that the right TPJ, located at the brain's surface above and behind the right ear, is critical for making moral judgments, says Liane Young, lead author of the paper. It's also startling, since under normal circumstances people are very confident and consistent in these kinds of moral judgments, says Young, a postdoctoral associate in MIT's Department of Brain and Cognitive Sciences.

Read more here/Leia mais aqui: Science Daily


The neural basis of the interaction between theory of mind and moral judgment

Liane Young*,†, Fiery Cushman*, Marc Hauser‡, and Rebecca Saxe§

+Author Affiliations

*Department of Psychology and
‡Departments of Psychology, Organismic and Evolutionary Biology, and Biological Anthropology, Harvard University, 33 Kirkland Street, Cambridge, MA 02138; and
§Department of Brain and Cognitive Sciences, Massachusetts Institute of Technology, 43 Vassar Street, Cambridge, MA 02139

Edited by Dale Purves, Duke University Medical Center, Durham, NC, and approved April 3, 2007 (received for review February 14, 2007)


Is the basis of criminality an act that causes harm, or an act undertaken with the belief that one will cause harm? The present study takes a cognitive neuroscience approach to investigating how information about an agent's beliefs and an action's consequences contribute to moral judgment. We build on prior developmental evidence showing that these factors contribute differentially to theyoung child's moral judgments coupled with neurobiological evidence suggesting a role for the right temporoparietal junction (RTPJ) in belief attribution. Participants read vignettes in a 2 × 2 design: protagonists produced either a negative or neutral outcome based on the belief that they were causing the negative outcome (“negative” belief) or the neutral outcome (“neutral” belief). The RTPJ showed significant activation above baseline for all four conditions but was modulated by an interaction between belief and outcome. Specifically, the RTPJ response was highest for cases of attempted harm, where protagonists were condemned for actions that they believed would cause harm to others, even though the harm did not occur. The results not only suggest a general role for belief attribution during moral judgment, but also add detail to our understanding of the interaction between these processes at both the neural and behavioral levels.

functional MRI     medial prefrontal cortex     morality    right temporoparietal junction    theory of mind


†To whom correspondence should be addressed. E-mail:lyoung@fas.harvard.edu

Author contributions: L.Y., F.C., M.H., and R.S. designed research; L.Y. and R.S. performed research; L.Y. and R.S. analyzed data; and L.Y., F.C., M.H., and R.S. wrote the paper.

The authors declare no conflict of interest.

This article is a PNAS Direct Submission.

This article contains supporting information online at www.pnas.org/cgi/content/full/0701408104/DC1.
Abbreviations:RTPJ,right temporoparietal junction;PSC,percent signal change;LTPJ,left temporoparietal junction;PC,precuneus;MPFC,medial prefrontal cortex;dMPFC,dorsal MPFC;mMPFC,middle MPFC;vMPFC,ventral MPFC;ROI,region of interest;IPS,intraparietal sulcus;FEF,frontal eye field.
© 2007 by The National Academy of Sciences of the USA


PDF gratuito deste artigo aqui.

Conferência Estadual Paulista de C&T&I

A Conferência Paulista de Ciência, Tecnologia e Inovação será realizada nos dias 12 e 13 de abril de 2010, na sede da FAPESP, com o objetivo de debater o futuro da ciência, tecnologia e inovação no Estado de São Paulo.

Trata-se de reunião preparatória para a 4ª Conferência Nacional de Ciência, Tecnologia e Inovação, que ocorrerá em em Brasília de 26 a 28 de maio, no Hotel Brasília Alvorada.


A Conferência Paulista de Ciência, Tecnologia e Inovação debaterá sobre o futuro do Sistema Paulista de Ciência, Tecnologia e Inovação, considerando suas componentes acadêmica, empresarial e privada sem fins lucrativos.

A conferência organiza-se em cinco painéis de discussão nos quais pretende-se discutir propostas para o desenvolvimento da ciência, tecnologia e inovação no estado com horizonte temporal de 15 a 20 anos.

Os painéis são:
Pesquisa e desenvolvimento no setor privado em São Paulo
Áreas e temas focais para pesquisa e desenvolvimento em São Paulo
Pesquisa acadêmica em São Paulo
Formação de recursos humanos para ciência, tecnologia e inovação em São Paulo
São Paulo e o Sistema Paulista de Ciência, Tecnologia e Inovação

O evento é gratuito e isento de taxa de inscrição.

As inscrições podem ser feitas pela internet no endereço www.fapesp.br/cti_inscricoes.

A FAPESP está na R. Pio XI, 1500, Alto da Lapa, São Paulo. Mais informações sobre a conferência: (11) 3838-4006.

Universidade precisa aproximar pesquisa da sociedade

terça-feira, março 30, 2010

JC e-mail 3979, de 30 de Março de 2010.

6. Universidade precisa aproximar pesquisa da sociedade

Recomendação foi feita durante a Conferência Nacional de Educação (Conae)

As pesquisas desenvolvidas nas universidades devem estar alinhadas com as necessidades da sociedade, abordando, por exemplo, como utilizar biodiversidade sem destruí-la ou como aumentar a participação social de populações do campo. A recomendação foi feita durante a Conferência Nacional de Educação (Conae), que acontece até quinta-feira (1/4) em Brasília (DF).

"A universidade brasileira guarda uma herança histórica de sua formação. Ainda se encontram vestígios de paternalismo, funcionalismo e baixa autonomia", avaliou o reitor da Universidade Federal do Rio de Janeiro (UFRJ), Aloísio Teixeira, durante o evento. "As iniciações científicas, por exemplo, não bastam. O ideal seria um currículo que contemplasse atividades de pesquisa e extensão".

A mesma carência é verificada nas pesquisas de pós-graduação, segundo o presidente da Comissão Nacional de Avaliação de Iniciação Científica do CNPq, Isaac Roitman. "As universidades têm que olhar para si mesma, coisa que fazem muito bem, e olhar também para sociedade, o que fazem muito mal".

(Sarah Fernandes, do UOL Educação, 29/3)

A construção dos talentos

JC e-mail 3979, de 30 de Março de 2010.

12. A construção dos talentos, artigo de José Pastore

"A China e a Índia estão oferecendo prêmios sedutores para quem tem experiência com a pesquisa ocidental. Tudo isso para queimar etapas e fortalecer o principal alicerce do desenvolvimento econômico - o conhecimento"

José Pastore é professor de relações do trabalho da Faculdade de Economia e Administração da Universidade de São Paulo (FEA-USP). Artigo publicado no "Estado de SP":

Esta é uma história verdadeira. Tenho um grande amigo, brilhante Ph.D. em Economia, que acaba de se aposentar num banco internacional. Ainda jovem (58anos), recebeu um convite para integrar o corpo docente da Universidade da Malásia, em Kuala Lumpur, onde esteve para a entrevista inicial.

Ele teve um choque ao conhecer a carga de trabalho que o aguardava: dois cursos por semestre (cerca de cem alunos por classe), corrigir as provas, orientar dez estudantes de pós-graduação e publicar dois "papers" por ano em revistas de alto conceito internacional.

Remuneração: equivalente a R$ 6.500 por mês, sem 13º salário ou abono de férias e nenhum benefício adicional, exceto uma pequena ajuda para moradia.

Sendo ele um pesquisador sênior, delicadamente recusou o convite. Mas concluiu que, na Ásia, o conhecido rigor que é usado para recrutar e remunerar a força de trabalho industrial é utilizado também para o caso de professores. E que dezenas de Ph.Ds. talentosos aceitam com prazer as referidas condições.

Isso explica o salto daquela universidade ao passar recentemente da 230ª para a 180ª posição no ranking das melhores do mundo.

A produção acadêmica asiática está prestes a superar a ocidental. Na última década, os cientistas chineses quadruplicaram o número de "papers" publicados nas melhores revistas do mundo.

É uma corrida alucinante para formar novos talentos. A China envia cerca de 100 mil jovens todos os anos para fazer estudos de graduação e pós-graduação nos EUA. O mesmo ocorre com a Índia (Institute of International Education, Report on International Educational Exchange, 2009).

Além disso, os dois países estão promovendo um rápido repatriamento dos seus cientistas. Em 2009, Shi Yiong, prestigiado professor de biologia molecular da Universidade de Princeton (EUA), voltou para a China, dispensando uma verba de US$ 10 milhões que tinha para tocar suas pesquisas.

Em 2007, Rao Yi, biólogo de alta reputação na Northwestern University, renunciou à cidadania americana (!) e assumiu a direção da Faculdade de Ciências da Vida na Universidade de Pequim. Na mesma época, o pesquisador Wang Xiandong deixou a Faculdade de Medicina da University of Texas Southwestern e foi dirigir o Instituto Nacional de Ciências Biológicas, também em Pequim (Fighting Trend: China is Luring Scientists Home, The New York Times, 6/1/2010).

A China e a Índia estão oferecendo prêmios sedutores para quem tem experiência com a pesquisa ocidental. Tudo isso para queimar etapas e fortalecer o principal alicerce do desenvolvimento econômico - o conhecimento.

Na educação, a corrida é em relação a um ponto móvel. Isso significa que, por exemplo, enquanto o Brasil avança 10%, a Malásia, a Índia e a China avançam 20% ou 30%. As diferenças aumentam.

Nessa maratona alucinante estamos na rabeira. O Brasil forma 40 mil engenheiros por ano. A China forma 300 mil. O Relatório de Monitoramento Global - Educação para Todos (Unesco, 2010) colocou o nosso país no 88º lugar entre 128 nações, uma posição desconfortável para quem pretende ser uma potência regional ou mundial.

Com todo o respeito, estamos atrás até do Paraguai. O Brasil continua exibindo um dos mais altos índices de repetência escolar (19%). Menos da metade dos jovens está no ensino médio e apenas 13% chegam ao ensino superior. A força de trabalho do Brasil tem apenas sete anos de escola, em média, e má escola. A da Coreia do Sul tem 11 anos de boa escola. Em 2009 "sobrou" 1,7 milhão de vagas no Brasil por causa da falta de qualificação dos candidatos. Não é para menos.

A maioria dos estudantes que chegam à 8ª série não entende o que lê e mal domina as operações aritméticas. Temos de melhorar muito a qualidade do nosso ensino. Para tanto, precisamos de governantes com mentalidade de estadistas, que valorizem a educação e que sejam capazes de envolver toda a sociedade nessa sacrossanta empreita.

(O Estado de SP, 30/3)

Em busca da universidade de padrão mundial

JC e-mail 3979, de 30 de Março de 2010.

13. Em busca da universidade de padrão mundial, artigo de Leandro Tessler

"Precisamos tornar nossas instituições de ensino superior mais cosmopolitas e internacionalizadas"

Leandro Tessler é coordenador de Relações Institucionais da Unicamp. Artigo publicado no "Estado de SP":

À medida que os países se desenvolvem é comum (e desejável) que suas aspirações educacionais, em particular as relacionadas ao ensino superior, aumentem.

De um lado há a necessidade de ampliar o alcance do ensino superior para atingir um porcentual maior da população, aumentar a qualidade de produtos e serviços, a competitividade do país e o padrão de vida geral.

De outro lado é fundamental fazer com que algumas universidades atinjam o status de "universidade de padrão mundial" (do inglês world class university), instituições capazes de fazer diferença para o mundo todo em inovação e formação de pessoal para o desenvolvimento científico, tecnológico e industrial.

A existência de pelo menos algumas instituições com esse perfil é muito benéfica para todo o sistema de ensino superior. Elas estabelecem marcos acadêmicos, interagem com instituições locais e contribuem para a formação de pessoal altamente qualificado.

Mas o que é uma universidade de padrão mundial? A piada que circula no meio acadêmico é que todos querem uma, mas ninguém sabe o que ela é nem como obtê-la. O surgimento de rankings internacionais no início dos anos 2000 passou a ser uma referência importante. Controversos, eles são contestados até por governantes. O mais sensato é entender o significado dos rankings e o que podemos aprender com eles.

Por exemplo, na última edição do ARWU, ou Ranking de Xangai (www.arwu.org), há 6 universidades brasileiras entre as 500 primeiras. Os parâmetros usados tanto pela ARWU como pelo outro ranking de prestígio, o Times Higher Education Suplement (THES), envolvem implícita ou explicitamente publicações em revistas internacionais e internacionalização dos corpos docente e discente.


O que falta para termos mais instituições e em melhor colocação? Uma ação crucial é tornar o conjunto de nossas universidades mais cosmopolitas e internacionalizadas.

Algumas barreiras à internacionalização são evidentes. Uma delas é a língua. Estrangeiros invariavelmente ficam surpresos com o pequeno número de pessoas fluentes em inglês no Brasil, mesmo nos campi. O inglês está para o mundo acadêmico deste início de século como o latim para a universidade medieval. Ele permite a comunicação direta entre acadêmicos de todo o mundo. Todas as conferências e publicações internacionais são nessa língua.

No Brasil poucos institutos de pouquíssimas universidades admitem teses escritas em inglês. O principal argumento é o de que a língua é parte de nossa cultura e devemos preservá-la. No entanto, países como Alemanha, Holanda, China, Dinamarca e Portugal (que por acaso é o berço da língua portuguesa) vêm permitindo e mesmo incentivando o uso de inglês não só em teses, mas em aulas e palestras.

Não por acaso esses países têm tido muito mais sucesso na internacionalização do que nós. É importante universalizar o ensino de inglês preferivelmente desde o início da educação, mas certamente no ensino superior. O currículo de nossas graduações raramente inclui ensino de inglês (ou outra língua), visando a uma fluência mínima.

Pelo mesmo motivo (língua), mas também pelas peculiaridades de nossos processos de contratação, é difícil trazer estrangeiros de primeira linha para nossas universidades. Pior que isso, a endogenia (no sentido de cada universidade contratar preferivelmente seus próprios ex-alunos) ainda é infelizmente uma prática corrente mesmo nas melhores instituições. Isso leva ao predomínio de uma única forma de pensar e ao isolamento acadêmico.

Também é importante que nossos estudantes façam parte da formação em outros países. Isso requer uma mudança de mentalidade, reconhecer com um mínimo de burocracia créditos de disciplinas cursadas em outras instituições.

As universidades brasileiras costumam confiar só nelas mesmas, desconsiderando o aprendizado em instituições diferentes (em muitos casos uma unidade não aceita disciplinas cursadas em outra unidade da mesma instituição!). Uma universidade de ponta hoje deve proporcionar a possibilidade de experiência internacional para todos os estudantes. É urgente revisar os currículos e torná-los compatíveis com as tendências internacionais.

O Brasil já atingiu posição de destaque na produção científica. O próximo passo é fazer com que nossas universidades sejam opção séria para alunos estrangeiros e que nossos estudantes sejam reconhecidos no mundo todo. Não há dúvidas de que aumentar o grau de internacionalização das universidades é prioridade estratégica para um país que certamente terá maior importância no cenário mundial nos próximos anos.

(O Estado de SP, 30/3)

Brasília terá centro avançado de sequenciamento de genomas

JC e-mail 3979, de 30 de Março de 2010.

15. Brasília terá centro avançado de sequenciamento de genomas

Centro de Genômica de Alto Desempenho do Distrito Federal (Genômica-DF) será inaugurado nesta quarta-feira, dia 31 de março

A instalação do Genômica-DF é fruto de uma parceria técnico-científica entre a Universidade Católica de Brasília (UCB), a Embrapa Recursos Genéticos e Biotecnologia, a Embrapa Agroenergia, a Universidade de Brasília (UnB), a Policia Civil do Distrito Federal (PCDF) e o Laboratório Central de Saúde do Distrito Federal (Lacen-DF), com apoio financeiro da Fundação de Apoio a Pesquisa do Distrito Federal (FAP-DF).

"Este laboratório será um centro de referencia para o Brasil", salienta Ruy Caldas, diretor da Pós-graduação em Ciências Genômicas e Biotecnologia da UCB. O diretor enfatiza que o centro terá uso compartilhado entre as instituições. O sucesso do empreendimento também se deve à atuação de uma equipe multidisciplinar, incluindo especialistas de várias áreas, como a genética, biologia molecular, bioquímica, metagenômica, bioestatística e bioinformática.

"O diferencial do Genômica-DF será a capacidade de sequenciar em grande escala, como nunca ocorreu antes no país", revela Ruy Caldas. Em 2001, no projeto Genoma Nacional, para sequenciar uma bactéria foram necessários 2 anos, 25 sequenciadores e 100 pessoas atuando. Com este novo laboratório, usando as novas tecnologias de alto desempenho, em 20 dias é possível sequenciar 8 bactérias com apenas uma única pessoa, ressalta a gerente do Genômica-DF, Alessandra Reis.

A equipe gestora do centro já sequenciou os primeiros genomas no Brasil de eucalipto, duas variedades de arroz tolerantes à seca e a bactéria do Cerrado Paenibacillus ourofinensis. Além disso, a pesquisadora da Embrapa Agroenergia Betânia Quirino antecipa que já estão programados os sequenciamentos de genomas do pinhão-manso, espécie potencial para a produção de biodiesel, análise dos microrganismos encontrados nos solos da Amazônia e análises de genes expressos em pacientes com leucemia.

As instalações do Genômica-DF permitirão o sequenciamento de cadeias de DNA de quaisquer amostras, sejam elas de bactérias, animais, plantas, seres humanos ou qualquer outro ser vivo. Com a realização desse trabalho será possível compreender melhor as características genéticas do material analisado e então propor alterações que favoreçam seu desenvolvimento. A agricultura, por exemplo, é uma área que tem muito a ganhar com essa tecnologia.

A estrutura

Os recursos disponibilizados pela FAP-DF propiciaram aquisição de duas plataformas de sequenciamento de última geração: o Genome Analyzer, da Illumina, e o 454 Titanium, da Roche, além de outros equipamentos acessórios e da infraestrutura laboratorial adequada para o funcionamento do centro. "O Genômica DF está instalado na Universidade Católica de Brasília, sendo o único centro que conta com ambas as plataformas em toda a América do Sul", lembra o pesquisador da Embrapa Recursos Genéticos e Biotecnologia, Dario Grattapaglia.

A principio, adianta Grattapaglia, serão feitos sequenciamentos de materiais provenientes de ações das instituições parceiras, em especial as demandas dos projetos do Programa Pronex, uma iniciativa que conta com a parceria do CNPq no apoio a núcleos de pesquisa já consolidados. "A proposta é de que no futuro atendam a demandas externas, em um sistema de prestação de serviços especializados", reforça.

Com essas novas técnicas, é possível sequenciar com grande rapidez e com custo muito menor do que era feito apenas há alguns anos. "Com o Genômica-DF, o Distrito Federal tem condições de liderar, em nível nacional, a área da genômica", conclui Ricardo Krüger, professor da Universidade de Brasília (UnB).

(Assessoria de Comunicação do CNPq, com informações das Assessorias de Imprensa da Embrapa e da UCB)

Stonehenge brasileiro

JC e-mail 3979, de 30 de Março de 2010.

18. Stonehenge brasileiro

Pesquisador conclui que conjunto de pedras no interior do Amapá funcionou como calendário solar para os povos antigos. Comparado ao sítio arqueológico britânico, o local serviria para guiar a escolha dos períodos de plantar e colher

Um altar de pedras que funcionou como um calendário solar e foi de grande utilidade para civilizações que viveram há cerca de mil anos. O local, popularmente conhecido como "Stonehenge brasileiro", em alusão ao conjunto de pedras suspensas da planície de Salisbury, sul da Inglaterra, está localizado no interior do Amapá, próximo à cidade de Calçoene.

Um estudo desenvolvido pelo pesquisador do Observatório Nacional (ON) Marcomede Rangel constatou uma forte relação entre o lugar, também conhecido como sítio arqueológico Rego Grande, e o fenômeno natural do equinócio - momento em que o sol, visto da Terra, se desloca sobre a linha do Equador. A pesquisa contou com a ajuda de estudantes do curso técnico de turismo do Centro de Educação Profissional do Amapá (Cepa).

De acordo com Rangel, no equinócio, o Sol nasce a leste e se põe a oeste. E é justamente a passagem de um hemisfério ao outro que determina o início das estações primavera e outono.

"Nas civilizações antigas, era comum a construção de monumentos, a exemplo das pirâmides no Egito, que funcionavam como verdadeiros observatórios. Eles determinavam a posição correta do nascer ou do pôr do sol na época dos equinócios e também nos solstícios (verão ou inverno), quando o sol tem seu afastamento máximo da linha do Equador", destaca.

O sítio foi descoberto pelo naturalista e zoólogo alemão Emilio Goeldi no século passado. Anos mais tarde, o local foi estudado pelo casal de arqueólogos norte-americanos Cliffords Evans e Betty Meggers. Hoje, está sob total responsabilidade do Instituto de Pesquisas Científicas e Tecnológicas do Estado do Amapá (Iepa).

As investigações de Rangel no sítio mostraram que as informações obtidas pelos povos antigos, por meio de duas pedras grandes posicionadas uma ao lado da outra, foram fundamentais para a determinação dos períodos de plantio, colheita, cheia ou estiagem, além, é claro, das datas comemorativas. Isso porque a projeção da luz do sol pela abertura existente numa das pedras, dando origem a uma bola de luz que se refletia diretamente na outra, se deslocava seguindo perfeitamente a linha do Equador, no caso, o fenômeno do equinócio.

O físico conta que os povos pré-colombianos também usaram o calendário solar, de forma a calcularem as estações. "Mas eles também se guiavam pela lua e por estrelas brilhantes, como é o caso de Sírius. A observação do movimento do Sol, da Lua e das estrelas era importante para isso", enfatiza.

O mapeamento feito pelo físico que trabalha há 40 anos no Observatório Nacional ainda não acabou. A intenção é encontrar outras relações entre o local e os fenômenos astronômicos. O estudo contou com a ajuda dos estudantes do Cepa, responsáveis pela instalação do teodolito (instrumento de medição), realização de medições com trena de 50m e coleta de outras informações.

Os resultados obtidos até o momento serão apresentados pelo físico no III Encontro Internacional de Astronomia e Austronáutica, no fim de abril, em Campos dos Goytacazes (RJ). Segundo Marcomede Rangel, também está prevista a publicação de um selo dos Correios, que homenageia o local.


O estudante do curso técnico de turismo do Cepa Cleuson Costa Fonseca, 25 anos, se sentiu honrado em ter contribuído para o trabalho. "Sou fascinado por essa área. O sítio arqueológico, para nós, é algo de extrema importância, um campo repleto de riquezas a serem desvendadas. Tive o privilégio de trabalhar num local pouco conhecido fora do nosso estado, mas muito bem cuidado", destaca o jovem, que definiu a estada no local e o contato com objetos tão antigos como algo "indescritível".

"Nosso trabalho foi basicamente de observação e coleta de dados. Achei importante não só a contribuição à pesquisa, mas também o fato de ter acompanhado de perto a metodologia de um pesquisador do Observatório Nacional", afirma o estudante, que atualmente se encontra na reta final do curso técnico.

O Iepa já vinha realizando estudos diversos, no local, desde 2006. Na época, os arqueólogos e coordenadores da instituição Mariana Petry e João Saldanha obtiveram a primeira autorização do Instituto do Patrimônio Histórico e Artístico Nacional (Iphan) para esse fim. Segundo Mariana, a relação do sítio Rego Grande com o solstício de dezembro já havia sido observada. "Mas, na nossa percepção, o sítio vai além disso", destaca.

É fato que o Stonehenge do Brasil, da mesma forma que o britânico, também deve ter sido especial em seu tempo, período em que foi palco de cerimônias repletas de oferendas, algumas de caráter astronômico. Com estrutura quase circular, o Rego Grande ou sítio arqueológico de Calçoene tem cerca de 30m de diâmetro. O trecho está situado entre os campos alagados do litoral e uma área de savana.

Além de pedras muito bem conservadas, o local ainda abriga riquezas que sobreviveram ao tempo, como algumas peças de cerâmica produzidas pelos povos antigos. O trabalho de construção do calendário gigante, segundo os historiadores, também exigiu um esforço enorme e muita organização por parte dos antigos moradores.

Segundo estudos, alguns dos blocos de pedra existentes no sítio chegam a pesar mais de 4 toneladas. Belezas naturais e uma quantidade significativa de história, reunidos num só lugar, fizeram com que o Amapá fosse considerado, hoje, o estado com ambiente natural menos afetado desde os tempos da colonização. Atualmente, 98% das florestas locais se mantêm preservadas. Além disso, cerca de 70% do território amapaense é considerado área de conservação.

(Gisela Cabral)
(Correio Braziliense, 30/3)

Computação ou informática?

JC e-mail 3979, de 30 de Março de 2010.

22. Computação ou informática?, artigo de Daltro José Nunes

"Todos os alunos das universidades deveriam aprender uma introdução à Ciência da Computação"

Daltro José Nunes é professor titular do Instituto de Informática da Universidade Federal do Rio Grande do Sul (UFRGS). Artigo enviado pelo autor ao "JC e-mail":

Computação e informática são termos que tem causado alguma confusão. Nos países de língua inglesa usa-se a palavra computação (do latim computare) e nos demais países, normalmente, usa-se a palavra informática, de origem francesa (informatique).

Entretanto, o significado das palavras é o mesmo. Computação para os americanos, por exemplo, tem o mesmo significado que informática para os alemães. Atualmente, tem-se usado também a expressão Tecnologia da Informação. Já à palavra computador correspondem diferentes termos, conforme a língua: nos Estados Unidos, computer; na Alemanha, rechner (mesma palavra para calculadora); e na França, ordinateur (ordenador). Do ponto de vista cientifico, os americanos chamam a ciência que aborda os algoritmos de "Computer Science (1)" (Ciência do Computador), que foi traduzida para o português como Ciência da Computação.

No Brasil, a partir da década de 60, o termo passou de processamento eletrônico de dados para informática e computação. Mas, com o passar do tempo, ao invés do país adotar uma das duas palavras, passou a usar ambas, com significados diferentes.

A palavra informática é usada em referência ao processo de aplicação das tecnologias de computação aos processos de automação. Assim, é frequente dizer-se que uma organização está sendo informatizada, significando que seus processos (manuais) estão sendo automatizados com a introdução de computadores, redes, banco de dados, softwares etc. Seria estranho dizer que a organização está sendo computadorizada.

Por outro lado, pode-se dizer que uma função (matemática) está sendo computada e é estranho dizer que a função está sendo informatizada.

Da mesma forma, usa-se o termo tomografia computadorizada para referir-se ao processo computacional e seria estranho chamar este processo de tomografia informatizada.

Assim, a função do computador é a de "computar" termos, não importando seu tipo: números, textos, imagens, sons etc. A computação de termos, como dados de entrada, fornece termos, como dados de saída. O conceito de Tecnologia da Informação, abrangendo as aplicações e os recursos da computação, se aproxima muito do conceito brasileiro de Informática.

A falta de uma semântica correta para os termos computação e informática tem refletido também nas universidades. Algumas criaram os Institutos de Computação (por exemplo, Unicamp, UFF e Ufal) e outras os Institutos de Informática (por exemplo, UFRGS e UFG), mas com as mesmas finalidades: o ensino, a pesquisa e a extensão em Ciência da Computação e suas aplicações.

A computação, como ciência, pode ser considerada nova ou uma das mais antigas do mundo, dependendo do ponto de vista. A humanidade sempre se preocupou com a construção de máquinas para calcular, principalmente, operações aritméticas. Aproximadamente no ano 100 d. C., Herão de Alexandria descreveu suas ideias de vincular rodas dentadas de maneira a realizar a operação de "vai um" e de usar cilindros rotatórios, com pinos e cordas, para controlar seqüências de ações.

Ao longo da historia várias máquinas foram construídas com o objetivo de realizar operações matemáticas. Um dos primeiros computadores de propósito geral completamente eletrônico, o Eniac, foi construído em 1945, na Universidade de Pensilvânia. Mas, se considerarmos que a Ciência da Computação começou com a descrição (matemática) de como as máquinas funcionam, então, a Ciência da Computação começou em torno de 1936, com Alan Mathison Turing quando descreveu, logicamente, como sua máquina, a máquina de Turing, funciona.

Os dados são colocados na memória da máquina para serem computados. A máquina de Turing é uma máquina abstrata, pois abstrai aspectos físicos (elétricos, mecânicos etc.) de como ela é construída. Ou seja, ela independe dos materiais de como é implementada. Até hoje não foi definida uma máquina mais poderosa que a máquina de Turing (uma máquina que, matematicamente, pode provar que tem a capacidade de resolver problemas que a máquina de Turing não resolve).

Em 1944, John von Neumann desenvolveu o conceito de "programa armazenado" que foi usado no computador EDVAC - um dos primeiros computadores binários - construído em 1951. Programa e dados são colocados na memória da máquina (o leitor é convidado, aqui, a usar um navegador - Google, por exemplo - e buscar informações sobre Alan Turing e John von Neumann).

A arquitetura de Von Neuman, apesar de constituir a organização moderna dos computadores, corresponde à máquina de Turing, abstraindo-se os aspectos elétricos. A partir da máquina de Turing, máquinas mais abstratas ainda, como Fortran, Prolog, Pascal, Java, Haskell, ML, C etc. foram construídas. Entretanto, todos os programas escritos para estas máquinas são decompostos em programas para a máquina de Turing. Portanto, todas essas máquinas não diferem das máquinas de Turing.

No final, quem executa o programa é uma máquina no máximo equivalente à de Turing, implementada, atualmente, com tecnologia de semi-condutores (mas existem promessas que outras tecnologias, como quântica, nanotecnologia, óptica etc., possam, no futuro, implementar também a máquina de Turing).


Um algoritmo é uma descrição precisa, passo a passo, da solução de um problema. Muitos problemas não têm uma solução algorítmica (computacional). A teoria da computação estuda os limites da computação (2).

Um professor de Letras que estudava "Os Lusíadas" suspeitou que certas repetições percorriam todo o livro (como ondas). Construiu então um procedimento (processo) através da numeração das palavras. Observou que, quando um certo número de palavras ou um determinado assunto surgia, uma determinada palavra com certa tonicidade se repetia.

Considerando o número de combinações, e o volume do livro, o professor estava prestes a desistir de investigar o fenômeno, quando comentou com um profissional de computação. O profissional reconheceu tratar-se de um problema de computação que poderia ser resolvido através do computador. Encurtando a historia, o profissional traduziu o procedimento em um programa de computador, digitou o livro e aplicou o programa sobre o texto do livro.

Esta história revela um fato interessante. Certamente existem inúmeros problemas das áreas das ciências exatas, humanas, das artes e da realidade cotidiana que poderiam ser resolvidos com o auxílio da área de computação.

Conclui-se que todos os alunos das universidades deveriam aprender uma introdução à Ciência da Computação, que os capacitasse a identificar os problemas da área que poderiam ser solucionados por métodos desenvolvidos pela computação, bem como a descrever as soluções, usando uma linguagem científica apropriada e simples.

Noções como as de Algoritmos, Complexidade Computacional, Organização de Computadores, Linguagens de Programação, Redes de Computadores, Banco de Dados, Sistemas Operacionais são fundamentais para que os futuros sociólogos, economistas, músicos possam interagir com profissionais de computação, desenvolvendo um pensamento interdisciplinar (3) além de, como cidadãos, adquirir conhecimentos sobre este importante e novo ramo da ciência.

Ao contrário, o ensino de aplicativos/ferramentas como Word, Excel, Access, CAD/CAM, incluindo linguagens de programação como Java, C etc. não deve fazer parte do programa regular das universidades. Essas ferramentas podem ser trabalhadas através, por exemplo, de cursos de extensão. Ferramentas como essas não são necessárias para aprender ciências.

Assim como, por exemplo, para aprender português, não é necessário aprender datilografia ou o programa Word; ou para aprender matemática, não é necessário o uso de calculadoras ou o programa Excel.

No futuro, quando a ciência da computação for efetivamente introduzida na educação básica, os alunos vão chegar à universidade com esses conhecimentos. Os cursos de Licenciatura em Computação têm uma enorme responsabilidade de formar professores para introduzir ciência da computação na educação básica e disseminar o chamado "pensamento computacional (3)".

(1) Embora a terminologia Computing Science seja amplamente utilizada no Reino Unido, Canadá e várias universidades norte-americanas.

(2) H. David. Computers Ltd. What they really can´t do. Oxford University Press Inc. New York. 2000.

(3) Wing J.M. Computational Thinking. COMMUNICATIONS OF THE ACM. March 2006/Vol. 49, No. 13