Evidência da deposição de 10 milhões de toneladas de impacto de esférulas em quatro continentes há 12.800 anos atrás

sexta-feira, maio 31, 2013

Evidence for deposition of 10 million tonnes of impact spherules across four continents 12,800 y ago

James H. Wittkea, James C. Weaverb, Ted E. Buncha,1, James P. Kennettc, Douglas J. Kennettd, Andrew M. T. Mooree, Gordon C. Hillmanf, Kenneth B. Tankersleyg, Albert C. Goodyearh, Christopher R. Moorei, I. Randolph Daniel, Jr.j, Jack H. Rayk, Neal H. Lopinotk, David Ferrarol, Isabel Israde-Alcántaram, James L. Bischoffn, Paul S. DeCarlio, Robert E. Hermesp,2, Johan B. Kloostermanq,2, Zsolt Revayr, George A. Howards, David R. Kimbelt, Gunther Kletetschkau, Ladislav Nabeleku,v, Carl P. Lipow, Sachiko Sakaiw, Allen Westx, and Richard B. Firestoney
Author Affiliations

Edited* by Steven M. Stanley, University of Hawaii, Honolulu, HI, and approved April 9, 2013 (received for review January 28, 2013)


We present detailed geochemical and morphological analyses of nearly 700 spherules from 18 sites in support of a major cosmic impact at the onset of the Younger Dryas episode (12.8 ka). The impact distributed ∼10 million tonnes of melted spherules over 50 million square kilometers on four continents. Origins of the spherules by volcanism, anthropogenesis, authigenesis, lightning, and meteoritic ablation are rejected on geochemical and morphological grounds. The spherules closely resemble known impact materials derived from surficial sediments melted at temperatures >2,200 °C. The spherules correlate with abundances of associated melt-glass, nanodiamonds, carbon spherules, aciniform carbon, charcoal, and iridium.


Airbursts/impacts by a fragmented comet or asteroid have been proposed at the Younger Dryas onset (12.80 ± 0.15 ka) based on identification of an assemblage of impact-related proxies, including microspherules, nanodiamonds, and iridium. Distributed across four continents at the Younger Dryas boundary (YDB), spherule peaks have been independently confirmed in eight studies, but unconfirmed in two others, resulting in continued dispute about their occurrence, distribution, and origin. To further address this dispute and better identify YDB spherules, we present results from one of the largest spherule investigations ever undertaken regarding spherule geochemistry, morphologies, origins, and processes of formation. We investigated 18 sites across North America, Europe, and the Middle East, performing nearly 700 analyses on spherules using energy dispersive X-ray spectroscopy for geochemical analyses and scanning electron microscopy for surface microstructural characterization. Twelve locations rank among the world’s premier end-Pleistocene archaeological sites, where the YDB marks a hiatus in human occupation or major changes in site use. Our results are consistent with melting of sediments to temperatures >2,200 °C by the thermal radiation and air shocks produced by passage of an extraterrestrial object through the atmosphere; they are inconsistent with volcanic, cosmic, anthropogenic, lightning, or authigenic sources. We also produced spherules from wood in the laboratory at >1,730 °C, indicating that impact-related incineration of biomass may have contributed to spherule production. At 12.8 ka, an estimated 10 million tonnes of spherules were distributed across ∼50 million square kilometers, similar to well-known impact strewnfields and consistent with a major cosmic impact event.

Clovis–Folsom lechatelierite tektite wildfires

1To whom correspondence should be addressed. E-mail: tbear1@cableone.net.

Author contributions: J.H.W., J.C.W., T.E.B., J.P.K., D.J.K., A.M.T.M., G.C.H., K.B.T., A.C.G., D.F., I.I.-A., R.E.H., J.B.K., Z.R., D.R.K., G.K., C.P.L., S.S., A.W., and R.B.F. designed research; J.H.W., J.C.W., T.E.B., J.P.K., D.J.K., A.M.T.M., G.C.H., K.B.T., A.C.G., C.R.M., I.R.D., J.H.R., N.H.L., D.F., I.I.-A., J.L.B., P.S.D., R.E.H., J.B.K., Z.R., G.A.H., D.R.K., G.K., L.N., C.P.L., S.S., A.W., and R.B.F. performed research; J.H.W., J.C.W., T.E.B., J.P.K., D.J.K., A.M.T.M., K.B.T., A.C.G., D.F., I.I.-A., P.S.D., R.E.H., J.B.K., Z.R., G.K., L.N., C.P.L., S.S., A.W., and R.B.F. analyzed data; and J.H.W., J.C.W., T.E.B., J.P.K., D.J.K., A.M.T.M., K.B.T., A.C.G., C.R.M., I.R.D., J.H.R., N.H.L., D.F., I.I.-A., J.L.B., P.S.D., R.E.H., J.B.K., G.A.H., D.R.K., G.K., A.W., and R.B.F. wrote the paper.

The authors declare no conflict of interest.

*This Direct Submission article had a prearranged editor.

†Baker DW, Miranda PJ, Gibbs KE, Montana evidence for extra-terrestrial impact event that caused Ice-Age mammal die-off, American Geophysical Union Spring Meeting, May 27–30, 2008, Ft. Lauderdale, FL, abstr P41A-05.

‡Scruggs MA, Raab LM, Murowchick JS, Stone MW, Niemi TM, Investigation of sediment containing evidence of the Younger Dryas Boundary (YPB) Impact Event, El Carrizal, Baja California Sur, Mexico, Geological Society of America Abstracts with Programs, vol 42, no. 2, p 101 (abstr).

§Elkins-Tanton LT, Kelly DC, Bico J, Bush JWM, Microtektites as vapor condensates, and a possible new strewn field at 5 Ma. Thirty-Third Annual Lunar and Planetary Science Conference, March 11–15, 2002, Houston, TX, abstr 1622.

This article contains supporting information online at www.pnas.org/lookup/suppl/doi:10.1073/pnas.1301760110/-/DCSupplemental.


Professores, pesquisadores e alunos de universidades públicas e privadas com acesso ao site CAPES/Periódicos podem ler gratuitamente este artigo do PNAS e de 22.440 publicações científicas.

Quem disse que a ciência sempre se autocorrige? Nada mais falso!!!

quinta-feira, maio 30, 2013

Why Science Is Not Necessarily Self-Correcting

John P. A. Ioannidis

Stanford Prevention Research Center, Department of Medicine and Department of Health Research and Policy, Stanford University School of Medicine, and Department of Statistics, Stanford University School of Humanities and Sciences


The ability to self-correct is considered a hallmark of science. However, self-correction does not always happen to scientific evidence by default. The trajectory of scientific credibility can fluctuate over time, both for defined scientific fields and for science at-large. History suggests that major catastrophes in scientific credibility are unfortunately possible and the argument that “it is obvious that progress is made” is weak. Careful evaluation of the current status of credibility of various scientific fields is important in order to understand any credibility deficits and how one could obtain and establish more trustworthy results. Efficient and unbiased replication mechanisms are essential for maintaining high levels of scientific credibility. Depending on the types of results obtained in the discovery and replication phases, there are different paradigms of research: optimal, self-correcting, false nonreplication, and perpetuated fallacy. In the absence of replication efforts, one is left with unconfirmed (genuine) discoveries and unchallenged fallacies. In several fields of investigation, including many areas of psychological science, perpetuated and unchallenged fallacies may comprise the majority of the circulating evidence. I catalogue a number of impediments to self-correction that have been empirically studied in psychological science. Finally, I discuss some proposed solutions to promote sound replication practices enhancing the credibility of scientific results as well as some potential disadvantages of each of them. Any deviation from the principle that seeking the truth has priority over any other goals may be seriously damaging to the self-correcting functions of science.

Keywords: self-correction, replication 

COMPASS: Navegando as regras do envolvimento científico

COMPASS: Navigating the Rules of Scientific Engagement

Brooke Smith, Nancy Baron, Chad English, Heather Galindo, Erica Goldman, Karen McLeod, Meghan Miner, Elizabeth Neeley

Citation: Smith B, Baron N, English C, Galindo H, Goldman E, et al. (2013) COMPASS: Navigating the Rules of Scientific Engagement. PLoS Biol 11(4): e1001552. doi:10.1371/journal.pbio.1001552

Published: April 30, 2013

Copyright: © 2013 Smith et al. This is an open-access article distributed under the terms of the Creative Commons Attribution License, which permits unrestricted use, distribution, and reproduction in any medium, provided the original author and source are credited.

Funding: COMPASS is funded by a variety of philanthropic and government grants, as well as earned revenue. The David and Lucile Packard Foundation was instrumental in providing seed funding and continues to provide critical ongoing support. The funders had no role in study design, data collection and analysis, decision to publish, or preparation of the manuscript.

Competing interests: The authors have declared that no competing interests exist.

Abbreviations: EBM, ecosystem-based management

In an era of heightened competition for scarce research positions and funding, the mantra of modern academia—“publish or perish"—continues to intensify [1]. Scientists are under increasing pressure to produce as many publications as possible in “high-impact" journals to raise their profile among peers and influence their discipline. Yet, in recent years, another measure of significance also has been on the rise—one that focuses on a scientist's reach beyond their field and captures societal impact [2].

More than a decade ago, Jane Lubchenco (a marine ecologist who recently stepped down as Under Secretary of Commerce for Oceans and Atmosphere and Administrator of the US National Oceanic and Atmospheric Administration) codified the idea of a “new social contract for science" [3]. She asserted that society expects two outcomes from its investment of public funds in science: “the production of the best possible science and the production of something useful." Lubchenco challenged scientists to consider not only making their research relevant to today's most pressing problems, but also to embrace their responsibility to share their findings. She urged them to invoke “the full power of the scientific enterprise in communicating existing and new understanding to the public and to policymakers, and in helping society move toward sustainability through a better understanding of the consequences of policy action—or inactions."

As humans continue to push the planet toward a rapid and irreversible state shift [4], this need could not be greater. Yet, finding time to serve society or engage outside of academia can seem impossible. The need to juggle grant writing, teaching, mentoring, and university service, not to mention personal lives, leaves little time for anything else. At a time when policymakers require the expertise of scientists more than ever to solve global challenges, many scientists see the demands to more fully engage with those outside of the ivory tower [5] as just one of many competing priorities.

Knowing it would take more than a call to action, in 1999 Lubchenco and other like-minded colleagues created a nonprofit organization called COMPASS. COMPASS was founded on the premise that ocean scientists, in particular, had a wealth of knowledge that was not reflected in public understanding or policy and management practices. While exciting marine research and new insights were rapidly emerging, those outside the marine science community knew little about them.

COMPASS' mission has been to bridge that gap. Over the past decade, our approach has evolved, reflecting shifts in the culture and practice of science, dramatic changes in the media landscape, and our experience as we pioneer and try new things. Our successes, our failures, and our challenges have taught us that the most effective science communication requires individual and collective commitment to preparation and practice, as well as peer support for reaching outside academia. Scientists need a network of other scientists to encourage and embolden them in their efforts.

Science communication was once considered primarily a unidirectional conveyance of information, based on the assumption that if scientists and other experts could convey their knowledge to the public, typically through “data dumps," society's problems could be solved (i.e., if you knew what I know, you would believe what I believe). This perspective, “the science deficit model of the public", is explored in a body of communications literature [6][8]. We know it does not work [9].

Communications is not only about speaking in a clear, compelling, and relevant manner, nor simply about promoting findings. Effective communications is an integrated process of understanding your audience and connecting with that audience on their terms. It requires listening as well as talking.

As practitioners within the evolving field of science communication, we've also adapted our approach to one that facilitates dialogue and encourages engagement. We've learned that if scientists want to have impact beyond their disciplines and in the world, communications must be central to their enterprise [10]. This is why academia should reconsider its measures of success and make communication training an integral part of graduate-level education.

A evolução primeva da fotossíntese

Early Evolution of Photosynthesis1

Robert E. Blankenship*

+ Author Affiliations

Departments of Biology and Chemistry, Washington University, St. Louis, Missouri 63130

*E-mail blankenship@wustl.edu.

doi: http:/​/​dx.​doi.​org/​10.​1104/​pp.​110.​161687

Plant Physiology October 2010 vol. 154 no. 2 434-438

Photosynthesis is the only significant solar energy storage process on Earth and is the source of all of our food and most of our energy resources. An understanding of the origin and evolution of photosynthesis is therefore of substantial interest, as it may help to explain inefficiencies in the process and point the way to attempts to improve various aspects for agricultural and energy applications.

A wealth of evidence indicates that photosynthesis is an ancient process that originated not long after the origin of life and has evolved via a complex path to produce the distribution of types of photosynthetic organisms and metabolisms that are found today (Blankenship, 2002; Björn and Govindjee, 2009). Figure 1 shows an evolutionary tree of life based on small-subunit rRNA analysis. Of the three domains of life, Bacteria, Archaea, and Eukarya, chlorophyll-based photosynthesis has only been found in the bacterial and eukaryotic domains. The ability to do photosynthesis is widely distributed throughout the bacterial domain in six different phyla, with no apparent pattern of evolution. Photosynthetic phyla include the cyanobacteria, proteobacteria (purple bacteria), green sulfur bacteria (GSB), firmicutes (heliobacteria), filamentous anoxygenic phototrophs (FAPs, also often called the green nonsulfur bacteria), and acidobacteria (Raymond, 2008). In some cases (cyanobacteria and GSB), essentially all members of the phylum are phototrop2hic, while in the others, in particular the proteobacteria, the vast majority of species are not phototrophic.


Universidades lançam cursos gratuitos on-line

quarta-feira, maio 29, 2013

JC e-mail 4736, de 29 de Maio de 2013.

Jornal Valor Econômico traz reportagem sobre a aposta das universidades brasileiras nas plataformas de ensino on-line abertas ao público

Na esteira de universidades internacionais renomadas, como Harvard e Massachusetts Institute of Technology (MIT), instituições brasileiras de ensino superior têm apostado no desenvolvimento de plataformas de cursos gratuitos on-line, abertos ao público, os chamados Moocs (Massive On-line Open Courses). Embora universidades como USP, Unesp e Unicamp estejam lançando seus programas sem grande alarde desde meados do ano passado, a expectativa é que eles atinjam um público cada vez maior - e globalizado. Mesmo que as iniciativas sejam recentes, os coordenadores dos cursos vislumbram utilizar os Moocs como ferramenta para internacionalizar as faculdades brasileiras.

A Unesp e a Unicamp, por exemplo, pretendem legendar as aulas na internet em espanhol e inglês. As instituições geralmente colocam em seus sites materiais produzidos de forma independente pelos professores, com a infraestrutura tecnológica já existente para os cursos a distância. "Alguns dos nossos docentes já utilizavam videoaulas nas turmas semipresenciais, então resolvemos juntar todo o material e criar o nosso Mooc", afirma o professor Klaus Schlünzen Junior, coordenador do Núcleo de Ensino a Distância (Nead) da Unesp. O site Unesp Aberta, que traz módulos gratuitos e abertos para o público, foi lançado em junho de 2012 e conta com 72 cursos de diversas áreas - já assistidos por mais de 32 mil usuários.

Segundo Schlünzen, embora os Moocs ainda enfrentem diversos entraves, como a resistência do meio acadêmico em confiar na tecnologia para a disseminação do conhecimento, a tendência é que a educação faça cada vez mais uso de ferramentas digitais. Nesse sentido, é preciso estar preparado para acompanhar as demandas dos alunos em âmbito global. "O Brasil tende a caminhar para um modelo híbrido, que mistura tecnologia ao método presencial. A forma de aprendizagem deve se tornar cada vez mais individual, permitindo ao aluno mais mobilidade", diz o coordenador. Para ele, será possível, em um futuro próximo, assistir a diversos módulos em instituições diferentes e utilizar os créditos no histórico escolar, por exemplo.

Além disso, os cursos devem se tornar mais interativos. Hoje, a maioria dos módulos disponíveis na internet é composta de aulas expositivas gravadas em vídeo. O objetivo, contudo, é chegar a um modelo em que o aluno possa fazer perguntas ao professor e debater com colegas conectados naquele momento.

Nas grandes universidades internacionais que aderiram aos Moocs o sistema é parecido com o brasileiro, embora as instituições estejam "um passo à frente das nossas", conforme destaca Schlünzen. Lá, os vídeos publicados geralmente possuem ferramentas de interação com o usuário, como questões de múltipla escolha para serem respondidas durante a aula. Os professores também recebem dúvidas dos alunos e, em alguns casos, até emitem certificados de conclusão do módulo - embora ainda não tenham validade no mercado, pois não é possível comprovar que a pessoa que solicita o documento assistiu, de verdade, aos cursos.

A impossibilidade de verificar a identidade dos usuários impede que as universidades brasileiras emitam certificados de conclusão de um Mooc. Entretanto, as universidades públicas estudam meios de tornar isso possível. "O próximo passo é garantir que o aluno seja avaliado", destaca Marcelo Knobel, pró-reitor de graduação da Unicamp. Para ele, o maior entrave no Brasil é a infraestrutura. "Produzir o material que será publicado gratuitamente é caro e não há uma verba só para isso. Entretanto, é um investimento que traz benefícios. Temos vídeos que foram acessados por mais de 25 mil pessoas", diz.Knobel pondera que a modalidade ainda é utilizada no país de forma experimental, pois é uma ferramenta nova e que ainda gera polêmica no meio acadêmico. "O uso das tecnologias na educação é uma tendência inevitável", diz.

A Organização das Nações Unidas para a Educação, a Ciência e a Cultura (Unesco) tem apoiado iniciativas que envolvem Recursos Educacionais Abertos (REA) no Brasil - materiais de ensino e pesquisa licenciados sob domínio público, que podem ser utilizados ou adaptados por terceiros. A instituição acaba de lançar uma cátedra com a Unicamp que tem como objetivo tornar público e disponível em rede uma série de materiais de apoio para serem utilizados por professores em sala de aula. No que compete aos Moocs, especificamente, a organização ainda não apoia projetos no país, entretanto, reconhece que iniciativas que buscam disseminar conhecimento são importantes, principalmente em economias emergentes.

"O maior desafio hoje das ferramentas abertas é acompanhar a evolução do aprendizado. Os Moocs são viáveis no Brasil, mas precisamos descobrir ainda quem é esse público e desenvolver programas voltados às suas necessidades", diz Adauto Cândido Soares, coordenador de comunicação e informação da Unesco. No país, os Moocs poderiam, na opinião de Soares, ser úteis para os alunos que deixaram o ensino médio e ainda não cogitam seguir para as universidades.

Atrair futuros alunos para os cursos de graduação e pós-graduação pagos é um dos motivos que levaram a Fundação Getulio Vargas (FGV) a investir nos Moocs. Por meio da FGV Online, plataforma que existe há cinco anos e traz cursos pagos on-line, a instituição passou a divulgar 48 módulos gratuitos em diversas áreas, como direito tributário, sustentabilidade, inovação e gestão de pessoas. Cinco aulas, inclusive, estão legendadas em espanhol. "Queremos começar nosso projeto de internacionalização por meio do espanhol para atingir o público latino-americano. Depois pretendemos incluir legendas em inglês", explica Stavros Xanthopoylos, diretor da FGV Online.

Embora não seja possível mensurar quantos alunos a FGV conseguiu levar para os cursos presenciais utilizando os Moocs como chamariz, há diversos projetos em análise para desenvolver essa ferramenta, com expectativa de retorno financeiro. "O nosso MBA de RH on-line é pago e um dos mais acessados do site. Com base nisso, podemos abrir o curso gratuitamente, na internet, transformando-o em um Mooc. Quem quiser certificado, por exemplo, poderá pagar pelo serviço de tutoria e aplicação de provas presenciais. Há diversas oportunidades dentro dos módulos gratuitos e abertos ao público", afirma Xanthopoylos.

Ao todo, 16 milhões de usuários já acessaram os cursos online da FGV. Para os Moocs, que são, por definição, gratuitos, não é possível emitir certificado. Mas Xanthopoylos acredita que neste problema mora outra oportunidade de negócios. "Os alunos interessados em ter um documento comprobatório de conclusão do curso poderão, no futuro, submeter-se a uma prova presencial, que validará o conhecimento adquirido e comprovará que foi ele mesmo quem assistiu às aulas", complementa.

Com nove mil acessos por dia, o e-Aulas, site de cursos on-line gratuitos da USP, completa seis meses em maio. A iniciativa já ultrapassou a marca de mil módulos publicados. Destes, 780 partiram de aulas já gravadas para cursos semipresenciais da instituição. Outros 300 vieram de produções espontâneas do grupo de professores da maior universidade da América Latina. "Nos lançamos por último nessa onda de Moocs, mas queríamos garantir que conseguiríamos publicar um material extenso e de alta qualidade", diz Gil da Costa Marques, diretor de mídias digitais da USP. Ele explica que hoje é possível assistir a diversos módulos, mas o objetivo é abrir cursos inteiros. "Não queremos dar aulas de graça apenas sobre as leis de Newton. Queremos cursos completos sobre mecânica", diz.

Marques destaca, porém, que a produção de Moocs é mais complexa que a de aulas semipresenciais, pois é preciso dar aos alunos mais suporte. "O ideal seria o modelo de tutoria, mas como o curso é gratuito não é possível bancar um profissional para isso. Mas podemos tornar os vídeos mais dinâmicos e interativos, oferecendo materiais extras de apoio, testes, simulações de problemas", destaca.

Para o diretor de mídias digitais da USP, o ideal seria também dedicar um tempo para tirar dúvidas dos alunos, e não restringir os debates aos fóruns. "Uma sala virtual pode ter mais de 10 mil alunos, o que é bem diferente de uma turma presencial. Temos muito o que aprender ainda no que compete à produção de aulas virtuais para o grande público, mas é um passo necessário para a democratização e universalização do ensino", defende Marques.

(Carolina Cortez /Valor Econômico)

A vantagem do diploma

segunda-feira, maio 27, 2013

JC e-mail 4734, de 27 de Maio de 2013.

Editorial do Jornal Zero Hora: cada vez mais os brasileiros em fase de aprendizagem precisam ser conscientizados sobre os ganhos de persistirem nos estudos para a vida pessoal e profissional

Pesquisa divulgada no final da última semana confirma uma das muitas vantagens de os brasileiros continuarem lutando para garantir um número maior de anos de estudo, que culminem de preferência na conclusão de um curso superior. Trabalhadores com diploma universitário, conclui o Cadastro Geral de Empresas, feito pelo Instituto Brasileiro de Geografia e Estatística (IBGE), chegam a ganhar até 219,4% mais do que pessoas com menor escolaridade. Ainda que outras habilidades e características pessoais também tenham peso decisivo na realização salarial dos trabalhadores, o nível de ensino constitui-se cada vez mais num pressuposto, sem o qual o candidato a uma vaga no mercado formal corre o risco de ficar cada vez mais à margem das oportunidades colocadas à disposição.

Entre os assalariados levados em conta na pesquisa, 82,9% não tinham nível superior e ganhavam, em média, R$ 1.294,70. No caso dos que cursaram o 3º grau, o valor médio alcançava R$ 4.135,06 mensais na época da realização do trabalho. A questão é que o país praticamente universalizou o acesso ao Ensino Fundamental, leva cada vez mais alunos ao Ensino Médio e criou uma série de facilidades para o ingresso no nível superior. Ainda assim, não conseguiu até agora convencer plenamente a sociedade da importância do ensino para a realização pessoal e profissional. O resultado é que, mesmo com os avanços registrados nos últimos anos, o Brasil segue distante nessa área do padrão conquistado por países que se convenceram da educação como fator de propulsão do desenvolvimento e mesmo de outras nações latino-americanas. Como quem já está à frente vai querer continuar avançando, o Brasil precisa agir logo para não ficar tão para trás.

Os estudos realizados nesta área são unânimes em garantir que cada ano de estudo significa, em média, um aumento de 15% nos rendimentos dos trabalhadores. A questão é que os jovens brasileiros, particularmente os egressos de famílias de menor renda, não têm uma consciência clara sobre o impacto que a escolaridade pode implicar em suas vidas. Essa falta de consciência explica o fato de um número tão elevado de adolescentes desistir dos estudos antes de concluir o Ensino Médio. As razões vão desde o desinteresse pelos conteúdos programáticos, até o excessivo número de repetência e a inadequação entre idade e série cursada, além da necessidade de ingressar mais cedo no mercado de trabalho. Todas elas deveriam merecer atenção especial por parte do poder público.

Cada vez mais os brasileiros em fase de aprendizagem precisam ser conscientizados sobre os ganhos de persistirem nos estudos para a vida pessoal e profissional. Essa é uma missão que deveria envolver, de forma permanente, todos os brasileiros interessados num futuro melhor para o país.

Jerry Coyne 'falou e disse': a biologia evolucionária está muito mais próxima da frenologia...

Na hierarquia da ciência, a biologia evolucionária se esconde em algum lugar perto do fundo, muito mais próxima da frenologia do que da física.

In science’s pecking order, evolutionary biology lurks somewhere near the bottom, far closer to phrenology than to physics.

Jerry Coyne

A geografia da recente ancestralidade genética por toda a Europa

The Geography of Recent Genetic Ancestry across Europe

Peter Ralph, Graham Coop


The recent genealogical history of human populations is a complex mosaic formed by individual migration, large-scale population movements, and other demographic events. Population genomics datasets can provide a window into this recent history, as rare traces of recent shared genetic ancestry are detectable due to long segments of shared genomic material. We make use of genomic data for 2,257 Europeans (in the Population Reference Sample [POPRES] dataset) to conduct one of the first surveys of recent genealogical ancestry over the past 3,000 years at a continental scale. We detected 1.9 million shared long genomic segments, and used the lengths of these to infer the distribution of shared ancestors across time and geography. We find that a pair of modern Europeans living in neighboring populations share around 2–12 genetic common ancestors from the last 1,500 years, and upwards of 100 genetic ancestors from the previous 1,000 years. These numbers drop off exponentially with geographic distance, but since these genetic ancestors are a tiny fraction of common genealogical ancestors, individuals from opposite ends of Europe are still expected to share millions of common genealogical ancestors over the last 1,000 years. There is also substantial regional variation in the number of shared genetic ancestors. For example, there are especially high numbers of common ancestors shared between many eastern populations that date roughly to the migration period (which includes the Slavic and Hunnic expansions into that region). Some of the lowest levels of common ancestry are seen in the Italian and Iberian peninsulas, which may indicate different effects of historical population expansions in these areas and/or more stably structured populations. Population genomic datasets have considerable power to uncover recent demographic history, and will allow a much fuller picture of the close genealogical kinship of individuals across the world.

Author Summary

Few of us know our family histories more than a few generations back. It is therefore easy to overlook the fact that we are all distant cousins, related to one another via a vast network of relationships. Here we use genome-wide data from European individuals to investigate these relationships over the past 3,000 years, by looking for long stretches of genome that are shared between pairs of individuals through their inheritance from common genetic ancestors. We quantify this ubiquitous recent common ancestry, showing for instance that even pairs of individuals from opposite ends of Europe share hundreds of genetic common ancestors over this time period. Despite this degree of commonality, there are also striking regional differences. Southeastern Europeans, for example, share large numbers of common ancestors that date roughly to the era of the Slavic and Hunnic expansions around 1,500 years ago, while most common ancestors that Italians share with other populations lived longer than 2,500 years ago. The study of long stretches of shared genetic material promises to uncover rich information about many aspects of recent population history.

Citation: Ralph P, Coop G (2013) The Geography of Recent Genetic Ancestry across Europe. PLoS Biol 11(5): e1001555. doi:10.1371/journal.pbio.1001555

Academic Editor: Chris Tyler-Smith, The Wellcome Trust Sanger Institute, United Kingdom

Received: July 16, 2012; Accepted: March 27, 2013; Published: May 7, 2013

Copyright: © 2013 Ralph, Coop. This is an open-access article distributed under the terms of the Creative Commons Attribution License, which permits unrestricted use, distribution, and reproduction in any medium, provided the original author and source are credited.

Funding: GC: Sloan Foundation Fellowship, www.sloan.org. PR: Ruth L. Kirschstein Fellowship, NIH #F32GM096686, grants.nih.gov. The funders had no role in study design, data collection and analysis, decision to publish, or preparation of the manuscript.

Competing interests: The authors have declared that no competing interests exist.

Abbreviations: IBD, identity by descent; SNP, single nucleotide polymorphism; ya, years ago

Aprendendo com a revisão por pares

Opinion: Learning from Peer Review

The grant-review process plays significant roles in the education of researchers and in shaping scientific progress.

By David Irwin, Stephen A. Gallo, and Scott R. Glisson | May 24, 2013

Absent from the many analyses and discussions of scientific peer review are two intangible but very important byproducts: 1) feedback to the applicant and 2) exposure of the reviewers to new hypotheses, techniques, and approaches. Both of these phenomena have a virtual mentoring effect that helps move science forward. Such learning can occur as a consequence of both manuscript review and grant application review, but the review of grant applications, by its very nature, is more iterative and impacts the direction in which research moves very early in the investigation.

The primary mission of reviewing grant applications is to identify the strongest research proposals based on intrinsic scientific merit, hypotheses posed, and feasibility of the approach. At the very least, reviewers will identify the strengths and weaknesses of the application, usually coupled with a scientific merit score, which are then communicated back to the applicant. Thus begins a subtle dialogue between reviewer and “reviewee.”
The simplest form of review is done online, with reviewers sharing their critiques with the applicants electronically. Sometimes, online reviews can include a “chat” or conferral period during which the two (or sometimes three) reviewers may discuss their initial critiques and scores, and then refine either or both to reflect the exchange.
More in-depth reviews can involve regularly convened panels of reviewers who meet over a period of a day or two to review batches of applications grouped by scientific area, learning from each other throughout the process and eventually returning the fruits of their labor back to the applicants in the form of a critique of their proposals. In some of the intramural reviews conducted by the American Institute of Biological Sciences (AIBS), reviews can even involve the applicants directly, in addition to the reviewers and program staff, through an interactive, mid-review teleconference, during which applicants can respond to recommendations and comments in the initial critiques.
In the most elaborate review process, typically reserved for large and/or complex proposals, the review includes a site visit to the PI’s laboratory at the host institution. The review team is typically a group of established scientists and scientist-physicians who have considerable experience and can provide valuable insights and suggestions to the applicant group. Though the setting and procedures are formal and the review groups are not, strictly speaking, advisory groups, there is often an intimate dialogue among applicants and reviewers that can shape and improve the applicants’ research program. Indeed, a survey conducted in 2012 of AIBS reviewers indicated that close to 70 percent believed that feedback to PIs of submitted applications contributed strongly to moving the scientific field forward.

Professor da USP de São Carlos lança curso on-line de escrita científica

sexta-feira, maio 24, 2013

Professor da USP de São Carlos lança curso on-line de escrita científica


Agência FAPESP – O professor do Instituto de Física de São Carlos da Universidade de São Paulo (IFSC/USP) Valtencir Zucolotto lançou na internet e em DVD o “Curso de Escrita Científica: produção de artigos de alto impacto”, com dicas para pesquisadores e estudantes de pós-graduação que escrevem textos para publicações científicas.

Os DVDs, com vídeo-aulas abordando a estrutura e a linguagem dos artigos, serão distribuídos gratuitamente para bibliotecas e instituições públicas. Eles serão enviados às universidades públicas paulistas e a outras universidades federais – neste caso, sob demanda e de acordo com a disponibilidade.

O material – que consiste em oito módulos, divididos em dois DVDs – tem tópicos como seções de um artigo regular, aspectos de linguagem e editoração. Um dos módulos fala especificamente sobre a redação em inglês. De acordo com o professor, por enquanto não há previsão de colocar os DVDs à venda.

Material preparado por Valtencir Zucolotto, do Instituto de Física, está disponível gratuitamente na internet e em DVD; são oito módulos, que tratam da estrutura e da linguagem dos artigos científicos (www.escritacientifica.com)

Todo o conteúdo está disponibilizado na página www.escritacientifica.com. “Os interessados poderão acessar não apenas os vídeos dos cursos, mas também fazer o download de apostilas e outros materiais de apoio”, afirmou Zucolotto.

Além de professor no IFSC, onde coordena o Laboratório de Nanomedicina e Nanotoxicologia, Zucolotto é membro afiliado da Academia Brasileira de Ciências (ABC) e editor associado da publicação internacional Journal of Biomedical Nanotechnology. Ele ministra cursos de escrita científica há mais de oito anos. O DVD foi produzido em parceria com o Centro de Pesquisa em Óptica e Fotônica (Cepof) do IFSC/USP.

Mais informações pelos telefones (16) 3373-9778 e 3373-9779 e pelo e-mail bib@ifsc.usp.br.

A teoria da evolução de Darwin através da seleção natural passaria no teste de Popper???

quinta-feira, maio 23, 2013

Science as Falsification

The following excerpt was originally published in Conjectures and Refutations (1963).

by Karl R. Popper

When I received the list of participants in this course and realized that I had been asked to speak to philosophical colleagues I thought, after some hesitation and consolation, that you would probably prefer me to speak about those problems which interests me most, and about those developments with which I am most intimately acquainted. I therefore decided to do what I have never done before: to give you a report on my own work in the philosophy of science, since the autumn 1919 when I first begin to grapple with the problem, "When should a theory be ranked as scientific?" or "Is there a criterion for the scientific character or status of a theory?"

The problem which troubled me at the time was neither, "When is a theory true?" nor "When is a theory acceptable?" my problem was different. I wished to distinguish between science and pseudo-science; knowing very well that science often errs, and that pseudoscience may happen to stumble on the truth.

I knew, of course, the most widely accepted answer to my problem: that science is distinguished from pseudoscience—or from "metaphysics"—by its empirical method, which is essentially inductive, proceeding from observation or experiment. But this did not satisfy me. On the contrary, I often formulated my problem as one of distinguishing between a genuinely empirical method and a non-empirical or even pseudo-empirical method — that is to say, a method which, although it appeals to observation and experiment, nevertheless does not come up to scientific standards. The latter method may be exemplified by astrology, with its stupendous mass of empirical evidence based on observation — on horoscopes and on biographies.

But as it was not the example of astrology which lead me to my problem, I should perhaps briefly describe the atmosphere in which my problem arose and the examples by which it was stimulated. After the collapse of the Austrian empire there had been a revolution in Austria: the air was full of revolutionary slogans and ideas, and new and often wild theories. Among the theories which interested me Einstein's theory of relativity was no doubt by far the most important. The three others were Marx's theory of history, Freud's psycho-analysis, and Alfred Adler's so-called "individual psychology."

There was a lot of popular nonsense talked about these theories, and especially about relativity (as still happens even today), but I was fortunate in those who introduced me to the study of this theory. We all—the small circle of students to which I belong—were thrilled with the result of Eddington's eclipse observations which in 1919 brought the first important confirmation of Einstein's theory of gravitation. It was a great experience for us, and one which had a lasting influence on my intellectual development.

The three other theories I have mentioned were also widely discussed among students at the time. I myself happened to come into personal contact with Alfred Adler, and even to cooperate with him in his social work among the children and young people in the working-class districts of Vienna where he had established social guidance clinics.

It was the summer of 1919 that I began to feel more and more dissatisfied with these three theories—the Marxist theory of history, psycho-analysis, and individual psychology; and I began to feel dubious about their claims to scientific status. My problem perhaps first took the simple form, "What is wrong with Marxism, psycho-analysis, and individual psychology? Why are they so different from physical theories, from Newton's theory, and especially from the theory of relativity?"

To make this contrast clear I should explain that few of us at the time would have said that we believed in the truth of Einstein's theory of gravitation. This shows that it was not my doubting the truth of those three other theories which bothered me, but something else. Yet neither was it that I nearly felt mathematical physics to be more exact than sociological or psychological type of theory. Thus what worried me was neither the problem of truth, at that stage at least, nor the problem of exactness or measurability. It was rather that I felt that these other three theories, though posing as science, had in fact more in common with primitive myths than with science; that they resembled astrology rather than astronomy.

I found that those of my friends who were admirers of Marx, Freud, and Adler, were impressed by a number of points common to these theories, and especially by their apparent explanatory power. These theories appear to be able to explain practically everything that happened within the fields to which they referred. The study of any of them seemed to have the effect of an intellectual conversion or revelation, open your eyes to a new truth hidden from those not yet initiated. Once your eyes were thus opened you saw confirmed instances everywhere: the world was full of verifications of the theory. Whatever happened always confirmed it. Thus its truth appeared manifest; and unbelievers were clearly people who did not want to see the manifest truth; who refuse to see it, either because it was against their class interest, or because of their repressions which were still "un-analyzed" and crying aloud for treatment.

The most characteristic element in this situation seemed to me the incessant stream of confirmations, of observations which "verified" the theories in question; and this point was constantly emphasize by their adherents. A Marxist could not open a newspaper without finding on every page confirming evidence for his interpretation of history; not only in the news, but also in its presentation — which revealed the class bias of the paper — and especially of course what the paper did not say. The Freudian analysts emphasized that their theories were constantly verified by their "clinical observations." As for Adler, I was much impressed by a personal experience. Once, in 1919, I reported to him a case which to me did not seem particularly Adlerian, but which he found no difficulty in analyzing in terms of his theory of inferiority feelings, Although he had not even seen the child. Slightly shocked, I asked him how he could be so sure. "Because of my thousandfold experience," he replied; whereupon I could not help saying: "And with this new case, I suppose, your experience has become thousand-and-one-fold."

What I had in mind was that his previous observations may not have been much sounder than this new one; that each in its turn had been interpreted in the light of "previous experience," and at the same time counted as additional confirmation. What, I asked myself, did it confirm? No more than that a case could be interpreted in the light of a theory. But this meant very little, I reflected, since every conceivable case could be interpreted in the light Adler's theory, or equally of Freud's. I may illustrate this by two very different examples of human behavior: that of a man who pushes a child into the water with the intention of drowning it; and that of a man who sacrifices his life in an attempt to save the child. Each of these two cases can be explained with equal ease in Freudian and Adlerian terms. According to Freud the first man suffered from repression (say, of some component of his Oedipus complex), while the second man had achieved sublimation. According to Adler the first man suffered from feelings of inferiority (producing perhaps the need to prove to himself that he dared to commit some crime), and so did the second man (whose need was to prove to himself that he dared to rescue the child). I could not think of any human behavior which could not be interpreted in terms of either theory. It was precisely this fact—that they always fitted, that they were always confirmed—which in the eyes of their admirers constituted the strongest argument in favor of these theories. It began to dawn on me that this apparent strength was in fact their weakness.

With Einstein's theory the situation was strikingly different. Take one typical instance — Einstein's prediction, just then confirmed by the finding of Eddington's expedition. Einstein's gravitational theory had led to the result that light must be attracted by heavy bodies (such as the sun), precisely as material bodies were attracted. As a consequence it could be calculated that light from a distant fixed star whose apparent position was close to the sun would reach the earth from such a direction that the star would seem to be slightly shifted away from the sun; or, in other words, that stars close to the sun would look as if they had moved a little away from the sun, and from one another. This is a thing which cannot normally be observed since such stars are rendered invisible in daytime by the sun's overwhelming brightness; but during an eclipse it is possible to take photographs of them. If the same constellation is photographed at night one can measure the distance on the two photographs, and check the predicted effect.

Now the impressive thing about this case is the risk involved in a prediction of this kind. If observation shows that the predicted effect is definitely absent, then the theory is simply refuted. The theory is incompatible with certain possible results of observation—in fact with results which everybody before Einstein would have expected.[1] This is quite different from the situation I have previously described, when it turned out that the theories in question were compatible with the most divergent human behavior, so that it was practically impossible to describe any human behavior that might not be claimed to be a verification of these theories.

These considerations led me in the winter of 1919-20 to conclusions which I may now reformulate as follows.

It is easy to obtain confirmations, or verifications, for nearly every theory — if we look for confirmations.

Confirmations should count only if they are the result of risky predictions; that is to say, if, unenlightened by the theory in question, we should have expected an event which was incompatible with the theory — an event which would have refuted the theory.

Every "good" scientific theory is a prohibition: it forbids certain things to happen. The more a theory forbids, the better it is.

A theory which is not refutable by any conceivable event is non-scientific. Irrefutability is not a virtue of a theory (as people often think) but a vice.

Every genuine test of a theory is an attempt to falsify it, or to refute it. Testability is falsifiability; but there are degrees of testability: some theories are more testable, more exposed to refutation, than others; they take, as it were, greater risks.

Confirming evidence should not count except when it is the result of a genuine test of the theory; and this means that it can be presented as a serious but unsuccessful attempt to falsify the theory. (I now speak in such cases of "corroborating evidence.")

Some genuinely testable theories, when found to be false, are still upheld by their admirers — for example by introducing ad hoc some auxiliary assumption, or by reinterpreting the theory ad hoc in such a way that it escapes refutation. Such a procedure is always possible, but it rescues the theory from refutation only at the price of destroying, or at least lowering, its scientific status. (I later described such a rescuing operation as a "conventionalist twist" or a "conventionalist stratagem.")

One can sum up all this by saying that the criterion of the scientific status of a theory is its falsifiability, or refutability, or testability.

Darwinistas estão dizendo: a Síntese Evolutiva Moderna já foi para a lata do lixo da História da Ciência!!!

segunda-feira, maio 20, 2013

Review article for Experimental Physiology 

Revised following referee reports 

31 march 2013 

Physiology is rocking the foundations of evolutionary biology 

Denis Noble 

Department of Physiology, Anatomy & Genetics, 

Sherrington Building, Parks Road, Oxford, OX1 3PT UK 



The “Modern Synthesis” (Neo-Darwinism) is a mid-twentieth century gene-centric view of evolution, based on random mutations accumulating to produce gradual change through natural selection. Any role of physiological function in influencing genetic inheritance was excluded. The organism became a mere carrier of the real objects of selection: its genes. We now know that genetic change is far from random and often not gradual. Molecular genetics and genome sequencing have deconstructed this unnecessarily restrictive view of evolution in a way that reintroduces physiological function and interactions with the environment as factors influencing the speed and nature of inherited change. Acquired characteristics can be inherited, and in a few but growing number of cases that inheritance has now been shown to be robust for many generations. The twenty-first century can look forward to a new synthesis that will reintegrate physiology with evolutionary biology. 

Keywords Evolutionary theory, evolutionary biology, Modern Synthesis, Central Dogma, epigenetic inheritance, Lamarckism, transposons.



Quando levantamos a lebre aqui de que Stephen Jay Gould dissera em 1980 que a Síntese Evolutiva Moderna era uma teoria científica que, pelas montanhas de evidências contrárias no CONTEXTO DE JUSTIFICAÇÃO TEÓRICA, era uma teoria morta que teimava ortodoxia científica APENAS NOS LIVROS DIDÁTICOS, alguns membros da Nomenklatura científica e a Galera dos meninos e meninas de Darwin disseram que eu falava do que não sabia. Bem, nada melhor do que ser corroborado e por um darwinista.

Agora uma pergunta causticante: não ensinam nas universidades que a ciência ABOMINA o vácuo teórico? E que a nova teoria geral da evolução - a SÍNTESE EVOLUTIVA AMPLIADA somente será anunciada em 2020? Gente, alguém me belisque, mas sob qual referencial teórico estamos fazendo biologia evolucionária??? Abracadabra??? Hocus pocus??? Búzios??? Cartas de tarô??? Horóscopo???

Fui, nem sei por que, rachando de rir da cara de alguns membros da Nomenklatura científica tupiniquim e da Galera de meninos e meninas de Darwin, cada vez mais órfãos...

Pano rápido... Espera sentado que os darwinistas vão empurrar com a barriga tudo isso. São useiros e vezeiros, mas quando a pimenta acerta neles, eles, covardemente, não gritam e nem dão um pio!!!

Ciência forense, a busca de sinais de inteligência: Novas tecnologias vão revolucionar uso do teste de DNA

segunda-feira, maio 13, 2013


Por Karina Toledo

Agência FAPESP – Desde meados da década de 1990, quando o jogador de futebol americano O. J. Simpson foi a julgamento pelo assassinato da ex-mulher Nicole Brown e de seu amigo Ronald Goldman, o exame de DNA tem se revelado uma das principais ferramentas da ciência forense para a identificação de suspeitos.

Na época, o tempo entre a coleta da amostra na cena do crime e o término do relatório pelos especialistas não era menor que oito semanas. Hoje, em laboratório, já é possível realizar todo o processo em menos de uma hora. De lá para cá, também se tornou viável a realização do exame com amostras menores de DNA e em pior estado de conservação.

Métodos mais rápidos e sensíveis trarão novas aplicações para o teste e permitirão obter informações como cor de cabelo, dos olhos e até o formato do rosto, afirmou o cientista forense americano John Butler (foto:Karina Toledo)

Um dos responsáveis pelos avanços nessa tecnologia é o americano John Marshall Butler, pesquisador do National Institute of Standards and Technology (NIST), dos Estados Unidos, que esteve em São Paulo na semana passada para um congresso. Na época em que o caso O.J. Simpson estava em evidência, o cientista ainda cursava o doutorado no laboratório do Federal Bureau of Investigation (FBI), em Washington.

Também nesse período estava sendo desenvolvida a tecnologia até hoje mais usada em exames de DNA no mundo inteiro, que consiste na análise de marcadores do tipo STR (Short Tandem Repeat, ou Regiões Repetitivas Polimórficas), únicos em cada indivíduo. Em sua tese, Butler desenvolveu um método para separar os fragmentos de DNA para a análise por meio de eletroforese capilar (técnica de separação de moléculas carregadas por meio de um campo elétrico). Isso permitiu automatizar algumas etapas do teste STR, tornando-o mais simples, preciso e possível de ser feito em oito horas.

Seu mais influente trabalho, no entanto, foi publicado em 2003 – época em que integrava o grupo de cientistas que orientou a identificação das vítimas do atentado terrorista ao World Trade Center, ocorrido em 11 de setembro de 2001.

No artigo “The development of reduced size STR amplicons as tools for analysis of degraded DNA”, publicado no Journal of Forensic Sciences, Butler e colaboradores descreveram um método conhecido como mini-STR, que tornou possível realizar o exame com amostras menores e mais fragmentadas de DNA.

“Havia muitos corpos carbonizados ou muito danificados pelo impacto do desabamento das torres. Precisávamos de métodos mais sensíveis”, disse em entrevista à Agência FAPESP concedida durante o 4º Congresso Brasileiro de Genética Forense, do qual foi um dos principais destaques.

O evento, realizado com apoio da FAPESP, reuniu no Memorial da América Latina, entre os dias 7 e 10 de maio, os mais renomados nomes da área.

Em sua apresentação, Butler – autor de quatro livros sobre o tema – falou sobre “O estado da arte do DNA forense” e revelou o que espera para o futuro: obter de uma amostra de DNA informações como cor de olho, cabelo, pele ou formato da face, para ajudar ainda mais a polícia na identificação de criminosos.

Leia a seguir trechos da entrevista.

Agência FAPESP – Quando iniciou sua graduação em Química já tinha a intenção de trabalhar com ciência forense? 
John Marshall Butler – Sim. Eu tinha muito interesse na área de Direito, mas me aconselharam a não seguir esse caminho porque já havia muitos advogados nos Estados Unidos. Como eu também gostava muito de ciência, procurei uma área em que pudesse unir as duas coisas.

Agência FAPESP – Nessa época o exame de DNA ainda estava começando. Como foi a evolução desde então e qual foi sua contribuição? 
Butler – O exame surgiu em meados da década de 1980 na Inglaterra. A tecnologia original desenvolvida para testes forenses era a Restriction fragment length polymorphism (RFLP), que basicamente analisa as diferenças no comprimento dos fragmentos de DNA. Foi o método usado no caso O. J. Simpson. O resultado levava cerca de oito semanas para ficar pronto. Além disso, essa técnica requer uma amostra grande e intacta de DNA. Era necessário ter uma mancha de sangue de vários centímetros e ela não poderia ter sido tocada. Se alguém colocasse o dedo ou pisasse sobre a mancha, a evidência estava arruinada. Mas, nessa época, estava começando a ser desenvolvida a tecnologia mais usada até hoje para DNA forense, que consiste na análise de marcadores do tipo STR. Esse método permite fazer análises com amostras menores de DNA. Quando o material deixado na cena do crime tem poucas células, podemos copiar regiões específicas do DNA usando um método chamado PCR (reação em cadeia da polimerase, na sigla em inglês). Copiamos a região chamada STR – uma pequena porção do DNA repetida no meio da molécula – que pode ter vários comprimentos. Quanto maior o número de repetições, maior o tamanho da molécula e cada indivíduo tem um padrão único. Sabendo o número de repetições, podemos colocar essa informação em um banco de dados e comparar com dados de suspeitos. Eu era aluno da Universidade de Virginia nessa época e cursava meu pós-doutorado no laboratório do FBI. Desenvolvi um método de separação dos fragmentos de DNA por meio de eletroforese capilar. Isso reduziu o tempo de realização do exame STR para cerca de oito horas.

Agência FAPESP – Seu trabalho mais famoso, no entanto, está relacionado ao método mini-STR, de 2003. Como funciona? 
Butler – O exame STR original tem como alvo uma grande seção do DNA, embora a parte repetida fique numa pequena área no meio da molécula. O mini-STR basicamente propõe usar como alvo uma seção menor do DNA, com o objetivo de capturar apenas a variação que ocorre na região das repetições. Ou seja, você consegue a mesma informação com um pedaço menor de DNA; por isso, o método funciona melhor nos casos em que a amostra está danificada, em que foi exposta à água, ao calor ou às condições ambientais por longos períodos. Esse tipo de situação faz com que a molécula de DNA vá se quebrando em pedaços cada vez menores. Nós publicamos os primeiros trabalhos sobre o tema na época da identificação das vítimas do atentado ao World Trade Center. Precisávamos de métodos mais sensíveis porque havia muitos corpos carbonizados ou muito danificados pelo impacto do desabamento das torres. Depois de algum tempo, algumas empresas transformaram essa tecnologia em kits comerciais.

Agência FAPESP – O senhor ajudou no trabalho de identificação das vítimas de 11 de setembro de 2001? 
Butler – Pessoalmente não identifiquei ninguém, mas eu integrava um comitê de 25 cientistas que se reuniu ao longo de sete anos e tinha como missão orientar o trabalho de identificação desenvolvido em um laboratório de Nova York.

Agência FAPESP – Quais foram os avanços desde então? 
Butler – Desenvolvemos métodos para acelerar ainda mais todo o processo do exame, desde a coleta da amostra de DNA até a interpretação dos resultados. O tempo para fazer as cópias de DNA por PCR foi encurtado dramaticamente, usando enzimas diferentes e ciclos curtos de aquecimento e resfriamento do material. No laboratório, já conseguimos fazer tudo em menos de uma hora.

Agência FAPESP – Mas isso, por enquanto, só é possível em nível de pesquisa? 
Butler – Sim. Para que se torne rotina é preciso que as empresas criem os kits comerciais. Parte do desafio da ciência forense é que leva um tempo para implementar as novidades – geralmente são cinco anos entre a criação da tecnologia e ela estar pronta para ser usada na corte. A tecnologia STR, por exemplo, tornou-se rotina por volta do ano 2000.

Agência FAPESP – Por que é importante acelerar o processo ainda mais, em sua opinião? 
Butler – Isso não só permite fazer a comparação da evidência na cena do crime com o suspeito mais rapidamente como também amplia as possibilidades de uso do exame. Permitirá, por exemplo, identificar pessoas suspeitas em aeroportos. Poderá também ser usada nas embaixadas, como um dos mecanismos de análise na hora de conceder um visto de entrada para um determinado país. Assim como o advento do smartphone revolucionou a forma como a internet é usada, as novas tecnologias para exame de DNA vão mudar a forma como ele é usado. Há vantagens e desvantagens. No caso do smartphone, tornou-se possível responder a um e-mail durante uma reunião. Não é preciso mais voltar ao escritório para fazer isso. Mas hoje, possivelmente, as pessoas estão mais distraídas, prestam menos atenção às reuniões. Tecnologias mais rápidas e mais poderosas para exame de DNA poderão impactar a privacidade das pessoas. Mas o Facebook também causou um impacto na privacidade das pessoas. Cabe ao indivíduo usar a tecnologia de forma responsável.

Agência FAPESP – Como funciona o teste do cromossomo Y, conhecido como YSTR, e quando ele pode ser útil? 
Butler – Principalmente em crimes sexuais, quando há uma mistura do DNA da vítima, se ela for mulher, e do agressor, geralmente um homem. O resultado é direcionado apenas para a porção masculina de DNA encontrada na amostra. Os marcadores para o exame do cromossomo Y foram desenvolvidos na mesma época que o teste STR padrão, mas só foram de fato adotados quando o primeiro kit comercial ficou disponível, por volta de 2003. Muitos lugares ainda não têm esse tipo de teste. É uma abordagem diferente para obter informações da amostra de DNA. Em alguns casos também pode ser usado na busca de pessoas desaparecidas, se a vítima for homem.

Agência FAPESP – O Brasil acaba de regulamentar uma lei que torna obrigatória a coleta de DNA de pessoas condenadas por crimes hediondos para compor uma base de dados nacionais. Também permite, em alguns casos, a coleta de amostras de suspeitos e a criação de um banco de material genético de pessoas desaparecidas. Como isso funciona nos Estados Unidos? 
Butler – Todos os 50 estados americanos exigem a coleta de DNA após a condenação criminal e existe um banco de dados nacional. Em 2006 a legislação federal permitiu a coleta de amostras de suspeitos, pessoas presas mas que ainda não foram julgadas. Mas cada estado tem que criar sua própria lei. Atualmente, isso é feito em 28 estados e a Corte Suprema está avaliando o tema. Já o banco de dados de pessoas desaparecidas, que contém tanto material de familiares como de ossadas e corpos de desconhecidos encontrados, existe há cerca de dez anos. Com certeza, estamos em estágios diferentes, mas com a aprovação da lei no Brasil os bancos de dados poderão crescer rapidamente e ajudar a solucionar muitos casos.

Agência FAPESP – O que o senhor espera para o futuro do DNA forense? 
Butler – Conseguir mais informações da amostra. Descobrir a forma da face ou a cor dos olhos e dos cabelos. Isso pode ser útil em certas ocasiões e, em outras, não. Se você descobre que o indivíduo tem olhos castanhos e cabelo castanho, por exemplo, isso é muito comum. Mas se você descobre que o criminoso é ruivo ou tem uma cor de olho muito diferente, pode ajudar a polícia na identificação do responsável pelo crime. As técnicas para descobrir a cor da pele ainda não estão perfeitas, mas estão melhorando.



A teoria do Design Inteligente (TDI) afirma que existem sinais de inteligência na natureza que podem ser empiricamente detectados. A ciência forense usa, sem querer, querendo, a TDI. Na solução de crimes a TDI é válida, em biologia, não? Por que???