sexta-feira, 28 de fevereiro de 2014

Dia Mundial da Água - 2014



Em 2014 o Dia Mundial da Água traz como tema “Água e Energia”, a data é comemorada no dia 22 de março pela Organização das Nações Unidas (ONU), e neste ano o Instituto Nacional do Semiárido (Insa), Unidade de Pesquisa do Ministério da Ciência, Tecnologia e Inovação (MCTI), realizará em parceria com a UEPB, entre os dias 20 e 21 de março, na sede do Insa, em Campina Grande (PB), um evento em comemoração a data. Nos dois dias do evento serão realizadas palestras, mesas redondas e visitas técnicas de caráter educativo para destacar a importância da água na manutenção da vida. O público alvo será composto de professores, agricultores, experimentadores, técnicos, estudantes, pesquisadores e representantes de Organizações Não Governamentais (ONG´s).

Leia mais em:

quinta-feira, 27 de fevereiro de 2014

APS - March Meeting, 2014: The Physics of Climate


Session G40: Invited Session: The Physics of Climate


11:15 AM–2:15 PM, Tuesday, March 4, 2014
Room: Mile High Ballroom 2B-3B

Sponsoring Unit: GPC
Chair: James Brasseur, Pennsylvania State University

Abstract: G40.00004 : Causes and consequences of time-varying climate sensitivity

1:03 PM–1:39 PM 

Author:

  Kyle Armour
    (Massachusetts Institute of Technology)
While constraining climate sensitivity has long been a focus of climate science, this global and equilibrium metric provides only limited understanding of transient and regional changes over the coming centuries. Indeed, pronounced spatial and temporal variability of climate change has been observed, and climate models diverge strongly in projections of future warming. This intermodel spread is due, in part, to different representations of how global climate sensitivity (set by feedbacks linking surface warming to top-of-atmosphere radiative response) will vary in time as the Earth warms. Here I discuss mechanisms governing the time variation of climate sensitivity, and consider its implications for future climate prediction. I show that climate sensitivity depends fundamentally on the respective geographic patterns of local radiative feedbacks and surface warming, and thus it naturally varies in time as the pattern of surface warming evolves, activating feedbacks of different strengths in different regions. Further, the pattern of surface warming and the strength of local radiative feedbacks themselves (shortwave clouds feedbacks in particular) depend on regional ocean circulations and the resulting time-varying geographic pattern of ocean heat uptake. These results imply that equilibrium climate sensitivity cannot be reliably estimated from transient climate observations.

 

segunda-feira, 24 de fevereiro de 2014

APS to Review Statement on Climate Change

A subcommittee of POPA is reviewing the APS statement on climate change in accordance with the policy to review official statements every five years.

Preparations are under way by the APS Panel on Public Affairs (POPA) to review and possibly update the society’s statement on climate change. In the coming months, the APS membership will have a chance to weigh in on any proposed revisions before the society adopts a final draft.
“We intend to keep the membership informed at every stage in this process,” said Robert Jaffe a physicist at MIT and Chair of POPA. “We’re quite eager to make sure that the revision of the climate change statement is done in the most open and orderly way.”
The subcommittee of POPA that is conducting the review posted its background and research materials to the APS website, along with its charge. The research materials include the transcripts of the subcommittee’s January workshop, biographical information on outside climate experts who participated in the workshop, and their slide presentations. These materials are now available online.

The standing policy of the society is to review its statements every five years. The society first adopted the climate change statement seven years ago, but appended an addendum in 2010. The review also coincides with the release of the latest report on the physical science basis of climate change from the U.N.’s Intergovernmental Panel on Climate Change (IPCC).
The months-long process started last year with the formation of the subcommittee and a steering committee,  which is guiding the statement review subcommittee through the review process. In addition to weighing the opinions of experts from its workshop, the review subcommittee is researching information related to climate change and reviewing the roughly 1,500-page climate change report by the IPCC.
If a new statement is drafted, it will be submitted to the full POPA committee in June. Once approved by POPA, it will go to the APS executive board for a vote. If approved there, the proposed statement will be posted on the society’s website for members to read and comment on, likely sometime later in 2014.
Once all of the comments have been collected, POPA will again review the statement and may revise it further based on members’ input. It will then go to the executive board and the full council for a vote on whether the statement should be officially adopted in its final form.
“We’re not rushing this. Climate science and climate change will be around a long time and we want to get this right before sending it out to the membership for review and comment,” Jaffe said.

Source: aps.org

domingo, 23 de fevereiro de 2014

Ciência brasileira ressurge na Antártida

Herton Escobar - O Estado de S.Paulo
Dois anos depois do incêndio que destruiu a Estação Antártica Comandante Ferraz (EACF), em 25 de fevereiro de 2012, a ciência brasileira não só se recuperou da tragédia como vive seu melhor momento no continente gelado. "Matamos o mito de que o programa antártico brasileiro ia parar", diz Jefferson Simões, pesquisador da Universidade Federal do Rio Grande do Sul e coordenador-geral do Instituto Nacional de Ciência e Tecnologia da Criosfera. "O impacto foi mais psicológico do que científico."
Segundo ele, as pesquisas já estão "100% normalizadas", com o apoio dos dois navios antárticos da Marinha - o Almirante Maximiano e o Ary Rongel - e da base provisória que foi montada sobre o heliponto da antiga estação, no início de 2013, já totalmente operacional, com cerca de 1 mil metros quadrados de área útil.
"As instalações provisórias estão funcionando muito bem, com boa infraestrutura para alojamento e necessidades básicas de pesquisa", disse ao Estado por e-mail a pesquisadora Rosalinda Montone, da Universidade de São Paulo, vice-coordenadora do Instituto Nacional de Ciência e Tecnologia Antártico de Pesquisas Ambientais, que está agora na Antártida.

Segundo o contra-almirante Marcos Silva Rodrigues, que coordena o Programa Antártico Brasileiro (Proantar), 25 projetos de pesquisa estão em curso na Antártida neste verão (período de outubro a março, quando é possível operar na região): 12 a bordo do Almirante Maximiano, 7 no Ary Rongel e 6, na base provisória.
A expectativa é de que o volume de pesquisas cresça nos próximos anos. O Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) lançou em setembro o primeiro edital específico para o Proantar em quase cinco anos, no valor de R$ 13,8 milhões. Vinte projetos foram aprovados.
Futuro. A construção da nova estação está prevista para começar no verão antártico de 2014-2015 e terminar no de 2015-2016, conforme estipulado na licitação que foi aberta para a execução do projeto. A abertura dos envelopes com as propostas está marcada para amanhã, em Brasília, e a expectativa da Marinha é anunciar o vencedor logo após o carnaval. A seleção será pelo menor preço, após qualificação técnica.
A licitação já deveria ter sido concluída em dezembro, mas a abertura dos envelopes foi suspensa um dia antes da data, por causa de questionamentos técnicos levantados pelas empresas interessadas. O prazo para conclusão da obra, que era de um ano, foi estendido para dois, "divididos em 300 dias de trabalho efetivo no local de construção da nova EACF, durante dois verões antárticos", segundo o edital. "Não há previsão de novos adiamentos", afirma Rodrigues, secretário da Comissão Interministerial para os Recursos do Mar (Cirm).
O tamanho da estação também aumentou em relação ao projeto original, de 2,8 mil m2 para 4,5 mil m2, com acréscimo de laboratórios e mais infraestrutura de segurança e geração de energia. "Vamos ter uma estação que será o estado da arte, entre as mais modernas do mundo", promete Rodrigues.
O custo estimado do plano, consequentemente, também cresceu: de R$ 72 milhões, no início de 2013 (quando o projeto arquitetônico foi escolhido), para R$ 110 milhões, em outubro (quando o projeto executivo foi finalizado), e agora, para R$ 145 milhões. Segundo Rodrigues, a variação deve-se ao aumento da estrutura física da base e à variação cambial do euro. "Desde o início dissemos que a estação custaria por volta de 40 milhões", diz.

sábado, 22 de fevereiro de 2014

RN: Meteorologistas esperam mais chuvas no semiárido

Os meteorologistas do Nordeste, após um dia inteiro de reunião na Empresa de Pesquisa Agropecuária do Rio Grande do Norte (EMPARN), divulgaram hoje (21), o documento final com as previsões de chuvas para o período de março a maio.   O semiárido da região Nordeste deverá ter um período de chuvas dentro do normal. O resultado da análise dos meteorologistas  prevê chuvas 45% dentro do normal e 30% abaixo do normal.

A conclusão dos especialistas foi feita com base nos estudos das instituições de pesquisa regionais e federais. Essa foi a III Reunião de Análise Climática para o Nordeste, um debate entre os meteorologistas para chegarem à conclusão sobre a quadra chuvosa de 2014.  Nos últimos 15 dias vem chovendo mais forte nos municípios da região Oeste. De ontem para hoje de manhã choveu em Olho D'agua dos Borges, 14,3 milímetros, em Tabuleiro Grande,  11,0mm, e Umarizal,  10,0mm.

A previsão é mais animadora à população urbana e rural dos municípios dessa região, tendo em vista que na última reunião realizada em Fortaleza (CE), em janeiro deste ano, o prognóstico era de inverno abaixo do normal. O resultado das análises foi oficialmente apresentado à governadora Rosalba Ciarlini, a outras autoridades estaduais e federais e à imprensa na manhã desta sexta-feira, no auditório da Governadoria do Estado do Rio Grande do Norte, em Natal.
Fonte: portal da EMPARN

sexta-feira, 21 de fevereiro de 2014

Para onde aponta a crise do clima

Conheço poucos jornalistas que com tanto afinco, inteligência, boa informação e senso de equilíbrio nos entrega textos de grande relevância sobre questões ecológicas e afins como Washington Novaes. Cada sexta-feira publica no Estado de São Paulo um artigo que vale ler e guardar. Todos no Brasil estamos sofrendo sob o calor intenso, falta de chuvas e de águas nos reservatórios. Por outro lado, enchentes devastadoras, localizadas, em várias regiões do país. Como entender estes eventos extremos? Que sinais são estes que a Terra nos está dando? Para onde nos conduzirá o aumento da temperatura que não para de subir? Estas interrogações nos são colocadas para nossa preocupação e como desafio para fazermos alguma coisa a fim de mitigarmos e adaptarmo-nos aos efeitos perigosos das mudanças climáticas. Publicamos neste blog este artigo do amigo Washinton Novaes pois nos orienta sobre a real situação da Terra e de nosso pais. Lboff            
****************************
O noticiário recente sobre a mais longa estiagem no Brasil em seis décadas – e suas graves consequências em vários setores de atividade no país – traz consigo memórias incômodas e a sensação de despreparo do poder público e da sociedade   para a questão das mudanças do clima. Há muitas décadas numerosos estudos científicos têm alertado para a gravidade e o agravamento progressivo das mudanças, para a necessidade de implantar sem perda de tempo políticas e programas de “mitigação” e “adaptação” a essas transformações. Mas têm encontrado pela frente o ceticismo – quando não o descaso.  Ou a crença nas avaliações dos chamados “céticos do clima”.
         Para não ter de recuar muito no tempo, o autor destas linhas retorna, por exemplo, ao que escreveu neste mesmo espaço há uma década (6/3/2004), quando o panorama na área do clima tinha causas opostas às de hoje: o Nordeste em janeiro daquele ano recebera um volume de chuvas sete vezes maior que sua média histórica; em alguns pontos de Goiás, em 50 dias chovera tanto quanto todo o ano anterior; açudes e barragens rompiam-se; abriam-se comportas para evitar rompimentos e provocavam-se graves inundações a jusante. Cientistas clamavam por um sistema oficial de informações que habilitasse a sociedade para programas de adaptação e mitigação – à semelhança do que a Europa já fazia, devolvendo seus rios ao curso natural, eliminando barragens, evacuando as margens de rios, implantando sistemas de drenagem urbana.  O então secretário-geral da ONU, Kofi Annan, advertia: “São visíveis os sinais de mudanças climáticas, com inundações e secas cada vez mais graves”. Mas outro artigo  (26/23/2004)já acentuava que “no Brasil não se conseguiu ainda definir regras”, nem mesmo para um plano nacional de saneamento básico.
         Quem quiser recuar ainda mais no tempo, pode ir ao artigo de 31/7/1998, há mais de 15 anos, que se referia à maior estiagem no rio Cuiabá em 65 anos, que ameaçava o fornecimento de água a um milhão de pessoas – ao contrário do que acontecia no rio Branco, Acre, com “volumes inéditos de chuvas” levando a temer que se repetisse por aqui o drama pelo qual passava a China, com as maiores inundações em 40 anos, 2,5 mil mortos, um milhão de desabrigados. Dizia então o PNUD (ONU) que de 1967 a 1990 chegara a 3 bilhões o número de pessoas atingidas pelos desastres climáticos.
         Agora, São Paulo enfrenta os dias mais quentes desde fevereiro de 1943.  O “sistema Cantareira está à beira do colapso” (ESTADO, 8/2) e ameaça reduzir em 45% o suprimento de toda a água na Região Metropolitana de São Paulo. O volume de água armazenado já caiu 13,7% em relação ao que era em 1930. Guarulhos sofre com  o racionamento dia sim, dia não. E o panorama se repete praticamente em todo o país, intensifica o consumo de energia elétrica.
Estudiosos como Sir Nicholas Stern dizem que o aumento da temperatura no mundo será de 4 a 5  graus até o fim do século. James Lovelock, autor da “teoria Gaia”, chega a prever (Rolling Stones, novembro de 2013) que “a raça humana está condenada” a perder mais de 5 bilhões da população até 2100, com o Saara invadindo a Europa, Berlim tonando-se mais quente do que Bagdá. A temperatura subirá 8 graus na América do Norte e Europa. Segundo a Organização Mundial de Meteorologia, “não haverá pausa no aumento da temperatura”; cada década será mais quente.
         Michael Bloomberg, o bilionário ex-prefeito de Nova York, hoje à frente de várias iniciativas “ambientalistas”, sugere o fechamento imediato de todas as minas de carvão mineral, a maior fonte de poluição – mas por aqui já colocamos em atividade as nossas termelétricas a carvão, as mais poluidoras e mais caras. Enquanto isso, a safra de soja em São Paulo já se perdeu em 40% (ESTADO, 7/2), com prejuizo de R$744 milhões. Em Goiás, já se foram 15%. E o mundo subsidia o consumo de petróleo.
         Não adianta mais exorcizar os que os “céticos” chamavam de ”profetas do Apocalipse”. Nem fechar os olhos à realidade. Temos de conceber e adotar com muita urgência um plano nacional para o clima. Que inclua regras rigorosas para a ocupação do solo, impeça o desmatamento, promova a recuperação de áreas, proteja os recursos hídricos. Obrigue os administradores públicos a tratar com urgência também do solo urbano e dos planos de drenagem , além da contenção das emissões de poluentes nos transportes.E que nos imponha repensar nossa matriz energética. É preciso conferir prioridade absoluta às fontes de energia “limpas” e renováveis. Avançar com a energia eólica, já competitiva e ainda desprezada. Estimular os formatos de energia solar, que avançam a toda a velocidade no mundo. Voltar a conferir preferência para as energias de biomassas, inclusive ao álcool, onde o Brasil foi pioneiro e agora importa dos Estados Unidos para baixar índices de inflação, com o etanol nas bombas prejudicado pela política anti-inflação de segurar os preços dos combustíveis.
         Não é só. Temos de caminhar sem retardo para conferir, na matriz energética, prioridade para a microgeração distribuída. Gerada localmente e consumida também localmente, essa microgeração – que pode ser, por exemplo, a resultante do aproveitamento de biogás  resultante dejetos animais, como se está fazendo no Paraná e se começa em outros lugares – permite ao produtor rural deixar de pagar contas de energia e ainda vender o excedente da produção para as distribuidoras. Sem “linhões” fantásticos, caríssimos (já temos mais de 100 mil quilômetros deles), desperdiçadores de energia. Sem megaprojetos de geração que custam os olhos da cara e exigem juros gigantescos.
 Esse é o caminho do futuro: o desenvolvimento local, com microgeração de energia. Sem concentrar a propriedade, sem concentrar a renda. E, se tivermos competência e sorte, reduzindo a emissão de poluentes e contribuindo para atenuar as mudanças do clima.

quinta-feira, 20 de fevereiro de 2014

Des exoplanètes plus habitables que la Terre

Des exoplanètes deux à trois fois plus massives que la Terre pourraient se révéler plus adaptées à l’apparition de la vie que notre planète. Dans cette hypothèse, deux astronomes proposent d’étudier avec la plus grande attention le système planétaire qui semble entourer l’une des étoiles les plus proches du Soleil, Alpha Centauri B, pour y chercher des mondes « super habitables. »

« Pour être habitable, un monde (planète ou lune) n’a pas besoin de se situer dans la zone d’habitabilité d’une étoile. De même, un monde circulant dans cette zone d’habitabilité n’est pas nécessairement habitable. » Voilà comment René Heller (McMaster University, Hamilton, Ontario, Canada) et John Armstrong (Weber State University, Ogden, Utah, États-Unis) introduisent l’article intellectuellement stimulant qu’ils viennent de publier (revue Astrobiology) et dans lequel ils développent leur concept de « mondes super habitables. »
La notion de zone d’habitabilité existe depuis des décennies en astronomie. Il s’agit de la région qui, autour d’une étoile donnée, permet l’existence d’eau sous forme liquide à la surface d’une planète ou d’une lune, l’eau étant considérée comme l’élément primordial pour le développement des formes de vie que nous connaissons sur la Terre. En simplifiant, il s’agit d’une zone annulaire entourant chaque étoile au sein de laquelle des planètes de type terrestres, des planètes telluriques avec une croûte solide et une atmosphère, pourraient connaître durant une période suffisamment longue (plusieurs milliards d’années) des conditions potentiellement favorables à l’apparition et au développement de la vie.
Deux remarques s’imposent immédiatement. D’une part, la notion de zone d’habitabilité est intrinsèquement liée à notre compréhension de l’apparition de la vie sur notre planète qui, jusqu’à preuve du contraire, est notre seul exemple de monde habitable et habité. Si nous devions découvrir un jour que la vie peut apparaître et se développer durablement dans des milieux radicalement différents de celui ou de ceux que nous connaissons sur Terre cela bouleverserait profondément cette notion. D’autre part, la définition de la zone d’habitabilité s’est prodigieusement complexifiée au fil des années pour tenir compte d’une quantité croissante de facteurs physiques, chimiques ou astronomiques, si bien que l’idée même d’une zone d’habitabilité unique dans un système planétaire perd peu à peu de sa pertinence. La découverte de conditions qui pourraient être favorables à l’apparition de la vie sur des lunes comme Europe (Jupiter) ou Titan (Saturne), qui sont situées largement en dehors de la zone d’habitabilité théorique du Système solaire, renforce ce point.
D’où les précisions de René Heller et de John Armstrong qui considèrent qu’il y a trop souvent une confusion entre zone d’habitabilité et planète habitable, et que les recherches d’exoplanètes habitables se basent aujourd’hui beaucoup trop, sinon exclusivement, sur des caractéristiques terrestres. À leur avis, le concept de monde habitable devrait être considérablement élargi, mieux, ils suggèrent que certains mondes seraient bien plus habitables que la Terre et qu’il faudrait donc étendre nos critères de recherches en conséquence. Faire preuve de plus d’imagination en quelque sorte.
Ils exposent ainsi point par point les éléments qui peuvent jouer un rôle dans l’apparition et le maintien des conditions nécessaires au développement d’organismes unicellulaires puis multicellulaires de plus en plus complexes, et leurs conclusions ouvrent des perspectives très intéressantes. René Heller et John Armstrong estiment que des exoplanètes telluriques 2 à 3 fois plus massives que la Terre seraient potentiellement plus habitables. Ces « superterres » bénéficieraient d’une période d’activité tectonique plus longue, ce qui est indispensable pour réguler le taux de dioxyde de carbone présent dans l’atmosphère et donc l’effet de serre que celui-ci engendre (en l’absence de toute intervention humaine). Elles auraient un champ magnétique plus intense assurant une bonne protection contre les rayonnements cosmiques et stellaires très énergétiques, une capacité à conserver longtemps une atmosphère un peu plus épaisse et une plus grande superficie de terres émergées et de mers. Sur ce point, les auteurs suggèrent que les planètes avec de nombreux petits continents dispersés dans des océans seraient probablement plus habitables que celles qui arborent seulement un ou deux supercontinents.
Ils relèvent qu’une température de surface légèrement supérieure à celle de la Terre serait probablement bénéfique, et soulignent que l’existence de plusieurs mondes habitables dans un même système planétaire pourrait accroître l’habitabilité de chacun grâce aux échanges de matières provoqués par les impacts cométaires et météoritiques. Enfin, ils précisent que plus un monde habitable est âgé, plus la probabilité qu’il soit habité croît, et que, plus il est habité, plus son habitabilité et sa biodiversité augmentent, car les formes de vie modifient progressivement l’environnement à leur avantage. Pour éviter une dérive des commentaires vers un sujet bien contemporain, les auteurs rappellent que ce dernier point concerne les modifications apportées en douceur sur des centaines de millions d’années par des formes de vie simples et non intelligentes et non pas brutalement sur un très bref laps de temps par une espèce industrieuse…
Même si la vie est apparue rapidement sur notre planète, en quelques centaines de millions d’années, une maturation de plusieurs milliards d’années semble avoir été nécessaire pour voir émerger des espèces intelligentes. Cette notion de durée permet de sélectionner les étoiles autour desquelles la probabilité de détecter des planètes habitables, voire habitées, serait la plus grande. Les recherches autour d’étoiles dont la luminosité reste stable durant des milliards d’années, celles de type spectral G, K ou M (le Soleil est de type spectral G), devraient ainsi être privilégiées.

Alpha Centauri B, qui est une composante du système stellaire le plus proche du Soleil, à moins de 4,3 années-lumière (40 000 milliards de kilomètres environ), est justement une étoile de type spectral K. Son âge est estimé par différentes méthodes entre 4,8 et 6,5 milliards d’années (4,56 milliards d’années pour le Soleil), et elle posséderait au moins une exoplanète de masse terrestre.  Celle-ci est bien trop proche de son étoile pour être habitable, puisqu’elle orbite en 3,2 jours à seulement 6 millions de kilomètres et que sa température de surface est voisine de 850 °C. Mais il est possible que d’autres planètes tournent autour d’Alpha Centauri B à des distances plus compatibles avec un statut de monde habitable. Une simulation informatique a montré qu’une dizaine de planètes avaient pu se former dans le système d’Alpha Centauri B.  Et une étude plus approfondie de cette simulation informatique vient d’être publiée dans laquelle des chercheurs annoncent qu’il pourrait y avoir jusqu’à 5 exoplanètes de type tellurique dans le lot. Il ne reste plus qu’à les détecter ! Ce que devrait notamment permettre la future sonde européenne PLATO.

René Heller et John Armstrong concluent leur article en affirmant : « si nous sommes d’accord avec l’hypothèse qui dit que l’existence de planètes ayant connu rigoureusement la même évolution que la Terre est pratiquement impossible, nous soutenons que cet argument ne permet pas d’éliminer la possibilité qu’il existe d’autres types de planètes habitables ou habitées. Bien au contraire, nous pensons que la Terre pourrait se révéler moins habitable que certaines exoplanètes. À notre avis, il existe une large variété de processus qui peuvent aboutir sur une planète ou une lune à des conditions environnementales bien plus adaptées à la vie que celles que nous connaissons sur Terre. » Même s’ils n’apportent aucune réponse définitive, René Heller et John Armstrong ouvrent de très nombreuses pistes de réflexion et ils ont le mérite de pousser leurs collègues à élaborer de nouvelles méthodes pour détecter ces exoplanètes super habitables.

Sources


Guillaume Cannat (pour être informé de la parution de chaque nouvel article, suivez-moi sur Twitter, ou sur Facebook ou sur Google+)

Changes adrift on the South Atlantic

By Elton Alisson
Agência FAPESP – The southern half of the Atlantic Ocean is receiving increasing volumes of water from the Indian Ocean, whose waters are not only warmer but also saltier than the waters from sub-Antarctic regions.
This newly discovered process could cause changes in the composition of the waters of the South Atlantic Ocean – which flow northward to the North Atlantic – and affect the atmospheric temperature of sub-Arctic regions.
The phenomenon is occurring because the waters of the South Atlantic that flow toward the North transport and release heat into the atmosphere at higher latitudes. As they become saltier and, consequently, heavier, they will tend to sink more rapidly before reaching the high latitudes of the North Atlantic. This process could reduce the temperature of the ocean’s surface and the atmosphere in sub-Arctic regions.
These findings, discovered previously with the aid of numerical models, were confirmed by an observational study conducted by an international group of researchers, including Brazilians, that has just been published in the online edition of the Journal of Geophysical Research: Oceans (JGR).
The study is the first based on data collected on the Alpha Crucis – the oceanographic ship FAPESP acquired in 2012 for the Oceanography Institute at Universidade de São Paulo (IO - USP). The ship is part of the international project for analysis of heat circulation in the area – South Atlantic Meridional Overturning Circulation (SAMOC).
This international research effort involves researchers and institutions from the United States, France, Brazil, South Africa, Argentina, Russia and Germany. The participation of Brazilian researchers is funded by FAPESP through a Thematic Research Project conducted under the auspices of the FAPESP Research Program on Global Climate Change and an agreement forged between the Pernambuco Research Foundation and the French National Research Agency (ANR).
“The objective of SAMOC is to monitor the meridional flows and thermodynamic properties of bodies of water in the vertical section along latitude 35°S, which begins at the Chuí region in South America and extends to South Africa, and in what we call SAMBA [SAMOC Basin-wide Array],” said Edmo Campos, a faculty member at IO-USP and coordinator of the project on the Brazilian side.
Sea fronts
According to Campos, this geographic line represents a border region through which the mixture of waters from the Indian and Pacific Oceans enters the subtropical region of the South Atlantic; from there, a significant portion flows on to the North Atlantic as part of the Meridional Overturning Circulation (MOC).
Upon monitoring and detecting signs of variation in this region, it is possible to forecast changes in the temperature of the North Atlantic in the coming decades, indicates Campos.
“The South Atlantic transports heat to the North Atlantic at a rate of 1.3 petawatts, which represents a quantity of energy equivalent to that produced by more than 200,000 Itaipu power plants working at full steam,” explained Campos. “Any small change in this process of transporting heat could set off a series of consequences for the planet’s climate.”
According to the researcher, because of the importance of the South Atlantic and the fact that this is one of the oceanic regions with the fewest maritime observations, a series of international efforts to monitor this region have been undertaken in recent years.
SAMOC is one of these efforts. Brazilian, Argentine and North American researchers assumed responsibility for monitoring the western part of the SAMBA line. Researchers in South Africa and France are studying the eastern region. A collaboration of , and the United States with other countries, including Brazil, is currently planning the implementation of the monitoring system for the central part of the line.
“Our objective is for Brazil to take leadership and cover the entire extension of this latitude [from Chuí to South Africa] in cooperation with other countries to guarantee monitoring of the SAMBA line and obtain information to infer variations in the heat transportation system between the oceans that can eventually have impacts on a regional and global scale,” reported Campos.
The first experiments involving Brazilian participation in the project were conducted in late 2009 during a survey voyage by the hydrooceanographic vessel Cruzeiro do Sul, which was acquired by the Brazilian Navy in partnership with the Ministry of Science, Technology and Innovation (MCTI).
In December 2012, Brazilian researchers conducted a series of experiments during the first international voyage made by the Alpha Crucis.
The first Alpha Crucis voyage
In this first voyage, the vessel left the Port of Santos headed toward 34.5 °S (located 1,400 kilometers from the Brazilian coast). From this point and throughout the length of this latitude, the vessel returned to the Brazilian coast on the border with Uruguay.
During this trajectory over a 17-day period, the researchers on board collected several types of oceanographic data, such as current measurement, temperature, oxygen concentration and water salinity, through a series of instruments available on the vessel.
Additionally, researchers installed a series of conductivity, temperature, oxygen and flow sensors and echosounders with pressure and marine current speed sensors on the sea floor along the western extremity of the SAMBA line.
Called Current, Pressure Inverted Echo-Sounders (CPIES), the echosounders emit a sound signal in the direction of the ocean’s surface. Using the time the signal takes to reach the surface and return to the sea floor, researchers can infer the density and temperature of marine currents and, therefore, estimate the speed with which they transport heat through the vertical cross-section established by these sensors, explained Campos.
“The instruments installed during the maiden international voyage of the Alpha Crucis take continuous measurements; the data are stored and can be collected via satellite through messengers that are released periodically and upon reaching the surface transmit data to be collected by acoustic transducers on oceanographic vessels, which pass near the equipment and extract the catalogued data for analysis,” explained Campos.
“With the first voyage of the Alpha Crucis, we managed to collect a much greater quantity of information than we had and to conduct analysis on the variables in the heat transfer in the South Atlantic to the North Atlantic, as shown in the article published in JGR,” he affirmed.
According to the researcher, the analyses – which also include historical data and the results of numerical models – indicate changes in the South Atlantic. These changes, according to him, are in accordance with the previous hypotheses that the volume of water that the ocean receives from the Indian Ocean is increasing and changing the concentration of salt in its water mass. The basis for this conclusion is that the waters of the Indian Ocean have a higher quantity of salt (salinity) and a higher temperature than those found at 34.5°S in the Atlantic.
This increased concentration of salt in the South Atlantic could change the flow of water to the North Atlantic and the process of heat transfer with the atmosphere, warned Campos.
“Minimal changes in the temperature or the concentration of water change the process of heat transfer from the surface of the ocean to the atmosphere, and the response of the climate could even be catastrophic,” he affirmed.
“The climate depends on how the ocean exchanges heat with the atmosphere and how it redistributes this temperature to the rest of the planet,” stressed Campos.
The researcher stressed that because the data collected cover a period of only 20 months. It is still not possible to obtain signs of climate change based solely on these observations, as these observations would have to be obtained over much longer periods – decades, for example.
The study, however, represents one of the first contributions toward better understanding how heat transfer occurs in the South Atlantic and varies over shorter scales of months and years, he pondered.
“Our objective is to obtain these data for periods much longer than a few years through other planned voyages with the Alpha Crucis,” said Campos.
“At any rate, the study is already a practical result based on data collected on voyages undertaken by the Alpha Crucis, which contributed significantly to the observations in the South Atlantic,” he evaluates.

The article Temporal variability of the Meridional Overturning Circulation at 34.5°S: Results from two pilot boundary arrays in the South Atlantic (doi: 10.1002/2013JC009228), by Campos et al, can be read by subscribers of the Journal of Geophysical Research: Oceans at onlinelibrary.wiley.com/journal/10.1002/(ISSN)2169-9291.

Física dos Sistemas Complexos pode prever impactos das mudanças ambientais

Elton Alisson
Agência FAPESP – Além da aplicação em áreas como a Engenharia e Tecnologias da Informação e Comunicação (TICs), a Física dos Sistemas Complexos – nos quais cada elemento contribui individualmente para o surgimento de propriedades somente observadas em conjunto – pode ser útil para avaliar os impactos de mudanças ambientais no planeta, como o desmatamento.
A avaliação foi feita por Jan-Michael Rost, pesquisador do Instituto Max-Planck para Física dos Sistemas Complexos, durante uma mesa-redonda sobre sistemas complexos e sustentabilidade, realizada no dia 14 de fevereiro no Hotel Pergamon, em São Paulo.
O encontro foi organizado pelo Centro Alemão de Ciência e Inovação São Paulo (DWIH-SP) e pela Sociedade Max Planck, em parceria com a FAPESP e o Serviço Alemão de Intercâmbio Acadêmico (DAAD), e fez parte de uma programação complementar de atividades da exposição científica Túnel da Ciência Max Planck.
“Os sistemas complexos, como a vida na Terra, estão no limiar entre a ordem e a desordem e levam um determinado tempo para se adaptar a mudanças”, disse Rost.
“Se houver grandes alterações nesses sistemas, como o desmatamento desenfreado de florestas, em um período curto de tempo, e for atravessado o limiar entre a ordem e a desordem, essas mudanças podem ser irreversíveis e colocar em risco a preservação da complexidade e a possibilidade de evolução das espécies”, afirmou o pesquisador.
De acordo com Rost, os sistemas complexos começaram a chamar a atenção dos cientistas nos anos 1950. A fim de estudá-los, porém, não era possível utilizar as duas grandes teorias que revolucionaram a Física no século 20: a da Relatividade, estabelecida por Albert Einstein (1879-1955), e da mecânica quântica, desenvolvida pelo físico alemão Werner Heisenberg (1901-1976) e outros cientistas.
Isso porque essas teorias podem ser aplicadas apenas a sistemas fechados, como os motores, que não sofrem interferência do meio externo e nos quais as reações de equilíbrio, ocorridas em seu interior, são reversíveis, afirmou Rost.
Por essa razão, segundo ele, essas teorias não são suficientes para estudar sistemas abertos, como máquinas dotadas de inteligência artificial e as espécies de vida na Terra, que interagem com o meio ambiente, são adaptativas e cujas reações podem ser irreversíveis. Por isso, elas deram lugar a teorias relacionadas à Física dos sistemas complexos, como a do caos e a da dinâmica não linear, mais apropriadas para essa finalidade.
“Essas últimas teorias tiveram um desenvolvimento espetacular nas últimas décadas, paralelamente às da mecânica clássica”, afirmou Rost.
“Hoje já se reconhece que os sistemas não são fechados, mas se relacionam com o exterior e podem apresentar reações desproporcionais à ação que sofreram. É nisso que a Engenharia se baseia atualmente para desenvolver produtos e equipamentos”, afirmou.
Categorias de sistemas complexos
De acordo com Rost, os sistemas complexos podem ser divididos em quatro categorias que se diferenciam pelo tempo de reação a uma determinada ação sofrida. A primeira delas é a dos sistemas complexos estáticos, que reagem instantaneamente a uma ação.
A segunda é a de sistemas adaptativos, como a capacidade de farejamento dos cães. Ao ser colocado na direção de uma trilha de rastros deixados por uma pessoa perdida em uma mata, por exemplo, os cães farejadores fazem movimentos de ziguezague.
Isso porque, segundo Rost, esses animais possuem um sistema de farejamento adaptativo. Isto é, ao sentir um determinado cheiro em um local, a sensibilidade olfativa do animal àquele odor diminui drasticamente e ele perde a capacidade de identificá-lo.
Ao sair do rastro em que estava, o animal recupera rapidamente a sensibilidade olfativa ao odor e é capaz de identificá-lo em uma próxima pegada. “O limiar da percepção olfativa desses animais é adaptado constantemente”, afirmou Rost.
A terceira categoria de sistemas complexos é a de sistemas autônomos, que utilizam a evolução como um sistema de adaptação e é impossível prever como será a reação a uma determinada mudança.
Já a última categoria é a de sistemas evolucionários ou transgeracionais, em que se inserem os seres humanos e outras espécies de vida na Terra, e na qual a reação a uma determinada alteração em seus sistemas de vida demora muito tempo para acontecer, afirmou Rost.
“Os sistemas transgeracionais recebem estímulos durante a vida toda e a reação de uma determinada geração não é comparável com a anterior”, disse o pesquisador.

“Tentar prever o tempo que um determinado sistema transgeracional, como a humanidade, leva para reagir a uma ação, como as mudanças ambientais, pode ser útil para assegurar a sustentabilidade do planeta”, avaliou Rost.

quinta-feira, 13 de fevereiro de 2014

Stronger Winds over Pacific Ocean Help Slow Global Warming

About 15 years ago, the Earth's temperature was rising fast. Most climate models predicted that trend would continue, as humans continued to pump greenhouse gases into the atmosphere.
Instead, the Earth's surface temperature over the past 13 years has been mostly stable.
In recent years, scientists have worked to understand why this "pause" in warming has occurred and was not predicted by models (ClimateWire Nov. 1, 2013).
"The fact that [the pause] has lasted a full 13 years has really challenged the scientific community to explain this mismatch between models and observations," said Matthew England, a climate scientist with the Australian Research Council's Centre of Excellence for Climate System Science.
It's not that researchers expected warming to be completely linear.
They'd seen slowdowns in the past, often associated with natural cycles in the Earth's climate -- England pointed to periods when the Earth has taken a break from warming, such as from 1945 to the late 1970s.
Nonetheless, the recent pause has left many scientists scratching their heads, he continued, especially given how much more heat-trapping carbon dioxide has entered the atmosphere in the past decades.
Winds driving heat storage in ocean
England thinks he has a persuasive explanation for the warming hiatus, which he and a number of co-authors published yesterday in the journal Nature Climate Change.
The findings outlined in the paper bolster the idea that much of the warmth that would otherwise have heated the Earth's surface has gone into the Pacific Ocean. This hypothesis, put forth a few years ago, has been receiving continued support in the published scientific literature (ClimateWire, April 8, 2013).
This study adds a reason for this heat storage in the Pacific Ocean: increases in trade winds blowing east to west.
This trade wind strengthening, which occurs during a the negative phase of a phenomenon called the Interdecadal Pacific Oscillation (also known as the Pacific Decadal Oscillation), pushes warm water westward and and changes Pacific Ocean circulation.
That wind-driven circulation change leads to cooler ocean temperatures on the surface of the eastern Pacific, and more heat being mixed in and stored in the western Pacific down to about 300 meters (984 feet) deep, said England.
Gerald Meehl, a climate scientist at the National Center for Atmospheric Research who was also an author on the paper, said this research expanded on past work, including his own research, that pointed to the Interdecadal Pacific Oscillation as a factor in a warming slowdown by finding a mechanism behind how the Pacific Ocean was able to store enough heat to produce a pause in surface warming.
"This paper makes the case that, though other factors could contribute somewhat to the early-2000s hiatus, the Pacific is a major driving force in producing naturally-occurring climate variability that can overwhelm the warming from ever-increasing greenhouse gases to produce the hiatus," Meehl wrote in an email.
The researchers were able to test their hypothesis that stronger winds were driving the ocean heat uptake by putting the observations of wind behavior into climate models.
When ocean cycle shifts, globe is likely to warm up
When climate models were run that included the stronger winds, they were able to reproduce the slowdown in surface temperatures.
"This wind acceleration in the Pacific Ocean is of a magnitude that can fully account for the hiatus, and it certainly accounts for the mismatch between models and observations," said England.
While it is still possible that other factors, such as heat storage in other oceans or an increase in aerosols, have led to cooling at the Earth's surface, this research is yet another piece of evidence that strongly points to the Pacific Ocean as the reason behind a slowdown in warming.
"The paper makes a convincing case for the importance of Pacific processes that can make major contributions to hiatus periods," said NCAR's Meehl.
Like all climate cycles, the Interdecadal Pacific Oscillation will, at some point, flip from negative to positive again. When this happened in the late 1970s, the Earth's surface temperatures shot up.
Although scientists are unable to predict when the oscillation will switch modes, when it does, the heat, since it is not stored very deep in the ocean, can "readily resurface," said England.
"When that occurs, it's highly likely that the air temperature change over the planet will be one of relatively rapid warming, probably exceeding the warming rate of the '80s and '90s actually, because greenhouse gases are much, much higher today than they were even just 30 years ago," he said.

Source: Scientific American

terça-feira, 11 de fevereiro de 2014

Ondas de calor poderão ser mais frequentes no país

 FSP - DA AGÊNCIA BRASIL
O calor excessivo registrado em 2013 e neste início de 2014 pode acontecer com mais frequência nos próximos anos se o país não conseguir reduzir o impacto do aquecimento global no meio ambiente, explicou o secretário de Políticas e Programas de Pesquisa e Desenvolvimento do MCTI (Ministério da Ciência, Tecnologia e Inovação), Carlos Nobre.
O secretário explicou que episódios isolados de períodos muito secos ou de muitas chuvas já ocorreram no passado, e alguns são típicos das estações do ano, como as ondas de calor. "Um fenômeno extremo isolado não permite que alguém imediatamente aponte o dedo e diga que é culpa do aquecimento global", disse.
No entanto, explicou que o aquecimento global aumenta o número de ondas de calor. "Cem anos atrás, esse calor extremo acontecia a cada dez ou 20 anos. Com o aquecimento da Terra, vamos viver isso com mais frequência, e daqui a 100 ou 200 anos, esse vai ser o clima do dia a dia".
Segundo ele, diferentemente do que ocorre com a espécie humana, um grande número de espécies não consegue acompanhar essas mudanças, principalmente as vegetais. "A extinção é rápida e a reconstituição da biodiversidade é lenta. Devemos esperar uma perturbação e uma extinção em massa, se isso não mudar".
Como, em certo grau, a mudança no clima já se tornou inevitável, para Nobre seria irresponsabilidade da sociedade não cuidar de uma adaptação a essas mudanças. "Os países desenvolvidos têm sistemas que diminuem a vulnerabilidade a desastres naturais, mas os países em desenvolvimento ainda sofrem muito. Nossa lição de casa básica é tornar as sociedades e o meio ambiente mais resilientes para o que está acontecendo hoje".
Corroborando as afirmações do secretário, a presidente do comitê científico do PBMC (Painel Brasileiro de Mudanças Climáticas), Suzana Kahn Ribeiro, diz que é necessário repensar o crescimento das cidades, os padrões de consumo e as políticas de eficiência energética, entre outros fatores, para tentar reverter a mudança no clima.
"Muito pouca coisa se tem feito, o que é preocupante, dada a urgência do problema e o transtorno que traz. Não se trata apenas de incômodo para as pessoas, mas de perdas econômicas, aumento da desigualdade e riscos para saúde". O PBMC projeta um clima mais quente para este século.
O secretário do MCTI, Carlos Nobre, faz parte do Conselho Consultivo Científico da Organização das Nações Unidas, que tem o papel de formular estudos e análises para assessorar o secretário-geral Ban Ki-moon sobre sustentabilidade, incluindo mudanças climáticas.
"Em seis meses, esse conselho vai produzir documentos importantes que vão servir de referência para o secretário-geral destravar as negociações que começaram na Conferência de Copenhague, em 2009, sobre a emissão de gases", explicou.

Endereço da página (Folha de S. Paulo): http://goo.gl/h2V8ZY

Modelo pode ajudar a prever como espécies da Mata Atlântica responderão às mudanças climáticas

Por Karina Toledo
Agência FAPESP – Compreender os processos evolutivos, geológicos, climáticos e genéticos por trás da enorme biodiversidade e do padrão de distribuição de espécies da Mata Atlântica e, com base nesse conhecimento, criar modelos que permitam prever, por exemplo, como essas espécies vão reagir às mudanças no clima e no uso do solo.
Esse é o objetivo central de um projeto que reúne pesquisadores do Brasil e dos Estados Unidos no âmbito de um acordo de cooperação científica entre o Programa de Pesquisas em Caracterização, Conservação, Recuperação e Uso Sustentável da Biodiversidade do Estado de São Paulo (BIOTA-FAPESP) e o programa Dimensions of Biodiversity, da agência federal norte-americana de fomento à pesquisa National Science Foundation (NSF).
“Além de ajudar a prever o que poderá ocorrer no futuro com as espécies, os modelos ajudam a entender como está hoje distribuída a biodiversidade em áreas onde os cientistas não têm acesso. Como fazemos coletas por amostragem, seria impossível mapear todos os microambientes. Os modelos permitem extrapolar essas informações para áreas não amostradas e podem ser aplicados em qualquer tempo”, explicou Ana Carolina Carnaval, professora da The City University of New York, nos Estados Unidos, e coordenadora do projeto de pesquisa ao lado de Cristina Miyaki, do Instituto de Biociências da Universidade de São Paulo (IB-USP).
A proposta, segundo Carnaval, é promover a integração de pesquisadores de diversas áreas – como ecologia, geologia, biogeografia, genética, fisiologia, climatologia, taxonomia, paleologia, geomorfologia – e unir ciência básica e aplicada em benefício da conservação da Mata Atlântica.
O bioma é considerado um dos 34 hotspots mundiais, ou seja, uma das áreas prioritárias para a conservação por causa de sua enorme biodiversidade, do alto grau de endemismo de suas espécies (ocorrência apenas naquele local) e da grande ameaça de extinção resultante da intensa atividade antrópica na região.
A empreitada coordenada por Carnaval e por Miyaki teve início no segundo semestre de 2013. A rede de pesquisadores esteve reunida pela primeira vez para apresentar suas linhas de pesquisa e seus resultados preliminares na segunda-feira (10/02), durante o “Workshop Dimensions US-BIOTA São Paulo - A multidisciplinary framework for biodiversity prediction in the Brazilian Atlantic forest hotspot”.
“Convidamos alguns colaboradores além de pesquisadores envolvidos no projeto, pois queremos críticas e sugestões que permitam aperfeiçoar os trabalhos”, contou Miyaki. “Essa reunião é um marco para conseguirmos efetivar a integração entre as diversas áreas do projeto e criarmos uma linguagem única focada em compreender a Mata Atlântica e os processos que fazem esse bioma ser tão especial”, acrescentou.
Entre os mistérios que os cientistas tentarão desvendar estão a origem da incrível diversidade existente na Mata Atlântica, possivelmente fruto de conexões existentes há milhões de anos com outros biomas, entre eles a Floresta Amazônica. Outra questão fundamental é entender a importância do sistema de transporte de umidade na região hoje e no passado e como ele permite que a Mata Atlântica se comunique com outros sistemas florestais. Também está entre as metas do grupo investigar como a atividade tectônica influenciou o curso de rios e afetou o padrão de distribuição das espécies aquáticas.
Desafios do BIOTA
Durante a abertura do workshop, o presidente da FAPESP, Celso Lafer, realçou a importância de abordagens inovadoras e multidisciplinares voltadas para a proteção da biodiversidade da Mata Atlântica. Ressaltou ainda que a iniciativa está em consonância com os esforços de internacionalização realizados pela FAPESP nos últimos anos.
“Uma das grandes preocupações da FAPESP tem sido o processo de internacionalização, que basicamente está relacionado ao esforço de juntar pesquisadores de diversas áreas para avançar no conhecimento. Este programa de hoje está relacionado a aspirações dessa natureza e tenho certeza de que os resultados serão altamente relevantes”, afirmou Lafer.
Também durante a mesa de abertura, o diretor do IB-USP, Carlos Eduardo Falavigna da Rocha, afirmou que o programa BIOTA-FAPESP tem sido um exemplo para outros estados e outras fundações de apoio à pesquisa em âmbito federal e estadual.
Carlos Alfredo Joly, professor da Universidade Estadual de Campinas (Unicamp) e coordenador do BIOTA-FAPESP, apresentou um histórico das atividades realizadas pelo programa desde 1999, entre elas a elaboração de um mapa de áreas prioritárias para conservação que serviu de base para mais de 20 documentos legais estaduais – entre leis, decretos e resoluções.
Joly também falou sobre os desafios a serem vencidos até 2020, como empreender esforços de restauração e de reintrodução de espécies, ampliar o entendimento sobre ecossistemas terrestres e sobre os mecanismos que mantêm a biodiversidade no Estado e intensificar as atividades voltadas à educação ambiental.
Para 2014, Joly ressaltou dois desafios na área de conservação. “Estamos iniciando uma campanha para o tombamento da Serra da Mantiqueira. Já fizemos alguns artigos de jornais, estamos lançando um website específico e vamos trabalhar para conseguir tombar regiões acima de 800 metros, áreas apontadas como de extrema prioridade para conservação no atlas do BIOTA”, disse.
Outra meta para 2014, segundo Joly, é trabalhar para que o Brasil ratifique o protocolo de Nagoya – tratado internacional que dispõe sobre a repartição de benefícios do uso da biodiversidade – até outubro, quando ocorrerá a 12ª Conferência das Partes da Convenção sobre Diversidade Biológica.
“É fundamental que um país megadiverso, que tem todo o interesse de ter sua biodiversidade protegida por esse protocolo internacional, se torne signatário do protocolo antes dessa reunião”, afirmou Joly.

segunda-feira, 10 de fevereiro de 2014

Estudo vai monitorar reações de peixes às mudanças climáticas

Avaliar como os peixes de água doce de regiões tropicais serão afetados pelo aumento da temperatura da água em resposta às mudanças climáticas globais é um dos objetivos do projeto “Hot Fish”, uma parceria do Instituto Nacional de Pesquisas da Amazônia (Inpa/MCTI) e da Universidade de Carleton, em Ottawa, no Canadá.
O projeto é baseado na “Hipótese de Jansen”, criada em 1967, que sugere uma diferença na tolerância térmica entre organismos de regiões temperadas e tropicais, devido, principalmente, a menor variação na temperatura do ambiente nos trópicos.
A pós-doutoranda Dominique Lapointe, da Universidade de Carleton, especialista em Ecofisiologia de Peixes, explica que as espécies de regiões tropicais podem não sofrer esta tolerância térmica devido ao ambiente aquático ter poucas variações sazonais de temperatura.
“Isso pode ser comprovado pela observação da grande variação na temperatura corpórea desses organismos entre os períodos de inverno e verão nas regiões temperadas. Por outro lado, os peixes tropicais podem não ter desenvolvido uma ampla faixa de tolerância térmica, uma vez que eles habitam em corpos d’água que sofrem pequenas variações sazonais na temperatura”, afirmou Lapointe.
A pesquisadora relata que as mudanças climáticas podem ser potencialmente prejudiciais à manutenção do equilíbrio dos ambientes de água doce de regiões tropicais, como no Rio Negro, já que estes sustentam uma importante diversidade biológica.
Metodologia
Lapointe pretende utilizar a técnica de respirometria, que consiste na medição do consumo de oxigênio pelos peixes, para determinar as faixas de temperatura específicas à manutenção da atividade metabólica nesses animais, além de examinar os mecanismos fisiológicos e moleculares envolvidos com o estabelecimento das faixas de tolerância térmica nas espécies. O projeto também se propõe a oferecer melhorias à pesquisa com o uso de equipamentos e realização de treinamentos necessários.
No período inicial dos experimentos, um sistema com tanques foi construído no Laboratório de Ecofisiologia e Evolução Molecular (LEEM), no Inpa, para análise de 60 peixes das espécies matrinxã e tambaqui.
Para cada uma delas, foram feitos três tratamentos diferentes com filtros mecânicos, químicos e biológicos. O primeiro consistiu em submeter os peixes à temperatura ambiente, o segundo à temperatura ambiente mais 2°C, e o terceiro à temperatura ambiente mais 4°C.
“Os peixes de regiões tropicais são provavelmente mais sensíveis a pequenas oscilações na temperatura do ambiente aquático, conforme demonstram relatórios prévios sobre mudanças climáticas”, disse. Além disso, as alterações climáticas em regiões tropicais podem colocar em risco a segurança alimentar humana.


sexta-feira, 7 de fevereiro de 2014

Univesp TV exibe série de palestras sobre mudanças climáticas

Agência FAPESP – Uma série de palestras proferidas durante a Conferência Nacional de Mudanças Climáticas Globais (Conclima), realizada em São Paulo em setembro de 2013 com organização da FAPESP, está sendo exibida pela Univesp TV, o canal da Universidade Virtual do Estado de São Paulo (Univesp).
Até o dia 23 de fevereiro, de segunda a sexta, às 17h e às 21h, os 14 programas do encontro poderão ser assistidos no canal digital da Univesp TV, que pode ser sintonizado pela televisão. Aos sábados, a reapresentação ocorre às 12h e às 21h – saiba como sintonizar o canal em http://univesptv.cmais.com.br/como-sintonizar-tv-digital .
Os vídeos mostram as apresentações dos pesquisadores presentes à conferência sobre os resultados de estudos recentes sobre mudanças do clima no Brasil e no mundo. Os especialistas também apresentam estratégias de adaptação aos impactos das variações ambientais e mitigação das mudanças climáticas com relação à biodiversidade, ecossistemas, recursos hídricos, saúde humana, agricultura, cidades, zonas costeiras, desastres naturais e energias renováveis.
Entre os pesquisadores que terão suas palestras apresentadas estão: Paulo Artaxo, Eduardo Haddad e Tercio Ambrizzi, todos da Universidade de São Paulo (USP); Eduardo Assad, da Empresa Brasileira de Pesquisa Agropecuária (Embrapa); e Sandra Hacon, da Fundação Oswaldo Cruz (Fiocruz).
Professor do Instituto de Física da USP e um dos seis brasileiros que participaram da elaboração do quinto relatório de avaliação do Painel Intergovernamental sobre Mudanças Climáticas (IPCC), da Organização das Nações Unidas (ONU), Artaxo apresentou palestra sobre a detecção dos fenômenos responsáveis pelas mudanças climáticas globais.
A palestra de Eduardo Haddad, professor titular da Faculdade de Economia, Administração e Contabilidade da USP, mostra os resultados de grupos de pesquisa da sub-rede economia das mudanças climáticas, da Rede Brasileira de Pesquisa e Mudanças Climáticas Globais (Rede Clima).
Ambrizzi apresentou o Primeiro Relatório de Avaliação Nacional das mudanças climáticas com base científica e Assad, o Primeiro Relatório de Avaliação Nacional de impactos, vulnerabilidades e adaptação às mudanças climáticas.
Hacon abordou os resultados de grupos de pesquisa da sub-rede saúde, da Rede Clima, apontando os efeitos causados pelas mudanças climáticas na saúde da população.
Além das exibições no canal da Univesp TV, os vídeos podem ser assistidos pela internet a qualquer momento em www.youtube.com/playlist?list=PLxI8Can9yAHfUNBjc6cQCsyD6CCX2qSfl&feature=c4-feed-u.
Mais informações: www.univesp.ensinosuperior.sp.gov.br/5802/univesp-tv-exibe-serie-de-palestras-sobre-mudancas-climaticas 

quinta-feira, 6 de fevereiro de 2014

New climate science courses online


A new online course from MIT, “Global Warming Science”, introduces the basic science underpinning our knowledge of the climate system, how climate has changed in the past, and how it may change in the future. The course focuses on the fundamental energy balance in the climate system, between incoming solar radiation and outgoing infrared radiation, and how this balance is affected by greenhouse gases. They also discuss physical processes that shape the climate, such as atmospheric and oceanic convection and large-scale circulation, solar variability, orbital mechanics, and aerosols, as well as the evidence for past and present climate change. Climate models of varying degrees of complexity are available for students to run – including a model of a single column of the Earth’s atmosphere, which includes many of the important elements of simulating climate change. Together, this range of topics forms the scientific basis for our understanding of anthropogenic (human-influenced) climate change.
The course is geared toward students with some mathematical and scientific background, but does not require any prior knowledge of climate or atmospheric science. Classes begin on February 19th and run for 12 weeks. Students may simply audit the course, or complete problems sets and a final exam to receive a certificate of completion. The course is free, and one can register for it here.
There are other climate science courses available too:
The introduction video gives a flavour of the course, which is presented by Kerry Emanuel, Dan Cziczo and David McGee:





Source/Fonte: RealClimate blog