18 setembro 2010

WHAT IS NOISE, WHAT IS REAL? HOW IS VERIFIED THE CONCENTRATION PEAKS OF CO2 AND METHANE IN ICE CORES?

The presence of CO2 or Methane in ice cores extracted from Antarctic or Greenland is the principal way to verify part of Earth environmental history. The two more important projects at this moment are considered Vostok and Epica projects. Both are a multinational projects. In the Vostok Project  a deep hole of 3.623 meters was made on a glacial lake in a glacial URSS base in Antarctica. In the European Project for Ice Coring in Antarctica (Epica) a hole of 3.734 meters deep was made in the C Dome of Concordia Station ( Coordinates 75°06’S; 123°21’E and  elevation of 3.233 meters over sea level), concluded in January 17, 2006.

The extracted samples of these holes are carefully divided in segments of tenths of centimeters. These segments had his age dated by convenient methods with controlled uncertainty to attend the project objectives.

With these samples dated, many radioisotope analyses (deuterium) were done to calculate the concentration of CO2, Methane and N2O and verify the temperature.

By considering the absolute dating process correct and the concentration values of CO2, Methane and N2O in the samples, it´s possible to estimate macro-variations of whether in the last 650.000 years.

Now we go to the point. Is it correct to say that the concentration of CO2 is now the biggest of all times, by considering only these datas? Certainly not!

If we look the original data (which is open for everybody) on page of NOAA at: http://www.ncdc.noaa.gov/paleo/icecore/antarctica/domec/domec_epica_data.html
It´s possible that a little, but important aspect are not consider by the people. The interval time scale to observe the palioclimatology variations and the time scale used in the analogue studied events.

 Considering all determination corrects (?), without any problem in chronology process or other related procedures, we see that  the elapsed time between the base and the top of each ice sample is roughly 450 years ( more exactly 300  to 550 years ). As a minimal interval, it is necessary to work with a average of 300 years.

What is the problem in all that? Simple: means properties which varies during 300 years can’t be used to estimate peaks in 30 to 40 years. This is a basic signal analysis problem, the sample rate theorem known by Nyquist-Shanonn. When we desire to reconstruct a signal with “B” frequency spectrum range we need to guaranty “2B” frequency sample of the original signal.
 
For example, if we want to reconstruct the behavior of any variable in an historic period of 50 years, a sample with 25 years is required.

This can be considered filigree, but this care with data is essential and we can’t forget these details when we are talking about extremes values of a signal.

If we are analyzing a maximal point which had happened millions years ago, and once this value is a peak value, is mandatory an inflection point on the curve data. If we had not the adequate sample frequency, the result will be certainly atennueted.

I hope so I’m wrong, because I don’t understand why dozens of researchers use these “ice cores” means data without considerations about the incompatibility of acquisition sample and data utilization for their conclusions. 

To ilustrate the problem, see the following figure.



16 setembro 2010

Compra de créditos de carbono por banco holandês leva a grilagem de terras na Índia e a derrubada de 25000 árvores.

O banco holandês, Rabobank Group, para ficar “politicamente correto” após diversas intervenções nos seus prédios, nas limitações dos deslocamentos de seus diretores e outras atitudes para diminuir a “pegada ecológica” comprou créditos de carbono referentes a um projeto de turbinas eólicas na Índia.
Algum tempo depois o jornalista investigativo Doug Struck, que se dedica a descobrir fraudes no mercado de créditos de carbono, descobriu que o projeto em questão trata-se de algo extremamente danoso as populações pobres da região em que foram implantados estes geradores.

Primeiro os “empresários” da Suzlon Energy Limited, que estavam vendendo créditos de carbono, tentaram comprar por US4000,00 as terras dos Adivasi, que significa numa tradução um pouco incorreta povo indígena (uma casta acima dos impuros – classificados como não humanos antes da constituição em 1950 proibir isto). Como estes povos vivem em locais ermos e por gerações possuem as terras sem título de propriedade, com a negativa das vendas elas foram griladas e os adivases da região expulsos. O grupo total de advasi soma aproximadamente 67,7 milhões de pessoas.

Após a expulsão dos Advasis,  foram abatidas para a implantação do projeto um número que varia conforme as fontes de 25000 a 30000 árvores, para a implantação das turbinas fornecidas pela “Suzlon Energy Limited”. Segundo a legislação indiana, para projetos sustentáveis podem-se abater árvores desde que se compensem os habitantes.

O resumo final da história, após serem surrados e presos pela polícia indiana, expulsos de suas terras que os mesmos utilizavam para sua agricultura de sobrevivência sem nenhuma compensação, os advasis locais tem que trabalhar em fazendas de cana ganhando um salário de US68,00 durante a colheita.

Melhores informações podem ser obtidas nos seguintes sites.


História dos advasis:



História da “venda de créditos de carbono”:


Prêmio recebido pelo jornalista pela série de reportagens sobre fraudes na venda de créditos de carbono.

Ilhas de calor.

Eugênio Hackbart, conhecido meteorologista do Estado do Rio Grande do Sul (MetSul), mostra dados bem conclusivos sobre as “ilhas de calor”, ou seja, as regiões nas cidades que mostram um aumento considerável da temperatura devido ao microclima dessas.
Se associarmos a isto que as medidas consideradas pelos Institutos vinculados as políticas do IPCC, utilizam na maioria dados das principais cidades brasileiras, não é de se espantar que a “temperatura” no esteja subindo muito.
Quem quiser ver por completo este artigo pesquise em:

13 setembro 2010

O que é ruído, o que é real? Como se verificam nos testemunhos de gelo picos de gás CO2 e Metano?

O principal meio de verificar a presença CO2 ou metano ao logo de parte da história da Terra é feito através de testemunhos de gelo retirados da Antártica ou da Groenlândia. Os dois projetos multinacionais mais importantes que foram levados a cabo neste sentido, foram os de Vostok a o Epica. O Vostok perfurou aproximadamente 3.623 m sobre um lago glacial de mesmo nome situada próximo a uma base glacial da ex-URSS na Antártica  e o Epica, sigla de European Project for Ice Coring in Antarctica, perfurou no Domo C da estação Concórdia (coordenadas 75°06’S; 123°21’E e elevação de 3.233 m sobre o nível do mar) aproximadamente 3.734m, terminando o furo em 17 janeiro 2006.

Retirando cuidadosamente os testemunhos destas perfurações, estes foram divididos em trechos de algumas dezenas de centímetros. Estes trechos foram datados por métodos convenientemente escolhidos com precisão satisfatória para seus objetivos.

De posse destes pequenos segmentos de gelo datados, foram realizadas análises diversas de radioisótopos de deutério para por analogia verificarem a temperatura da Terra, e outras análises para obter a concentração de CO2, Metano e N2O.

Considerando toda a datação correta, considerando que as estimativas de CO2, Metano e N2O, tem-se uma idéia das macro-variações do clima nos últimos 650.000 anos.

Agora vamos ao que interessa, levantado todos estes dados, pode-se dizer corretamente que a concentração de CO2 é a maior de todos os tempos? Certamente que não.

Se olharmos os dados originais na página que a NOAA disponibiliza a quem quiser,  http://www.ncdc.noaa.gov/paleo/icecore/antarctica/domec/domec_epica_data.html
Veremos um pequeno detalhe que parece escapar a todos, a escala de tempo dos intervalos de observação palioclimatica e a escala de tempo do evento em que se quer traçar uma analogia.

Considerando certo tudo o que foi determinado, sem discutir as incertezas da datação e outros problemas, vemos que a estimativa de tempo entre o a base e o topo dos testemunhos é de aproximadamente 450 anos (300 anos no mínimo e 550 no máximo), ou seja, se trabalha com um valor médio de 300 anos no mínimo.

Qual o problema disto tudo? Simples, médias de propriedades que variam em 300 anos não podem ser utilizadas para estimar picos de 30 a 40 anos. Isto é um problema de análise de sinal, conhecido como teorema da amostragem de Nyquist–Shannon. Quando se quer reconstruir uma amostra de freqüência B, é necessário garantir uma Taxa de Nyquist de freqüência 2B.

Passando para o presente caso, se quisermos reconstruir uma amostra histórica de período de 50 anos, por exemplo, o nosso padrão de amostragem deve ser de 25 anos.

Poderia-se dizer que isto é um preciosismo, mas este tipo de cuidado quando se trata de valores extremos de um sinal a exigência torna-se excencial.

Se estivermos analisando um máximo pontual que pode ter ocorrido a milhares de anos, e como este valor é máximo há necessariamente um ponto de inflexão na curva, se não for seguida a Taxa de Nyquist, o resultado será CERTAMENTE ATENUADO.

Espero estar errado, pois não compreendo porque dezenas de autores que utilizam os dados médios dos “ice cores” não tenham se dado conta da incompatibilidade da geração dos mesmos com a sua utilização.

Para exemplificar o problema a figura a seguir mostra a comparação entre os dados atuais de Mauna Loa com os dados de Ice Cores.



08 setembro 2010

Energia eólica não é neutra em termos de impactos ambientais.

Aqueles que olham com rancor a geração por Hidroeletricidade dão como solução alternativa e ecologicamente viável a geração por turbinas Eólicas devem colocar suas barbas de molho, pois não é bem assim.

Foram publicados recentemente dois trabalhos de pesquisadores de universidades norte-americanas de primeira linha que levarão muitas preocupações a todos, os trabalhos são, Weather response to a large wind turbine array de D. B. Barrie e D. B. Kirk-Davidoff da universidade Maryland, Departmento de ciências da Atmosfera e oceano em Chem. Phys., 10, 769–775, 2010, e Potential climatic impacts and reliability of very large-scale wind farms  de C. Wang e R. G. Prinn do Centro de Mudanças Globais do MIT, também na mesma revista Atmos. Chem. Phys., 10, 2053–2061, 2010.

Estes trabalhos simulam o que ocorrerá na circulação atmosférica se parte da energia a ser gerada futuramente substituindo a geração por combustíveis fósseis.

No primeiro trabalho os autores simulam a geração de 15% da demanda mundial em energia através de Geradores Eólicos, como se desejaria em 2030, já o cenário do outros autores é 10% da demanda mundial para 2100, mesmo com cenários diferentes os autores previram impactos ambientais significativos.

Quando se coloca um gerador eólico num local qualquer, o mesmo provocará uma pequena perturbação na esteira que se cria após a passagem do ar através deste gerador, se forem colocados muitos geradores um em seguimento ao outro, dependendo da distância e da direção e intensidade do vento, haverá uma perda significativa do rendimento do conjunto, mas isto já é assunto de um terceiro trabalho  (Wake effects at Horns Rev and their influence on energy production). Agora se colocarmos imensas “fazendas” de geração eólica cobrindo partes significativas do território, o problema se avoluma.

Por simulação física, baseada em conceitos de Mecânica dos Fluídos e Teoria da Camada Limite associadas a modelos de circulação do ar, os autores chegam a conclusões alarmantes, tais como:

  1. Nos continentes as temperaturas por bloqueio da circulação do ar subirá em aproximadamente 1°C.
  2. Nos mares as temperaturas diminuirão, aumentando o gradiente de temperatura entre estes e os continentes.
  3. O aumento do gradiente de temperatura entre terra e oceano, pode mudar em muito a dinâmica do desenvolvimento dos ciclones no Hemisfério Norte.
 
Uma das figuras de anomalias de pressão (figura 5.a de D. B. Barrie e D. B. Kirk-Davidoff) 

Uma das figuras de anomalia de temperatura (Figura 2 de C. Wang e R. G. Prinn)
 
Além dessas consequências mais alarmantes os autores detectam outras bem menos significativas, mas também importantes.

Todos devem lembrar que uma andorinha não faz verão, mas um monte de andorinhas migrando e passando sobre a nossa cabeça, também não fazem verão, mas a chance de algo sobrar sobre quem está embaixo aumenta em muito.

07 setembro 2010

O Mar deve subir 0,3 mm por ano, não mais 1,5 mm por ano devido ao degelo (GRACE).

Sea-level rise: Ice-sheet uncertainty
Sabe-se que se o mar for subir por degelo, não será por degelo do Ártico, mas sim da Antártica e Groelândia. Para quem não sabe ainda sugiro um pequeno experimento bem simples, coloque um cubo de gelo num copo e espere ele degelar, quando isto ocorrer vai ver que o nível da água não vai subir, pois o que estava flutuando quando degelar vai diminuir de volume e continuar o nível igual ao nível anterior.
A partir desta observação as únicas geleiras com capacidade alterar o nível dos mares são as calotas de gelo situadas sobre os continentes, e as únicas com volume significativo para causar variação significativa no nível do mar são as geleiras da Antártica e da Groelândia.
Para medir isto, ou se faz medidas diretas da espessura do gelo, que são muito caras e altamente duvidosas ou ainda se mede a altura do gelo. Esta segunda forma só pode ser feita via satélite, desde que haja referências corretas em Terra. A NASA através do projeto ICESat lançou em 2003 seu primeiro satélite GLAS para funcionar 5 anos, devido a problemas técnicos a vida útil do satélite foi só de 1 ano, o próximo está previsto para 2015. A agência espacial Europeia lançou CryoSat-2 em abril de 2010 tendo seus primeiros resultados em Julho deste ano.
A outra forma de medir a espessura das camadas é feita pela variação da gravidade terrestre em função da quantidade de gelo, esta forma indireta, apesar de todas as suas incertezas era tomada como um dado absoluto até o momento. O projeto GRACE (Gravity Recovery and Climate Experiment) tem por objetivo realizar esta proeza com dois satélites lançados em março de 2002, distanciados entre si em aproximadamente 220 km orbitando numa altura de 300 a 500 km. Através da medida diferencial da distância dos dois satélites retira dados de grandes variações da gravidade terrestre.
Ilustração dos dois satélites do projeto Grace, obviamente a distância entre os mesmos na figura é meramente ilustrativa.
Até aí parece tudo simples, mas como localizar exatamente os satélites, e, pior, como retirar desta localização o cálculo do deslocamento da superfície terrestre? O que significa isto?
Para explicar é necessário falar um pouco da estrutura da Terra, pois ela é composta de várias grandes camadas: A primeira camada, a Crosta Terrestre, onde colocamos os nossos pés, é sólida com espessura variável de 5 a 70 km de profundidade, abaixo desta temos o Manto Terrestre, de consistência plástica, atingindo profundidades de 2700 km a 2900 km, após esta camada plástica tem-se o Núcleo Externo que está fundido (líquido?) atingindo 5150 km e o Manto Interno que se supõe sólido até 6378 km. Ou seja a crosta corresponde a menos de 1% na maior parte do planeta.
Devido a isto o nosso planeta não é perfeitamente esférico e a Crosta pode sofrer deformações independentes da existência ou não de terremotos, por exemplo, todos nós estamos sujeitos a Maré terrestre, que da mesma forma que a Maré dos mares (parece redundância, mas é verdadeira) faz com que a Terra varie diariamente uns 20 mm a 150 mm (alguns autores indicam que esta pode chegar a 500 mm durante os equinócios), ou seja, subimos e descemos alguns centímetros todos os dias. Uma bela apresentação deste movimento pode ser visto na introdução do: Estudo do efeito de mãe terrestre na variação dos elementos orbitais de Jarbas Cordeiro Sampaio e Rodolpho Vilhena de Moraes.
A Crosta Terrestre pode sofrer deformações de curtíssimo e curto período, tais como em casos de terremotos ou da Maré Terrestre. Ela também poderá sofrer deformações que duram longos períodos de subsidência ou levantamento tectônico por movimento das placas ou alívio de carga dos gelo após a última glaciação.
Com tudo isto a Universidade do Texas através de um programa de colocação de “marcos para GPS” fixos em maciços rochosos da Antártica (West Antarctic GPS Network WAGN) procurou corrigir o que era diminuição de gelo ou variação da altura da Crosta, o trabalho desta universidade detectou que havia erros importantes nas medidas do GRACE que subestimavam a perda de gelo, mas não conseguiram (ou não quiseram publicar!) quanto era o erro.
Finalmente os pesquisadores David H. Bromwich e Julien P. Nicolas do Jet Propulsion Laboratory da Universidade de Tecnologia de Delft (TU Delft, The Netherlands) publicaram um trabalho na Nature Geoscience que corrige os dados de trabalhos preliminares de perda de gelo na Antártica e na Groelândia.
A figura modificada de um resumo deste trabalho é apresentada a seguir.
Linha situada entre as bandas azuis, dados anteriores, linha situada entre as bandas vermelhas, dados corrigidos.
Sea-level rise: Ice-sheet uncertainty
Conforme se pode ver a variação imposta ao nível global do mar é da ordem 1,8 mm em seis anos, dando um surpreendente valor de 0,3 mm por ano, ou seja, 30 mm em 100 anos ou ainda 3 cm em 100 anos.
Estes valores fecham mais ou menos com medidas anteriores que podem ser vistar em Sea level budget over 2003–2008: A reevaluation from GRACE space gravimetry, satellite altimetry and Argo, de Cazenave, A ET alli publicados em Global and Planetary Change 65 (2009) 83–88.

Em resumo, da subida dos níveis dos mares que segundo os alarmistas deveria atingir até dois metros no fim do século, temos uma taxa muitas vezes menor do que a alarmada (por isto são alarmistas) e menores do que a tendência dos últimos milênios.