28 dezembro 2010

Eventos meteorológicos extremos, uma forma de propaganda enganosa de tratar o CLIMA.

Quando não existia celular com câmara fotográfica, quando não existia Internet, quando telefone era um luxo, e quando em Caxaromonfobim acontecia um evento "climatológico" excepcional os Caxaromonfobinenses ou sentiam muito frio ou sentiam muito calor. Caso não houvesse uma recordação de um fato pior, este passava para todos os habitantes a ser considerado um extremo Meteorológico, mas o fato morria por aí, só ficando assunto para conversas por no máximo três décadas. Hoje em dia, se ocorre o mesmo fato nesta mesma cidade fictícia, a temperatura é medida num termômetro de parede, fotos são tiradas e alguém posta num Blog de ecologia o grande ocorrido, com uma manchete do tipo:

 “Temperatura de 38,58°C em Caxaromonfobim prova a existência do Aquecimento Global Antropogênico.

 Pronto, mais uma prova do aquecimento global está na mídia e o CLIMA está mudando!

Quais são os erros cometidos neste processo? Temos vários e vamos procurar demonstrar um a um.

O primeiro grande erro é confundir Tempo com Clima, tempo é algo episódico que ocorre devido a uma confluência de fatores que ocasionalmente poderão levando a eventos extremos. Exemplo, a chegada de uma frente fria pode coincidir com um grau de umidade muito alto em determinada região, provocando grandes chuvas. A passagem da frente fria pode ser um evento normal que ocorre umas duas ou três vezes por ano, da mesma forma a condição de umidade local que existia na chegada da frente fria pode ocorrer periodicamente, mas o encontro das duas condições depende do acaso, e quando este acaso ocorre, gera-se um evento extremo. Entretanto este extremo não é Clima, é Tempo.

Então, o que é clima? O próprio IPCC, baseado na Organização Mundial de Meteorologia (OMM) define precisamente o que é clima.

"Clima, num sentido restrito é geralmente definido como 'tempo meteorológico médio', ou mais precisamente, como a descrição estatística de quantidades relevantes de mudanças do tempo meteorológico num período de tempo, que vai de meses a milhões de anos.”

O período clássico definido pela OMM é de 30 anos. Mais modernamente utiliza-se a expressão clima para as descrições estatísticas do sistema global. Logo, fica claro para todos que um evento extremo numa região qualquer não define variabilidade climática, nem mesmo tendência de variabilidade climática, não importando a escala deste fenômeno (temporal ou espacial do fenômeno).

Vamos a um exemplo mais atual, o inverno 2009-2010 na Europa foi rigoroso, este inverno atual 2010-2011 também vai ser rigoroso, se esta tendência persistir por mais uns dez anos pode-se configurar uma mudança de tendência, até que isto ocorra os invernos devem ser tratados como eventos meteorológicos excepcionais.


Como conclusão pode-se dizer que eventos extremos geralmente devem ser tratados como TEMPO, e quando estas excepcionalidades começarem a se repetir por vários anos elas passam a ser consideradas como CLIMA e elas deixam de ser excepcionais!


Outro erro está ligado percepção e divulgação do evento, ligadas a probabilidade de divulgação na imprensa de extremos meteorológicos em função da densidade populacional e evolução social e tecnológica. No passado, por exemplo, há 70 anos a população brasileira era de 41 milhões de habitantes, se considerarmos que desses 41 milhões só 9 milhões eram alfabetizados e ainda que desses 9 milhões desses alfabetizados somente uns dez por cento teriam condições de divulgar na mídia da época suas impressões, teríamos uma chance de divulgação reduzida a 1% da chance dos dias atuais. Além disto, a probabilidade de se detalhar com fotos ou registros numéricos esses fatos extremos no passado em relação a hoje em dia, cairia para valores menores do que 0,01%.

Um último problema é que na maior parte do mundo, como no Brasil, os registros de grandes eventos ou não foram colhidos ou foram perdidos. Guerras, revoluções, reformas políticas ou administrativas, levam a perda de enormes acervos de dados que são preciosos e nunca mais são recuperados, só se contando para reconstituí-los com a palioclimatologia.

Com tudo isto, concluir que a última grande cheia é a pior que se tem registro e uma prova da existência do Aquecimento Global Antropogênico, não é má vontade, é ignorância.

O aquecimento global é tradicionalmente chamado um ótimo climático, já o resfriamento é o caos.

Há um verdadeiro frenesi na imprensa sobre os danos do aquecimento global, modelos climáticos com condições de contorno mal definidas alertam sobre a desertificação de determinadas áreas e depois retrocedem nas previsões, nada é perfeitamente definido quanto a malefícios que uma oscilação térmica positiva possa fazer sobre a Terra. A variação dos níveis dos mares, estimada em torno de 3,7mm por ano cai a cada ano a sua estimativa, mostrando que não há certeza de nada. O Himalaia ia ficar sem gelo em vinte anos, agora o IPCC reconhece que talvez daqui a 300 anos ocorra isto. O Ártico ia ficar livre de gelo no verão de 2012, agora que o verão de 2011 se aproxima e não há nenhuma perspectiva para isto nem se fala mais disto, por consequência os Ursos polares que eram considerados animais em risco de extinção foram tirados da categoria e parece que vão bem, obrigado.

Todo este circo que está se formando em torno de uma variabilidade climática natural, que pode aumentar e diminuir a temperatura dentro de poucos anos esconde algo que é muito mais grave, a possibilidade de um resfriamento global. Perdemos tempo estudando um só cenário, o cenário do aquecimento, e deixamos de lado o mais grave, o cenário do resfriamento. Se a temperatura aumentar um a dois graus Celsius teremos perdas em alguns lados e ganhos em outros, o permafrost diminui e a zona de agricultura aumenta. Choverá mais em alguns pontos e menos em outros, mas em média a área para a agricultura permanece a mesma ou aumenta.

Por outro lado se a temperatura diminuir uns 2° Celsius grandes áreas de agricultura se perde, áreas em regiões produtivas como Canadá, Rússia, Inglaterra, China e Argentina.

Só para se ter uma ideia do problema que causa um resfriamento, a figura a seguir mostra a região no Canadá que em 1991 teve uma quebra de safra de milho devido a queda de 1° Celsius causado pela erupção do  Vulcão Pinatubo nas Filipinas no mesmo ano. As áreas em azul são as áreas agriculturáveis que no ano em questão não puderam produzir.
Mapa especulativo da influência de 1°C na diminuição da área agriculturável  no Canadá. A área em azul corresponde a área que poderia se tornar inútil para a agricultura. A linha em azul define a área atual e a linha preta grossa o recuo ao sul da área útil.

Para quem ainda ignora que talvez estejamos num limiar de resfriamento e não de aquecimento leia a seguinte notícia em 26/12/2010 num jornal sueco:

Kallaste vintern sedan 1700-talet

Den bitande kylan har kopplat greppet om Sverige och vägrar släppa taget. Inget töväder finns i sikte och vill man hitta en vinter med så ihållande kyla får man i delar av landet gå tillbaka till 1700-talet.

Quem estiver curioso utilize o tradutor do Google, ou quem ler Sueco vá direto a fonte:

21 dezembro 2010

Se o polo norte está perdendo o gelo, não se impressione, já ficou com verões livres do gelo.

Um dos principais argumentos utilizados como prova da Teoria do Aquecimento Global Antropogênico é a diminuição do gelo no Ártico. Sempre quando se fala do gela no verão do Ártico, se diz que jamais houve período na história da Terra em que as águas do norte ficassem livres de gelo.

E como se fala no programa de TV os “Mythbusters”, mais um mito detonado. Pesquisadores Suecos, Ingleses, Islandeses, Dinamarqueses e Alemães (Martin Jakobsson, Antony Long, Ólafur Ingólfsson, Kurt H. Kjær, Robert F. Spielhagen), uma tropa de pessoas que convivem com o frio, fazendo um resumo da Segunda Conferência Internacional e Seminário sobre o Paleoclima Ártico e seus extremos (APEX) e analisando os resultados de mais de 18 grupos de pesquisas de mais diversos países, publicam finalmente um trabalho intitulado “New insights on Arctic Quaternary climate variability from palaeo-records and numerical modelling na revista de geologia dedicada aos estudos da era mais recente “Quaternary Science Reviews 29 (2010)”.

Já no abstract deste trabalho está escrito “The combined sea ice data suggest that the seasonal Arctic sea ice cover was strongly reduced during most of the early Holocene and there appear to have been periods of ice free summers in the central Arctic Ocean.”

O trabalho pinça conclusões de inúmeros artigos de especialistas sobre o assunto, mostrando o verdadeiro consenso sobre o gelo no Ártico, Há opiniões mais enfáticas e interessantes, tais como durante o penúltimo interglacial (pouco tempo em termos de geologia) a 130 a 120 kanos atrás a energia solar de verão foi tão forte que livrou o Ártico de gelo, ou seja, os verões árticos estavam 5ºC mais quentes que hoje em dia. (O mar estava 5 metros acima do nível atual).

O trabalho tem mais uma série de afirmações baseadas nas pesquisas mais recentes que detonam por completo a hipótese que estamos passando por um máximo de temperatura (pelo menos na Ártico), mostrando que os valores de temperatura foram bem maiores.

Já está ficando hábito o surgimento de trabalhos científicos nos últimos cinco anos que mostram que as hipóteses do AGA estão furadas, e o mais interessante de tudo que estes trabalhos estão vindo principalmente de pessoas que brincar com o clima é um problema de segurança nacional (suecos, islandeses, noruegueses e outros que vivem próximo do pólo).

12 dezembro 2010

Porque a educação não é prioridade nacional!

Quando se fala em educação no Brasil, há simplificações notáveis que procuram justificar a má qualidade do ensino no nosso país. Pode-se enumerar dentre as várias justificativas para o fraco desempenho da educação nacional a má remuneração dos docentes, a falta de controle nas escolas, o ensino seriado e mais dez ou vinte fatores que mais são sintomas de algo mais profundo.

E qual seria o motivo principal do mau desempenho da educação no país? Como o motivo possa ser disperso levando a responsabilidade a todos, ele é ignorado e deixado de lado, ou seja, relutamos a atribuir o fraco desempenho da nossa escola ao total desinteresse pela educação por parte da MAIOR PARTE DA POPULAÇÃO BRASILEIRA sem distinguir classes ou extratos sociais.

Levantar esta bandeira sem trazer nenhuma explicação plausível que diferencie o Brasil de outras nações é fazer um discurso vazio sem dar as origens do fato, mas antes de ir direto a visão do povo brasileiro como um todo sobre a importância da educação, podemos fazer algumas digressões sobre visões distorcidas da importância do conhecimento na prosperidade das nações.

Quando se fala sobre a biografia de criaturas notáveis nos negócios ou na ciência se dá mais ênfase a seus pequenos desvios do que seus grandes acertos. Por exemplo, quando se fala de Bill Gates, se dá ênfase na sua biografia que o mesmo abandonou os estudos universitários quase no fim do curso antes de concluir estudos de matemática e direito. Todos esquecem que a formação de primeiro e segundo grau do mesmo foi primorosa, levando que o mesmo tirasse nota 1590 num exame de pré-seleção nacional que a nota máxima era 1600, também esquecem que o mesmo abandonou o curso de direito e matemática da universidade de Harvard, não em uma universidade de segunda linha, e durante o mesmo curso ele já trabalhava como pesquisador em outras universidades.

Quando se fala em Einstein todos citam sem nenhuma fonte que o mesmo teve dificuldade de aprendizado na infância, esquecendo o resto da trajetória do cientista.

Em resumo, na cultura nacional não há uma valorização do conhecimento científico, tomado quase como uma inutilidade para atingir o sucesso. Tanto a matemática como a física são tidas como disciplinas inúteis que mais servem para incomodar do que para dar soluções práticas para a vida.

Agora quais são as razões que podem levar a grande parte da população a desprezar o conhecimento? Temos que procurar no dia a dia e na formação do capitalismo nacional para procurar entender o que se passa.

A indústria brasileira foi e ainda é baseada na chamada indústria de substituição, ou seja, por anos a fio, salvaguardados por barreiras tarifárias imensas ou simplesmente intransponíveis, a indústria brasileira progrediu da importação de plantas industriais ultrapassadas que passavam a produzir no nosso país máquinas e equipamentos também ultrapassados. Com este processo de industrialização tornou-se necessário do lado técnico a existência de engenheiros-feitores que tinham como principal função, manterem as máquinas trabalhando e os operários “na linha”.

Esta industrialização diferenciada do resto do mundo desenvolvido gerou uma visão desfocada da necessidade de pesquisa e conhecimento. Para as indústrias era mais importante ter um setor jurídico afinado para retirar as benesses do Estado, do que ter um setor de desenvolvimento de tecnologia.

Olhando com cuidado veremos que somente estatais como a Embraer (baseada no ITA) e a Petrobrás, desenvolveram e desenvolvem tecnologias próprias. Outras poucas indústrias mantém departamento de pesquisa de novos produtos são multinacionais.


Qual é a visão do nosso empresário nacional quanto ao desenvolvimento de tecnologia? É uma visão fraca e desfocada, criando desta forma um dos maiores gargalos do desenvolvimento tecnológico brasileiro. Quando se fala em meios empresariais de desenvolvimento de tecnologia, estes empresários se viram diretamente para as Universidades Públicas, cobrando das mesmas novas tecnologias para os mesmos lucrarem com isto. Não há no Brasil uma tradição de desenvolvimento de tecnologia na iniciativa privada. Indústrias pequenas, médias ou grandes não formam departamentos de pesquisa, esperam que o governo os subsidie ficando o público com os custos e o privado com os lucros.

A produção de tecnologia no Brasil é vista não como um dos investimentos necessários para o crescimento, é vista como um custo que deve ser arcado pelo o estado e transferido para a iniciativa privada quando este estiver maduro para produzir lucros. Nenhum empresário de médio porte está disposto a retirar da produção três ou quatro profissionais de nível superior para que os mesmos desenvolvam alguma coisa inovadora. Não falo de criar um grande setor de pesquisa, falo de deslocar um número mínimo de profissionais para que tentem dentro de outra realidade desenvolver algo.

Esta desvalorização do estudo, do desenvolvimento, e supervalorização do fazer a partir de estruturas e conhecimentos existentes, levam ao descrédito a educação, que permeia entre todas as classes sociais do Brasil, fazendo com que a educação seja mais um artigo de luxo do que de primeira necessidade.

Quantas vezes escutamos em conversas afirmações como estas: O importante é ter o diploma, se a Universidade não for a melhor se aprende com o tempo. Esta ideia de empreendedorismo ignorante pressupõe que haverá dois grandes grupos no desenvolvimento da tecnologia, um primeiro grupo formado por NERDS que desenvolverão qualquer coisa e não saberão comercializá-la e o segundo formado por empreendedores ignorantes, porém espertos, formados em Universidades de segunda linha, mas com inserção no mercado (não sei bem o que é isto?), que pegarão as ideias dos primeiros e ganharão dinheiro com isto. Logo, para este segundo grupo o que é necessário, uma graduação qualquer e um MBA numa escola de business de alto custo e grande renome.

Pode parecer caricato tudo que escrevi, e é para ser caricato, pois a realidade é mais complexa, porém se olharem ao redor vocês verão que esta caricatura serve para diversas pessoas reais.

06 dezembro 2010

Teoria do AGA: um passado duvidoso, um presente mal contado e um futuro pior ainda.


Na ciência como na vida para algo existir de fato, este algo deverá ter um presente, um passado e um futuro. Olhando por este prisma a teoria Antropogênica do Aquecimento Global (AGA ou AGW), parece ter um passado duvidoso, um presente mal contado e um futuro pior ainda. Vamos aos fatos, pois além desses em ciência não temos nada.

O passado da AGA é duvidoso porque ele se baseia principalmente na afirmação que estamos no período mais quente da história da Terra, ou pelo menos dos últimos mil anos. Esta afirmação tenta encontrar justificativas em alguns “proxies” de anéis de árvores (não existe palavra em português para proxy, significa dados obtidos por analogia de comportamento) correlacionando anos frios ou quentes pela espessura desses anéis. Com esta analogia e mais outros dados alguns autores tentam provar parte da teoria do AGA. A importância da afirmação está na medida em que se procura relacionar a grande concentração de CO2 a temperaturas mais altas.

Esta visão é baseada principalmente em dados que são muito contestados por diversos trabalhos científicos, principalmente devido a dificuldades estatísticas de isolar a temperatura como único fator que influência o crescimento das árvores. O resultado da análise do clima nos últimos mil anos resultou o que se convencionou chamar o “Taco de Hóquei”, porém a existência de uma curva de variação da temperatura mais ou menos plana com uma súbita elevação nos últimos cinquenta anos, que aparentaria a forma de um taco de hóquei, não é um consenso absoluto.

Outros trabalhos com outros “proxies”, como conchas de moluscos, depósitos sedimentares e até com reconstituições históricas, chegam a conclusões sobre a existência de um período que se denomina Ótimo Medieval, onde a temperatura era da mesma ordem da temperatura atual, sem a existência de uma indústria emissora de CO2 como hoje em dia. A existência deste Ótimo Medieval permitiu inclusive que os vikings colonizassem a Groenlândia (Terra verde em Dinamarquês).

Para mostrar as incertezas que pairam sobre o passado da teoria do Aquecimento Global Antropogênico, a seguir são apresentadas quatro figuras sobre as mesmas medidas.

A primeira delas que faz parte do primeiro relatório do IPCC em 1990 mostra a existência de um período quente medieval e de uma pequena idade do gelo.

Figura 1. Variação da temperatura na Terra nos últimos 1000 anos (relatório do IPCC de 1990).


Com esta figura a teoria do AGA, não prosperaria, logo Mann e seus colaboradores apresentam em 2001 a segunda figura onde tanto o Ótimo Medieval como a Pequena Idade do Gelo desaparecem.

Como se vê claramente o período Ótimo Medieval e a Pequena Idade do Gelo se transformam em picos imperceptíveis resultado de manipulações cuidadosas dos dados de anéis de árvores.

Figura 2. Variação da temperatura na Terra nos últimos 1000 anos (relatório do IPCC de 2001).

Após o surgimento desta figura, mostrada com ênfase no documentário mediático Uma Verdade Inconveniente por Al Gore, começam muitos a desconfiar dos resultados de Mann e seus colaboradores, sendo Mann objeto de vários inquéritos para verificar os seus dados.

Como resultado de toda a gritaria, já num relatório parcial do IPCC em 2007, Jansen publica uma série de curvas que mostram uma pequena inversão de tendência, onde já se vê de forma discreta o Ótimo Medieval e a Pequena Idade do Gelo.

Figura 3. Variação da temperatura na Terra nos últimos 1000 anos (relatório do IPCC de 2007).
A grita continua, pois todas as curvas de Jansen são postas de tal forma que não se encherga direito o que realmente acontece, após muita reclamação são colocadas as bandas de confiança no gráfico de temperatura e neste momento o Ótimo Medieval e a Pequena idade do Gelo salta aos olhos.

Figura 4. Variação da temperatura na Terra nos últimos 1000 anos – 2007 com bandas de confiança.

Fica claro que no mesmo assunto desaparecem e aparecem resultados nos relatórios do IPCC, mostrando pelo menos que a certeza sobre o assunto não existe. Aguardamos novidades para 2010!

Visto o passado da teoria do AGA, passemos ao presente. Conforme esta teoria um aumento na concentração do CO2 leva imediatamente a um aumento da temperatura, logo se nos últimos anos os gases de efeito estufa continuam a aumentar a temperatura deveria também aumentar.

Figura 5. Variação da concentração de CO2 medida em Mauna Loa no Havaí
A figura 5, mostra que o aumento do CO2 na atmosfera tem se mantido constante crescendo regularmente seguindo uma tendência linear que independe da variação da atividade industrial humana. Com crescimento ou recessão, com paralisação de parte da indústria mundial ou não, a tendência é crescente, mostrando já que não há uma correlação clara entre o desenvolvimento industrial e o aumento da concentração do CO2.

Bem, vamos supor que é assim, porque é assim! Logo a temperatura da Terra deveria subir sem descanso com o aumento do CO2. Para mostrar isto temos a seguir cinco figuras que mostram a variação da temperatura global da Terra medida por Institutos ou Métodos diferentes.

Figura 6 Temperatura global medida pela Alabama University.
Figura 7 Temperatura global medida pela NASA (Remote Sensing Systems – RSS).
 Figura 8 Temperatura global medida pela NASA (Goddard Institute for Space Studies - GISS).
  Figura 9 Temperatura global medida pela Climatic Research Unit (HadCRUT3).
Figura 10 Temperatura global medida pela National Climatic Data Center (NCDC - NOAA).
 

Olhando essas curvas se tem duas certezas, primeiro que a temperatura da Terra tem se mantido alta, e segundo que o último grande pico de temperatura ocorreu há doze anos.

Como se viu, o passado da teoria do AGA é duvidoso, o seu presente é mal contado, só restando o futuro. Para este os mágicos do IPCC guardam as suas previsões catastróficas através de seus Modelos de Climatologia Global (GCM). Como dizem os mais espertinhos “O futuro a Deus pertence”, logo eles podiam extrapolar suas suposições, mais fantasias do que realidade e assustar as criancinhas com um futuro sombrio e sinistro.

Esses modelos apresentam erros conceituais básicos como os relatados pelo professor Robin Thomas Clarke no seu trabalho intitulado On the (mis)use of statistical methods in hydro-climatological research, no Hydrological Sciences Journal (DOI: 10.1080/02626661003616819), porém este trabalho descrevia os erros sem se dar o trabalho de demonstrá-los. Indo adiante do proposto pelo professor Clark, os professores gregos Anagnostopoulos, Koutsoyiannis, Christofides, Efstratiadis & Mamassis escreveram um interessante trabalho intitulado A comparison of local and aggregated climate model outputs with observed data, no Hydrological Sciences Journal (http://dx.doi.org/10.1080/02626667.2010.513518).

Como reclamado pelo trabalho anteriormente citado não havia calibração dos modelos, e para satisfazer esta necessidade os autores testaram sete modelos utilizados pelo IPCC conforme tabela a seguir.


 Para estes modelos foram verificados as previsões de temperatura e chuva para 55 pontos em todos os continentes e verificados em grande escala espacial (todo o Estados Unidos).

Só para dar um exemplo do resultado chegado mostraremos na figura 11 a correlação entre os dados medidos e os dados calculados pelos modelos GCM.

Figura 11. Correlação entre dados medidos e observados.

Só para dar uma ideia do trabalho, apresento uma tradução feita rapidamente de parte das conclusões:

Alega-se que Modelos de Climatologia Global (GCM) fornecem estimativas quantitativas credíveis para a avaliação de futuras mudanças climáticas, particularmente quando utilizados em escalas continental ou superior.
Examinando o desempenho local dos modelos em 55 pontos, foi possível observar que as projeções locais não estão bem correlacionadas com medidas observadas. Além disso, verificou-se que a correlação em grande escala espacial, ou seja, nos EUA como um todo a correlação ainda fica pior do que na escala local.
No entanto, pensamos que a questão principal não é se os GCM conseguem produzir estimativas de clima futuro de forma confiável, mas se o clima como um todo é previsível em termos deterministicos.

Ou seja, os autores fazem o que os modeladores de GCM se negam a fazer, verificam os modelos e chegam a conclusão que eles são FURADOS. Quem quiser olhar mais o artigo terá surpresas ainda mais interessantes!

Em resumo, passado duvidoso, um presente mal contado e um futuro pior ainda é o que resume a teoria do AGA.

05 dezembro 2010

A correlação entre energia limpa e desemprego, o que é desculpa o que é verdade?

Os conservadores norte-americanos estão em estado de alerta contra a teoria do AGA (AGW), isto vem de longa data, mas hoje em dia há uma tentativa de associar a política de imposição de energias verdes com o desemprego. Esta associação, a meu ver é um tanto espúria (olha que sou contra a teoria do AGA), pois a crise corre mais ou menos independente do investimento em energias verdes, deu o acaso do incremento do desemprego correr junto ao aumento de gastos em subsídios para energias renováveis.

Apesar de forçada a correlação, para um bom conservador norte-americano, como todo bom conservador, fica com erisipela quando se fala em subsídios, esta palavra é associada a palavra imposto pelos conservadores com um grau superior de maldade.

Até aqui nada de novidades, porém este discurso está bombando na reunião de Cancun que deveria dar segmento ao tratado de Kioto sobre a emissão de CO2. Começa neste momento a se observar um grande  dissenso quanto a política sobre o assunto. No início da reunião o representante Japonês disse que o Japão após 2012 não continuará com o tratado de Kioto. Somado ao Japão temos os Estados Unidos e a China que não assinaram este tratado para não prejudicar seus níveis de emprego. Com tudo isto talvez em 2012 vamos chegar às negociações sobre aquecimento global como o Joãozinho do Passo Certo, só nós.

Agora pergunto, quando vem o James Cameron aqui para atrasar as construções de nossas hidrelétricas em nome do aquecimento global, quando o GreenPeace e o WWF lutam pela conservação de pererecas e bagras que supostamente se extinguirão com a construção de outras usinas hidrelétricas, os nossos ecopatas de plantão ficam todos emocionados por estarem no primeiro mundo, e dão ouvidos a estes grande cretinos do norte. Enquanto ocorre isto no Brasil os maiores POLUIDORES e CONSUMIDORES DOS RECURSOS NATURAIS DO PLANETA  nem estão aí para isto, e PIOR muito menos são admoestados pelos GreenPeaces e WWFs da vida (veja o que NÃO foi feito durante o vazamento de óleo no golfo do México).
Os nossos empregos, segundo a ótica dos nossos ecopatas, parecem menos importantes que os dos Californianos, pois eles acatam as ordens dos grandes ecologistas do norte, que no lugar de lutar em seus países ficam dando ordem para os nossos macaquinhos ecopatas.

Se o emprego vale como pretexto para USA, Japão e China rejeitarem acordos de diminuição de CO2, que tomemos os nossos próprios objetivos como preservação da mata atlântica, diminuição da poluição dos rios próximo as grandes cidades e centenas de outros que os nossos técnicos detectarem e mandemos bem longe a tutela de ONGs com segundas intenções em nossos países.

02 dezembro 2010

Quando a iniciativa privada vai assumir a sua parte na pesquisa?

Há uma tradição no Brasil que a pesquisa deve ser levada quase com exclusividade pelos Institutos de Pesquisa vinculados ao poder público. Esta tradição talvez seja um dos motivos do baixo número de patentes que se tem no Brasil. Dados sobre publicações científicas mostram uma progressão da ciência brasileira no mundo, modesta, mas consistente, entretanto a quantidade de patentes não sobe com o mesmo ritmo.

Parte do problema da falta de patentes, está na centralização na academia de grande parte das pesquisas, e como os professores e pesquisadores são mais cobrados por publicações científicas do que por produtos desenvolvidos, o número de patentes não é significativo. Como solução para este problema cria-se incubadoras científicas junto as Universidades e os Institutos de Pesquisa, este tipo de iniciativa só extende em parte e perpetua a dependência da iniciativa privada ao poder público. Não há uma real transferência de responsabilidades para as empresas de grande e médio porte de gerar novas tecnologias, continuando estas empresas fora do circuito da pesquisa.

O exemplo que torna patente a falta de articulação das empresas privadas com a Pesquisa e Desenvolvimento está na “compra tecnologia”, que após instalada na fábrica leva a indústria que "comprou a tecnologia" estar no mesmo nível das outras empresas que "compraram" a mesma tecnologia. Restando para o industrial somente a opção de aviltar o salário dos seus empregados para ter condições de concorrer no mercado. Esqueceu o empresário no momento da “compra de tecnologia” que ela detve ter sido também vendida para diversos fabricantes, não criando um diferencial entre o seu produto e dos outros.

Pode-se perguntar o que leva o empresário a não investir em pesquisa. Basicamente pode-se detectar dois grandes problemas, achar que pesquisa só dá resultado em longo prazo e o total desconhecimento do que é uma P&D (pesquisa e desenvolvimento).

O primeiro problema parte do pressuposto que pesquisa deve gerar algo surpreendente, totalmente inovador e que o coloque na frente de tudo e de todos. Esquece que havendo numa indústria um núcleo de pesquisa este pode dar pequenos resultado a cada passo, gerando desta forma, alta sustentabilidade do próprio núcleo de pesquisa.

O segundo problema, é gerado por uma fantasia de que centros de pesquisa são algo de alta tecnologia, com equipamentos sofisticadíssimos e cientistas de renome internacional.

O mito do cientista maluco, da alta tecnologia escondida em setores de ponta, inibem pequenos investimentos que com o tempo e paciência resultarão em grandes lucros e vantagens competitivas em relação a outros produtores.

01 dezembro 2010

O “Peak oil” e o “Peak Coal” chegam antes do aquecimento global.

De acordo com o expert em energia Kjell Alekett da universidade de Uppsala na Suécia (vide slides em http://www.businessinsider.com/peak-coal-outlook-2010-11#-1), os cenários de emissão de carbono dos últimos dez anos estão errados. Aleklett prevê os picos de produção de óleo, carvão e gás natural para 2011-2012, 2019 e 2028-2047 respectivamente.



Isto mostra várias coisas, que a teoria do aquecimento global antropogênico é um imenso pano de fundo para um problema bem mais grave, o fim dos combustíveis fósseis antes da metade deste milênio. Também mostra que terminado o óleo seis países que detêm 90,6% das reservas internacionais de carvão darão o ritmo para os demais, os países são USA (28,9%) Russia, Ukrania e Kasaquistão (26,9%), China (13,9%), Australia (9,2%), Índia (7,1%) e Polônia (0,9%).



Devido esta carência natural de recursos energéticos os cenários pessimistas e mesmos a longo prazo os médios ficam invalidados, a medida em que o petróleo e o carvão tem declínio significativo na sua produção antes do meio do século XXI.

Para o cenário mais negativo, que segundo o IPCC a temperatura da Terra aumentaria em 6°C seria necessário que o consumo do carvão aumentasse 10 vezes. No trabalho de Kjell Alekett se mostra que não há condições para esta extração.

O trabalho de Kjell Alekett é baseado também numa tese defendida em 2010 por Steve Mohr denominada Projectio of Word Fossil Fuel Production with Supply and Demand Interactions (vide um resumo em http://www.theoildrum.com/pdf/theoildrum_6782.pdf).

06 outubro 2010

Astrônomos preocupados com a diminuição do Campo Magnético Solar.

Matthew J. Penn e William Livingston, astrônomos do National Solar Observatory, situado no Arizona, prepararam um artigo técnico a ser apresentado no IAU Symposium No. 273 (http://www.probeinternational.org/Livingston-penn-2010.pdf), este artigo mostra a evolução da quantidade de manchas solares e a sua relação com o campo magnético solar.

Estes autores, usando telescópios e outros equipamentos utilizados para este fim, fizeram uma correlação entre o campo magnético e as manchas solares. A figura 1 do artigo acima representada, mostra em vermelho todas as medidas e em preto as médias anuais. No eixo das ordenadas refere-se ao campo magnético (em Gauss – unidade de magnetismo) e eixo das abscissas estão os respectivos anos separados entre os ciclos solares 23 e 24 (atual).

Os autores extrapolaram linearmente a tendência dos valores médios e com isto tem um resultado surpreendente, entre 2017 ou 2022 o sol pode se tornar branco de manchas solares (o mínimo aceito para a criação de uma mancha solar está em torno de 1500 Gauss).

Qual o grande problema disto?  ENORME, pois várias medidas correlacionam um Sol livre de manchas solares com quedas substantivas na temperatura da Terra. O gráfico a seguir mostra o número de manchas solares medidas a partir de meados do século XVII, sendo que durante os períodos 1650 a 1700, 1800 a 1830 e 1870 a 1910 ocorreram os mínimos de Maunder, de Dalton e o avanço glacial tardio.

Por outro lado, se vê claramente que os máximos em termos de manchas solares correspondem exatamente com o período que muitos atribuíam (cada vez atribuem menos!) ao Aquecimento Global Antropogênico.

Para não colocar palavras na boca dos autores do artigo, os dois últimos parágrafos são originários de diversos trabalhos de climatologistas que comparam os ciclos solares com a temperatura na Terra.


A grande dúvida que se põe é da continuação da tendência linear das manchas solares, mas se levarmos em conta que o período interglacial que vivemos hoje em dia supera já em algumas centenas de anos os períodos anteriores, a tendência de um Resfriamento Global se mostra muito plausível.

Poderemos neste caso ter três situações:

1ª Uma inversão completa na tendência com subida da temperatura,

2ª um mínimo temporário, levando a uma pequena idade do gelo, com um resfriamento de dois ou três graus, ou

3ª um novo período glacial (frio mesmo).

Eu torceria por um aquecimento global, pois este afeta minimamente a vida na Terra, pois a segunda hipótese é um terror e a terceira um descalabro.

05 outubro 2010

As Neves do Kilimanjaro, mais um mito do Aquecimento Global que se vai.

Quando escutamos que as Neves do Kilimanjaro podem acabar em menos de trinta anos lembramos-nos do conto de Ernest Hemingway que foi imortalizado num dos clássicos do cinema americano, que leva o mesmo nome do conto “The Snows of Kilimanjaro” comGregory Peck, Susan Hayward e Ava Gardner.



Kilimanjaro, para quem ainda não sabe, é a montanha mais alta da África com seus altivos 5 891,8 m e com suas neves eternas. Isto é algo que toca a fundo no inconsciente dos ocidentais.

Repete-se com insistência as causas desse cataclismo, o “Aquecimento Global Antropogênico”, AGA, porém nunca foi estudado a fundo a origem desta perda de gelo. Pois agora uma equipe multidiplinar das Universidade de Portsmouth (Reino Unido), Universidade do Brunei Darussalam, e da Universidade de Massachusetts (Estados Unidos), foram a campo estudar o fenômeno durante quatro anos, eu disse QUATRO ANOS (2004-2008).

Foram medidas a umidade, os campos de velocidade e implantadas dez estações meteorológicas automáticas em diversos pontos para monitorar 24 horas por dia tudo o que ocorria em torno desta montanha. Os pesquisadores ainda usaram dados de satélite para fechar melhor os seus modelos conceituais de circulação de ar no Kilimanjaro. Após este grande esforço, bem baseado tanto em teoria como nos dados eles conseguem enxergar claramente o vilão da história.

Para encurtar o assunto, que pode ser lido no trabalho, The montane circulation on Kilimanjaro, Tanzania and its relevance for the summit ice fields: Comparison of surface mountain climate with equivalent reanalysis parameters de N.C. Pepin, W.J. Duane e D.R. Hardy, em Global and Planetary Change, eles chegam a conclusão que realmente é o HOMEM que está acelerando o degelo dessas neves outrora eternas, mas não através do AGA, mas sim através do DESMATAMENTO nas regiões próximas a montanha. Concluindo já no fim do sumário deste artigo que “Long-term ice retreat at the summit of Kilimanjaro therefore is most likely to be influenced by changes in local land-use as well as more regional free-air changes.”

O artigo não isenta os humanos no fim das neves do Kilimanjaro, mas com um diagnóstico correto permite sugestões pontuais para evitar esta catástrofe, que pode abalar o turismo da região. Um diagnóstico correto permite que o governo da Tanzânia se quiser manter o turismo na região poderá empreender uma custosa, mas proveitosa tarefa de reflorestar amplas áreas em torno do monte.


A grande dúvida que sempre se tinha sobre o Kilimanjaro era que o seu cume apresenta pela altura uma temperatura abaixo do ponto de fusão do gelo, e mesmo assim vinha insistentemente perdendo área ano após ano. O que se diagnostica com isto é que o gelo esta num processo de sublimação (passagem direta do estado sólido para o gasoso) e como as correntes de ar úmido estão sendo eliminado pela ausência do clima úmido, presente em florestas tropicais.

03 outubro 2010

Os ecologistas mostram a sua face Fascista (com humor é claro)

Já estou sentindo explodir, veja o que gentis ingleses, pró controle da emissão de gases do efeito estufa colocam como um víde de Humor (????) sobre o controle de emissões.



http://www.1010global.org/uk






18 setembro 2010

WHAT IS NOISE, WHAT IS REAL? HOW IS VERIFIED THE CONCENTRATION PEAKS OF CO2 AND METHANE IN ICE CORES?

The presence of CO2 or Methane in ice cores extracted from Antarctic or Greenland is the principal way to verify part of Earth environmental history. The two more important projects at this moment are considered Vostok and Epica projects. Both are a multinational projects. In the Vostok Project  a deep hole of 3.623 meters was made on a glacial lake in a glacial URSS base in Antarctica. In the European Project for Ice Coring in Antarctica (Epica) a hole of 3.734 meters deep was made in the C Dome of Concordia Station ( Coordinates 75°06’S; 123°21’E and  elevation of 3.233 meters over sea level), concluded in January 17, 2006.

The extracted samples of these holes are carefully divided in segments of tenths of centimeters. These segments had his age dated by convenient methods with controlled uncertainty to attend the project objectives.

With these samples dated, many radioisotope analyses (deuterium) were done to calculate the concentration of CO2, Methane and N2O and verify the temperature.

By considering the absolute dating process correct and the concentration values of CO2, Methane and N2O in the samples, it´s possible to estimate macro-variations of whether in the last 650.000 years.

Now we go to the point. Is it correct to say that the concentration of CO2 is now the biggest of all times, by considering only these datas? Certainly not!

If we look the original data (which is open for everybody) on page of NOAA at: http://www.ncdc.noaa.gov/paleo/icecore/antarctica/domec/domec_epica_data.html
It´s possible that a little, but important aspect are not consider by the people. The interval time scale to observe the palioclimatology variations and the time scale used in the analogue studied events.

 Considering all determination corrects (?), without any problem in chronology process or other related procedures, we see that  the elapsed time between the base and the top of each ice sample is roughly 450 years ( more exactly 300  to 550 years ). As a minimal interval, it is necessary to work with a average of 300 years.

What is the problem in all that? Simple: means properties which varies during 300 years can’t be used to estimate peaks in 30 to 40 years. This is a basic signal analysis problem, the sample rate theorem known by Nyquist-Shanonn. When we desire to reconstruct a signal with “B” frequency spectrum range we need to guaranty “2B” frequency sample of the original signal.
 
For example, if we want to reconstruct the behavior of any variable in an historic period of 50 years, a sample with 25 years is required.

This can be considered filigree, but this care with data is essential and we can’t forget these details when we are talking about extremes values of a signal.

If we are analyzing a maximal point which had happened millions years ago, and once this value is a peak value, is mandatory an inflection point on the curve data. If we had not the adequate sample frequency, the result will be certainly atennueted.

I hope so I’m wrong, because I don’t understand why dozens of researchers use these “ice cores” means data without considerations about the incompatibility of acquisition sample and data utilization for their conclusions. 

To ilustrate the problem, see the following figure.



16 setembro 2010

Compra de créditos de carbono por banco holandês leva a grilagem de terras na Índia e a derrubada de 25000 árvores.

O banco holandês, Rabobank Group, para ficar “politicamente correto” após diversas intervenções nos seus prédios, nas limitações dos deslocamentos de seus diretores e outras atitudes para diminuir a “pegada ecológica” comprou créditos de carbono referentes a um projeto de turbinas eólicas na Índia.
Algum tempo depois o jornalista investigativo Doug Struck, que se dedica a descobrir fraudes no mercado de créditos de carbono, descobriu que o projeto em questão trata-se de algo extremamente danoso as populações pobres da região em que foram implantados estes geradores.

Primeiro os “empresários” da Suzlon Energy Limited, que estavam vendendo créditos de carbono, tentaram comprar por US4000,00 as terras dos Adivasi, que significa numa tradução um pouco incorreta povo indígena (uma casta acima dos impuros – classificados como não humanos antes da constituição em 1950 proibir isto). Como estes povos vivem em locais ermos e por gerações possuem as terras sem título de propriedade, com a negativa das vendas elas foram griladas e os adivases da região expulsos. O grupo total de advasi soma aproximadamente 67,7 milhões de pessoas.

Após a expulsão dos Advasis,  foram abatidas para a implantação do projeto um número que varia conforme as fontes de 25000 a 30000 árvores, para a implantação das turbinas fornecidas pela “Suzlon Energy Limited”. Segundo a legislação indiana, para projetos sustentáveis podem-se abater árvores desde que se compensem os habitantes.

O resumo final da história, após serem surrados e presos pela polícia indiana, expulsos de suas terras que os mesmos utilizavam para sua agricultura de sobrevivência sem nenhuma compensação, os advasis locais tem que trabalhar em fazendas de cana ganhando um salário de US68,00 durante a colheita.

Melhores informações podem ser obtidas nos seguintes sites.


História dos advasis:



História da “venda de créditos de carbono”:


Prêmio recebido pelo jornalista pela série de reportagens sobre fraudes na venda de créditos de carbono.

Ilhas de calor.

Eugênio Hackbart, conhecido meteorologista do Estado do Rio Grande do Sul (MetSul), mostra dados bem conclusivos sobre as “ilhas de calor”, ou seja, as regiões nas cidades que mostram um aumento considerável da temperatura devido ao microclima dessas.
Se associarmos a isto que as medidas consideradas pelos Institutos vinculados as políticas do IPCC, utilizam na maioria dados das principais cidades brasileiras, não é de se espantar que a “temperatura” no esteja subindo muito.
Quem quiser ver por completo este artigo pesquise em:

13 setembro 2010

O que é ruído, o que é real? Como se verificam nos testemunhos de gelo picos de gás CO2 e Metano?

O principal meio de verificar a presença CO2 ou metano ao logo de parte da história da Terra é feito através de testemunhos de gelo retirados da Antártica ou da Groenlândia. Os dois projetos multinacionais mais importantes que foram levados a cabo neste sentido, foram os de Vostok a o Epica. O Vostok perfurou aproximadamente 3.623 m sobre um lago glacial de mesmo nome situada próximo a uma base glacial da ex-URSS na Antártica  e o Epica, sigla de European Project for Ice Coring in Antarctica, perfurou no Domo C da estação Concórdia (coordenadas 75°06’S; 123°21’E e elevação de 3.233 m sobre o nível do mar) aproximadamente 3.734m, terminando o furo em 17 janeiro 2006.

Retirando cuidadosamente os testemunhos destas perfurações, estes foram divididos em trechos de algumas dezenas de centímetros. Estes trechos foram datados por métodos convenientemente escolhidos com precisão satisfatória para seus objetivos.

De posse destes pequenos segmentos de gelo datados, foram realizadas análises diversas de radioisótopos de deutério para por analogia verificarem a temperatura da Terra, e outras análises para obter a concentração de CO2, Metano e N2O.

Considerando toda a datação correta, considerando que as estimativas de CO2, Metano e N2O, tem-se uma idéia das macro-variações do clima nos últimos 650.000 anos.

Agora vamos ao que interessa, levantado todos estes dados, pode-se dizer corretamente que a concentração de CO2 é a maior de todos os tempos? Certamente que não.

Se olharmos os dados originais na página que a NOAA disponibiliza a quem quiser,  http://www.ncdc.noaa.gov/paleo/icecore/antarctica/domec/domec_epica_data.html
Veremos um pequeno detalhe que parece escapar a todos, a escala de tempo dos intervalos de observação palioclimatica e a escala de tempo do evento em que se quer traçar uma analogia.

Considerando certo tudo o que foi determinado, sem discutir as incertezas da datação e outros problemas, vemos que a estimativa de tempo entre o a base e o topo dos testemunhos é de aproximadamente 450 anos (300 anos no mínimo e 550 no máximo), ou seja, se trabalha com um valor médio de 300 anos no mínimo.

Qual o problema disto tudo? Simples, médias de propriedades que variam em 300 anos não podem ser utilizadas para estimar picos de 30 a 40 anos. Isto é um problema de análise de sinal, conhecido como teorema da amostragem de Nyquist–Shannon. Quando se quer reconstruir uma amostra de freqüência B, é necessário garantir uma Taxa de Nyquist de freqüência 2B.

Passando para o presente caso, se quisermos reconstruir uma amostra histórica de período de 50 anos, por exemplo, o nosso padrão de amostragem deve ser de 25 anos.

Poderia-se dizer que isto é um preciosismo, mas este tipo de cuidado quando se trata de valores extremos de um sinal a exigência torna-se excencial.

Se estivermos analisando um máximo pontual que pode ter ocorrido a milhares de anos, e como este valor é máximo há necessariamente um ponto de inflexão na curva, se não for seguida a Taxa de Nyquist, o resultado será CERTAMENTE ATENUADO.

Espero estar errado, pois não compreendo porque dezenas de autores que utilizam os dados médios dos “ice cores” não tenham se dado conta da incompatibilidade da geração dos mesmos com a sua utilização.

Para exemplificar o problema a figura a seguir mostra a comparação entre os dados atuais de Mauna Loa com os dados de Ice Cores.



08 setembro 2010

Energia eólica não é neutra em termos de impactos ambientais.

Aqueles que olham com rancor a geração por Hidroeletricidade dão como solução alternativa e ecologicamente viável a geração por turbinas Eólicas devem colocar suas barbas de molho, pois não é bem assim.

Foram publicados recentemente dois trabalhos de pesquisadores de universidades norte-americanas de primeira linha que levarão muitas preocupações a todos, os trabalhos são, Weather response to a large wind turbine array de D. B. Barrie e D. B. Kirk-Davidoff da universidade Maryland, Departmento de ciências da Atmosfera e oceano em Chem. Phys., 10, 769–775, 2010, e Potential climatic impacts and reliability of very large-scale wind farms  de C. Wang e R. G. Prinn do Centro de Mudanças Globais do MIT, também na mesma revista Atmos. Chem. Phys., 10, 2053–2061, 2010.

Estes trabalhos simulam o que ocorrerá na circulação atmosférica se parte da energia a ser gerada futuramente substituindo a geração por combustíveis fósseis.

No primeiro trabalho os autores simulam a geração de 15% da demanda mundial em energia através de Geradores Eólicos, como se desejaria em 2030, já o cenário do outros autores é 10% da demanda mundial para 2100, mesmo com cenários diferentes os autores previram impactos ambientais significativos.

Quando se coloca um gerador eólico num local qualquer, o mesmo provocará uma pequena perturbação na esteira que se cria após a passagem do ar através deste gerador, se forem colocados muitos geradores um em seguimento ao outro, dependendo da distância e da direção e intensidade do vento, haverá uma perda significativa do rendimento do conjunto, mas isto já é assunto de um terceiro trabalho  (Wake effects at Horns Rev and their influence on energy production). Agora se colocarmos imensas “fazendas” de geração eólica cobrindo partes significativas do território, o problema se avoluma.

Por simulação física, baseada em conceitos de Mecânica dos Fluídos e Teoria da Camada Limite associadas a modelos de circulação do ar, os autores chegam a conclusões alarmantes, tais como:

  1. Nos continentes as temperaturas por bloqueio da circulação do ar subirá em aproximadamente 1°C.
  2. Nos mares as temperaturas diminuirão, aumentando o gradiente de temperatura entre estes e os continentes.
  3. O aumento do gradiente de temperatura entre terra e oceano, pode mudar em muito a dinâmica do desenvolvimento dos ciclones no Hemisfério Norte.
 
Uma das figuras de anomalias de pressão (figura 5.a de D. B. Barrie e D. B. Kirk-Davidoff) 

Uma das figuras de anomalia de temperatura (Figura 2 de C. Wang e R. G. Prinn)
 
Além dessas consequências mais alarmantes os autores detectam outras bem menos significativas, mas também importantes.

Todos devem lembrar que uma andorinha não faz verão, mas um monte de andorinhas migrando e passando sobre a nossa cabeça, também não fazem verão, mas a chance de algo sobrar sobre quem está embaixo aumenta em muito.

07 setembro 2010

O Mar deve subir 0,3 mm por ano, não mais 1,5 mm por ano devido ao degelo (GRACE).

Sea-level rise: Ice-sheet uncertainty
Sabe-se que se o mar for subir por degelo, não será por degelo do Ártico, mas sim da Antártica e Groelândia. Para quem não sabe ainda sugiro um pequeno experimento bem simples, coloque um cubo de gelo num copo e espere ele degelar, quando isto ocorrer vai ver que o nível da água não vai subir, pois o que estava flutuando quando degelar vai diminuir de volume e continuar o nível igual ao nível anterior.
A partir desta observação as únicas geleiras com capacidade alterar o nível dos mares são as calotas de gelo situadas sobre os continentes, e as únicas com volume significativo para causar variação significativa no nível do mar são as geleiras da Antártica e da Groelândia.
Para medir isto, ou se faz medidas diretas da espessura do gelo, que são muito caras e altamente duvidosas ou ainda se mede a altura do gelo. Esta segunda forma só pode ser feita via satélite, desde que haja referências corretas em Terra. A NASA através do projeto ICESat lançou em 2003 seu primeiro satélite GLAS para funcionar 5 anos, devido a problemas técnicos a vida útil do satélite foi só de 1 ano, o próximo está previsto para 2015. A agência espacial Europeia lançou CryoSat-2 em abril de 2010 tendo seus primeiros resultados em Julho deste ano.
A outra forma de medir a espessura das camadas é feita pela variação da gravidade terrestre em função da quantidade de gelo, esta forma indireta, apesar de todas as suas incertezas era tomada como um dado absoluto até o momento. O projeto GRACE (Gravity Recovery and Climate Experiment) tem por objetivo realizar esta proeza com dois satélites lançados em março de 2002, distanciados entre si em aproximadamente 220 km orbitando numa altura de 300 a 500 km. Através da medida diferencial da distância dos dois satélites retira dados de grandes variações da gravidade terrestre.
Ilustração dos dois satélites do projeto Grace, obviamente a distância entre os mesmos na figura é meramente ilustrativa.
Até aí parece tudo simples, mas como localizar exatamente os satélites, e, pior, como retirar desta localização o cálculo do deslocamento da superfície terrestre? O que significa isto?
Para explicar é necessário falar um pouco da estrutura da Terra, pois ela é composta de várias grandes camadas: A primeira camada, a Crosta Terrestre, onde colocamos os nossos pés, é sólida com espessura variável de 5 a 70 km de profundidade, abaixo desta temos o Manto Terrestre, de consistência plástica, atingindo profundidades de 2700 km a 2900 km, após esta camada plástica tem-se o Núcleo Externo que está fundido (líquido?) atingindo 5150 km e o Manto Interno que se supõe sólido até 6378 km. Ou seja a crosta corresponde a menos de 1% na maior parte do planeta.
Devido a isto o nosso planeta não é perfeitamente esférico e a Crosta pode sofrer deformações independentes da existência ou não de terremotos, por exemplo, todos nós estamos sujeitos a Maré terrestre, que da mesma forma que a Maré dos mares (parece redundância, mas é verdadeira) faz com que a Terra varie diariamente uns 20 mm a 150 mm (alguns autores indicam que esta pode chegar a 500 mm durante os equinócios), ou seja, subimos e descemos alguns centímetros todos os dias. Uma bela apresentação deste movimento pode ser visto na introdução do: Estudo do efeito de mãe terrestre na variação dos elementos orbitais de Jarbas Cordeiro Sampaio e Rodolpho Vilhena de Moraes.
A Crosta Terrestre pode sofrer deformações de curtíssimo e curto período, tais como em casos de terremotos ou da Maré Terrestre. Ela também poderá sofrer deformações que duram longos períodos de subsidência ou levantamento tectônico por movimento das placas ou alívio de carga dos gelo após a última glaciação.
Com tudo isto a Universidade do Texas através de um programa de colocação de “marcos para GPS” fixos em maciços rochosos da Antártica (West Antarctic GPS Network WAGN) procurou corrigir o que era diminuição de gelo ou variação da altura da Crosta, o trabalho desta universidade detectou que havia erros importantes nas medidas do GRACE que subestimavam a perda de gelo, mas não conseguiram (ou não quiseram publicar!) quanto era o erro.
Finalmente os pesquisadores David H. Bromwich e Julien P. Nicolas do Jet Propulsion Laboratory da Universidade de Tecnologia de Delft (TU Delft, The Netherlands) publicaram um trabalho na Nature Geoscience que corrige os dados de trabalhos preliminares de perda de gelo na Antártica e na Groelândia.
A figura modificada de um resumo deste trabalho é apresentada a seguir.
Linha situada entre as bandas azuis, dados anteriores, linha situada entre as bandas vermelhas, dados corrigidos.
Sea-level rise: Ice-sheet uncertainty
Conforme se pode ver a variação imposta ao nível global do mar é da ordem 1,8 mm em seis anos, dando um surpreendente valor de 0,3 mm por ano, ou seja, 30 mm em 100 anos ou ainda 3 cm em 100 anos.
Estes valores fecham mais ou menos com medidas anteriores que podem ser vistar em Sea level budget over 2003–2008: A reevaluation from GRACE space gravimetry, satellite altimetry and Argo, de Cazenave, A ET alli publicados em Global and Planetary Change 65 (2009) 83–88.

Em resumo, da subida dos níveis dos mares que segundo os alarmistas deveria atingir até dois metros no fim do século, temos uma taxa muitas vezes menor do que a alarmada (por isto são alarmistas) e menores do que a tendência dos últimos milênios.