Archive for the 'Aquecimento Global' Category

Reflexões sobre o efeito estufa

O fenômeno do efeito estufa, como descrito nos livros de Meteorologia, é questionável e desafia as leis da Termodinâmica! Esse fenômeno não está descrito nos livros de Física. A versão clássica o compara com o que ocorria nas antigas casas de vegetação (estufa de plantas = greenhouse), nas quais a radiação solar atravessava os painéis de vidro e aquecia o chão e o ar interno. A radiação infravermelha térmica (IV), emitida dentro da casa de vegetação, não conseguia passar pelo vidro, que a absorve por ser opaco a ela (vidro absorve comprimentos de onda superiores a 2,8 µm) e a impedia de escapar para o ambiente exterior à casa de vegetação. Esse seria o fenômeno responsável pelo aumento de sua temperatura. Em princípio, ocorreria a mesma coisa na atmosfera terrestre. A radiação solar incide sobre a atmosfera, parte dela (30%) é refletida de volta para o espaço exterior por nuvens, moléculas do ar e pela própria superfície terrestre, porém boa parte atravessa a atmosfera e é absorvida pela superfície terrestre, que se aquece. Aquecida, a superfície emite radiação IV que, por sua vez, seria absorvida por gases constituintes minoritários da atmosfera, como vapor d’água (H₂O), gás carbônico (CO₂) e metano (CH₄), os chamados gases de efeito estufa (GEE), que atuariam de forma semelhante ao vidro. Os GEE emitiriam a radiação IV absorvida em todas as direções, inclusive de volta à superfície. Essa seria a explicação para o ar adjacente à superfície ser mais quente que as camadas superiores da atmosfera. Em princípio, quanto maior a concentração dos GEE, maior seria a absorção da radiação pela atmosfera e emissão para a superfície e mais quente ficaria o planeta. Ou seja, maior injeção de CO₂ e CH₄ na atmosfera tenderia a intensificar o efeito estufa.

A primeira vez que o fenômeno da antiga “casa de vegetação aquecida” foi mencionado na literatura foi por Joseph Fourier (o mesmo da Matemática) em 1826. Depois, em 1859, John Tyndall descobriu que gases, como vapor d’água, CO₂ e CH₄, absorviam radiação IV. Em 1896, Svante Arrhenius (da Química) afirmou que, segundo seus cálculos, a temperatura global aumentaria de 5°C a 6°C se a concentração de CO₂ dobrasse. Arrhenius nem calculadora tinha e o IPCC precisou de complexos modelos de clima, que rodam em supercomputadores, e gastaram bilhões de dólares para chegar ao mesmo número de Arrhenius. Entretanto, em 1909, Robert W. Wood construiu dois modelos de casa de vegetação, uma de vidro e outra de quartzo, que não absorve a radiação IV, e demonstrou que as temperaturas finais das duas eram semelhantes. Ou seja, a casa de vegetação se mantinha aquecida não por causa da propriedade do vidro absorver radiação IV, e sim porque o ar, aquecido e menos denso, ficava confinado dentro da casa de vegetação e não conseguia se misturar ou subir (convecção), dando lugar a ar mais frio proveniente de outras camadas atmosféricas, conforme ocorre na atmosfera livre. Portanto, a absorção pelos GEE não seria o mecanismo principal para aquecer o ar próximo à superfície. O assunto, porém, foi deixado de lado porque o clima era muito frio naquela época. Foi só em 1938 que um técnico em máquinas a vapor da British Electric, Guy S. Callendar, escreveu um artigo associando o aumento de temperatura observado entre 1925 e 1937 à emissão de CO₂ proveniente do aumento de geração de energia por termelétricas. Na época, ele foi amplamente refutado pelos “papas” da Climatologia, mas não desistiu. Ora, sabe-se hoje que o aumento da temperatura entre 1925-1946 foi devido ao aumento da atividade solar, maior transparência da atmosfera e maior frequência de eventos El Niño, portanto, natural! Em 1956, Charles Keeling modificou um cromatógrafo a gás a fim de medir CO₂ utilizando um comprimento de onda de radiação IV que é absorvido pelo CO₂, e passou a medir a concentração de CO₂ por absorção de IV e não por análises químicas como era feito até então. Keeling se associou a Callendar para defender o aquecimento global pelo CO₂. Porém, ninguém se importou muito, porque ocorreu em resfriamento global entre 1946-1976, embora a concentração de CO₂ estivesse crescendo rapidamente, diz-se que devido ao aumento da atividade industrial pós-guerra. A partir de 1977, o clima começou a se aquecer novamente e, em 1988, o Dr. James Hansen, GISS/NASA, deu um depoimento no Congresso Americano afirmando que o aquecimento era devido ao aumento de CO₂, liberado pelo homem por meio da queima de combustíveis fósseis, petróleo, carvão mineral e gás natural. Nesse mesmo ano, foi criado o IPCC, e daí a histeria global se instalou! Como pode ser percebido, o efeito estufa nunca foi comprovado ou teve sua existência demonstrada. Ao contrário, há 100 anos, Robert W. Wood já demonstrara que seu conceito é falso! [A maioria das casas de vegetação hoje utiliza filmes plásticos como cobertura, em vez de vidro]. Porém, uma mentira repetida inúmeras vezes, torna-se verdade.

Ao medir a emissão de IV pela Terra para o espaço exterior com sensores a bordo de plataformas espaciais, encontra-se uma temperatura efetiva de corpo negro igual a 255K (18°C negativos) pela Lei de Stefan-Boltzmann. A temperatura média do ar à superfície é cerca de 288K (15°C). Aí, é dito que “o efeito estufa aumenta de 33°C (diferença entre 288 e 255) a temperatura na Terra e, se ele não existisse, a temperatura de superfície seria 18°C negativos”! Essa afirmação é falsa, pois, se não existisse atmosfera, não existiriam nuvens, por exemplo, que são responsáveis pela metade do albedo planetário. Assim, o fluxo de radiação solar seria 15% maior e a temperatura planetária igual a 268K (-5ºC). Mas, o mecanismo questionável é o processo de absorção e emissão de IV pelos GEE. Se o CO₂ for tratado como corpo negro, como ele absorve eficientemente radiação IV em 15 microns, sua emissão, que é máxima nesse comprimento de onda (Lei de Kirchhoff), corresponderia a uma temperatura de aproximadamente 193K (80°C negativos) decorrente da Lei de Wien. Um corpo frio (CO₂ no ar) aqueceria um corpo quente (superfície)? Certamente, isso fere a 2ª Lei da Termodinâmica! A teoria afirma que os GEE absorvem IV por rotação de suas moléculas e vibração de seus átomos, somente nas frequências de IV que fazem suas moléculas entrarem em ressonância. Rotação e vibração são movimentos mecânicos, geram energia cinética que é dissipada, na forma de calor, por meio de choques com as mais de 2.600 moléculas dos principais constituintes atmosféricos, Nitrogênio (78%), Oxigênio (21%) e Argônio (0,9%), que envolvem cada molécula de CO₂. É sabido que a desativação colisional da molécula de CO₂ excitada vibracionalmente é cerca de 10 mil vezes mais rápida que o seu decaimento radiativo. Logo, se o CO₂ perde a IV absorvida por colisões com outras moléculas, não pode emitir IV. E, sendo seu percentual ínfimo na atmosfera (0,039%), sua contribuição ao aquecimento do ar, por colisão, é desprezível! Ou seja, se todo CO₂ fosse retirado da atmosfera, a variação da temperatura do ar não poderia ser detectada pelos instrumentos atuais. As moléculas da mistura gasosa denominada “ar” (matéria) são aquecidas quando se fornece calor a elas. É mais aceitável, então, que as temperaturas próximas da superfície sejam mais elevadas devido ao contato do ar com a superfície quente (condução, “chapa quente”) e à pressão atmosférica (peso do ar). Ou seja, a massa atmosférica, submetida à aceleração da gravidade (peso ÷ área = pressão), é que mantém o ar confinado na superfície e que se aquece por compressão (lei dos gases perfeitos = temperatura proporcional à pressão) e pelo calor conduzido. Quando o ar se aquece, sua densidade diminui tal que, se o empuxo, ao qual fica submetido, superar seu peso (1,20 kg/m³ a 20°C), é forçado a subir (convecção = transporte de calor por meio do transporte vertical da massa de ar) e é reposto por ar mais frio que vem de seu entorno e das camadas superiores. Portanto, o processo físico mais relevante para o aquecimento do ar é condução de calor da superfície quente, seguido da convecção. Em adição, o ar é aquecido por liberação de calor latente (convecção úmida = calor liberado para a atmosfera quando o vapor d’água se liquefaz, formando nuvens e chuva) e por um pequeno percentual de absorção direta de radiação solar. A emissão de radiação IV tem um papel secundário no controle da temperatura do ar próximo à superfície. A 2ª Lei da Termodinâmica afirma que o calor flui do corpo quente para o frio. Como as camadas de ar acima da superfície são, em média, mais frias que ela, a energia (calor) não pode fluir da atmosfera para a superfície e aquecê-la. Absorvendo radiação IV, as camadas de ar (matéria) funcionam como um isolante térmico imperfeito que, quando muito, retardam a taxa de resfriamento da superfície. Como os GEE, em particular o CO₂, são constituintes minoritários, eles dão muito pouca contribuição à massa gasosa atmosférica total e, consequentemente, a sua taxa de resfriamento. Em outras palavras, se os GEE não existissem, a temperatura do ar próximo à superfície atingiria valores semelhantes aos que ocorrem atualmente. Portanto, se a concentração de CO₂ dobrar devido às emissões antrópicas, de 0,039% para 0,078%, o aumento de sua massa molecular seria ínfimo e sua contribuição, para a temperatura do ar, desprezível.

Nos trópicos, a temperatura do ar próximo à superfície depende basicamente da cobertura de nuvens e da chuva. O ciclo hidrológico é o “termostato” da superfície. Quando o tempo está nublado e chuvoso, a temperatura é baixa. Isso porque, a cobertura de nuvens funciona como um guarda-sol, refletindo radiação solar de volta para o espaço exterior em sua parte superior. Simultaneamente, a água da chuva é mais fria e sua evaporação rouba calor da superfície, refrigerando o ar. Quando não há nuvens e chuva, acontece o contrário, entra mais radiação solar no sistema, aquece a superfície e, como não existe água para evaporar, o calor do Sol é usado quase que exclusivamente para aquecer o ar (calor sensível). Em adição, se o ar estiver úmido logo após uma chuva de verão, a sensação térmica é intensificada, pois a alta umidade do ar dificulta transpiração da pele, que é o mecanismo fisiológico que regula a temperatura dos seres humanos. Durante o período seco, tem-se ar descente sobre a região, que provoca alta pressão atmosférica, céu claro, inversão térmica e dificulta a ascensão do ar aquecido, reduzindo a cobertura de nuvens. Isso faz com que a superfície e o ar em contato atinjam temperaturas altas. Numa cidade, devido à impermeabilização do solo, não há água da chuva para evaporar e todo calor do Sol é usado para aquecer o ar. Como as cidades cresceram e a população se aglomerou nelas, a impressão que a população urbana tem é que o mundo está se aquecendo. Um termômetro, instalado numa cidade, corrobora com essa percepção, pois passa a medir temperaturas cada vez mais elevadas com o crescimento da área urbanizada com o tempo, o chamado “efeito de ilha de calor urbana”. Ou seja, a sensação térmica sentida pelo ser humano advém de condições atmosféricas locais e não globais. Não se conhece a metodologia de cálculo da “temperatura média global” e os locais das séries de temperaturas utilizadas pelo IPCC. São mantidos em segredo! Mas, se ela foi calculada utilizando-se termômetros “selecionados a dedo”, particularmente os instalados nos grandes centros urbanos onde se localizam as séries temporais mais longas, com dados contaminados pelo efeito de ilha de calor urbana, não é surpresa que a década de 2000 tenha sido considerada a “mais quente” dos últimos 650 anos! Na realidade, não há como calcular “uma temperatura média global” e a adotá-la como medida da variabilidade climática global. Uma medida mais adequada dessa variabilidade seria a estimativa da variação temporal do calor armazenado nos oceanos. Concluindo, o efeito estufa, como descrito na literatura, nunca foi demonstrado e é difícil aceitar que o alegado processo de emissão pelos GEE, em particular o CO₂, seja o principal causador de temperaturas do ar altas próximas à superfície. A massa de ar atmosférico apenas retarda a perda de IV emitida pela superfície para o espaço exterior. As massas de CO₂ e CH₄ na atmosfera são muito pequenas e sua contribuição ao aquecimento do ar, por absorção de IV, é irrelevante. Frases como “temos que impedir que a temperatura aumente mais de 2°C, mantendo a concentração de CO₂ abaixo de 460 ppmv”, não têm sentido físico algum. Tal cálculo é proveniente de uma grande simplificação da equação de absorção radiativa dos GEE, “ajustada” para reproduzir o aumento de temperatura com a variação da concentração de CO₂ observada. E essa equação não tem base científica alguma! Portanto, a redução das emissões de carbono para a atmosfera não terá efeito algum sobre a tendência do clima, pois o CO₂ não controla o clima global. E a tendência para os próximos 20 anos é de um resfriamento global, mesmo que a concentração de CO₂ continue a aumentar. Considerando que 80% da matriz energética global dependem dos combustíveis fósseis, a imposição da redução das emissões de carbono, na realidade, afetará o desenvolvimento dos países pobres, particularmente o Brasil, aumentando as desigualdades sociais no planeta.

A cobertura de nuvens é um problema a parte, pois a cobertura de nuvens se comporta como um “corpo sólido” perante a radiação IV. Nuvens de desenvolvimento vertical (cumulonimbo, Cb) absorvem radiação IV em sua base (~1 km de altitude, temperatura da base alta ~20°C = 293K) e emitem em seu topo (~10 a 15 km de altitude, temperatura do topo muito baixa, ~ -70°C a -80°C = 203 a 193K). Portanto, o aumento da cobertura de nuvens do tipo Cb tenderia a aquecer o planeta. Os dados do projeto ISCCP (nebulosidade por satélite) mostra que a cobertura de nuvens global diminuiu de 5% entre 1982 e 1999. Isso corresponde a aumentar a entrada de radiação solar no sistema climático em 3,7 W/m² e, se forem usados os parâmetros de sensibilidade climática do IPCC, a temperatura global deveria ter subido de até 3°C, o que não aconteceu de acordo com as observações. De 1976 a 1999, a temperatura média global subiu apenas 0,4°C. Ou seja, a diminuição da cobertura de nuvens já explica, até de mais, o aquecimento ocorrido entre 1976-1999. Esse é mais um argumento de que, da maneira como definido, o efeito estufa não existe. Atenção, é muito importante lembrar que não se nega que houve um aquecimento entre 1976-1999. Que houve aquecimento não há dúvidas, apenas discorda-se que ele tenha ocorrido devido à intensificação do efeito estufa pelas emissões antrópicas. De 1999 até o presente, de acordo com os dados de satélite (MSU), a temperatura média global tem permanecido estável, embora a concentração de CO₂ tenha aumentado 11%. A Alemanha, o Japão e vários outros países desenvolvidos estão emitindo mais, pois precisam de energia “despachável”, que não ocorre com as renováveis, como eólica e solar. Estão sendo construídas e planejadas cerca de 1.600 termelétricas a carvão em todo o mundo nos próximos 10 anos. Ainda bem que CO₂ não controla o clima global! Se não, ter-se-ia um problema de difícil solução!

Luiz Carlos Baldicero Molion é PhD em Meteorologia e pesquisador aposentado do INPE/MCTI, e professor aposentado da UFAL/MEC.

.

Anúncios

A sequência do filme de Al Gore sobre o clima esconde alguns fatos inconvenientes

Onze anos depois de seu primeiro filme sobre mudanças climáticas, ele ainda tenta nos assustar para salvar o mundo.

Dizem que a continuação é sempre pior que o original, mas o primeiro filme de Al Gore colocou o sarrafo muito baixo. Onze anos atrás, “Uma Verdade Inconveniente” mostrou o aquecimento global usando mais de táticas de pânico do que de ciência. No final de semana, o Sr. Gore voltou com “An Inconvenient Sequel: Truth to Power” (Uma Sequência Inconveniente: Verdade ao Poder). Se o trailer for uma indicação, promete ser mais do mesmo.

O ex-vice-presidente tem um histórico fraco. Ao longo dos últimos 11 anos, o Sr. Gore sugeriu que o aquecimento global causaria um aumento nos tornados, que a geleira do Monte Kilimanjaro desapareceria até 2016 e que os verões no Ártico poderiam ser livres de gelo, já em 2014. Essas previsões e reivindicações demonstram que estava errado.

“Uma Verdade Inconveniente” promoveu uma narrativa assustadora de que temperaturas mais altas significariam um clima mais extremo, especialmente com furacões. O cartaz do filme mostrava que um furacão emergia de uma chaminé. O Sr. Gore parece duplicar isso ao declarar no trailer do novo filme que “as tempestades ficaram mais fortes e mais destrutivas. Assista ao mergulho da cidade na água. Este é o aquecimento global”.

Isso é enganador. O Painel Intergovernamental sobre Mudanças Climáticas – em seu Quinto Relatório de Avaliação, publicado em 2013 – encontrou “baixa confiança” no aumento da atividade de furacões até o momento devido ao aquecimento global. As tempestades estão causando mais danos, mas principalmente porque pessoas mais ricas optam por viver na costa, não por causa do aumento das temperaturas.

Mesmo que as tempestades tropicais se fortaleçam até 2100, seu custo relativo provavelmente diminuirá. Em um artigo de 2012 para a revista Nature Climate Change, os pesquisadores mostraram que os danos por furacões agora custam 0,04% do produto interno bruto global. Se as mudanças climáticas tornam os furacões mais fortes, os custos absolutos duplicarão até 2100. Mas o mundo também será muito mais rico e menos vulnerável, de modo que o dano total pode ser estimado em apenas 0,02% do PIB global.

No trailer, o Sr. Gore aborda “a cena mais criticada” de seu documentário anterior, que sugeriu que “a combinação do aumento do nível do mar e tempestades inundariam o local do Memorial do 11 de setembro”. Então, são exibidas aos espectadores cenas de locais em Manhattan inundados em 2012, após a supertempestade Sandy, aparentemente confirmando as previsões do Sr. Gore. Não importa se o que ele realmente previa seria uma inundação causada pelo derretimento do gelo na Groenlândia.

Mais importante é que as receitas do Sr. Gore – para Nova York e o mundo – não funcionarão. Ele afirma que a resposta ao aquecimento reside em acordos para reduzir as emissões de carbono que custariam trilhões de dólares. Isso não teria parado Sandy. O que Nova York realmente precisa é melhor infra-estrutura: diques, portas para tempestades para o metrô, pavimento poroso. Essas correções podem custar cerca de US$ 100 milhões por ano, uma barganha em comparação com o preço dos tratados climáticos internacionais.

O Sr. Gore ajudou a negociar o primeiro grande acordo global em matéria de clima, o Protocolo de Quioto. Não fez nada para reduzir as emissões (e, portanto, controlar as temperaturas), de acordo com um artigo de março de 2017 no Journal of Environmental Economics and Management. Impassível, o Sr. Gore ainda apoia a mesma solução, e o novo documentário mostra-o percorrendo os corredores da conferência climática de Paris.

Até 2030, o acordo climático de Paris custará ao mundo até US$ 2 trilhões por ano, principalmente no crescimento econômico perdido, de acordo com os melhores modelos econômico-energéticos revisados ​​pelos pares. Isso permanecerá caro para o resto do século. Isso tornaria o tratado o mais caro da história.

E para quê? Pouco antes da conferência de Paris, a Convenção-Quadro das Nações Unidas sobre Mudanças Climáticas estimou que, se cada país cumprisse todo o corte das emissões de carbono prometido em Paris entre 2016 e 2030, as emissões de dióxido de carbono cairão apenas 60 gigatoneladas durante esse período de tempo. Para manter a elevação da temperatura abaixo de 2 graus Celsius, o mundo deve reduzir essas emissões em cerca de 6.000 gigatoneladas ao longo deste século, de acordo com o IPCC. Um acordo de Paris “bem sucedido” não chegaria nem perto de resolver o problema.

O Sr. Gore argumenta que a abordagem de Paris empurra as nações e as empresas para a energia verde. Talvez, mas a economia global está longe de estar pronta para substituir combustíveis fósseis por energia solar e por energia dos ventos. A Agência Internacional de Energia, em seu 2016 World Energy Outlook, mostrou que 0,6% da energia mundial é fornecida por energia solar e energia eólica. Mesmo com o acordo de Paris totalmente implementado, esse número aumentaria apenas para 3% em um quarto de século.

Em parte por ativistas como o Sr. Gore, o mundo continua focado em subsidiar tecnologia ineficiente e não confiável, ao invés de investir em pesquisa para reduzir o preço da energia verde. O progresso real em Paris poderia ser encontrado à margem, onde o filantropo Bill Gates e outros, incluindo líderes políticos, concordaram em aumentar os gastos com pesquisa e desenvolvimento. Este é um começo importante, mas é necessário muito mais financiamento.

O Sr. Gore declara no seu novo filme que “é correto salvar a humanidade”. Nenhum argumento aqui. Mas o uso de táticas de pânico realmente é o melhor caminho a seguir?

O post acima é uma tradução livre do artigo de Bjørn Lomborg publicado no The Wall Street Journal em 27/07/2017

.

A África tornou-se mais verde nos últimos 20 anos

Apesar das mudanças climáticas e de uma população crescente, a África tornou-se mais verde nos últimos 20 anos, mostra um novo estudo.

Na África, uma luta está acontecendo. De um lado, as forças da natureza tornam o continente mais verde e, por outro lado, as pessoas estão removendo árvores e arbustos do continente.

Em regiões densamente povoadas, as pessoas estão cortando árvores e florestas, mas em outros lugares, onde as populações humanas estão mais espalhadas, os arbustos e a vegetação densa estão prosperando.

Agora, os cientistas quantificaram pela primeira vez como a vegetação em todo o continente mudou nos últimos 20 anos.

Trinta e seis por cento do continente tornou-se mais verde, enquanto onze por cento está ficando menos verde.

Os resultados mostram que nem tudo está perdido na natureza da África, dizem os cientistas que estão por trás da nova pesquisa.

“Nossos resultados são positivos e negativos. É claro que não é bom que os humanos tivessem uma influência negativa na distribuição de árvores e arbustos em 11 por cento da África nos últimos 20 anos, mas não é uma surpresa completa”, diz o co-autor Martin Brandt de Departamento de Geociências e Gestão de Recursos Naturais da Universidade de Copenhague, na Dinamarca.

“Por outro lado, não é tudo negativo, pois uma área – três vezes maior do que a área onde as árvores e os arbustos estão desaparecendo – está se tornando mais verde, o que é positivo, pelo menos do ponto de vista do clima”, diz ele.

O novo estudo foi publicado na revista científica Nature Ecology and Evolution.

Desafio à visão geral da África
O estudo desafia a visão de que a África está sofrendo uma perda sustentada de árvores e arbustos, diz o professor Henrik Balslev, do Departamento de Biociências da Universidade de Aarhus, na Dinamarca. Balslev não estava envolvido no estudo.

O novo estudo oferece uma imagem matizada de como o crescimento populacional na África influencia a vegetação de diferentes maneiras.

“O estudo dá uma imagem muito mais matizada da influência das pessoas sobre a vegetação na África, ao sul do Sahara, do que antes. O estudo terá impactos significativos em como avaliamos a influência das pessoas sobre a natureza africana no futuro, à medida que a população esperada cresce dramaticamente”, diz ele.

A Namibia e a África do Sul estão ficando mais verdes
No novo estudo, cientistas usaram dados de satélites para analisar como as mudanças climáticas e as pessoas afetaram a distribuição das árvores e arbustos na África nos últimos 20 anos.

O desmatamento abre caminho para a agricultura, as cidades e as infra-estruturas, e as árvores derrubadas fornecem combustível como lenha. Ao mesmo tempo, mais CO₂ na atmosfera, juntamente com um planeta mais úmido e mais quente, proporciona condições que ajudam as árvores e arbustos a crescer.

Assim, os cientistas esperavam ver que as áreas densamente povoadas ficaram menos verdes, enquanto as áreas escassamente povoadas deveriam ficar cada vez mais verdes, e é exatamente o que eles observaram.

As áreas úmidas e densamente povoadas da África Ocidental perderam árvores em geral nos últimos 20 anos, enquanto mais arbustos e árvores apareceram nas áreas mais secas e escassamente povoadas da Namíbia e da África do Sul.

Enquanto isso, as árvores desapareceram das grandes cidades do continente.

“Encontramos uma conexão clara entre o tamanho da população em uma determinada área e a quantidade de vegetação perdida”, diz Brandt.

“Ao mesmo tempo, o estudo desafia a visão geral da África de que houve uma perda geral de árvores e arbustos. A imagem é muito mais matizada e regionalmente variável, e o problema com a perda de árvores e arbustos nas áreas úmidas é pelo menos parcialmente compensado por um crescimento da vegetação em outros lugares “, diz ele.

O texto acima é uma tradução livre do artigo publicado por Kristian Sjøgren e Catherine Jex em ScienceNordic. Para ver o original, clique aqui

.

A regeneração da Amazônia

Imagine toda a área desmatada na Amazônia ao longo da história, totalizando mais de 73 milhões de hectares. O que existe por lá hoje? As respostas se repetem: amplos pastos com algumas cabeças de gado, áreas agrícolas, projetos de mineração, centros urbanos. Estimativas feitas pelo Instituto Nacional de Pesquisas Espaciais (Inpe), a partir de imagens de satélite, mostram que, em 2014, 48 milhões de hectares foram destinados a pastagens e 4,5 milhões de hectares a terras agrícolas. Mineração, centros urbanos e áreas de uso misto somavam menos de 4 milhões de hectares.

Portanto, as respostas típicas não estão erradas. Mas não são respostas completas. Afinal, a conta não fecha. Quando fecha, chega a causar espanto: o Inpe mostra que quase um quarto da área oficialmente registrada como desmatada na Amazônia Legal até 2014 continha cobertura vegetal. Não é pouca coisa: são 17 milhões de hectares de vegetação secundária, termo que define a vegetação que cresce em áreas desmatadas.

A magnitude dessa regeneração, notável por si só, impressiona ainda mais quando colocada dentro de contexto. O Inpe estima que houve um aumento na vegetação secundária de mais de 7 milhões de hectares em apenas uma década. O mais surpreendente disso tudo é que a regeneração ocorreu de forma praticamente invisível aos muitos olhos voltados à Amazônia brasileira.

Por um lado, a política pública não a enxergava. Em 2004, o Brasil inaugurou o Plano de Ação para Proteção e Controle do Desmatamento na Amazônia (PPCDAm), um inovador pacote de ações estratégicas que passou a englobar todos os subsequentes esforços de combate ao desmatamento. Tais esforços focaram no que se apresentava como mais urgente à época: estancar a sangria na Amazônia. E o que então sangrava eram as florestas primárias, cortadas a velocidades alarmantes: mais de 2,5 milhões de hectares por ano.

As políticas do PPCDAm tiveram um papel fundamental na redução das taxas de desmatamento a partir da segunda metade dos anos 2000, em grande parte devido a esforços de monitoramento e aplicação da lei. Estudos mostram que, sem elas, a perda da floresta amazônica teria sido muito maior. No entanto, não houve espaço para considerar a regeneração florestal nesse primeiro momento do programa. Assim, o aumento observado na vegetação secundária ocorreu sem que houvesse políticas públicas dedicadas à sua promoção.

Por outro lado, a regeneração é invisível também aos sistemas de monitoramento por satélite – os mesmos que ajudaram a proteger a floresta. Na segunda metade dos anos 2000, o Brasil contava com dois sistemas complementares. Mais antigo, o Projeto de Monitoramento do Desmatamento na Amazônia Legal por Satélite (Prodes) é mantido pelo Inpe desde a década de 1980 para, anualmente, localizar e quantificar a derrubada de árvores. É a peça-chave para o cálculo da taxa de desmatamento da Amazônia.

O Inpe estima um aumento na vegetação secundária de mais de 7 milhões de hectares em apenas uma década

Já o sistema de Detecção de Desmatamento em Tempo Real (Deter), também produto do Inpe e uma das grandes inovações do PPCDAm, atende a outro propósito: emitir alertas quase em tempo real, apontando o local de atividades recentes de desmatamento e degradação, para apoiar a fiscalização e a aplicação da lei.

Os dois sistemas, que são referência mundial de monitoramento remoto de desmatamento, foram desenhados para considerar apenas a perda de vegetação primária, nunca antes suprimida. Em resumo, funcionam assim: em um determinado ano, o Prodes mapeia todas as áreas que foram desmatadas desde o ano anterior e calcula a taxa de desmatamento anual. Uma vez desmatada, a área não é revisitada em anos subsequentes, passando a ser parte do acumulado histórico do desmatamento.

O Deter, por sua vez, regularmente busca sinais de perda ou degradação florestal em toda a Amazônia, mas só olha para o que está fora do acumulado do Prodes. Com isso, os sistemas só emitem alertas e registram desmatamento referentes a perda de vegetação primária. Não é uma falha dos sistemas, mas uma característica consistente com o momento histórico em que foram desenvolvidos. Nesse cenário, contudo, a regeneração da floresta passou praticamente despercebida.

Do que é composta a regeneração? Quais fatores contribuíram para seu crescimento? Houve perda de áreas regeneradas que sequer foram registradas? Afinal, o que sabemos atualmente sobre a extensa cobertura vegetal em áreas desmatadas? Quase nada.

Entretanto, as respostas a essas e a outras tantas perguntas em aberto podem ajudar o Brasil a enfrentar dois enormes desafios que contemplam a expansão de vegetação secundária em larga escala no país inteiro. Primeiro, a efetiva implementação do novo Código Florestal, que implica restauração e reflorestamento em propriedades privadas dentro e fora da Amazônia. Segundo, o cumprimento das metas climáticas assumidas em âmbito internacional. Nelas, o país se compromete a restaurar e reflorestar 12 milhões de hectares de vegetação até 2030.

Somam-se a eles os já conhecidos desafios de manter o combate ao desmatamento na Amazônia, que tem dado sinais de aumento, expandir o alcance de efetiva proteção de vegetação nativa a outros biomas e melhorar a eficiência do uso da terra no país. Para enfrenta- los, ações e políticas que visam conciliar conservação ambiental e produção agropecuária precisam ser regularmente avaliadas e aprimoradas. Diante disso, se queremos potencializar o retorno da floresta e ampliar a capacidade do Brasil de conservar sua vegetação nativa, seja ela primária ou secundária, precisamos começar a entender a vegetação secundária já existente. Poderemos, assim, incorporar o que aprendermos com ela às políticas públicas.

Chegou a hora de todos – acadêmicos, formuladores de política, ativistas, proprietários rurais, formadores de opinião, membros da sociedade civil – nos debruçarmos sobre a regeneração da Amazônia. O tema é mais do que interessante. É relevante e urgente.

Clarissa Gandour, analista sênior do Climate Policy Initiative/ Núcleo de Avaliação de Políticas Climáticas da PUC-Rio. Artigo publicado no Valor Econômico em 24/07/2017

.

Um risco no mapa do mundo?

A superfície de gelo sobre o mar em torno da Antártida costuma variar de mais de 15 milhões de quilômetros quadrados no pico do inverno a menos de 2 milhões de quilômetros quadrados na baixa do verão austral, ano após ano, de acordo com dados de satélites, desde 1979. A variação anual, portanto, é de mais 13 milhões de quilômetros quadrados, pouco mais de 1,5 vez a superfície de todo o território brasileiro, que é de 8,5 milhões de quilômetros quadrados. Os 5.800 quilômetros quadrados desse “iceberguezinho” que se soltou na semana passada equivalem a ínfimo 0,045% da variação anual, um “risquinho” praticamente imperceptível, venhamos e convenhamos. Catastrofismo barato, da pior espécie.

Convém lembrar que o gelo flutuante, quando se derrete, não acrescenta mais água ao volume original. Façam a experiência: em um copo com bastante gelo, coloquem água até ele quase transbordar (todo o gelo deve flutuar). Quando o gelo derreter, observem que a água no copo não transborda.

Texto original enviado ao diretor de redação da revista Veja sobre a matéria “Um risco no mapa do mundo” publicada na edição 2539. [Publicado parcialmente na edição 2540].

.

A ciência dos profetas da chuva

Ele tem 78 anos e a pele tostada de sol. No registro do cartório, deram-lhe o nome de Francisco Quintino dos Santos. Desde criança, por causa da labuta cotidiana com o gado, todos do lugar o conhecem mesmo como Chico Leiteiro. Muitos dali preferem, contudo, com sincera deferência, tratá-lo pela qualificação de “profeta”.

O termo, nesse caso, contrasta com o semblante sereno daquele homem pequenino, de sorriso fácil e candura agreste. Nada nele lembra a imagem estereotipada dos místicos sertanejos e dos antigos videntes das Escrituras, a barba desgrenhada, as longas madeixas sobre os ombros, os olhos esbugalhados voltados para o inefável, a túnica amarrada à cintura por uma corda.

Chico Leiteiro veste-se como qualquer sertanejo de Quixadá, cidade do interior cearense, a 167 quilômetros de Fortaleza: chapéu de palha à cabeça, chinelo de couro nos pés, camiseta branca de algodão, calças de tecido barato. “Desde que eu tinha dez anos de idade, o pessoal já me chamava de profeta”, diz. “Ainda era menino quando aprendi, com meu pai, a ler no grande livro da natureza”.

Ele não está sozinho. Pelo sertão adentro, existem dezenas de outros desses oráculos caboclos, anciãos que a cada começo de ano são inquiridos pela vizinhança a respeito do prenúncio e da magnitude do próximo “inverno” (palavra pela qual os cearenses se referem à quadra anual chuvosa, situada entre os meses de fevereiro e maio). Em uma terra onde a quantidade de água que cai do céu ainda é decisiva para se estabelecer o limiar entre a fartura e a miséria, o sustento e a fome, a vida e a morte, os chamados “profetas da chuva” são respeitados como imparciais mensageiros, seja do júbilo, seja da penúria.

Na verdade, eles não são magos, adivinhos, estafetas do Além. São homens profundamente sensíveis, muitos deles analfabetos, mas capazes de ler e interpretar os sinais deixados pelo comportamento de plantas e bichos. Se formigas migram ribanceira acima, mudando o formigueiro para longe das margens de rios e açudes, vaticina-se boa chuva. Contudo, se aranhas armam as teias ao rés do chão, pressagiam-se sortilégios. Mandacarus e umburanas carregadas de flor, revoadas de borboletas do norte para o sul, cupins criando asas, sapos coaxando em noites de quentura: sinais infalíveis de abundância.

O repertório dos profetas da chuva e de toda essa surpreendente meteorologia popular faz parte de uma tradição de milênios, construída na observação minuciosa das filigranas do mundo natural, no exame da conduta dos ventos, na observação do voo dos insetos e das aves migratórias, na análise da floração sazonal de certas espécies vegetais. São saberes repassados de geração a geração, nos trânsitos e intercursos orais de uma cultura que, ao contrário da razão ocidental, não promoveu a clivagem entre homem e natureza.

Numa época em que os meteorólogos dispõem de imagens de satélite e estimativas traçadas por modelos matemáticos, há quem desdenhe a palavra dos profetas nordestinos da chuva como fenômeno pitoresco, mero folclore, arcaísmo de um povo supersticioso, alheio às luzes civilizatórias da moderna ciência. Nada mais errôneo. Novas disciplinas científicas, como a biometeorologia e a microclimatologia, buscam entender alterações fisiológicas nas plantas decorrentes de variações infinitesimais na umidade no ar. Pesquisadores investigam também como insetos e anfíbios podem se mostrar animais sensíveis à mínima oscilação nos padrões atmosféricos.

“Basta saber ver”, nos ensina, com sua ciência cabocla, Chico Leiteiro. Quem dera, uma racionalidade mais ampla, baseada na diversidade epistemológica do mundo, talvez nos devolvesse também a capacidade de decifrar e traduzir o livro aberto da natureza. Mas, ao contrário disso, a separação entre cultura e natureza nos conduziu a um estágio alarmante no qual a ciência, compreendida como um processo acumulativo e predatório, ameaça agora a própria sobrevivência do planeta.

PS: Os profetas da chuva se reúnem anualmente, em Quixadá. No encontro de 2017, Chico Leiteiro previu para o sertão cearense chuvas bem superiores às dos últimos cinco anos (todos de seca), mas ainda inferiores à média histórica. A Fundação Cearense de Meteorologia divulgará os índices oficiais da quadra chuvosa na próxima semana. Os dados objetivos e os números prévios parecem indicar que Chico, mais uma vez, acertou no prognóstico.

Texto da coluna de Lira Neto para a Folha de S.Paulo em 11/06/2017

.

Um caminho a seguir após o Acordo de Paris

Assim como o finado Protocolo de Quioto, o Acordo Climático de Paris, que foi drasticamente superestimado, foi vítima de uma realidade política e econômica.

Agora que o presidente Donald Trump tirou oficialmente os Estados Unidos do Acordo, é hora de declarar toda a abordagem Quioto-Paris em relação ao aquecimento global morta e enterrada. Em vez de vilipendiar o cadáver do Acordo, esta é uma oportunidade para tentar uma abordagem nova, melhor e mais eficiente para o aquecimento global.

As chances de algo tão construtivo parecem escassas. A retórica é superaquecida até o ponto de absurdo. Os ativistas ambientais criticam o Sr. Trump por condenar todo o planeta a um Armagedon ardente, mas afirmam que o Acordo poderia sobreviver sem os Estados Unidos. Não poderia, e não deveria.

A hipérbole e a indignação não podem ocultar a verdade: mesmo com os Estados Unidos incluídos, o Acordo não faria muita diferença para o aquecimento global. Sua grande retórica nunca foi acompanhada pelas reais promessas de redução das emissões de carbono dentro de suas páginas. Muito se fez pela promessa fantástica do Acordo, de evitar que a temperatura global subisse menos de 1,5 °C. Mas isso teria sido impossível em todos os cenários realistas, além de causar uma recessão global devastadora.

O próprio Quadro da Convenção das Nações Unidas sobre Mudanças Climáticas estima que, mesmo que cada país fizesse todas as reduções prometidas no acordo até o máximo, as emissões de CO₂ cairiam apenas 56 bilhões de toneladas até 2030. Para manter a elevação da temperatura abaixo de 2 °C – mesmo com a promessa menos ambiciosa do acordo de 1,5 °C – exigir-se-ia uma redução de cerca de 6 trilhões de toneladas de emissões de CO₂ ao longo do século.

Assim, mesmo que Hillary Clinton tivesse espancado o Sr. Trump e tivesse mantido os Estados Unidos no tratado, e mesmo que cada líder nacional do planeta (e seus sucessores) tivesse ficado firme em cada promessa do acordo, ano após ano, independentemente de recessão econômica ou crise política, o acordo de Paris teria deixado 99% do problema sem solução.

Antes que o Sr. Trump espoliasse o tratado, muitos ambientalistas reconheceram silenciosamente isso. Eles louvaram o acordo independentemente por causa do valor político dos líderes mundiais com foco nas mudanças climáticas e porque acreditavam que as promessas de redução das emissões de carbono muito mais elevadas viriam mais tarde.

Essa suposição torrencial voltou-se à história. Já em 1998, o Protocolo de Quioto foi vendido ao mundo como a solução para as mudanças climáticas. Toda análise honesta mostrou que seu impacto seria ínfimo. Afirmou-se que era apenas o começo. Semelhante a Paris, o tratado de redução das emissões de carbono desperdiçou energia e distraiu a atenção de qualquer solução efetiva para as mudanças climáticas.

A abordagem Quioto-Paris fracassa politicamente e economicamente. Mesmo que o acordo de Paris tivesse sobrevivido por agora, teria enfrentado um enorme obstáculo em três anos, quando os países ricos precisariam cuspir 100 bilhões de dólares por ano em “ajuda climática” ao mundo em desenvolvimento. Isso é 10 vezes mais do que os doadores conseguiram juntar nos últimos cinco anos.

E isso é apenas uma fração do preço a pagar. A tecnologia verde da energia solar e da eólica de hoje exige centenas de bilhões de dólares em subsídios anuais para conseguir reduções de temperatura ínfimas. Ao tentar fazer cortes significativos mudando o consumo de energia a partir de combustíveis fósseis baratos para uma energia verde mais dispendiosa, mesmo quando feito de forma mais eficaz, isso reduz o crescimento econômico.

Dizem-nos que a energia verde está se tornando mais barata. Mas raramente pode competir com a dos combustíveis fósseis, não está disponível quando não existe sol ou vento, e além do mais, requer um backup muito caro. É por isso que a pequena energia renovável, que é efetiva, acontecerá de qualquer maneira, enquanto a maior parte do resto requer grandes subsídios e consegue pouco. A Agência Internacional de Energia estima que o vento fornece 0,5 % das necessidades energéticas de hoje e a solar fotovoltaica, um minúsculo 0,1 %. Mesmo em 2040, se o Acordo de Paris tivesse continuado, depois de gastar US $ 3 trilhões em subsídios diretos, a AIE esperava que a energia eólica e a solar fotovoltaica fornecessem apenas 1,9 % e 1 % da energia global, respectivamente.

Isso está longe do que seria necessário para transformar nosso mecanismo de desenvolvimento. Para resolver o aquecimento global, precisamos investir muito mais para tornar a energia verde competitiva. Se a geração e o armazenamento de energia solar e eólica fossem mais baratos do que os combustíveis fósseis, não seria necessário forçar ou subsidiar ninguém a parar de queimar carvão e petróleo.

Pesquisas do Consenso de Copenhague mostram que um fundo pesquisa e desenvolvimento de energias verdes necessita apenas de 0,2% do PIB global e aumentaria dramaticamente a chance de uma revolução tecnológica. Isso seria significativamente mais barato e muito mais eficaz do que a abordagem Quioto-Paris. Os economistas calculam retornos para a sociedade em torno de 11 dólares por cada dólar investido.

Um esforço liderado pela tecnologia poderia avançar não apenas na solar e no vento, mas em todas as tecnologias de energia alternativas. Encorajar os líderes mundiais seria muito mais fácil do que armá-los fortemente e suborná-los para reduzir o crescimento – mas também é algo que um grupo menor de países poderia perseguir sozinho e colher benefícios. Um preço para o carbono poderia apoiar essa política, mas a política de mudanças climáticas deve logicamente ser liderada pela tecnologia.

A abordagem Quioto-Paris falhou. Agora é hora de finalmente parar de tentar tornar os combustíveis fósseis muito caros de usar e, em vez disso, investir na pesquisa necessária para tornar a energia verde muito barata para o mundo inteiro resistir.

O post acima é uma tradução livre de artigo de Bjørn Lomborg para o The Globe and Mail. Para ver o original, clique aqui.

.


Acessos ao blog

  • 453,669 acessos

Responsável pelo blog