Por uma agenda climática baseada em evidências e nos interesses reais da sociedade

Carta aberta ao ministro do Meio Ambiente, Ricardo de Aquino Salles
c/c:
– Exmo. Sr. Antônio Hamilton Martins Mourão – vice-presidente da República;
– Exmo. Sr. Marcos Cesar Pontes – ministro da Ciência, Tecnologia, Inovações e Comunicações;
– Exmo. Sr. Bento Costa Lima Leite de Albuquerque Júnior – ministro de Minas e Energia;
– Exma. Sra. Tereza Cristina Corrêa da Costa Dias – ministra da Agricultura, Pecuária e Abastecimento;
– Exmo. Sr. Gustavo Henrique Rigodanzo Canuto – ministro do Desenvolvimento Regional;
– Exmo. Sr. Tarcísio Gomes de Freitas – ministro da Infraestrutura;
– Exmo. Sr. Fernando Azevedo e Silva – ministro da Defesa;
– Exmo. Sr. Augusto Heleno Ribeiro Pereira – ministro-chefe do Gabinete de Segurança Institucional;
– Exmo. Sr. Ernesto Henrique Fraga Araújo – ministro das Relações Exteriores.

Exmo. Sr. Ricardo de Aquino Salles:

As posições manifestadas por V.Exa. em diversas entrevistas, antes e depois de assumir o Ministério do Meio Ambiente (MMA), reforçam a expectativa de que a sua gestão possa representar uma guinada determinante na orientação da política ambiental brasileira, visando ao enfrentamento dos problemas reais do País e à atuação do MMA como um catalisador de ações sinérgicas junto aos demais órgãos da administração pública, além de promover uma visão objetiva, pragmática e não ideológica das questões ambientais na sociedade em geral.
Neste contexto, os signatários da presente reiteram que as discussões e a formulação das políticas públicas sobre as questões climáticas têm sido pautadas, predominantemente, por equivocadas e restritas motivações ideológicas, políticas, econômicas e acadêmicas, afastando-as não apenas dos princípios basilares da prática científica, mas também dos interesses maiores da sociedade.
É perceptível que a extensão de tais interesses e dos compromissos internacionais assumidos pelo País com a agenda da “descarbonização” da economia mundial faz com que qualquer tentativa brusca de reorientação da pauta climática nacional, para fora do cenário “antropogênico” das mudanças climáticas, tenda a gerar oposição dos setores articulados em torno desse cenário, aí incluídos o poderoso movimento ambientalista internacional e grande parcela da mídia, dotados de considerável influência sobre a opinião pública interna e externa.
Não obstante, algumas necessárias correções de rumo são factíveis, no sentido de se atribuir uma prioridade maior a certas iniciativas de importância fundamental, tanto na alçada do MMA como na de outros ministérios, para proporcionar uma melhora efetiva do conhecimento da dinâmica climática e um aumento da capacidade geral da sociedade para fazer frente aos mais diversos fenômenos meteorológicos e climáticos, que sempre ocorreram no passado e continuarão a ocorrer no futuro. Estamos convencidos de que tais iniciativas representariam aplicações melhores para grande parte dos recursos humanos e financeiros que têm sido equivocadamente orientados para a agenda da “descarbonização” – e desperdiçados com ela –, particularmente, o Fundo Nacional sobre Mudança Climática.
Por conseguinte, oferecemos-lhe as considerações a seguir, com a expectativa de que possam aportar subsídios relevantes para a atuação do MMA, aproveitando o ensejo para formular votos de sucesso na sua gestão.

1) Não há evidências físicas da influência humana no clima global
Em termos estritamente científicos, a questão climática pode ser sintetizada em um único parágrafo:
As mudanças constituem a característica fundamental do clima, como demonstram as evidências referentes a toda a história geológica da Terra – ou seja, o clima está sempre em mudança (pelo que a expressão “mudança climática”se torna um pleonasmo). Quanto à alegada influência humana no clima global, supostamente atribuída às emissões de compostos de carbono das atividades humanas, ela teria forçosamente que amplificar as taxas de variação (gradientes) das temperaturas atmosféricas e oceânicas e dos níveis do mar, registradas desde a Revolução Industrial do século XVIII. Como não há qualquer evidência física observada de que estas últimas variações sejam anômalas, em relação às registradas anteriormente, no passado histórico e geológico, simplesmente, a hipótese da influência humana não pode ser comprovada, a despeito de todo o alarido neste sentido.
Todos os prognósticos que indicam elevações exageradas das temperaturas e dos níveis do mar nas décadas vindouras, além de outros impactos negativos atribuídos ao lançamento de carbono “antropogênico” na atmosfera, baseiam-se em projeções de modelos matemáticos, que constituem apenas simplificações bastante limitadas do sistema climático global. Portanto, tais cenários alarmistas não devem ser usados para fundamentar políticas públicas e estratégias de longo alcance, com grandes impactos socioeconômicos, tanto em âmbito nacional como global.
A influência humana no clima se restringe às áreas urbanas e seus entornos (o conhecido efeito das “ilhas de calor”), sendo esses impactos muito localizados e sem influência na escala planetária.
Segundo o quinto relatório do Painel Intergovernamental sobre Mudanças Climáticas (AR5/IPCC), divulgado em 2014, as temperaturas médias globais aumentaram 0,85 °C no período 1880-2012, enquanto o nível médio do mar subiu 0,19 m entre 1901 e 2010.
Ora, mesmo dentro do período de existência da humanidade, há registros de números bem mais acentuados. Ao longo do Holoceno, a época geológica correspondente aos últimos 11.700 anos em que a civilização humana tem se desenvolvido, houve diversos períodos com temperaturas mais altas que as atuais. No Holoceno Médio, há 6.000-8.000 anos, as temperaturas médias chegaram a ser 2 °C a 3 °C superiores às atuais, enquanto os níveis do mar atingiram até 3 metros acima dos atuais. Igualmente, nos períodos quentes conhecidos como Minoano (1500-1200 a.C.), Romano (séc. III a.C.-V d.C.) e Medieval (séc. X-XIII d.C.), as temperaturas médias do planeta foram entre 1-2 °C superiores às atuais. E dados paleoclimáticos (cilindros de gelo da estação de Vostok, Antártica) sugerem que as temperaturas da Terra já estiveram 6 °C a 10 °C mais elevadas que as atuais, nos últimos três interglaciais, há cerca de 150 mil, 240 mil e 320 mil anos atrás.
Entre 12.900 e 11.600 anos atrás, no período frio denominado Dryas Recente, as temperaturas atmosféricas caíram cerca de 8 °C em menos de 50 anos e, ao término dele, voltaram a subir na mesma proporção em pouco mais de meio século.
Quanto ao nível do mar, ele subiu cerca de 120 metros, entre 18.000 e 6.000 anos atrás, o que equivale a uma taxa média de 1 metro por século, suficientemente rápida para impactar visualmente as gerações sucessivas das populações que habitavam as margens continentais. No período entre 14.650 e 14.300 anos atrás, há registros de uma elevação ainda mais acelerada, atingindo cerca de 14 metros em apenas 350 anos, média de 4 metros por século.
Em outras palavras, tais variações representam valores superiores em uma ordem de grandeza às observações feitas desde o século XIX. Por conseguinte, essas últimas se enquadram com muita folga dentro da faixa de oscilações naturais dos parâmetros climáticos e, portanto, não podem ser atribuídas ao uso dos combustíveis fósseis ou a qualquer outro tipo de atividade vinculada ao desenvolvimento humano.
Embora evidências como essas possam ser encontradas em, literalmente, milhares de estudos realizados em todos os continentes por cientistas de dezenas de países, devidamente publicados na literatura científica internacional (vide, p.ex., o excelente sítio http://www.co2science.org), é raro que algum desses estudos ganhe repercussão na mídia, quase sempre mais inclinada à promoção de um alarmismo sensacionalista e desorientador.

2) A hipótese do aquecimento “antropogênico” é um desserviço para a Ciência e um risco para as políticas públicas
A boa prática científica pressupõe uma correspondência entre hipóteses de trabalho e dados observados que as comprovem. A hipótese das mudanças climáticas “antropogênicas” não se fundamenta em evidências físicas observadas no mundo real, já que, no passado, ocorreram temperaturas altas com baixas concentrações de dióxido de carbono (CO₂) e vice-versa. Em adição, de acordo com dados de satélites, a temperatura média global (se é que existe uma) tem estado estável nos últimos 20 anos, apesar de as emissões de CO₂ terem aumentado em mais de 11% nesse mesmo período. Por conseguinte, apesar de agregar um certo número de cientistas, a sua construção passa ao largo da metodologia científica e a insistência na sua preservação representa um grande desserviço à Ciência e à sua necessária colocação a serviço do bem-estar da humanidade.
A História registra numerosos exemplos dos efeitos nefastos do atrelamento da Ciência a ideologias e outros interesses restritos. O empenho prevalecente na imposição da hipótese “antropogênica” sem as evidências correspondentes tem custado caro à humanidade, em recursos humanos, técnicos e econômicos desperdiçados com um problema inexistente. O Brasil não está alheio a essa situação. Ao contrário, manifesta-se no País um despropositado empenho em colocá-lo em uma questionável posição de “liderança” nas negociações internacionais sobre o clima.
Vale lembrar que vários países de peso têm manifestado posições contestatórias das diretrizes políticas baseadas em tal hipótese infundada, de forma a mitigar os seus impactos nas respectivas economias nacionais.
Ademais, ao conferir ao CO₂ e outros gases produzidos pelas atividades humanas o papel de protagonistas da dinâmica climática, a hipótese “antropogênica” simplifica e distorce processos naturais extremamente complexos, nos quais interagem fatores astrofísicos, atmosféricos, oceânicos, geológicos, geomorfológicos e biológicos, que a Ciência apenas começa a entender em sua abrangência e ainda está muito distante de poder representá-los em modelos matemáticos confiáveis.
A propósito, o alegado limite de 2 °C para a elevação das temperaturas sobre os níveis pré-industriais, que, supostamente, não poderia ser superado e tem justificado todas as restrições propostas para os combustíveis fósseis, em âmbito internacional, não tem qualquer base científica. Trata-se de uma criação “política” do físico Hans-Joachim Schellnhuber, diretor do Instituto Potsdam para a Pesquisa de Impactos Climáticos (PIK) e assessor científico do governo alemão, como admitido por ele próprio, em uma entrevista à revista Der Spiegel, publicada em 17/10/2010.
Um exemplo dos riscos dessa simplificação para a formulação das políticas públicas relevantes é a possibilidade real de que o período até a década de 2030 experimente um considerável resfriamento da atmosfera, em vez de aquecimento, devido ao efeito combinado de um ciclo de baixa atividade solar (Ciclo 25), à fase de resfriamento do Oceano Pacífico (Oscilação Decadal do Pacífico-ODP), em um cenário semelhante ao observado entre 1947 e 1976,e da tendência de aumento da cobertura de nuvens global nos últimos 16 anos. Vale observar que, naquele período, o Brasil experimentou uma redução de 10-30% nas chuvas, o que acarretou problemas de abastecimento de água e geração elétrica, além de um aumento das geadas fortes, que muito contribuíram, por exemplo, para erradicar o cultivo do café no oeste do Paraná. Se tais condições se repetirem, no futuro imediato, o País poderá ter sérios problemas, inclusive nas áreas de expansão da fronteira agrícola das regiões Centro-Oeste, Norte e Nordeste, e na geração hidrelétrica (particularmente, considerando a proliferação de reservatórios “a fio d’água”, impostos pelas restrições ambientais das últimas décadas).

3) A obsessão com o CO₂ desvia atenções e recursos das emergências reais
O Sol, a água e o CO₂ são essenciais para a fotossíntese e para a vida como a conhecemos no planeta Terra. Ou seja, o CO₂ não é um poluente, mas o gás da vida!
Ademais, a obsessão com a redução das emissões de CO₂ tem ensejado um indesejável desvio de atenções e recursos humanos e financeiros dos problemas ambientais reais que afetam a sociedade hoje,cujas soluções requerem iniciativas e investimentos públicos e a conscientização de amplos setores sociais. Para não alongar, citam-se alguns dos principais:
– A falta de acesso a redes de saneamento básico para mais de 100 milhões de brasileiros; cerca de 34 milhões não têm acesso à água tratada e apenas 45% do esgoto recolhido tem algum tipo de tratamento, o que gera prejuízos estimados em R$ 56 bilhões por ano, segundo o Instituto Trata Brasil.
– Apesar de pouco mais de 91%do lixo gerado no País ser recolhido regularmente, 41% dos resíduos sólidos recolhidos são destinados a lixões e aterros inadequados, gerando grandes impactos de saúde pública, poluição de aqüíferos e cursos d’água e outros problemas (seg. Panorama dos Resíduos Sólidos no Brasil 2017).
– De acordo com o IBGE, 8,27 milhões de pessoas em 872 municípios vivem em áreas de risco – encostas, várzeas de rios e outros terrenos inadequados para moradias (População em áreas de risco no Brasil, 2018).
Infelizmente, a despeito da sua seriedade e urgência de enfrentamento, tais problemas não costumam ser percebidos como “ambientais” por uma considerável parcela da sociedade e, consequentemente, não recebem sequer uma fração das atenções e da publicidade geralmente dedicadas às questões climáticas.

4) Melhor conhecimento e maior resiliência
Em lugar do alarmismo sobre o aquecimento global e da pseudopanaceia do “baixo carbono”, a agenda climática teria muito a ganhar com uma reorientação de prioridades, que favoreça: a) um melhor conhecimento da dinâmica do clima, com ênfase nos estudos paleoclimáticos do território brasileiro; e b) um aumento da resiliência da sociedade para fazer frente aos eventos meteorológicos extremos e a quaisquer tendências climáticas que se manifestem no futuro.
O estudo das mudanças climáticas do passado histórico e geológico (paleoclimas) constitui a base mais sólida para o entendimento da dinâmica climática e as suas projeções para o futuro. Uma atenção especial deve ser dada ao período Quaternário (os últimos 2,6 milhões de anos), no qual o gênero Homo surgiu e tem evoluído. Dentro do Quaternário, os últimos 800 mil anos têm sido marcados por uma sucessão de ciclos glaciais (mais frios), com duração média de 90-100 mil anos, e interglaciais (mais quentes), com duração média de 10-12 mil anos. Atualmente, o planeta se encontra em uma fase interglacial, que teve início há cerca de 11.700 anos, dentro da qual toda a civilização humana tem se desenvolvido. De forma significativa, pelo menos os três interglaciais anteriores foram mais quentes que o atual, e não há qualquer evidência de que o presente interglacial possa deixar de ser sucedido por uma nova glaciação. A explicação mais aceita sobre os fatores causadores dessa dinâmica se baseia em alterações de parâmetros orbitais terrestres que variam ciclicamente, como mudanças na inclinação do eixo de rotação e na forma da órbita terrestre ao redor do Sol. Portanto, é evidente que o homem é incapaz de causar qualquer ínfima influência nos fatores e forças cósmicas que a regem.
No Brasil, os estudos do Quaternário, apesar de importantes e da existência de um número razoável de instituições de pesquisa e pesquisadores dedicados a eles, ainda são esparsos e insuficientes para permitir a configuração de um quadro paleoclimático do território nacional e do seu entorno continental, com a profundidade necessária para subsidiar um modelo consistente de mudanças climáticas a ser definido para o País, que possa proporcionar dados relevantes para subsidiar um modelo global mais condizente com a realidade. Portanto, esta é uma lacuna que precisa ser considerada na formulação de uma agenda climática realmente útil, em que o MMA poderia atuar em consonância com os órgãos específicos do MME e MCTIC. Além disso, manifesta-se uma necessidade de estudos locais e regionais, intermediários entre as escalas global/zonal e pontual dos microclimas, de grande relevância para o planejamento e ordenamento territorial e que deveriam receber atenção maior.
Quanto à resiliência, esta pode ser entendida como a flexibilidade das condições físicas de sobrevivência e funcionamento da sociedade, além da sua capacidade de resposta às emergências, permitindo-lhe reduzir a sua vulnerabilidade aos fenômenos meteorológicos extremos, às oscilações climáticas e a outros fenômenos naturais potencialmente perigosos, que já ocorreram no passado e certamente ocorrerão no futuro.
Neste aspecto, destacam-se dois conjuntos de fatores que contribuem para reduzir a vulnerabilidade da sociedade às adversidades meteorológicas e climáticas:
a) um aprimoramento da capacidade de previsão meteorológica nacional;
b) o estímulo de pesquisas referentes a novas fontes energéticas avançadas.
No primeiro item, uma iniciativa primordial seria tirar do papel o projeto de um satélite meteorológico geoestacionário próprio, imprescindível para um país que ocupa a metade da América do Sul e tem a responsabilidade de distribuir informações meteorológicas sobre grande parte do Oceano Atlântico Sul (a chamada METAREA-V), nos termos da Convenção Internacional para a Salvaguarda da Vida Humana no Mar (SOLAS).
Outras iniciativas relevantes incluem:
– a ampliação e melhor distribuição territorial da rede de estações meteorológicas, inferior aos padrões recomendados pela Organização Meteorológica Mundial (OMM) para um território com as dimensões do brasileiro, com ênfase especial no trabalho que vem sendo desenvolvido pelo Instituto Nacional de Meteorologia (INMET);
– o aumento do número de radares meteorológicos e a sua interligação aos sistemas de defesa civil;
– a aceleração da consolidação da base nacional de dados meteorológicos, parte dos quais ainda não foi digitalizada;
– o estabelecimento de uma rede mais eficiente de divulgação de dados meteorológicos e oceanográficos para a METAREA-V.
No segundo item, destaca-se o estabelecimento de linhas de pesquisa de novas fontes energéticas, como o uso de tório em reatores nucleares, fusão nuclear (com conceitos que deverão estar disponíveis comercialmente ao longo da próxima década) e fontes baseadas em novos princípios físicos, como as reações nucleares quimicamente assistidas (a chamada “fusão a frio”), energia do vácuo quântico (ou “ponto zero”) e outras, objetos de pesquisas e desenvolvimento em vários países, mas praticamente ignoradas no País, que não pode dar-se ao luxo de ficar alheio a elas. Para tais pesquisas, o Brasil dispõe dos necessários recursos humanos qualificados, distribuídos entre centros de pesquisa acadêmicos, de empresas estatais (Cenpes, Cepel etc.), militares (IME, CTA, CTEx, IPqM) e algumas empresas de tecnologia privadas. Com relação às fontes renováveis, a energia solar pode ser explorada, particularmente no Centro Oeste e Nordeste, porém não com sistemas fotovoltáicos, de ineficiência comprovada, e sim com sistemas heliotérmicos (concentrated solar power, CSP), em particular, os de calhas parabólicas, além da produção de combustível líquidos a partir de algas e hidrogênio a partir de hidrogenase (enzima catalisadora da oxidação reversível de hidrogênio molecular).
Todas essas iniciativas poderiam se beneficiar com a disponibilidade de parte dos recursos financeiros que têm sido alocados a programas vinculados às mudanças climáticas, segundo o enfoque equivocado da redução das emissões de carbono.
Um grupo adicional de iniciativas relevantes para a “resiliência climática” envolve a infraestrutura física, em especial, a capacidade de armazenamento de alimentos, infraestrutura de transportes, energia e comunicações, além de outros tópicos, não diretamente na alçada do MMA, mas potencialmente influenciados pelas diretrizes e programas do Ministério.
Em síntese, o caminho mais racional e eficiente para aumentar a resiliência da sociedade, diante das mudanças climáticas inevitáveis – aquecimento ou resfriamento –, é a elevação geral dos seus níveis de desenvolvimento humano e progresso aos patamares permitidos pela Ciência e pelo avanço do conhecimento e o processo de inovação.

5) A “descarbonização” é desnecessária e deletéria
Uma vez que as emissões “antropogênicas” de carbono não provocam impactos verificáveis no clima global, toda a agenda da “descarbonização” ou “economia de baixo carbono” se torna desnecessária e contraproducente – sendo, na verdade, uma pseudo-solução para um problema inexistente, pelo menos no tocante ao clima (programas de incentivo à mobilidade urbana, inclusos no Fundo Clima, por exemplo, se justificam por si próprios). A insistência na sua preservação, por força da inércia do status quo, não implicará em qualquer efeito sobre o clima, mas tenderá a aprofundar os numerosos impactos negativos de tais diretrizes.
O principal deles é o encarecimento desnecessário de uma série de atividades econômicas, em razão de:
– subsídios concedidos à exploração de fontes energéticas de baixa eficiência, como a eólica e solar fotovoltáica, já em retração na União Europeia (UE), que investiu fortemente nelas;
– imposição de cotas e taxas vinculadas às emissões de carbono, como fizeram a UE para viabilizar o seu mercado de créditos de carbono, e países como a Austrália e a França, onde a grande rejeição popular forçou a sua retirada;
– imposição a várias atividades econômicas de medidas de captura e sequestro de carbono (CCS), totalmente inúteis sob o ponto de vista climático e de saúde pública, uma vez que o CO₂ não é um gás tóxico e poluente; vale insistir, trata-se do gás da vida. Os principais beneficiários de tais medidas têm sido os especuladores, fornecedores de equipamentos e serviços de CCS e participantes dos intrinsecamente inúteis mercados de carbono, que não têm qualquer fundamento econômico real e se sustentam tão-somente em uma demanda artificial criada a partir de uma necessidade inexistente.

6) Mirando o futuro
Pela primeira vez na História, a humanidade detém um acervo de conhecimentos e recursos físicos, técnicos e humanos, para prover a virtual totalidade das necessidades materiais de uma população ainda maior que a atual. Esta perspectiva viabiliza a possibilidade de se universalizar – de uma forma inteiramente sustentável – os níveis gerais de bem-estar usufruídos pelos países mais avançados, em termos de infraestrutura de água, saneamento, energia, transportes, comunicações, serviços de saúde e educação e outras conquistas da vida civilizada moderna. A despeito dos falaciosos argumentos contrários a tal perspectiva, os principais obstáculos à sua concretização, em menos de duas gerações, são mentais e políticos, e não físicos e ambientais. Definitivamente, a política ambiental brasileira (aí incluída a agenda climática) precisa enquadrar-se nessa perspectiva.

Luiz Carlos Baldicero Molion
Físico, doutor em Meteorologia e pós-doutor em Hidrologia de Florestas, pesquisador sênior (aposentado) do Instituto Nacional de Pesquisas Espaciais (INPE), professor associado (aposentado) da Universidade Federal de Alagoas (UFAL)

José Carlos Parente de Oliveira
Físico, doutor em Física e pós-doutor em Física da Atmosfera, professor associado (aposentado) da Universidade Federal do Ceará (UFC), professor do Instituto Federal de Educação, Ciência e Tecnologia do Ceará (IFCE)

José Bueno Conti
Geógrafo, doutor em Geografia Física e Livre-docente em Climatologia, professor titular do Departamento de Geografia da Universidade de São Paulo (USP)

Fernando de Mello Gomide
Físico, professor titular (aposentado) do Instituto Tecnológico da Aeronáutica (ITA)

Ricardo Augusto Felício
Meteorologista, mestre e doutor em Climatologia, professor do Departamento de Geografia da Universidade de São Paulo (USP), membro do conselho deliberativo da Sociedade Brasileira de Meteorologia (SBMET)

Fúlvio Cupolillo
Geógrafo, mestre em Meteorologia Aplicada e doutor em Geografia, professor titular do Instituto Federal de Educação, Ciência e Tecnologia de Minas Gerais (IFMG)

Daniela de Souza Onça
Geógrafa, mestre e doutora em Climatologia, professora do Departamento de Geografia da Universidade do Estado de Santa Catarina (UDESC)

Carlos Henrique Jardim
Geógrafo, mestre, doutor e pós-doutor em Geografia, professor do Departamento de Geografia da Universidade Federal de Minas Gerais (UFMG).

Wellington Lopes Assis
Geógrafo, mestre e doutor em Geografia, professor do Departamento de Geografia da Universidade Federal de Minas Gerais (UFMG)

João Bosco A. de Morais
Geólogo, mestre em Hidrogeologia e doutor em Vulnerabilidade de Aquíferos, consultor privado e assessor para Meio Ambiente do Governo do Estado do Ceará

Danilo Ericksen Costa Cabral
Meteorologista, mestre em Meteorologia, Agência Executiva de Gestão das Águas do Estado da Paraíba (AESA)

Rômulo da Silveira Paz
Meteorologista, mestre em Meteorologia, doutor em Engenharia Mecânica, professor associado da Universidade Federal da Paraíba (UFPB)

Paulo Cesar Martins Pereira de Azevedo Branco
Geólogo, pesquisador sênior em Geociências (aposentado) do Serviço Geológico do Brasil (CPRM)

Gildo Magalhães dos Santos Filho
Engenheiro eletrônico, doutor em História Social e Livre-docente em História da Ciência e Tecnologia, professor titular do Departamento de História da Universidade de São Paulo (USP)

Thiago Maia
Físico, mestre e doutor em Física Nuclear e doutor em Astrofísica, engenheiro de petróleo e consultor privado

Guilherme Polli Rodrigues
Geógrafo, mestre em Climatologia, consultor ambiental

Igor Vaz Maquieira
Biólogo, especialista em Gestão Ambiental

Mario de Carvalho Fontes Neto
Engenheiro agrônomo, editor do blog A Grande Farsa do Aquecimento Global

Richard Jakubazsko
Jornalista, editor-executivo da revista Agro DBO e coautor do livro CO₂ aquecimento e mudanças climáticas: estão nos enganando? (com Luiz Carlos Baldicero Molion e José Carlos Parente de Oliveira, DBO Editores Associados, 2015)

Geraldo Luís Saraiva Lino
Geólogo, autor do livro A fraude do aquecimento global: como um fenômeno natural foi convertido numa falsa emergência mundial (Capax Dei, 2009; 4ª ed., 2015)

.

Anúncios

Tweet do Donald Trump

“No belo meio-oeste, as temperaturas do vento gelado estão chegando a 60 graus negativos, o maior frio já registrado. Nos próximos dias, espera-se que fique ainda mais frio. As pessoas não podem permanecer do lado de fora nem por alguns minutos. O que diabos está acontecendo com o Aquecimento Global? Por favor, volte rápido, precisamos de você”!

Tradução livre de um tweet do presidente Donald J. Trump ontem.

.

Reflexões sobre o efeito estufa

O fenômeno do efeito estufa, como descrito nos livros de Meteorologia, é questionável e desafia as leis da Termodinâmica! Esse fenômeno não está descrito nos livros de Física. A versão clássica o compara com o que ocorria nas antigas casas de vegetação (estufa de plantas = greenhouse), nas quais a radiação solar atravessava os painéis de vidro e aquecia o chão e o ar interno. A radiação infravermelha térmica (IV), emitida dentro da casa de vegetação, não conseguia passar pelo vidro, que a absorve por ser opaco a ela (vidro absorve comprimentos de onda superiores a 2,8 µm) e a impedia de escapar para o ambiente exterior à casa de vegetação. Esse seria o fenômeno responsável pelo aumento de sua temperatura. Em princípio, ocorreria a mesma coisa na atmosfera terrestre. A radiação solar incide sobre a atmosfera, parte dela (30%) é refletida de volta para o espaço exterior por nuvens, moléculas do ar e pela própria superfície terrestre, porém boa parte atravessa a atmosfera e é absorvida pela superfície terrestre, que se aquece. Aquecida, a superfície emite radiação IV que, por sua vez, seria absorvida por gases constituintes minoritários da atmosfera, como vapor d’água (H₂O), gás carbônico (CO₂) e metano (CH₄), os chamados gases de efeito estufa (GEE), que atuariam de forma semelhante ao vidro. Os GEE emitiriam a radiação IV absorvida em todas as direções, inclusive de volta à superfície. Essa seria a explicação para o ar adjacente à superfície ser mais quente que as camadas superiores da atmosfera. Em princípio, quanto maior a concentração dos GEE, maior seria a absorção da radiação pela atmosfera e emissão para a superfície e mais quente ficaria o planeta. Ou seja, maior injeção de CO₂ e CH₄ na atmosfera tenderia a intensificar o efeito estufa.

O fenômeno da antiga “casa de vegetação aquecida” foi mencionado na literatura pela primeira vez por Joseph Fourier (o mesmo da Matemática) em 1826. Depois, em 1859, John Tyndall descobriu que gases como vapor d’água, CO₂ e CH₄, absorviam radiação IV. Em 1896, Svante Arrhenius (da Química) afirmou que, segundo seus cálculos, a temperatura global aumentaria de 5°C a 6°C se a concentração de CO₂ dobrasse. Arrhenius nem calculadora tinha e o IPCC precisou de complexos modelos de clima, que rodam em supercomputadores, e gastaram bilhões de dólares para chegar ao mesmo número de Arrhenius. Entretanto, em 1909, Robert W. Wood construiu dois modelos de casa de vegetação, uma de vidro e outra de quartzo, que não absorve a radiação IV, e demonstrou que as temperaturas finais das duas eram semelhantes. Ou seja, a casa de vegetação se mantinha aquecida não por causa da propriedade do vidro absorver radiação IV, e sim porque o ar, aquecido e menos denso, ficava confinado dentro da casa de vegetação e não conseguia se misturar ou subir (convecção), dando lugar a ar mais frio proveniente de outras camadas atmosféricas, conforme ocorre na atmosfera livre. Portanto, a absorção pelos GEE não seria o mecanismo principal para aquecer o ar próximo à superfície. O assunto, porém, foi deixado de lado porque o clima era muito frio naquela época. Foi só em 1938 que um técnico em máquinas a vapor da British Electric, Guy S. Callendar, escreveu um artigo associando o aumento de temperatura observado entre 1925 e 1937 à emissão de CO₂ proveniente do aumento de geração de energia por termelétricas. Na época, ele foi amplamente refutado pelos “papas” da Climatologia, mas não desistiu. Ora, sabe-se hoje que o aumento da temperatura entre 1925-1946 foi devido ao aumento da atividade solar, maior transparência da atmosfera e maior frequência de eventos El Niño, portanto, natural! Em 1956, Charles Keeling modificou um cromatógrafo a gás a fim de medir CO₂ utilizando um comprimento de onda de radiação IV que é absorvido pelo CO₂, e passou a medir a concentração de CO₂ por absorção de IV e não por análises químicas como era feito até então. Keeling se associou a Callendar para defender o aquecimento global pelo CO₂. Porém, ninguém se importou muito, porque ocorreu um resfriamento global entre 1946-1976, embora a concentração de CO₂ estivesse crescendo rapidamente, diz-se que devido ao aumento da atividade industrial pós-guerra. A partir de 1977, o clima começou a se aquecer novamente e, em 1988, o Dr. James Hansen, do GISS/NASA, deu um depoimento no Congresso Americano afirmando que o aquecimento era devido ao aumento de CO₂ liberado pelo homem por meio da queima de combustíveis fósseis, petróleo, carvão mineral e gás natural. Nesse mesmo ano, foi criado o IPCC, e daí a histeria global se instalou! Como pode ser percebido, o efeito estufa nunca foi comprovado ou teve sua existência demonstrada. Ao contrário, há 100 anos, Robert W. Wood já demonstrara que seu conceito é falso! [A maioria das casas de vegetação hoje utiliza filmes plásticos como cobertura, em vez de vidro]. Porém, uma mentira repetida inúmeras vezes, torna-se verdade.

Ao medir a emissão de IV pela Terra para o espaço exterior com sensores a bordo de plataformas espaciais, encontra-se uma temperatura efetiva de corpo negro igual a 255K (18°C negativos) pela Lei de Stefan-Boltzmann. A temperatura média do ar à superfície é cerca de 288K (15°C). Aí, é dito que “o efeito estufa aumenta de 33°C (diferença entre 288 e 255) a temperatura na Terra e, se ele não existisse, a temperatura de superfície seria 18°C negativos”! Essa afirmação é falsa, pois, se não existisse atmosfera, não existiriam nuvens, por exemplo, que são responsáveis pela metade do albedo planetário. Assim, o fluxo de radiação solar seria 15% maior e a temperatura planetária igual a 268K (-5ºC). Mas, o mecanismo questionável é o processo de absorção e emissão de IV pelos GEE. Se o CO₂ for tratado como corpo negro, como ele absorve eficientemente radiação IV em 15 microns, sua emissão, que é máxima nesse comprimento de onda (Lei de Kirchhoff), corresponderia a uma temperatura de aproximadamente 193K (80°C negativos) decorrente da Lei de Wien. Um corpo frio (CO₂ no ar) aqueceria um corpo quente (superfície)? Certamente, isso fere a 2ª Lei da Termodinâmica! A teoria afirma que os GEE absorvem IV por rotação de suas moléculas e vibração de seus átomos, somente nas frequências de IV que fazem suas moléculas entrarem em ressonância. Rotação e vibração são movimentos mecânicos, geram energia cinética que é dissipada, na forma de calor, por meio de choques com as mais de 2.600 moléculas dos principais constituintes atmosféricos, Nitrogênio (78%), Oxigênio (21%) e Argônio (0,9%), que envolvem cada molécula de CO₂. É sabido que a desativação colisional da molécula de CO₂ excitada vibracionalmente é cerca de 10 mil vezes mais rápida que o seu decaimento radiativo. Logo, se o CO₂ perde a radiação IV absorvida por colisões com outras moléculas, não pode emitir IV. E, sendo seu percentual ínfimo na atmosfera (0,039%), sua contribuição ao aquecimento do ar, por colisão, é desprezível! Ou seja, se todo CO₂ fosse retirado da atmosfera, a variação da temperatura do ar não poderia ser detectada pelos instrumentos atuais. As moléculas da mistura gasosa denominada “ar” (matéria) são aquecidas quando se fornece calor a elas. É mais aceitável, então, que as temperaturas próximas da superfície sejam mais elevadas devido ao contato do ar com a superfície quente (condução, “chapa quente”) e à pressão atmosférica (peso do ar). Ou seja, a massa atmosférica, submetida à aceleração da gravidade (peso ÷ área = pressão), é que mantém o ar confinado na superfície e que se aquece por compressão (lei dos gases perfeitos = temperatura proporcional à pressão) e pelo calor conduzido. Quando o ar se aquece, sua densidade diminui tal que, se o empuxo, ao qual fica submetido, superar seu peso (1,20 kg/m³ a 20°C), é forçado a subir (convecção = transporte de calor por meio do transporte vertical da massa de ar) e é reposto por ar mais frio que vem de seu entorno e das camadas superiores. Portanto, o processo físico mais relevante para o aquecimento do ar é condução de calor da superfície quente, seguido da convecção. Em adição, o ar é aquecido por liberação de calor latente (convecção úmida = calor liberado para a atmosfera quando o vapor d’água se liquefaz, formando nuvens e chuva) e por um pequeno percentual de absorção direta de radiação solar. A emissão de radiação IV tem um papel secundário no controle da temperatura do ar próximo à superfície. A 2ª Lei da Termodinâmica afirma que o calor flui do corpo quente para o frio. Como as camadas de ar acima da superfície são, em média, mais frias que ela, a energia (calor) não pode fluir da atmosfera para a superfície e aquecê-la. Absorvendo radiação IV, as camadas de ar (matéria) funcionam como um isolante térmico imperfeito que, quando muito, retardam a taxa de resfriamento da superfície. Como os GEE, em particular o CO₂, são constituintes minoritários, eles dão muito pouca contribuição à massa gasosa atmosférica total e, consequentemente, a sua taxa de resfriamento. Em outras palavras, se os GEE não existissem, a temperatura do ar próximo à superfície atingiria valores semelhantes aos que ocorrem atualmente. Portanto, se a concentração de CO₂ dobrar devido às emissões antrópicas, de 0,039% para 0,078%, o aumento de sua massa molecular seria ínfimo e sua contribuição, para a temperatura do ar, desprezível.

Nos trópicos, a temperatura do ar próximo à superfície depende basicamente da cobertura de nuvens e da chuva. O ciclo hidrológico é o “termostato” da superfície. Quando o tempo está nublado e chuvoso, a temperatura é mais baixa. Isso porque a cobertura de nuvens funciona como um guarda-sol, refletindo a radiação solar de volta para o espaço exterior em sua parte superior. Simultaneamente, a água da chuva é mais fria e sua evaporação rouba calor da superfície, refrigerando o ar. Quando não há nuvens e chuva, acontece o contrário, entra mais radiação solar no sistema, aquece a superfície e, como não existe água para evaporar, o calor do Sol é usado quase que exclusivamente para aquecer o ar (calor sensível). Em adição, se o ar estiver úmido logo após uma chuva de verão, a sensação térmica é intensificada, pois a alta umidade do ar dificulta a transpiração da pele, que é o mecanismo fisiológico que regula a temperatura dos seres humanos. Durante o período seco, tem-se ar descente sobre a região, que provoca alta pressão atmosférica, céu claro, inversão térmica e dificulta a ascensão do ar aquecido, reduzindo a cobertura de nuvens. Isso faz com que a superfície e o ar em contato atinjam temperaturas altas. Numa cidade, devido à impermeabilização do solo, não há água da chuva para evaporar e todo calor do Sol é usado para aquecer o ar. Como as cidades cresceram e a população se aglomerou nelas, a impressão que a população urbana tem é que o mundo está se aquecendo. Um termômetro, instalado numa cidade, corrobora com essa percepção, pois passa a medir temperaturas cada vez mais elevadas com o crescimento da área urbanizada com o tempo, o chamado “efeito de ilha de calor urbana”. Ou seja, a sensação térmica sentida pelo ser humano advém de condições atmosféricas locais e não globais. Não se conhece a metodologia de cálculo da “temperatura média global” e os locais das séries de temperaturas utilizadas pelo IPCC. São mantidos em segredo! Mas, se ela foi calculada utilizando-se termômetros “selecionados a dedo”, particularmente os instalados nos grandes centros urbanos onde se localizam as séries temporais mais longas, com dados contaminados pelo efeito de ilha de calor urbana, não é surpresa que a década de 2000 tenha sido considerada a “mais quente” dos últimos 650 anos! Na realidade, não há como calcular “uma temperatura média global” e a adotá-la como medida da variabilidade climática global. Uma medida mais adequada dessa variabilidade seria a estimativa da variação temporal do calor armazenado nos oceanos. Concluindo, o efeito estufa, como descrito na literatura, nunca foi demonstrado e é difícil aceitar que o alegado processo de emissão pelos GEE, em particular o CO₂, seja o principal causador de temperaturas do ar mais altas próximas à superfície. A massa de ar atmosférico apenas retarda a perda de IV emitida pela superfície para o espaço exterior. As massas de CO₂ e CH₄ na atmosfera são muito pequenas e sua contribuição ao aquecimento do ar, por absorção de IV, é irrelevante. Frases como “temos que impedir que a temperatura aumente mais de 2°C, mantendo a concentração de CO₂ abaixo de 460 ppmv”, não têm sentido físico algum. Tal cálculo é proveniente de uma grande simplificação da equação de absorção radiativa dos GEE, “ajustada” para reproduzir o aumento de temperatura com a variação da concentração de CO₂ observada. E essa equação não tem base científica alguma! Portanto, a redução das emissões de carbono para a atmosfera não terá efeito algum sobre a tendência do clima, pois o CO₂ não controla o clima global. E a tendência para os próximos 20 anos é de um resfriamento global, mesmo que a concentração de CO₂ continue a aumentar. Considerando que 80% da matriz energética global dependem dos combustíveis fósseis, a imposição da redução das emissões de carbono, na realidade, afetará o desenvolvimento dos países pobres, particularmente o Brasil, aumentando as desigualdades sociais no planeta.

A cobertura de nuvens é um problema a parte, pois a cobertura de nuvens se comporta como um “corpo sólido” perante a radiação IV. Nuvens de desenvolvimento vertical (cumulonimbo, Cb) absorvem radiação IV em sua base (~1 km de altitude, temperatura da base alta ~20°C = 293K) e emitem em seu topo (~10 a 15 km de altitude, temperatura do topo muito baixa, ~ -70°C a -80°C = 203 a 193K). Portanto, o aumento da cobertura de nuvens do tipo Cb tenderia a aquecer o planeta. Os dados do projeto ISCCP (nebulosidade por satélite) mostra que a cobertura de nuvens global diminuiu de 5% entre 1982 e 1999. Isso corresponde a aumentar a entrada de radiação solar no sistema climático em 3,7 W/m² e, se forem usados os parâmetros de sensibilidade climática do IPCC, a temperatura global deveria ter subido de até 3°C, o que não aconteceu de acordo com as observações. De 1976 a 1999, a temperatura média global subiu apenas 0,4°C. Ou seja, a diminuição da cobertura de nuvens já explica, até de mais, o aquecimento ocorrido entre 1976-1999. Esse é mais um argumento de que, da maneira como definido, o efeito estufa não existe. Atenção, é muito importante lembrar que não se nega que houve um aquecimento entre 1976-1999. Que houve aquecimento não há dúvidas, apenas discorda-se que ele tenha ocorrido devido à intensificação do efeito estufa pelas emissões antrópicas. De 1999 até o presente, de acordo com os dados de satélite (MSU), a temperatura média global tem permanecido estável, embora a concentração de CO₂ tenha aumentado 11%. A Alemanha, o Japão e vários outros países desenvolvidos estão emitindo mais, pois precisam de energia “despachável”, que não ocorre com as renováveis, como eólica e solar. Estão sendo construídas e planejadas cerca de 1.600 termelétricas a carvão em todo o mundo nos próximos 10 anos. Ainda bem que CO₂ não controla o clima global! Se não, ter-se-ia um problema de difícil solução!

Luiz Carlos Baldicero Molion é PhD em Meteorologia e pesquisador aposentado do INPE/MCTI, e professor aposentado da UFAL/MEC.

.

A sequência do filme de Al Gore sobre o clima esconde alguns fatos inconvenientes

Onze anos depois de seu primeiro filme sobre mudanças climáticas, ele ainda tenta nos assustar para salvar o mundo.

Dizem que a continuação é sempre pior que o original, mas o primeiro filme de Al Gore colocou o sarrafo muito baixo. Onze anos atrás, “Uma Verdade Inconveniente” mostrou o aquecimento global usando mais de táticas de pânico do que de ciência. No final de semana, o Sr. Gore voltou com “An Inconvenient Sequel: Truth to Power” (Uma Sequência Inconveniente: Verdade ao Poder). Se o trailer for uma indicação, promete ser mais do mesmo.

O ex-vice-presidente tem um histórico fraco. Ao longo dos últimos 11 anos, o Sr. Gore sugeriu que o aquecimento global causaria um aumento nos tornados, que a geleira do Monte Kilimanjaro desapareceria até 2016 e que os verões no Ártico poderiam ser livres de gelo, já em 2014. Essas previsões e reivindicações demonstram que estava errado.

“Uma Verdade Inconveniente” promoveu uma narrativa assustadora de que temperaturas mais altas significariam um clima mais extremo, especialmente com furacões. O cartaz do filme mostrava que um furacão emergia de uma chaminé. O Sr. Gore parece duplicar isso ao declarar no trailer do novo filme que “as tempestades ficaram mais fortes e mais destrutivas. Assista ao mergulho da cidade na água. Este é o aquecimento global”.

Isso é enganador. O Painel Intergovernamental sobre Mudanças Climáticas – em seu Quinto Relatório de Avaliação, publicado em 2013 – encontrou “baixa confiança” no aumento da atividade de furacões até o momento devido ao aquecimento global. As tempestades estão causando mais danos, mas principalmente porque pessoas mais ricas optam por viver na costa, não por causa do aumento das temperaturas.

Mesmo que as tempestades tropicais se fortaleçam até 2100, seu custo relativo provavelmente diminuirá. Em um artigo de 2012 para a revista Nature Climate Change, os pesquisadores mostraram que os danos por furacões agora custam 0,04% do produto interno bruto global. Se as mudanças climáticas tornam os furacões mais fortes, os custos absolutos duplicarão até 2100. Mas o mundo também será muito mais rico e menos vulnerável, de modo que o dano total pode ser estimado em apenas 0,02% do PIB global.

No trailer, o Sr. Gore aborda “a cena mais criticada” de seu documentário anterior, que sugeriu que “a combinação do aumento do nível do mar e tempestades inundariam o local do Memorial do 11 de setembro”. Então, são exibidas aos espectadores cenas de locais em Manhattan inundados em 2012, após a supertempestade Sandy, aparentemente confirmando as previsões do Sr. Gore. Não importa se o que ele realmente previa seria uma inundação causada pelo derretimento do gelo na Groenlândia.

Mais importante é que as receitas do Sr. Gore – para Nova York e o mundo – não funcionarão. Ele afirma que a resposta ao aquecimento reside em acordos para reduzir as emissões de carbono que custariam trilhões de dólares. Isso não teria parado Sandy. O que Nova York realmente precisa é melhor infra-estrutura: diques, portas para tempestades para o metrô, pavimento poroso. Essas correções podem custar cerca de US$ 100 milhões por ano, uma barganha em comparação com o preço dos tratados climáticos internacionais.

O Sr. Gore ajudou a negociar o primeiro grande acordo global em matéria de clima, o Protocolo de Quioto. Não fez nada para reduzir as emissões (e, portanto, controlar as temperaturas), de acordo com um artigo de março de 2017 no Journal of Environmental Economics and Management. Impassível, o Sr. Gore ainda apoia a mesma solução, e o novo documentário mostra-o percorrendo os corredores da conferência climática de Paris.

Até 2030, o acordo climático de Paris custará ao mundo até US$ 2 trilhões por ano, principalmente no crescimento econômico perdido, de acordo com os melhores modelos econômico-energéticos revisados ​​pelos pares. Isso permanecerá caro para o resto do século. Isso tornaria o tratado o mais caro da história.

E para quê? Pouco antes da conferência de Paris, a Convenção-Quadro das Nações Unidas sobre Mudanças Climáticas estimou que, se cada país cumprisse todo o corte das emissões de carbono prometido em Paris entre 2016 e 2030, as emissões de dióxido de carbono cairão apenas 60 gigatoneladas durante esse período de tempo. Para manter a elevação da temperatura abaixo de 2 graus Celsius, o mundo deve reduzir essas emissões em cerca de 6.000 gigatoneladas ao longo deste século, de acordo com o IPCC. Um acordo de Paris “bem sucedido” não chegaria nem perto de resolver o problema.

O Sr. Gore argumenta que a abordagem de Paris empurra as nações e as empresas para a energia verde. Talvez, mas a economia global está longe de estar pronta para substituir combustíveis fósseis por energia solar e por energia dos ventos. A Agência Internacional de Energia, em seu 2016 World Energy Outlook, mostrou que 0,6% da energia mundial é fornecida por energia solar e energia eólica. Mesmo com o acordo de Paris totalmente implementado, esse número aumentaria apenas para 3% em um quarto de século.

Em parte por ativistas como o Sr. Gore, o mundo continua focado em subsidiar tecnologia ineficiente e não confiável, ao invés de investir em pesquisa para reduzir o preço da energia verde. O progresso real em Paris poderia ser encontrado à margem, onde o filantropo Bill Gates e outros, incluindo líderes políticos, concordaram em aumentar os gastos com pesquisa e desenvolvimento. Este é um começo importante, mas é necessário muito mais financiamento.

O Sr. Gore declara no seu novo filme que “é correto salvar a humanidade”. Nenhum argumento aqui. Mas o uso de táticas de pânico realmente é o melhor caminho a seguir?

O post acima é uma tradução livre do artigo de Bjørn Lomborg publicado no The Wall Street Journal em 27/07/2017

.

A África tornou-se mais verde nos últimos 20 anos

Apesar das mudanças climáticas e de uma população crescente, a África tornou-se mais verde nos últimos 20 anos, mostra um novo estudo.

Na África, uma luta está acontecendo. De um lado, as forças da natureza tornam o continente mais verde e, por outro lado, as pessoas estão removendo árvores e arbustos do continente.

Em regiões densamente povoadas, as pessoas estão cortando árvores e florestas, mas em outros lugares, onde as populações humanas estão mais espalhadas, os arbustos e a vegetação densa estão prosperando.

Agora, os cientistas quantificaram pela primeira vez como a vegetação em todo o continente mudou nos últimos 20 anos.

Trinta e seis por cento do continente tornou-se mais verde, enquanto onze por cento está ficando menos verde.

Os resultados mostram que nem tudo está perdido na natureza da África, dizem os cientistas que estão por trás da nova pesquisa.

“Nossos resultados são positivos e negativos. É claro que não é bom que os humanos tivessem uma influência negativa na distribuição de árvores e arbustos em 11 por cento da África nos últimos 20 anos, mas não é uma surpresa completa”, diz o co-autor Martin Brandt de Departamento de Geociências e Gestão de Recursos Naturais da Universidade de Copenhague, na Dinamarca.

“Por outro lado, não é tudo negativo, pois uma área – três vezes maior do que a área onde as árvores e os arbustos estão desaparecendo – está se tornando mais verde, o que é positivo, pelo menos do ponto de vista do clima”, diz ele.

O novo estudo foi publicado na revista científica Nature Ecology and Evolution.

Desafio à visão geral da África
O estudo desafia a visão de que a África está sofrendo uma perda sustentada de árvores e arbustos, diz o professor Henrik Balslev, do Departamento de Biociências da Universidade de Aarhus, na Dinamarca. Balslev não estava envolvido no estudo.

O novo estudo oferece uma imagem matizada de como o crescimento populacional na África influencia a vegetação de diferentes maneiras.

“O estudo dá uma imagem muito mais matizada da influência das pessoas sobre a vegetação na África, ao sul do Sahara, do que antes. O estudo terá impactos significativos em como avaliamos a influência das pessoas sobre a natureza africana no futuro, à medida que a população esperada cresce dramaticamente”, diz ele.

A Namibia e a África do Sul estão ficando mais verdes
No novo estudo, cientistas usaram dados de satélites para analisar como as mudanças climáticas e as pessoas afetaram a distribuição das árvores e arbustos na África nos últimos 20 anos.

O desmatamento abre caminho para a agricultura, as cidades e as infra-estruturas, e as árvores derrubadas fornecem combustível como lenha. Ao mesmo tempo, mais CO₂ na atmosfera, juntamente com um planeta mais úmido e mais quente, proporciona condições que ajudam as árvores e arbustos a crescer.

Assim, os cientistas esperavam ver que as áreas densamente povoadas ficaram menos verdes, enquanto as áreas escassamente povoadas deveriam ficar cada vez mais verdes, e é exatamente o que eles observaram.

As áreas úmidas e densamente povoadas da África Ocidental perderam árvores em geral nos últimos 20 anos, enquanto mais arbustos e árvores apareceram nas áreas mais secas e escassamente povoadas da Namíbia e da África do Sul.

Enquanto isso, as árvores desapareceram das grandes cidades do continente.

“Encontramos uma conexão clara entre o tamanho da população em uma determinada área e a quantidade de vegetação perdida”, diz Brandt.

“Ao mesmo tempo, o estudo desafia a visão geral da África de que houve uma perda geral de árvores e arbustos. A imagem é muito mais matizada e regionalmente variável, e o problema com a perda de árvores e arbustos nas áreas úmidas é pelo menos parcialmente compensado por um crescimento da vegetação em outros lugares “, diz ele.

O texto acima é uma tradução livre do artigo publicado por Kristian Sjøgren e Catherine Jex em ScienceNordic. Para ver o original, clique aqui

.

A regeneração da Amazônia

Imagine toda a área desmatada na Amazônia ao longo da história, totalizando mais de 73 milhões de hectares. O que existe por lá hoje? As respostas se repetem: amplos pastos com algumas cabeças de gado, áreas agrícolas, projetos de mineração, centros urbanos. Estimativas feitas pelo Instituto Nacional de Pesquisas Espaciais (Inpe), a partir de imagens de satélite, mostram que, em 2014, 48 milhões de hectares foram destinados a pastagens e 4,5 milhões de hectares a terras agrícolas. Mineração, centros urbanos e áreas de uso misto somavam menos de 4 milhões de hectares.

Portanto, as respostas típicas não estão erradas. Mas não são respostas completas. Afinal, a conta não fecha. Quando fecha, chega a causar espanto: o Inpe mostra que quase um quarto da área oficialmente registrada como desmatada na Amazônia Legal até 2014 continha cobertura vegetal. Não é pouca coisa: são 17 milhões de hectares de vegetação secundária, termo que define a vegetação que cresce em áreas desmatadas.

A magnitude dessa regeneração, notável por si só, impressiona ainda mais quando colocada dentro de contexto. O Inpe estima que houve um aumento na vegetação secundária de mais de 7 milhões de hectares em apenas uma década. O mais surpreendente disso tudo é que a regeneração ocorreu de forma praticamente invisível aos muitos olhos voltados à Amazônia brasileira.

Por um lado, a política pública não a enxergava. Em 2004, o Brasil inaugurou o Plano de Ação para Proteção e Controle do Desmatamento na Amazônia (PPCDAm), um inovador pacote de ações estratégicas que passou a englobar todos os subsequentes esforços de combate ao desmatamento. Tais esforços focaram no que se apresentava como mais urgente à época: estancar a sangria na Amazônia. E o que então sangrava eram as florestas primárias, cortadas a velocidades alarmantes: mais de 2,5 milhões de hectares por ano.

As políticas do PPCDAm tiveram um papel fundamental na redução das taxas de desmatamento a partir da segunda metade dos anos 2000, em grande parte devido a esforços de monitoramento e aplicação da lei. Estudos mostram que, sem elas, a perda da floresta amazônica teria sido muito maior. No entanto, não houve espaço para considerar a regeneração florestal nesse primeiro momento do programa. Assim, o aumento observado na vegetação secundária ocorreu sem que houvesse políticas públicas dedicadas à sua promoção.

Por outro lado, a regeneração é invisível também aos sistemas de monitoramento por satélite – os mesmos que ajudaram a proteger a floresta. Na segunda metade dos anos 2000, o Brasil contava com dois sistemas complementares. Mais antigo, o Projeto de Monitoramento do Desmatamento na Amazônia Legal por Satélite (Prodes) é mantido pelo Inpe desde a década de 1980 para, anualmente, localizar e quantificar a derrubada de árvores. É a peça-chave para o cálculo da taxa de desmatamento da Amazônia.

O Inpe estima um aumento na vegetação secundária de mais de 7 milhões de hectares em apenas uma década

Já o sistema de Detecção de Desmatamento em Tempo Real (Deter), também produto do Inpe e uma das grandes inovações do PPCDAm, atende a outro propósito: emitir alertas quase em tempo real, apontando o local de atividades recentes de desmatamento e degradação, para apoiar a fiscalização e a aplicação da lei.

Os dois sistemas, que são referência mundial de monitoramento remoto de desmatamento, foram desenhados para considerar apenas a perda de vegetação primária, nunca antes suprimida. Em resumo, funcionam assim: em um determinado ano, o Prodes mapeia todas as áreas que foram desmatadas desde o ano anterior e calcula a taxa de desmatamento anual. Uma vez desmatada, a área não é revisitada em anos subsequentes, passando a ser parte do acumulado histórico do desmatamento.

O Deter, por sua vez, regularmente busca sinais de perda ou degradação florestal em toda a Amazônia, mas só olha para o que está fora do acumulado do Prodes. Com isso, os sistemas só emitem alertas e registram desmatamento referentes a perda de vegetação primária. Não é uma falha dos sistemas, mas uma característica consistente com o momento histórico em que foram desenvolvidos. Nesse cenário, contudo, a regeneração da floresta passou praticamente despercebida.

Do que é composta a regeneração? Quais fatores contribuíram para seu crescimento? Houve perda de áreas regeneradas que sequer foram registradas? Afinal, o que sabemos atualmente sobre a extensa cobertura vegetal em áreas desmatadas? Quase nada.

Entretanto, as respostas a essas e a outras tantas perguntas em aberto podem ajudar o Brasil a enfrentar dois enormes desafios que contemplam a expansão de vegetação secundária em larga escala no país inteiro. Primeiro, a efetiva implementação do novo Código Florestal, que implica restauração e reflorestamento em propriedades privadas dentro e fora da Amazônia. Segundo, o cumprimento das metas climáticas assumidas em âmbito internacional. Nelas, o país se compromete a restaurar e reflorestar 12 milhões de hectares de vegetação até 2030.

Somam-se a eles os já conhecidos desafios de manter o combate ao desmatamento na Amazônia, que tem dado sinais de aumento, expandir o alcance de efetiva proteção de vegetação nativa a outros biomas e melhorar a eficiência do uso da terra no país. Para enfrenta- los, ações e políticas que visam conciliar conservação ambiental e produção agropecuária precisam ser regularmente avaliadas e aprimoradas. Diante disso, se queremos potencializar o retorno da floresta e ampliar a capacidade do Brasil de conservar sua vegetação nativa, seja ela primária ou secundária, precisamos começar a entender a vegetação secundária já existente. Poderemos, assim, incorporar o que aprendermos com ela às políticas públicas.

Chegou a hora de todos – acadêmicos, formuladores de política, ativistas, proprietários rurais, formadores de opinião, membros da sociedade civil – nos debruçarmos sobre a regeneração da Amazônia. O tema é mais do que interessante. É relevante e urgente.

Clarissa Gandour, analista sênior do Climate Policy Initiative/ Núcleo de Avaliação de Políticas Climáticas da PUC-Rio. Artigo publicado no Valor Econômico em 24/07/2017

.

Um risco no mapa do mundo?

A superfície de gelo sobre o mar em torno da Antártida costuma variar de mais de 15 milhões de quilômetros quadrados no pico do inverno a menos de 2 milhões de quilômetros quadrados na baixa do verão austral, ano após ano, de acordo com dados de satélites, desde 1979. A variação anual, portanto, é de mais 13 milhões de quilômetros quadrados, pouco mais de 1,5 vez a superfície de todo o território brasileiro, que é de 8,5 milhões de quilômetros quadrados. Os 5.800 quilômetros quadrados desse “iceberguezinho” que se soltou na semana passada equivalem a ínfimo 0,045% da variação anual, um “risquinho” praticamente imperceptível, venhamos e convenhamos. Catastrofismo barato, da pior espécie.

Convém lembrar que o gelo flutuante, quando se derrete, não acrescenta mais água ao volume original. Façam a experiência: em um copo com bastante gelo, coloquem água até ele quase transbordar (todo o gelo deve flutuar). Quando o gelo derreter, observem que a água no copo não transborda.

Texto original enviado ao diretor de redação da revista Veja sobre a matéria “Um risco no mapa do mundo” publicada na edição 2539. [Publicado parcialmente na edição 2540].

.


Acessos ao blog

  • 485.206 acessos

Responsável pelo blog

Anúncios