sábado, 2 de abril de 2016

Temperatura global media del mes de marzo 2016: "el Niño" confirma su despedida.

Los evaluadores de la base de datos de temperatura terrestre (registro satelital, UAH) de la Universidad de Alabama , Roy Spencer y John Christy han dado ha conocer los datos correspondientes a marzo 2016.
Durante el mes de marzo, la desviación respecto a la temperatura global media del período 1981-2010 ha sido de +0.73 ºC, lo que, aun siendo un descenso respecto a febrero, le convierte en el mes de marzo más caluroso desde que existen registros satelitales.
Tras el récord absoluto de temperatura de febrero pasado (+0.83 ºC), este mes de marzo compite directamente con abril de 1998 para la segunda plaza de mes más cálido desde 1979 (inicio de bases de datos de medición satelital). 
Este descenso de temperatura media mensual parece confirmar que el actual episodio de "El Niño"  ha iniciado ya el declive y se dirige hacia su desaparición. 

.... De cara al verano podríamos estar celebrando la desaparición de este "El Niño"...., ha manifestado Bill Patzert, climatólogo del Jet Propulsion Laboratory. 
Pero quizás no sea todo ocasión de celebración ya que él mismo pronostica (con probabilidad de acierto del 55%) un episodio "La Niña" para final del verano o principio del otoño de 2016 , si bien la predicción de la NOAA otorga una probabilidad menor a este acontecimiento.  
"La Niña" presenta condiciones contrarias a las de "El Niño" : los vientos alisios suelen ser más fuertes de lo normal y la masa de agua fría que normalmente existe a lo largo de la costa oriental de América del Sur se extiende hasta el Pacífico ecuatorial central. La disminución de humedad sobre estas aguas más frías se traduce en menos lluvias en la costa oeste de América del Norte y del Sur, aumento de precipitaciones en el Pacífico Occidental (Nueva Zelanda, Oceanía) y un cierto enfriamiento general del planeta.

Este episodio de "El Niño" que parece al fin terminar, será recordado por tres características:
1.- su excepcional intensidad y gran duración en el tiempo
2.- por haber trastocado el Clima del planeta de modo notable, y
3.- por haber dado cobertura al reforzamiento de las tesis de la Teoría del Cambio Climático, pues han proliferado durante estos meses en los medios de comunicación las noticias que refuerzan el mensaje único oficialista: ...las emisiones de CO2 derivadas de las actividades humanas son la principal causa de los efectos que observamos; la única oportunidad para que el Clima vuelva a su estado correcto (?) es reducir la concentración de ese CO2 en la atmósfera ...

Durante este tiempo han sido pocos los medios y personas vinculados a la Ciencia del Clima y la Meteorología que se han atrevido a explicar el excepcional fenómeno que se estaba desarrollando en el Pacífico.
Pero conviene recordar que solo durante el siglo XX y antes del superNiño de 1998, ya ocurrieron otros 25 episodios "El Niño" de diferente intensidad. Las referencias bibliográficas indican que los eventos de 1891 y 1925 fueron de gran intensidad, comparable a los de 1982-83 y 1997-98.
En lo que va de siglo XXI, según el indice ONI (Oceanic Niño Index) se han presentado cuatro episodios "El Niño" en el Pacífico Central: dos de intensidad débil (2004-05 y 2006-07) y dos de intensidad moderada (2002-03 y 2009-10).
Y luego ha llegado el supercampeón de 2015-16, título bien merecido y que le otorgamos sin dudar después de observar la imagen comparada del episodio 1997-98 (supercampeón hasta el 2015) y el de 2015-16. Fuente: satélite Jason-2 para 2015 y satélite TOPEX/POSEIDON para la de 1997.

 Puede observarse la inmensa extensión (imagen de la izquierda, pluma blanca contorneada en rojo) de la masa de agua caliente del episodio de 2015-16, que deja a la pluma de 1997 claramente en segundo lugar.

Sucesos y acontecimientos como estos deberían volver a poner sobre la mesa del debate científico la pregunta de la discordia:
... En la continua oscilación climática de nuestra planeta, ¿cuanto de esta variabilidad es provocado por causas naturales ingobernables por el ser humano y cuanto es forzado por la actividad humana?

Comparemos las gráficas de A) evolución de temperatura global, B) variación de concentración de CO2 en la atmósfera y C) episodios "El Niño" desde 1970 hasta 2016:
  

Sin recurrir al tratamiento matemático para la obtención de correlación entre las tres variables presentadas, te propongo simplemente un ejercicio visual, procurando superponer las tres gráficas en una.
¿Ya está?
Pues bien, según la ONU, el IPCC y una amplia mayoría de científicos, estadísticos, sociólogos, cantantes ....... y casi todos los medios de comunicación, la gráfica B) es la que mejor explica la variación de la gráfica A.
 Es decir B) es la causa principal de A) , del efecto calentamiento global.

Todos los demás agentes de la variabilidad climática y sus complejas interacciones (variabilidad del campo magnético solar, vulcanismo terrestre, dinámica de la circulación oceánica, variación del eje de rotación terrestre .....) pasan a un segundo grado de protagonismo y quien no esté de acuerdo con esto será tachado de negacionista, científico corrupto, egoísta, conservador recalcitrante ......

¿Quien se atreve a disentir? ¿Quien se atreve a preguntar?

Mientras tanto, el gran problema planetario de la contaminación de aire, aguas y suelos por la desastrosa gestión de los residuos, junto con la pérdida de suelos por deforestación y erosión provocada por la acción humana.......   continúa sin ser abordado de manera global, con lo fácil que sería aprovechar la misma infraestructura creada para las Cumbres del Clima para tratar de hacer frente a estos asuntos en vez de continuar obsesionados con el CO2.



jueves, 10 de marzo de 2016

Cambio Climático: febrero 2016, récord de temperatura media mensual en los registros de satélite.

El pasado mes de febrero nos ha traído la novedad de un registro de temperatura media mensual que supera a los del episodio de "El Niño" de 1998, los más altos hasta hoy según las bases de datos satelitales UAH y RSS.
Ya había comentado en una entrada anterior que a la vista de la intensidad del fenómeno "El Niño" que se ha venido desarrollando durante todo 2015 en el Pacífico, y por analogía con episodios anteriores, se esperaba que el máximo de calentamiento se produjera hacia el inicio del segundo año (2016), tal y como ya había sucedido en episodios anteriores que duraban más de un año y como ha sucedido también en éste.
Debido a la relevancia de este hecho y deseando aportar información para un análisis más profundo que los que vemos habitualmente en los informes del oficilialismo alarmista, quisiera hacer las siguientes observaciones:

1.- La variación de la temperatura global media durante 2015-16 parece ser coherente con el inicio y desarrollo del fenómeno "El Niño" en el océano Pacífico:
En marzo de 2014, los sistemas de monitoreo y prevención de "El Niño" ya advirtieron de la "bomba" que se estaba preparando en el Pacífico (ver nota Nasa del 21 mayo 2014), con muy probable inicio a comienzos de 2015. Acertaron plenamente.
Entre los efectos producidos por "El Niño", destacan  el incremento de temperatura superficial del Pacífico oriental, el bloqueo del mecanismo de afloramiento de agua fría profunda a lo largo de la costa oeste de América del Sur (provocando el bloqueo del "refresco" atmosférico), intensas precipitaciones en el Pacífico oriental, menor nubosidad global y ligero aumento de la radiación solar entrante.
Como podemos ver en la Tabla siguiente, la variación de temperatura mensual durante 2015-16 presenta notables diferencias según la latitud y hemisferio que se considere:
En amarillo, meses con calentamiento >0.35 ºC.  En rojo, calentamiento >0.50 ºC. En verde, meses con enfriamiento.

Podemos observar  que el mayor calentamiento en la baja troposfera  se ha registrado en los trópicos (desde junio de 2015) y más tarde se ha ido extendiendo hacia el hemisferio Norte (notablemente desde octubre de 2015). El comportamiento del Hemisferio Sur ha sido muy diferente, con un calentamiento muy moderado durante el año 2015; debe tenerse en cuenta que la relación de superficie continental respecto a oceánica es mucho menor en el Sur, lo cual influye en el menor calentamiento de la troposfera, pues la inercia térmica del océano es muy grande.
Son los dos primeros meses de 2016 los que recogen el mayor aumento de temperatura, superando al super-Niño de 1997-98 y convirtiendo el episodio actual en uno de los más intensos de los últimos decenios.


2.- La estrategia más importante para transferir calor desde el océano a la atmósfera es la evaporación-condensación-precipitación.
La siguiente imagen muestra la variación del porcentaje de precipitación (lluvia) respecto de la media 1987-2010. El final de 2015 e inicio de 2016 ha sido realmente una bomba térmica de transferencia de calor desde el océano hacia la atmósfera a través de la condensación-precipitación, liberándose ingentes cantidades de calor en la baja troposfera.
Recordemos que el calor latente del agua para la vaporización-condensación es 540 cal./gr., lo que significa que por cada gramo de agua-vapor que se condensa en agua-líquida de lluvia, se liberan en la atmósfera 540 calorías. Especialmente en febrero de 2016, la condensación-precipitación ha sido muy elevada, ocasionando una gran liberación de calor en la baja troposfera.


3.- Los episodios de "El Niño" de 1997-98 y 2015-16 son algo diferentes:
Las diferencias de comportamiento del episodio de 1997-98 y el actual de 2015-16 van más allá de la mera intensidad del calentamiento.
Como puede apreciarse en la siguiente imagen que compara el mes de febrero del segundo año de cada uno de estos super-Niños:

Durante el episodio de 1998 en torno a la masa oceánica caliente (en color rojo hacia el centro de la imagen de febrero 1998) se formó un anillo frío (sombreado azul), con aire fresco en descenso sobre el océano, que aisló el calentamiento recluyéndolo principalmente en los trópicos y frenó su expansión hacia latitudes más altas. Esto no ha ocurrido en el episodio actual; en la imagen de 2016 puede observarse la mancha cálida (en rojo) pero no el anillo azul (más fresco), con lo cual el impacto del calentamiento se ha extendido a latitudes altas, sobre todo hacia el Hemisferio Norte.
La razón por la cual en el episodio de 2015-16 no se ha formado el anillo frío (en azul) en el Pacífico es desconocida para mí; aunque lo he buscado con interés, no he encontrado ninguna interpretación que ayude a entender este fenómeno.


4.- Parece que el actual episodio "El Niño" ha alcanzado su máximo y ha iniciado su declive.
La permanencia de la masa de agua cálida "pegada" a la costa oeste de América del Sur depende de la debilidad o total ausencia de los vientos alisios que, en situación normal, soplan hacia el oeste. En esta tabla podemos ver la evolución temporal de la intensidad del viento en superficie:

Desde final de febrero 2016 se observa una recuperación de la velocidad del viento; esto significa que la masa de agua superficial oceánica ya ha empezado a ser empujada hacia el oeste (lo verás más claro en esta animación, en la que los vientos alisios aparecen nombrados como trade winds), con lo que podemos esperar que pronto se restaure el afloramiento de agua oceánica fría profunda y empiece de nuevo a funcionar el sistema de refrigeración atmosférica. Es la señal que indica el principio del final del episodio de "El Niño" 2015-16.


5.- Pronóstico para un futuro a corto plazo:
El final del actual "El Niño" traerá sin lugar a dudas un descenso de la temperatura global terrestre.
Si se produjera un episodio "La Niña" en el próximo año, este descenso sería más notable, pero no lo sabemos con seguridad (según el Climate Prediction Center de la NOAA, hay un 50% de probabilidad de un episodio "La Niña" durante el otoño de 2016).
En esta imagen puedes ver la evolución semanal de la temperatura global; fíjate en el máximo de finales de febrero de 2016 y que desde el 1 de marzo al 9 de marzo se ha producido un descenso de 0.3 ºC, lo que es una enorme variación.
Teniendo en cuenta que el campo magnético solar ha entrado en declive y que se pronostica un periodo de duración entre 6 y 24 años (según los diferentes expertos), con muy baja actividad magnética, todo parece indicar que se avecina un periodo de no calentamiento o de enfriamiento (todo es relativo, según el término de comparación que elijamos).


6.- Pero como siempre, nos queda la pregunta del millón de dólares:
¿Cuanto de todo lo que está ocurriendo en la evolución del Sistema Clima de la Tierra está siendo forzado por la actividad humana y cuanto obedece a causas naturales?
Es indudable que la actividad humana tiene influencia sobre el Clima; como también tiene influencia sobre la calidad del agua de los océanos, la calidad de los suelos, la evolución del paisaje, y sobre el resto de todas las especies que habitan en el planeta ........ sostener lo contrario sería una insensatez.
Pero el conocimiento del tamaño de esa influencia, del sentido de la misma y de los mecanismos de interacción con otros agentes naturales, eso es otra cosa. Y en esto, todavía nos falta mucho por aprender.
Por desgracia, y a pesar de todo lo que afirma el oficialismo del IPCC de la ONU, todavía desconocemos cual es el peso real de cada uno de los agentes que actúan modificando el Clima, trabados en complejas interacciones mutuas.
Aunque la propaganda de los defensores de la Teoría del Calentamiento Global haya conseguido transmitir la la creencia en que podemos modificar y adecuar la temperatura global con precisión de centésimas de grado (modificando la concentración de CO2) , la realidad es que carecemos aún del conocimiento y capacidad para "corregir" las desviaciones climáticas, si es que hay que aceptar que el Clima tiene estados "correctos" y estados "incorrectos" (un puro antropocentrismo sin sentido, en mi opinión) tal y como la propaganda del IPCC ha instaurado en el corazón de la opinión pública.

Estoy seguro de que los habitantes del norte de Canadá aceptarían con gusto como vivencia climática correcta un incremento de 2 ºC en la temperatura media de su región respecto de lo que ahora "disfrutan". Lo mismo para los islandeses, escandinavos ....  ¿Quien define cual es el estado climático "correcto" o de referencia hacia el cual hay que retornar cuando se percibe una desviación del mismo? y sobre todo, ¿por qué, fundamentado en qué criterios?


7.- Y una reflexión:
Y mientras tanto, el problema global de la contaminación de aguas, aire y suelos, la deforestación por acción humana, la ausencia de derecho al agua potable, la negación del establecimiento de acuerdos internacionales globales para el tratamiento de los residuos tóxicos (electrónicos, de minería, químicos ..) ...  sigue quedando relegado.
Paradójicamente se realizan enormes esfuerzos de coordinación internacional sobre el CO2, sustancia que no es un contaminante sino un componente natural del ciclo del carbono, esencial para la Vida en el planeta.
¿Por que no se obliga a cada país a "digerir" los residuos que él mismo produce? ¿por qué no se prohiben las exportaciones de residuos químicos y electrónicos peligrosos a países del tercer mundo, donde son amontonados sin control, pasando al suelo, aguas y cadena alimentaria una ingente cantidad de contaminantes (cromo, mercurio ...)?.
Quiero albergar la esperanza de que en los próximos años, a la vez que la observación de la realidad añada algo de luz sobre la importancia de los agentes climáticos naturales frente a los forzados por la actividad humana, la ONU reconsidere la elección del enemigo ambiental real y dirija sus esfuerzos y el dinero de los contribuyentes hacia la lucha global contra la contaminación de suelos, aire y aguas.

martes, 16 de febrero de 2016

Cambio Climático: parábola de la salvación del planeta.

Un día del mes de julio, un científico ambientalista viajaba en su coche cerca de la costa Dourada en la provincia de Tarragona.
El día era soleado y sentía calor, sensación agravada por la humedad que se imponía en el ambiente.
Mientras se secaba el sudor y ponía el climatizador al máximo, observó que las playas por las que pasaba estaban abarrotadas de gente.
Por razones familiares, nuestro científico ambientalista se vió en necesidad de viajar por la misma ruta durante el mes de enero del siguiente año; le sorprendió ver el litoral completamente desierto. Mientras subía la calefacción de su vehículo, en su mente se producían las primeras conexiones relacionando las observaciones del pasado verano con lo que ahora, seis meses más tarde, estaba viendo.

Como era un científico de formación clásica, no pudo evitar que este hecho le llamara la atención y su mente bien entrenada empezó a trabajar, como otras tantas veces, siguiendo los pasos del método científico
1. paso -. Observación:
Todo se aceleró en su cabeza cuando al verano siguiente, observó de nuevo las playas abarrotadas, en un entorno axfisiante por el calor y la humedad.
Pensaba de esta manera: …. si la observación directa de la realidad me presenta la evidencia de la relación entre concentración de personas en las playas y calor ambiental, quizás sea porque el primer factor desencadena el segundo....

2. paso -. Formular preguntas sobre lo observado:
¿Por qué hace tanto calor cuando se concentran tantas personas en el litoral? Y, al contrario, ¿por qué las temperaturas son bajas cuando ese mismo litoral se encuentra desierto?
3.paso -. Proponer respuestas en forma de Hipótesis:
Formuló su hipótesis, fundamentada en la observación directa de un fenómeno, tal y como exige el protocolo del método científico:
La concentración de personas en las playas es la causa de la elevación de la temperatura y la humedad en ese mismo entorno.

4.paso -. Comprobación experimental; fase de prueba:
En Ciencias experimentales, no es suficiente decir, también hay que probar lo que se dice.
Por lo tanto, nuestro científico puso manos a la obra y diseñó un experimento para probar la validez y certeza de su Hipótesis.
En un entorno controlado (una habitación de 50 m2, aislada térmicamente) colocó sensores de temperatura y fue introduciendo diferente número de personas; para cada caso, controlaba el tiempo transcurrido y la variación de temperatura y humedad según la concentración de personas en la sala.
Los resultados obtenidos mostraban una muy alta correlación entre concentración de personas y temperatura- humedad.
Efectivamente, todas las pruebas parecían indicar que la elevada concentración de visitantes en las playas causaba calentamiento. Y este calentamiento podía alterar radicalmente la circulación general atmosférica, alterar también el régimen de precipitaciones, causar dilatación en las masas de agua y por lo tanto subida de nivel del mar ....... y otras graves amenazas para la Humanidad.
5.paso -. Conclusión: Tesis o verdad científica
La conclusión que extrajo de su experimento le llevó a formular su Tesis:
 Teoría de la influencia de la concentración de personas en las playas como causa de calentamiento.

Creyendo en la importancia de su descubrimiento, se puso en contacto con diferentes medios de comunicación que, inesperadamente, acogieron la noticia con interés y la difundieron con rapidez en prensa escrita, radios y televisiones.
El eco en las redes sociales fue inmediato y así, las autoridades se vieron presionadas por “ la nueva amenaza de calentamiento causado por la cada vez mayor y descontrolada afluencia de personas a las playas”.
No pudieron hacer oídos sordos a la creciente preocupación por el riesgo de catástrofe ambiental que se extendía velozmente entre la opinión pública.
ONG-s, grupos ecologistas, asociaciones de protección del medioambiente, deportistas de élite, artistas y cantantes …. sumaban sus voces para pedir una actuación inmediata que pusiera límites a la presencia humana en el litoral y se establecieran medidas para restablecer la situación a un estado anterior, estado "correcto" y sin riesgo para la Humanidad. La exhibición de emociones fue impresionante.

Nuestro científico consideró que esta demanda de medidas de restablecimiento a un estado anterior "correcto" o no alterado era muy ingeniosa; consultó con otros colegas y aunque no tenían ni idea de como identificar cual era el estado "correcto" del Clima, propusieron tomar como referencia el estado del litoral en el año 1879, cuando todavía la costumbre de tomar baños de mar no se había establecido y ni tan siquiera se percibía como saludable.
Además, es entonces cuando se inicia el período de registro termométrico de temperatura de superficie, y les pareció que este hecho daba solidez científica a la fecha de referencia elegida.

Las autoridades y representantes de partidos políticos, confiando en el criterio de los científicos y empujados por la presión social, propusieron una serie de medidas de reducción y de adaptación ante la amenaza del calentamiento provocado por la creciente afluencia a las playas:
a) Medidas de reducción: Destinadas a reducir la presencia de personas en las playas.
Para ello, pensaron en aprobar una nueva Ley de Costas, con prohibición de acceso para las personas no autorizadas. Pero enseguida se dieron cuenta que era una medida muy impopular, de gran coste político y económico, que comprometería al total de las fuerzas de Seguridad en las tareas de vigilancia para su cumplimiento.
Alguien propuso la idea de crear un nuevo impuesto; no habría prohibición, pero quien quisiera acudir a la playa debería pagar una tasa de acceso. También los hoteles, chiringuitos ….... deberían pagar un impuesto de protección ambiental.
Así, sin prohibiciones impopulares, se crearía un efecto de disuasión gracias al cual se reduciría la afluencia de personas a las playas.
Y simultáneamente, el Estado podria así conseguir nuevos ingresos.
La medida fue aprobada en el Consejo de Ministros. Al ser presentada en el Congreso de los Diputados, ningún grupo político se opuso a esta nueva fiscalidad ambiental; al fin y al cabo, se trataba de salvar el medioambiente.
b) Medidas de adpatación:
Destinadas a promover alternativas de ocio saludable en entornos alejados de las playas, sobre todo en zonas del interior poco pobladas.
Para ello se creó un programa de ayudas económicas al que se podían acoger todos los emprendedores en negocios cuya actividad cumpliera los requisitos de:
a) ocio saludable, b) en zona de baja población y c) con ubicación alejada del litoral.

Las grandes cadenas hoteleras no permanecieron impasibles.
Al aprobarse la nueva fiscalidad que grababa la presencia en las playas vieron peligrar sus negocios y reaccionaron financiando investigaciones científicas que desacreditaran la Teoría de la influencia de la concentración de personas en las playas como factor de calentamiento.
Se inició un debate científico entre argumentos contrarios; el núcleo de la discusión se centraba en determinar cual era la verdadera la causa del calentamiento observado.

Pero la opinión pública y los intereses creados por las nuevas oportunidades de negocio surgidas al abrigo de las nuevas medidas para la protección ambiental ante la nueva amenaza del calentamiento dictaron sentencia rápidamente, y así, el éxito en los medios de comunicación de la Teoría de la influencia de la concentración de personas en las playas como factor de calentamiento ha resultado imbatible y solo hay una verdad oficial, que puede resumirse así:
el consenso científico es abrumador, el calentamiento es innegable y la afluencia creciente a las playas es una amenaza global.

Las cadenas hoteleras cambiaron de estrategia, ya que su imagen pública quedaba dañada al aparecer como empresas egoístas y culpables, que solo pensaban en obtener beneficio económico sin tener en consideración el futuro del planeta.
Dejaron de financiar investigaciones científicas alternativas y se transformaron en empresas verdes; aunque continuaban haciendo la misma actividad de siempre, ofrecían ahora alojamiento sostenible (sí, en zona playera, como antes), explicando que con parte del precio pagado por el mismo, se creaban nuevas iniciativas de ocio sostenible en lugares despoblados del interior o bien en nuevos hoteles situados en zonas costeras de países en vías de desarrollo sin tradición de baños de mar. Reunieron a sus empleados y les explicaron que eran una gran familia y que como tal, en épocas de dificultad todos tenían que hacer esfuerzos y más en este caso en el que estaba en juego nuestra civilización; los empleados no tuvieron más remedio que aceptar la bajada de sus salarios.
El cliente también asumía con docilidad la subida del precio del alojamiento (sí, también los precios de los hoteles subieron) consciente de su compromiso con la salvación del planeta y por solidaridad con los países en vías de desarrollo.

El fenómeno de la globalización hizo que la amenaza del calentamiento por concentración de personas en las playas fuera tratada en foros internacionales como amenaza para el futuro del planeta, creándose un comité de expertos, bajo patrocinio de la ONU, para coordinar las diferentes medidas a adoptar. Eran muchos los Estados con el mismo problema, por lo tanto la respuesta debía ser también global.
Este comité de expertos determinó cual era el número máximo de personas que cada playa (en todo el planeta) podía aceptar sin que hubiera consecuencias medioambientales negativas.
Así mismo estableció un sistema internacional de sanciones económicas, para los Estados que rebasaran estos máximos de presencia humana en sus playas.
Los Estados crearon espontáneamente un nuevo mercado en el que se comercia con la compra-venta de los derechos de ocupación playera. Los países sin tradición de baños de mar, que no utilizan su cuota de afluencia máxima, pueden vender sus “plazas libres” a cadenas hoteleras instaladas en zonas playeras de gran ocupación, de tal manera que la presencia global, promediada en todas las playas del planeta, se ajuste a los números determinados por el comité de expertos de la ONU.

Nuestro científico ambientalista disfruta del reconocimiento social de haber sido el primero en ver lo que hasta entonces nadie había visto y de haber alertado sobre ello. Ha creado una asesoría ambiental dedicada fundamentalmente al mercado de los derechos de ocupación de las playas y a la intermediación en la compra-venta de terrenos en zonas áridas del interior continental, lo que le produce unos beneficios mucho más grandes que el sueldo de investigador senior que venía cobrando hasta que dio a conocer su Teoría.

jueves, 28 de enero de 2016

2015 ha sido el año más caluroso desde que se tienen registros termométricos, según la NOAA/NASA de los EEUU.
¿En serio?

Según el dato publicado el pasado 19 de enero de 2016 por la NASA y la Administración para el Océano y la Atmósfera NOAA (ambas, agencias gubernamentales) junto con la agencia meteorológica británica MetOffice, 2015 se sitúa como el año más caluroso a escala global desde que se comenzaron a tomar registros termométricos globales continuos, en 1880.
 Ver noticia. Ver noticia en prensa española (1). Ver noticia en prensa española (2).

Para estas agencias, y claro está, para el IPCC y defensores de la Teoría del Cambio Climático, este dato da validez y fiabilidad a sus modelos de proyección climática y confirma la presencia del Calentamiento Global como fenómeno continuo y creciente.
Tal y como afirman, después del récord de 2014, ahora ya tenemos un nuevo récord de temperatura global en el 2015.
Por lo tanto, queda probado que el Calentamiento continua, y que la Teoría del Cambio Climático es correcta; también  los peligros y amenazas que se anuncian en los informes de evaluación de los expertos del clima quedan justificados, así como la financiación que se solicita para abordar los gastos de las medidas de mitigación (reducción de emisiones ) y de adaptación (100.000 millones de dólares para el 2020, según los acuerdos de la pasada Cumbre del Clima en París).

Ante una noticia como esta, ¿puede añadirse algo?
, y no solo puede añadirse algo sino que es necesario añadir algo, como siempre, información significativa que quizás nos sirva para modificar el valor de la noticia y que no encontraremos en los medios de comunicación:

1.- Las agencias responsables de la publicación del dato de temperatura record para 2015, utilizan las bases de datos GISTEMP (NASA), GHCN (NOAA) y HadCRUT4 (Met Office). En todos los casos, los registros de temperatura utilizados proceden de miles de estaciones meteorológicas situadas en superficie, cuyos datos son posteriormente sometidos a diferentes metodologías de interpolación, hasta obtener la temperatura superficial global para cada mes y para el año.

2.- Hay un desacuerdo entre las mediciones realizadas por instrumentos en superficie (termómetros en estaciones meteorológicas) y las mediciones satelitales (continuas desde 1979).
Los satélites siempre registran menor calentamiento que el observado por los instrumentos de superficie; así, para la base de datos UAH, 2015 es tan solo el tercer año más calido, por detrás de 1998 (récord hasta hoy) y 2010. Para la base de datos RSS, 2015 es el cuarto año más cálido.
Para el registro de temperatura satelital (UAH y RSS), el Calentamiento no continua, y desde el máximo observado en 1998 todas las temperaturas globales de los años posteriores han sido menores.
Como ya señalé en una entrada anterior, el IPCC (panel de expertos del Clima, integrado en la ONU) no acepta como válidas las mediciones satelitales y utiliza exclusivamente registros de temperaturas de instrumentos de superficie.

El desacuerdo entre las medidas procedentes de instrumentos de superficie y las procedentes de instrumentos situados en satélites es hoy un hecho no bien comprendido. Confío en que con el paso de los años, la desconfianza mutua entre los usuarios de unas y otras fuentes de datos desaparezca, y que los avances tecnológicos ( unidos al buen hacer ético de los científicos)  vayan acercando los resultados de ambos procedimientos de medición.

3.-  En el pasado meeting de la AGU (American Geophisical Union) celebrado en San Francisco (EEUU, diciembre 2015) Anthony Watts presentó un estudio (ver aquí, sesión A43G-0396 del 17 de diciembre) con el reanálisis y evaluación del impacto provocado por la mala localización de numerosas estaciones meteorológicas utilizadas por NOAA/NASA en sus mediciones de temperatura.

Según Anthony Watts, la utilización de registros de temperatura de estaciones meteorológicas situadas en zonas urbanas o en proximidad de fuentes de calor artificiales tales como edificios, superficies asfaltadas, salidas de ventilación de líneas del metro .....  es la responsable de una exageración en el calentamiento cercana al 30% para el caso de la temperatura en EEUU.
Sirva como ejemplo una de las imágenes aportadas por A. Watts, en la que el sensor de temperatura está completamente rodeado por otras fuentes de calor no naturales (edificios, asfalto, tráfico ...)
Watts afirma que la mala localización de estas estaciones hace que la medida registrada no corresponda con la temperatura atmosférica meteorológica, sino que en gran parte está reflejando el calor emitido por la actividad humana de los núcleos urbanos.
Revisadas estas estaciones mal localizadas y rehaciendo el cálculo de temperatura global una vez purgados los datos considerados espúreos, el incremento de temperatura en los EEUU para 2015 pasa de +0.324 ºC (dato de la NASA/NOAA) a  +0.204 ºC (dato de A. Watts después de eliminar las estaciones meteorológicas de zonas urbanas o próximas a fuentes de calor no naturales).

Para realizar este reanálisis de los datos de NOAA/NASA, Watts utilizó el Sistema de Clasificación de Emplazamientos recientemente aprobado por la World Meteorological Organization (WMO), ideado por Michel Leroy de METEO-France. Según esta clasificación, se caracterizan con más precisión las cualidades y características de las estaciones meteorológicas y la calidad de su ubicación, para que puedan ser aceptadas como suministradoras de datos "buenos" de la temperatura de superficie.

La denuncia de la inclusión de de estaciones meteorológicas con ubicaciones de mala calidad en el suministro de datos para NASA/NOAA no es nueva, sin embargo, las agencias responsables las siguen manteniendo como suministradoras de datos fiables, aunque estas estaciones no cumplen los criterios de calidad de la WMO. Entonces , ¿por que no las suprimen?.

La sospecha de que este fenómeno de interferencia y sobrecalentamiento en las mediciones, estudiado y evaluado por Anthony Watts para los EEUU, esté presente en otras regiones del mundo y afecte a otras bases de datos (como la HADCrut4 ), es cada vez mayor (pero por ahora, no se ha realizado para Europa un trabajo tan preciso como el reanálisis de Watts ).

4.- En la noticia original (en inglés) junto con los datos de variación de temperatura se menciona la acción de otros factores naturales contribuyentes del calentamiento, como el intenso episodio de "El Niño" que todavía sigue activo en el océano Pacífico; si bien se elude cuantificar el peso de las causas naturales en el calentamiento registrado, de alguna manera en la noticia original se acepta que parte del calentamiento del 2015 pudiera tener causa natural.
En la prensa española no todos los medios recogen la presencia de causas naturales; sí lo refleja brevemente el diario ABC, pero por ej. el diario El Mundo .... no añade ninguna información complementaria ni matiz alguno; solo se dice que el calentamiento continúa.

Para poder evaluar el sentido del Cambio Climático (calentamiento o enfriamiento) y su dimensión (¿cuanto enfría o calienta por década/siglo?) es de gran importancia la buena gestión de las bases de datos y la mejora de la calidad de los registros de temperatura.

Pero además, teniendo en cuenta que en la actualidad la mayor parte de la financiación pública para investigación en ciencias del Clima y del Medio Ambiente se está realizando en el contexto de probar la Teoría del Calentamiento Global (la financiación en investigación del protagonismo e interacciones de otros agentes naturales es casi nula) debemos reconocer que los investigadores que informan sobre el problema (el calentamiento global) han acabado en convertirse en parte del problema a causa de los intereses creados al recibir financiación para probar el calentamiento.
Si resultara que el Calentamiento cesa o bien fuera de una dimensión reducida o se debiera en su mayor parte a causas naturales, muchos proyectos de investigación y numerosos científicos podrían ver comprometida su línea de financiación y su futuro.
Tan solo el buen hacer del trabajo de los científicos, su buena ética y el contraste racional con datos verificables podrán evitar que la Ciencia sea manipulada y sustituida por un debate ideológico interminable (y a veces violento) o por una inútil exhibición de emociones (por favor, ! no mas "intelectuales" leyendo manifiestos en la tv ¡).

Por ahora, la verificación y reanálisis de datos realizados por Anthony Watts sobre las afirmaciones de las agencias gubernamentales de EEUU (NASA y NOAA) hace que estas no queden en buen lugar y que su afirmación de que el año 2015 sea el más cálido desde 1880 no pueda ser considerada  como cierta.

Recuerda:
No es lo mismo Calentamiento climático que Contaminación de agua, aire y suelos (auténtico problema global).
No es lo mismo un problema ambiental que un problema energético (diferentes causas, diferentes procesos, diferentes respuestas).
No es lo mismo gato que liebre.










sábado, 23 de enero de 2016

¿Cual es la causa del calentamiento producido durante los eventos de "El Niño?

Con motivo del intenso episodio de "El Niño" que se está desarrollando desde 2015 y que continúa todavía durante 2016, considero que este podría ser un buen momento para plantear la cuestión:

¿Que es lo que hace aumentar la temperatura global durante los episodios de "El Niño"?

De todos es sabido que la causa principal estaría relacionada con el Sol, ya que la energía solar es la principal fuente de energía para el sistema climático. Pero  lo que no es tan fácil de explicar es por qué los años de "El Niño" son tan inusualmente cálidos y los de "La Niña" son tan inusualmente fríos.

La respuesta habría que buscarla en la circulación del Océano Pacífico, más en concreto, en la circulación vertical de esa cuenca oceánica.
Debemos tener en cuenta que la mayor parte de la profundidad de los océanos del mundo es muy fría (1ºC , 2ºC) incluso en las zonas tropicales. Solo las capas cercanas a la superficie son cálidas, estando el resto de las profundidades del océano lleno de agua que se enfrió en latitudes más altas y que se hundió al tener más densidad.


El siguiente vídeo muestra el estado actual del cinturón de convección oceánica, uno de los más importantes mecanismos terrestres para la regulación térmica del planeta, llevando calor a las zonas frías y refrescando las de mayor irradiación solar.

Esto nos lleva a la interesante observación de que la temperatura media de masa ponderada del Sistema Climático es realmente muy fría.
Este estado de superficie caliente (por irradiación solar) y profundidades frías presenta continuas interacciones de compensación, fundamentalmente por medio de procesos verticales de mezcla (inducida por los vientos alisios, por las corrientes de marea, por la topografía del fondo marino ....).

Cuando estos procesos de mezcla se ralentizan (lo que ocurre durante durante "El Niño") las aguas superficiales (principalmente las superiores a 100 m) alcanzan temperaturas más elevadas que lo normal.
Al mismo tiempo, las capas por debajo de los 100 m. (100 m es la profundidad global media que separa el mundo de aguas cálidas del mundo de aguas frías) se vuelven más frías de lo normal.

En cierto sentido, las profundidades del océano se comportan como un sistema de aire acondicionado para el Clima del planeta y puede decirse que durante los episodios de "El Niño", este sistema de aire acondicionado funciona a muy baja intensidad y no es capaz de refrescar la atmósfera.
Sin embargo, durante los episodios de "La Niña" el sistema de aire acondicionado trabajaría al máximo de su capacidad, provocando un enfriamiento de la temperatura media global.

Durante "El Niño", las grandes tasas de evaporación de la superficie oceánica caliente causan aumento de condensación-precipitación, transfiriéndose calor a la atmósfera. Esto se produce inicialmente en los trópicos, donde la ralentización de la circulación oceánica es mayor, pero luego se extiende también a latitudes altas. 
El calentamiento no es uniforme, por supuesto, y algunas regiones pueden experimentar descensos respecto a la temperatura media de referencia ... pero durante "El Niño" el promedio global es de calentamiento.

En la Tabla 1. podemos ver la evolución mensual de la temperatura durante el año 2015.
Tabla 1.
Podemos observar (en azul) que es en los trópicos donde se ha producido la mayor parte del calentamiento, en especial, durante la segunda mitad del 2015.
A gran escala, la causa del calentamiento provocado por "El Niño" sigue siendo la reducción de la mezcla vertical global de las aguas cálidas superficiales con las aguas profundas frías que deberían aflorar desde el fondo oceánico. 
A medida que se desarrolla "El Niño" también se produce un aumento de la entrada de energía de radiación (solar) en el Sistema Climático global debido principalmente a una pequeña disminución de la cubierta de nubes bajas (y disminución del albedo global terrestre) asociada a los cambios de circulación atmosférica durante "El Niño".
 Durante "La Niña" ocurre a la inversa, aumentando la cobertura nubosa global y el enfriamiento de la superficie.
Los picos o máximos de calor suelen estar desplazados unos 9 meses respecto al inicio del proceso de ralentización de la mezcla vertical oceánica.
Los equipos que trabajan en la monitorización de los fenómenos "El Niño"/"La Niña" han observado también que cuando un episodio de "El Niño" tiene una duración superior a un año, en el segundo año el calentamiento suele ser algo mayor, lo que significa que en 2016 las temperaturas medias mensuales pueden ser mayores que las de la segunda mitad de 2015, salvo que el episodio finalice, iniciándose en este caso un enfriamiento global.

Por lo tanto si el Sistema Climático pasa por un período de varias décadas de aumento de la actividad de "El Niño" y disminución de la actividad de "La Niña", (como ya ocurrió el pasado siglo durante la década de los 70) debería aceptarse la existencia de una tendencia hacia el calentamiento de causa natural

Quiero hacer recordar que para el IPCC , ningún agente natural conocido puede justificar el actual calentamiento; para sus especialistas, solo las emisiones de gases de efecto invernadero, provocadas por la actividad humana, pueden justificar la evolución de la temperatura superficial observada. Y aunque esta temperatura superficial observada muestre un calentamiento siempre menor que el pronosticado en sus modelos de simulación, centran todos sus esfuerzos y recursos en reunir pruebas de cargo contra el CO2, menospreciando y desestimando otras líneas de investigación. 

LLegados a este punto, discernir y cuantificar la importancia de las causas naturales y las causas antrópicas (calentamiento forzado por la actividad humana) de esta etapa de calentamiento iniciada en la década de los 70 del pasado siglo, se nos presenta como una tarea pendiente de muy difícil ejecución, ya que no podemos observar el planeta con un Sistema Clima sin huella de actividad humana, para así poder compararlo con un escenario afectado solo por agentes naturales. 
Esto resolvería de una vez para siempre la incertidumbre sobre el protagonismo real que las emisiones de CO2 ( y otros ..) tienen sobre la evolución del Clima en la Tierra.
Como alternativa, nos queda la oportunidad de seguir construyendo series de datos de observación cada vez más completas y realizar también el oportuno y necesario contraste con la evidencia de las oscilaciones climáticas.

Pero esto es un proceso lento, ya que se necesitan periodos no inferiores a 30 años para poder hablar de "tendencias climáticas" (recuerda que el clima nos informa del estado medio de la atmósfera mantenido durante un largo periodo de tiempo) y ahora, transcurridos 35 años del inicio de la fase de calentamiento, apenas nos encontramos con las primeras iniciativas y oportunidades para poder evaluar la validez de la Teoría del Cambio Climático.
Espero con curiosidad e interés (si la salud lo permite) el discurrir de los próximos 5 años; comprobaremos la eficacia de los acuerdos de la reciente Cumbre del Clima de París, observaremos directamente el efecto sobre el Sistema Clima del decaimiento sostenido de la actividad magnética del Sol (que ya se ha iniciado) y con toda probabilidad, veremos la importancia de las consecuencias de al menos un episodio "La Niña" .
Y compararemos la evidencia observada con la proyección de futuro elaborada por el IPCC en sus modelos climáticos y publicado en su quinto informe de evaluación en 2014.
Es decir, ciencia racional.
Que nadie se lo pierda.




martes, 22 de diciembre de 2015

Exploradores en el Ártico en el siglo XIX. ¿El Ártico se funde?

Este es un resumen del artículo de los investigadores James E.Overland y Kevin Wood  en el  que muestran el uso de instrumentos y registros históricos descriptivos para probar la certeza de la hipótesis de que las condiciones ambientales observadas por los exploradores del siglo XIX  en el archipiélago canadiense fueron consistentes con una Pequeña Edad de Hielo tal y como es sugerido en conclusiones de otras reconstrucciones climáticas (metodología de estratigrafía de núcleos de hielo) y aceptado  por los defensores de la Teoría del Cambio Climático.
Concluyen que de los testimonios y registros de los exploradores se deduce poca evidencia de frío extremo y proporcionan una reconstrucción climática disconforme con la obtenida por medio de la estratigrafía de núcleos de hielo (la aceptada por el IPCC de la ONU). 
En la actualidad, y dentro del contexto alarmista de las noticias relacionadas con el Cambio Climático, la disminución de la masa de hielo en el Ártico se presenta con frecuencia como un acontecimiento excepcional y catastrófico, consecuencia de las elevadas emisiones de CO2 de los últimos 80 años.
Pero  de la lectura de los registros históricos de los exploradores árticos del siglo XIX se deduce que la disminución de la masa de hielo ártico no es algo excepcional sino que ya se ha producido en otras épocas (con menos CO2 en la atmósfera que en la actualidad) y que han venido seguidas de  otras fases de recuperación .   
Las expediciones organizadas en el siglo XIX para encontrar un tránsito por el denominado Paso Ártico del Noreste, se percibieron en general como grandes fracasos, como un vana y trágica exploración fallida ; la causa se ha venido atribuyendo a las extraordinarias condiciones de frío asociado a la denominada "Pequeña Edad de Hielo". 
Esa perspectiva había sido reforzada desde 1970, cuando las reconstrucciones del paleoclima basadas en el hielo del Ártico (estratigrafía de núcleos de hielo) parecieron confirmar la existencia de condiciones excepcionalmente frías conforme con  lo que los glaciólogos habían denominado como la "Pequeña Edad de Hielo", con temperaturas más frías que la media de los primeros años del siglo 20 [Koerner, 1977; Koerner y Fisher, 1990; Overpeck et al., 1998].

Sin embargo, el examen de 44 registros de exploradores del Ártico occidental desde 1818-1910 revela que los indicadores del clima tales como:
a) navegabilidad,
b) distribución y espesor de hielo anual del mar
c) temperatura media mesual del aire en superficie, y
d) el inicio de la fusión y congelación 
estaban dentro de la actual gama de variabilidad, entendiendo por "actual" la referencia al periodo 1970-2000..

Si bien existe una amplia literatura sobre el historia de la exploración del Ártico del siglo XIX se ha hecho muy poco uso de observaciones científicas y meteorológicas detalladas compiladas durante muchas expediciones.
Hubo más de setenta expediciones o empresas científicas de diversos tipos enviados al Ártico canadiense en el período comprendido entre 1818 y 1910.
De este número total, se analizaron 44 informes científicos originales y relatos relacionados. 
La mayoría de los datos provienen de grandes expediciones navales, con gran capacidad, que abarcan varios años, con invernadas en el Ártico.

Hemos centrado nuestro análisis en los cuatro indicadores de cambio climático antes citados; a saber: extensión del hielo marino de verano, espesor anual del hielo marino, la temperatura media mensual, y el inicio de la fusión y de congelación como estima de media diaria de temperatura. 
Tanto la extensión del hielo marino y la aparición del inicio de la fusión y congelación se compararon con los del período de referencia de 30 años entre 1971-2000.
Los valores de espesor de hielo (media mensual), se compararon con los del período de 50 años entre 1951-2000.
Es quizás sorprendente que la mayor parte del Paso del Noroeste fuera ya navegado durante el siglo XIX con buques de las diferentes expediciones que quedaron tan solo a 150 km de completar el paso en un buen número de ocasiones.
Figura 1.
La imagen muestra la presencia de hielo en el mar el 10 de septiembre, que es la fecha habitual del mínimo anual de hielo durante el período de referencia 1971-2000 ( según el Servicio Canadiense del hielo, 2002). En varias ocasiones, las expediciones llegaron a menos de 150 km de completar el Paso del noroeste, pero incluso en años con condiciones desfavorables de hielo, la mayoría de los barcos eran todavía capaces de llegar a posiciones relativamente avanzados dentro del archipiélago canadiense. En 1859, ya se habían descubierto todas las posibles rutas que comprenden el Paso del Noroeste.
La mas sorprendente es que, incluso en los años reconocidos como desfavorables (por más fríos), los buques todavía eran capaces de llegar a lugares cuya accesibilidad es semejante a la de las peores condiciones de hielo de la referencia moderna (1971-2000).
De 33 expediciones o suministros de barcos con destino a la parte occidental de Lancaster entre 1819 y 1859, sólo dos fallaron debido a las condiciones del hielo desfavorables.
Dieciocho mediciones de máxima anual del espesor del hielo marino se registraron entre 1819 y 1876; cuatro de ellos son incompletos, porque fueron interrumpidos antes del final de la estación.
De las restantes 14 observaciones, se obtuvo una media (anual) de 215 cm y un máximo de 250 cm.
En la actualidad (datos de la referencia moderna) , las condiciones de hielo para Resolute Bay, Sachs Harbor, y Mould Bay dan una media anual de 199 cm y una máximo en tres estaciones de 248 cm.

Por lo tanto, las observaciones históricas son consistentes con los valores del siglo XX.

Treinta y dos años aproximadamente de series mensuales de temperatura media del aire superficial  se recogieron durante los años comprendidos entre 1819 y 1854, y se comparó con la referencia de 50 años del periodo 1951-2000.
El  63% de los 343 valores de anomalías mensuales de la temperatura caen dentro de una normal desviación de la media de la referencia moderna. 
Los exploradores relatan que encuentran tanto años cálidos como años fríos.
Si bien los datos históricos de los viajes de exploración son intermitentes, tomados en su conjunto, proporcionan una perspectiva valiosa sobre el clima del pasado del Ártico canadiense.

Los exploradores encuentran a la vez temporadas cálidas y temporadas frías, y en general, las condiciones  de hielo que nos recuerdan a las del siglo XX.
La aparición temprana de la congelación en algunos casos representa la mayor aparente diferencia respecto de las condiciones actuales, mientras que el momento de la transición al estado fundido en la primavera mostró poco cambio respecto el presente.
Si hubiera habido un cambio en la media de la temperatura del aire de verano de la magnitud del sugerido por el método de estratigrafía en núcleos de hielo (isla de Devon), las indicaciones de  más frío  habrían sido detectados en nuestra análisis. 
Los relatos y registros de los exploradores no avalan los resultados de reconstrucción de temperaturas por estratigrafía de núcleo de hielo.

Por último, debemos señalar que es engañoso afirmar que no se encontró el Paso del Noroeste y que el el fracaso se debió a un clima adverso extraordinariamente frío.
De hecho, todas las rutas posibles que componen el Paso del Noroeste fueron descubiertos, y casi
toda la costa laberíntica fue asignada durante este periodo.
Un resultado de navegación similar podría obtenerse hoy dentro de los límites de navegación en las condiciones presentes.

Figura. 2. 
Los exploradores encontraron ambas condiciones representadas en los dibujos, en la isla de Beechey:  poco hielo (1850) y mucho hielo (1853).

El estado de hielo favorable y desfavorable en las proximidades de la isla de Beechey ilustran la gama de condiciones de hielo en diferentes años.
La Figura A ilustra la situación de la H.M.S. Resolute y el vapor Pioneer el 5 de septiembre 1850 [tomado de Facsímil del Ártico, Illustrated News, cortesía de Elmer E.Rasmuson Biblioteca, Univ. de Alaska- Fairbanks].
La Figura B muestra el H.M.S. Breadalbane y el vapor Phoenix atrapados en el banco de hielo el 21 de agosto 1853.
El Phoenix escapó, pero el Breadalbane fue aplastado por la presión del hielo y se hundió (Archivos Nacionales de Canadá, el número de acceso 1989-399-4).

Referencias:
Bradley,R. S. and P.D. Jones,“Little Ice Age”summer temperature variations:Their nature and relevance to recent global warming trends,The Holocene,3, 367–376, 1993.
Jones,P.D. and K. R. Briffa,The “Little Ice Age”: Local and global perspectives, Climatic Change,48, 5–8, 2001.
Koerner,R. M.,Devon Island ice cap: Core stratigraphy and paleoclimate, Science,196, 15–18, 1977.
Koerner,R.M. and D.A. Fisher,A record of Holocene summer climate from a Canadian high-Arctic ice core, Nature,343, 630–631, 1990.
Neatby, L. H., In quest of the North West Passage,pp. 135–136, Longmans,Toronto, 1958.
Oglvie,A.E. J., and T. Jónsson,“Little Ice Age” research:A perspective from Iceland, Climatic
Change, 48, 9–52, 2001.
Overpeck, J. et al.,Arctic environmental change of the last four centuries,Science,278,1251–1256,1998.

Información del autor de la fuente original:
James E.Overland, Pacific Marine Environmental Laboratory/NOAA, Seattle,Wash., and Kevin Wood , Arctic Research Office/NOAA, Silver Spring,Md.














domingo, 20 de diciembre de 2015

Cambio Climático: el polémico asunto de la medición de la temperatura global de la superficie de la Tierra.
Iosu Marruedo. Biólogo


¿Como se determina la Temperatura superficial  media anual en el planeta? 
La obtención de un único número que caracterice la temperatura media superficial (anual) es una operación compleja y de significado desconcertante para el ciudadano, pues puede ocurrir que no corresponda con su "experiencia vital local".
Pensemos que la variabilidad de temperatura para un mismo día, en un mismo lugar, puede oscilar fácilmente entre 2º C y 16º C (por ej. un día normal de otoño en Pamplona, Navarra). También durante un mismo día en diferentes lugares de la Tierra; así, por ej.,  el 10 de agosto de 2010 en la Antártida se registró una temperatura de - 93.2ºC cuando en Trinidad (Bolivia) era de  + 28ºC.
La temperatura superficial terrestre es una magnitud extremadamente variable: varía en un mismo día, varía de un lugar a otro y de un año a otro.
Su valor medio, es útil solo cuando se contempla por "el retrovisor", cuando pasados un buen número de años podemos mirar hacia atrás y observar la tendencia o comportamiento medio global durante esos años (nunca menos de 25-30 años).
Obtener un único valor de temperatura representativo de toda la superficie del planeta requiere el manejo de cientos de miles de datos, procedentes de todos los puntos de la Tierra, correspondientes a los 365 días de cada año, durante una larga serie de años.

Para conseguirlo, son dos los elementos necesarios:
1) Un instrumento de medición de la temperatura. En la actualidad, se utilizan principalmente dos tipos de instrumentos de medida: los instalados en estaciones meteorológicas terrestres continentales (termómetros)  y a bordo de barcos (para datos de la superficie oceánica), y los instalados en satélites que orbitan alrededor de la Tierra. Estos últimos llevan a bordo termómetros de precisión (resistencia redundante de platino) calibrados en el laboratorio antes de su lanzamiento.
2) Una metodología para el tratamiento estadístico de los cientos de miles de datos recogidos. Esta es quizás la parte más polémica o más frágil del complicado proceso de obtención de la Temperatura superficial global anual.
Dicho de otra manera: es posible que de un mismo conjunto de datos, dependiendo del tratamiento estadístico aplicado (decisión que adopta en cada caso el equipo de trabajo correspondiente) se obtengan resultados diferentes. Es por esto que suele ser frecuente el fuego cruzado de críticas y acusaciones de manipulación de datos entre los diferentes equipos (diferentes metodologías) que ofrecen información de la Temperatura Global..

Existen cinco registros o bases de datos oficiales para la medición de la Temperatura global de la superficial terrestre.
Tres de estas bases de datos se nutren de mediciones por instrumentos situados en la superficie de la Tierra (estaciones meteorológicas y barcos). Hay registros directos (termométricos) fiables desde 1850. Esta tres Bases de Datos son:

a) Base de datos del Instituto Goddard de Estudios Espaciales , NASA,  con datos procedentes de 6300 estaciones meteorológicas (GISTEMP  NASA).
b) Base de Datos de la Unidad de Investigación del Clima de la Universidad de East Anglia, corazón del IPCC  de la ONU (las últimas versiones de estas bases de datos son HadCRUT3 y HadCRUT4).
c) Base de Datos de la Administración Oceánica y Atmosférica de EEUU, ( GHCN  NOAA).

Suele haber diferencias entre el resultado presentado por estas tres bases de datos, debido fundamentalmente a que emplean diferente número de estaciones meteorológicas, con diferente localización y también emplean diferente metodología para la interpolación de los datos.

La imagen siguientes muestran un ejemplo de estas diferencias; vemos el resultado del GISS-NASA en rojo comparado con el del equipo del Hadley Centre (HadCRUT) en azul y con la versión del NOAA en verde. Se compara además con la versión de la Agencia Meteorológica del Japón, línea en morado.
La línea horizontal de referencia 0.0 corresponde al valor medio de temperatura durante el periodo 1951-1980.


Figura 1.
Las otras dos bases de datos registran mediciones realizadas por instrumentos situados en satélites; existe registro satelital continuo desde 1978:
d) Base de datos Sistemas de Teledetección RSS MSU , en California.
e) Base de Datos del Clima en la Universidad de Alabama en Huntsville, (UAH).

También existen diferencias entre los resultados presentados por RSS MSU y UAH, procedentes fundamentalmente de los diferentes algoritmos y procesos de conversión de la lectura del sensor instalado en el satélite en temperatura del aire (en realidad, lo que el satélite mide es la emisión de microondas de las moléculas de oxígeno de la atmósfera, que es función de la temperatura del aire; este valor de emisión del oxígeno debe convertirse en temperatura del aire).
En las imágenes siguientes (Figura 2. y 3.) podemos ver la versión del equipo UAH (Roy Spencer y John Christy) y la de RSS MSU (Mears) de California:
Figura2. 


Figura 3.

Pero cuando constatamos que las diferencias son mayores es cuando comparamos el resultado de las mediciones instrumentales (termométricas) con el de las satelitales (RSS MSU y UAH)..

¿Cuales son estas diferencias y qué importancia tienen?
1.- Las mediciones satelitales registran casi siempre temperaturas menores que las mediciones basadas en interpolación de los datos de estaciones meteorológicas en superficie.
2.- Entre las dos mediciones satelitales, la base UAH presenta menor tendencia global que la base RSS MSU.
3.- También muestran un área de enfriamiento para altas latitudes en el Hemisferio sur; muestran que el calentamiento no es homogéneo.
4.- Hay discrepancias entre UAH y RSS para ciertas áreas sobre el ecuador y Australia, en las que UAH registra enfriamiento y RSS calentamiento.
5.-  Las mediciones satelitales muestran una etapa de fuerte calentamiento entre los años 1993-1998 y una etapa de estabilización hasta 2014. Según UAH  y RSS, el calentamiento no es global y no es continuo.
Para los instrumentos situados en satélites, el año más caliente fue 1998; desde entonces la temperatura se ha estabilizado, desapareciendo el calentamiento hasta la primavera de 2015, cuando el intenso episodio de "El Niño" que todavía está activo provoca una nueva subida de temperatura.
6.- Para la UAH, 2015 es solo el tercer año más caliente, después de 1998 y 2010. Sin embargo para la NASA y para Hadley Centre, 2015 ha sido el año más caliente.
7.- Para el registro por satélite, durante el período comprendido entre octubre 1996 octubre 2014 la tendencia de variabilidad ha sido cero. Es lo que se ha denominado "la pausa" (18 años de pausa en el calentamiento), que podemos ver en la imagen siguiente.
Figura 4.
El IPCC (panel de expertos de la ONU) no acepta los resultados basado en mediciones satelitales; pese a que estos ofrecen mayor cobertura global (desde 1979) cubriendo una mayor superficie de la Tierra (continentes y océanos) y registran series continuas de datos también en vertical (baja troposfera, media y alta troposfera).

Críticas hacia las mediciones satelitales:
Proceden fundamentalmente de los promotores y defensores de la Teoría del Cambio Climático.
Aducen que los algoritmos empleados en la conversión de datos y su interpolación son erróneos y que, sobre todo, el efecto de las masas de nubes distorsiona el valor real de temperatura en superficie, haciendo que estas aparezcan con valores menores que los registrados en estaciones meteorológicas.
Algunas de las personas que trabajan en esos equipos son tachadas de "negacionistas" con intereses espúreos.

Críticas hacia las mediciones con instrumentos de superficie (termométricas):
Proceden de los sectores de Ciencia escéptica con la Teoría del Cambio Climático.
Argumentan, por ejemplo, que en esas Bases de Datos existen amplias regiones de la superficie del planeta poco o nada representadas (especialmente la superficie oceánica) cuando otras, en cambio, lo están en exceso.
Se les atribuye una selección sesgada o intencionada de las estaciones meteorológicas utilizadas para el suministro de los datos, abundando las cercanas a grandes núcleos de población, donde por efecto de la "isla urbana de calor" (calor emitido por la propia ciudad) los registros siempre tienden a indicar calentamiento.

Así mismo, expresan desconfianza hacia los métodos de interpolación de datos empleados, con acusaciones de "cocinado" de datos (ver imagen de la izquierda), es decir, manipulación del tratamiento estadístico hasta lograr el resultado previamente esperado (hasta demostrar que existe una etapa de calentamiento global sostenido).

Esta última acusación se ha revitalizado como consecuencia de la modificación de la Base de Datos HardCRUT3 de la Universidad de East Anglia (el IPCC de la ONU) para dar lugar a la versión HardCRUT4.
Me explicaré:
Los 18 años de no calentamiento (octubre1996-0ctubre2014) conocidos como "la pausa" (Figura 4.) desconcertaron enormemente a los miembros del IPCC y comunidad de partidarios de la Teoría del Calentamiento Global. Nadie lo esperaba.
En la revista Investigación y Ciencia de junio de 2014, se publica una entrevista anterior con uno de los representantes más destacados del IPCC, Michael E. Mann, quien reconocía la existencia de un parón en el calentamiento; atribuía ese fenómeno (que no fueron capaces de predecir en el informe del IPCC de 2001) a un comportamiento inesperado del Sol y sobre todo, a la erupción del volcán islandés Eyjafjallajökull en 2010.
A continuación afirmaba: .. "pero el calentamiento regresará"...

La dichosa "pausa" era una molesta espina clavada en el corazón del IPCC. Sus modelos de proyección del futuro climático del planeta contenidos en el informe del año 2001 habían fallado estrepitosamente; ya que no habían sabido ver lo que sucedería en los próximos 13 años, todas las proyecciones a más largo plazo quedaban invalidadas. La valía de su modelo informático de proyección  quedaba muy dañada.
Pero todo se arregló en marzo de 2012; el director del Cru, Phil Jones, explicó que ... " HadCRUT se basa en observaciones y nos hemos dado cuenta que en años anteriores (anteriores a 2010) los datos del Ártico no se han capturado de manera integral debido a los pocos datos que se tienen de esa zona. Hemos realizado una nueva versión de la base de datos , HardCRUT4, en la que se han incluido más de 400 estaciones a lo largo del Ártico, Rusia y Canadá"...

Es decir, si se aumenta la representación o peso de las estaciones de lugares fríos para recalcular la temperatura de los primeros años del s. XXI, , la línea horizontal que indica tendencia cero desciende por el extremo izquierdo y aparece nuevamente como una pendiente ascendente hacia la derecha.
Y ya está ....  todo arreglado!; la pausa no existía, era un artefacto, una interferencia provocada por un error de captura e interpolación de datos. Nosotros, los del IPCC, teníamos razón y el calentamiento sigue siendo una realidad, tal y como nuestro modelo de proyección viene asegurando. Y todos contentos en el IPCC, la Teoría del Calentamiento Global sigue viva.

Pero claro está, en otros sectores de la ciencia del Clima, en otros equipos que trabajan con las otras bases de datos el asunto no ha pasado desapercibido y ha crecido el recelo y la desconfianza hacia HadCRUT.

Mientras tanto, esta es la evolución de la concentración de CO2 en la atmósfera comparada con la variación de temperatura global según la base de datos UAH y datos reconstruidos anteriores a 1979
(el valor 0.0 en el eje vertical izquierdo expresa la temperatura media en el período 1981-2010):
Figura 5.
Se pueden distinguir tres etapas:
Una primera parte entre 1960-1979 de escasa correlación temperatura-CO2.
Una segunda, 1980-2002 con buena correlación entre temperatura y CO2, y
Una tercera parte 2003-2014 de escasa correlación.

El núcleo central de la Teoría del Cambio Climático contiene dos enunciados:
1.- Desde la década de los 70 del pasado siglo, el planeta está inmerso en una etapa de calentamiento global rápido y sostenido.
2.- La causa de este calentamiento es el incremento de las emisiones de CO2 (y otros gases de efecto invernadero) procedentes de la actividad humana.

La medición y determinación de la temperatura global, contenido de esta entrada, afecta al primero de los dos enunciados. Aceptando la evidencia del calentamiento, vemos que hay diferentes estimaciones según la base de datos y metodología de trabajo utilizados para interpolación: ¿es global o no?, ¿es continuo o no? ¿cual es el ritmo de variación por década? ¿es un problema grave o leve? o ¿ni tan siquiera es problema?.

La causa del calentamiento para el IPCC de la ONU ha estado clara desde el principio: es el incremento de CO2 atmosférico. Siempre han afirmado que no puede ser ninguna otra cosa; por lo tanto, nunca han buscado "otra cosa", se han limitado a trabajar para reforzar todo aquello que señale la culpabilidad del CO2. Y cuando aparece alguna evidencia incómoda, se silencia, se suprime o se retoca.

Cuanto del calentamiento es debido a la variabilidad natural del clima y cuanto al CO2 emitido por la actividad humana es una pregunta tabú para el IPCC. Quien la haga será inmediatamente tachado de negacionista.
Afortunadamente, son numerosos los científicos (escépticos por ser científicos) que investigan la probable interacción de otras causas: así por ej.
a) el equipo de Roy Spencer  lleva años trabajando sobre la influencia en la variabilidad climática de la oscilación ENSO-El Niño y sobre los patrones de condensación nubosa,
b) los grupos de trabajo que estudian la oscilación de la actividad solar y las variaciones de su campo magnétcio
c) los investigadores en paleoclima que intentan mejorar el conocimiento del Clima en el pasado, y que así, actuando por homología, quizás podamos mejorar la comprensión del Clima presente y futuro  .....

¿Quien tiene razón?¿Cual es la medición correcta?
Difícil es saberlo, pero si atendemos a la opinión pública, he de reconocer que la Teoría del Calentamiento Global ha tenido un éxito insuperable (es la versión del IPCC, con la base de datos HadCRUT4) y se presenta como verdad indiscutible con amplio consenso a su favor:" el calentamiento global es una evidencia incuestionable, el planeta está afectado por una etapa de rápido y sostenido aumento de la temperatura provocado por las actividades humanas".  
Las demás versiones, matices .....  no aparecen en los medios de comunicación.

Pero si tenemos en cuenta que la opinión pública suele ser igual a la opinión publicada, el famoso consenso que respalda la versión HadCRUT4 y que patrocina el IPCC de la ONU, aparece como algo mucho más frágil. Los consensos científicos se establecen sobre el debate entre argumentos diferentes; y aquí no hay debate, solo verdad única (la del IPCC)  y mucha ideología.

Así no se construyen los consensos, así se construyen los dogmas.






  Cambio Climático: reflexiones para una ética posible. Iosu Marruedo. Biólogo La Conferencia Científica de las Naciones Unidas (también con...