martes, 16 de febrero de 2016

Cambio Climático: parábola de la salvación del planeta.

Un día del mes de julio, un científico ambientalista viajaba en su coche cerca de la costa Dourada en la provincia de Tarragona.
El día era soleado y sentía calor, sensación agravada por la humedad que se imponía en el ambiente.
Mientras se secaba el sudor y ponía el climatizador al máximo, observó que las playas por las que pasaba estaban abarrotadas de gente.
Por razones familiares, nuestro científico ambientalista se vió en necesidad de viajar por la misma ruta durante el mes de enero del siguiente año; le sorprendió ver el litoral completamente desierto. Mientras subía la calefacción de su vehículo, en su mente se producían las primeras conexiones relacionando las observaciones del pasado verano con lo que ahora, seis meses más tarde, estaba viendo.

Como era un científico de formación clásica, no pudo evitar que este hecho le llamara la atención y su mente bien entrenada empezó a trabajar, como otras tantas veces, siguiendo los pasos del método científico
1. paso -. Observación:
Todo se aceleró en su cabeza cuando al verano siguiente, observó de nuevo las playas abarrotadas, en un entorno axfisiante por el calor y la humedad.
Pensaba de esta manera: …. si la observación directa de la realidad me presenta la evidencia de la relación entre concentración de personas en las playas y calor ambiental, quizás sea porque el primer factor desencadena el segundo....

2. paso -. Formular preguntas sobre lo observado:
¿Por qué hace tanto calor cuando se concentran tantas personas en el litoral? Y, al contrario, ¿por qué las temperaturas son bajas cuando ese mismo litoral se encuentra desierto?
3.paso -. Proponer respuestas en forma de Hipótesis:
Formuló su hipótesis, fundamentada en la observación directa de un fenómeno, tal y como exige el protocolo del método científico:
La concentración de personas en las playas es la causa de la elevación de la temperatura y la humedad en ese mismo entorno.

4.paso -. Comprobación experimental; fase de prueba:
En Ciencias experimentales, no es suficiente decir, también hay que probar lo que se dice.
Por lo tanto, nuestro científico puso manos a la obra y diseñó un experimento para probar la validez y certeza de su Hipótesis.
En un entorno controlado (una habitación de 50 m2, aislada térmicamente) colocó sensores de temperatura y fue introduciendo diferente número de personas; para cada caso, controlaba el tiempo transcurrido y la variación de temperatura y humedad según la concentración de personas en la sala.
Los resultados obtenidos mostraban una muy alta correlación entre concentración de personas y temperatura- humedad.
Efectivamente, todas las pruebas parecían indicar que la elevada concentración de visitantes en las playas causaba calentamiento. Y este calentamiento podía alterar radicalmente la circulación general atmosférica, alterar también el régimen de precipitaciones, causar dilatación en las masas de agua y por lo tanto subida de nivel del mar ....... y otras graves amenazas para la Humanidad.
5.paso -. Conclusión: Tesis o verdad científica
La conclusión que extrajo de su experimento le llevó a formular su Tesis:
 Teoría de la influencia de la concentración de personas en las playas como causa de calentamiento.

Creyendo en la importancia de su descubrimiento, se puso en contacto con diferentes medios de comunicación que, inesperadamente, acogieron la noticia con interés y la difundieron con rapidez en prensa escrita, radios y televisiones.
El eco en las redes sociales fue inmediato y así, las autoridades se vieron presionadas por “ la nueva amenaza de calentamiento causado por la cada vez mayor y descontrolada afluencia de personas a las playas”.
No pudieron hacer oídos sordos a la creciente preocupación por el riesgo de catástrofe ambiental que se extendía velozmente entre la opinión pública.
ONG-s, grupos ecologistas, asociaciones de protección del medioambiente, deportistas de élite, artistas y cantantes …. sumaban sus voces para pedir una actuación inmediata que pusiera límites a la presencia humana en el litoral y se establecieran medidas para restablecer la situación a un estado anterior, estado "correcto" y sin riesgo para la Humanidad. La exhibición de emociones fue impresionante.

Nuestro científico consideró que esta demanda de medidas de restablecimiento a un estado anterior "correcto" o no alterado era muy ingeniosa; consultó con otros colegas y aunque no tenían ni idea de como identificar cual era el estado "correcto" del Clima, propusieron tomar como referencia el estado del litoral en el año 1879, cuando todavía la costumbre de tomar baños de mar no se había establecido y ni tan siquiera se percibía como saludable.
Además, es entonces cuando se inicia el período de registro termométrico de temperatura de superficie, y les pareció que este hecho daba solidez científica a la fecha de referencia elegida.

Las autoridades y representantes de partidos políticos, confiando en el criterio de los científicos y empujados por la presión social, propusieron una serie de medidas de reducción y de adaptación ante la amenaza del calentamiento provocado por la creciente afluencia a las playas:
a) Medidas de reducción: Destinadas a reducir la presencia de personas en las playas.
Para ello, pensaron en aprobar una nueva Ley de Costas, con prohibición de acceso para las personas no autorizadas. Pero enseguida se dieron cuenta que era una medida muy impopular, de gran coste político y económico, que comprometería al total de las fuerzas de Seguridad en las tareas de vigilancia para su cumplimiento.
Alguien propuso la idea de crear un nuevo impuesto; no habría prohibición, pero quien quisiera acudir a la playa debería pagar una tasa de acceso. También los hoteles, chiringuitos ….... deberían pagar un impuesto de protección ambiental.
Así, sin prohibiciones impopulares, se crearía un efecto de disuasión gracias al cual se reduciría la afluencia de personas a las playas.
Y simultáneamente, el Estado podria así conseguir nuevos ingresos.
La medida fue aprobada en el Consejo de Ministros. Al ser presentada en el Congreso de los Diputados, ningún grupo político se opuso a esta nueva fiscalidad ambiental; al fin y al cabo, se trataba de salvar el medioambiente.
b) Medidas de adpatación:
Destinadas a promover alternativas de ocio saludable en entornos alejados de las playas, sobre todo en zonas del interior poco pobladas.
Para ello se creó un programa de ayudas económicas al que se podían acoger todos los emprendedores en negocios cuya actividad cumpliera los requisitos de:
a) ocio saludable, b) en zona de baja población y c) con ubicación alejada del litoral.

Las grandes cadenas hoteleras no permanecieron impasibles.
Al aprobarse la nueva fiscalidad que grababa la presencia en las playas vieron peligrar sus negocios y reaccionaron financiando investigaciones científicas que desacreditaran la Teoría de la influencia de la concentración de personas en las playas como factor de calentamiento.
Se inició un debate científico entre argumentos contrarios; el núcleo de la discusión se centraba en determinar cual era la verdadera la causa del calentamiento observado.

Pero la opinión pública y los intereses creados por las nuevas oportunidades de negocio surgidas al abrigo de las nuevas medidas para la protección ambiental ante la nueva amenaza del calentamiento dictaron sentencia rápidamente, y así, el éxito en los medios de comunicación de la Teoría de la influencia de la concentración de personas en las playas como factor de calentamiento ha resultado imbatible y solo hay una verdad oficial, que puede resumirse así:
el consenso científico es abrumador, el calentamiento es innegable y la afluencia creciente a las playas es una amenaza global.

Las cadenas hoteleras cambiaron de estrategia, ya que su imagen pública quedaba dañada al aparecer como empresas egoístas y culpables, que solo pensaban en obtener beneficio económico sin tener en consideración el futuro del planeta.
Dejaron de financiar investigaciones científicas alternativas y se transformaron en empresas verdes; aunque continuaban haciendo la misma actividad de siempre, ofrecían ahora alojamiento sostenible (sí, en zona playera, como antes), explicando que con parte del precio pagado por el mismo, se creaban nuevas iniciativas de ocio sostenible en lugares despoblados del interior o bien en nuevos hoteles situados en zonas costeras de países en vías de desarrollo sin tradición de baños de mar. Reunieron a sus empleados y les explicaron que eran una gran familia y que como tal, en épocas de dificultad todos tenían que hacer esfuerzos y más en este caso en el que estaba en juego nuestra civilización; los empleados no tuvieron más remedio que aceptar la bajada de sus salarios.
El cliente también asumía con docilidad la subida del precio del alojamiento (sí, también los precios de los hoteles subieron) consciente de su compromiso con la salvación del planeta y por solidaridad con los países en vías de desarrollo.

El fenómeno de la globalización hizo que la amenaza del calentamiento por concentración de personas en las playas fuera tratada en foros internacionales como amenaza para el futuro del planeta, creándose un comité de expertos, bajo patrocinio de la ONU, para coordinar las diferentes medidas a adoptar. Eran muchos los Estados con el mismo problema, por lo tanto la respuesta debía ser también global.
Este comité de expertos determinó cual era el número máximo de personas que cada playa (en todo el planeta) podía aceptar sin que hubiera consecuencias medioambientales negativas.
Así mismo estableció un sistema internacional de sanciones económicas, para los Estados que rebasaran estos máximos de presencia humana en sus playas.
Los Estados crearon espontáneamente un nuevo mercado en el que se comercia con la compra-venta de los derechos de ocupación playera. Los países sin tradición de baños de mar, que no utilizan su cuota de afluencia máxima, pueden vender sus “plazas libres” a cadenas hoteleras instaladas en zonas playeras de gran ocupación, de tal manera que la presencia global, promediada en todas las playas del planeta, se ajuste a los números determinados por el comité de expertos de la ONU.

Nuestro científico ambientalista disfruta del reconocimiento social de haber sido el primero en ver lo que hasta entonces nadie había visto y de haber alertado sobre ello. Ha creado una asesoría ambiental dedicada fundamentalmente al mercado de los derechos de ocupación de las playas y a la intermediación en la compra-venta de terrenos en zonas áridas del interior continental, lo que le produce unos beneficios mucho más grandes que el sueldo de investigador senior que venía cobrando hasta que dio a conocer su Teoría.

jueves, 28 de enero de 2016

2015 ha sido el año más caluroso desde que se tienen registros termométricos, según la NOAA/NASA de los EEUU.
¿En serio?

Según el dato publicado el pasado 19 de enero de 2016 por la NASA y la Administración para el Océano y la Atmósfera NOAA (ambas, agencias gubernamentales) junto con la agencia meteorológica británica MetOffice, 2015 se sitúa como el año más caluroso a escala global desde que se comenzaron a tomar registros termométricos globales continuos, en 1880.
 Ver noticia. Ver noticia en prensa española (1). Ver noticia en prensa española (2).

Para estas agencias, y claro está, para el IPCC y defensores de la Teoría del Cambio Climático, este dato da validez y fiabilidad a sus modelos de proyección climática y confirma la presencia del Calentamiento Global como fenómeno continuo y creciente.
Tal y como afirman, después del récord de 2014, ahora ya tenemos un nuevo récord de temperatura global en el 2015.
Por lo tanto, queda probado que el Calentamiento continua, y que la Teoría del Cambio Climático es correcta; también  los peligros y amenazas que se anuncian en los informes de evaluación de los expertos del clima quedan justificados, así como la financiación que se solicita para abordar los gastos de las medidas de mitigación (reducción de emisiones ) y de adaptación (100.000 millones de dólares para el 2020, según los acuerdos de la pasada Cumbre del Clima en París).

Ante una noticia como esta, ¿puede añadirse algo?
, y no solo puede añadirse algo sino que es necesario añadir algo, como siempre, información significativa que quizás nos sirva para modificar el valor de la noticia y que no encontraremos en los medios de comunicación:

1.- Las agencias responsables de la publicación del dato de temperatura record para 2015, utilizan las bases de datos GISTEMP (NASA), GHCN (NOAA) y HadCRUT4 (Met Office). En todos los casos, los registros de temperatura utilizados proceden de miles de estaciones meteorológicas situadas en superficie, cuyos datos son posteriormente sometidos a diferentes metodologías de interpolación, hasta obtener la temperatura superficial global para cada mes y para el año.

2.- Hay un desacuerdo entre las mediciones realizadas por instrumentos en superficie (termómetros en estaciones meteorológicas) y las mediciones satelitales (continuas desde 1979).
Los satélites siempre registran menor calentamiento que el observado por los instrumentos de superficie; así, para la base de datos UAH, 2015 es tan solo el tercer año más calido, por detrás de 1998 (récord hasta hoy) y 2010. Para la base de datos RSS, 2015 es el cuarto año más cálido.
Para el registro de temperatura satelital (UAH y RSS), el Calentamiento no continua, y desde el máximo observado en 1998 todas las temperaturas globales de los años posteriores han sido menores.
Como ya señalé en una entrada anterior, el IPCC (panel de expertos del Clima, integrado en la ONU) no acepta como válidas las mediciones satelitales y utiliza exclusivamente registros de temperaturas de instrumentos de superficie.

El desacuerdo entre las medidas procedentes de instrumentos de superficie y las procedentes de instrumentos situados en satélites es hoy un hecho no bien comprendido. Confío en que con el paso de los años, la desconfianza mutua entre los usuarios de unas y otras fuentes de datos desaparezca, y que los avances tecnológicos ( unidos al buen hacer ético de los científicos)  vayan acercando los resultados de ambos procedimientos de medición.

3.-  En el pasado meeting de la AGU (American Geophisical Union) celebrado en San Francisco (EEUU, diciembre 2015) Anthony Watts presentó un estudio (ver aquí, sesión A43G-0396 del 17 de diciembre) con el reanálisis y evaluación del impacto provocado por la mala localización de numerosas estaciones meteorológicas utilizadas por NOAA/NASA en sus mediciones de temperatura.

Según Anthony Watts, la utilización de registros de temperatura de estaciones meteorológicas situadas en zonas urbanas o en proximidad de fuentes de calor artificiales tales como edificios, superficies asfaltadas, salidas de ventilación de líneas del metro .....  es la responsable de una exageración en el calentamiento cercana al 30% para el caso de la temperatura en EEUU.
Sirva como ejemplo una de las imágenes aportadas por A. Watts, en la que el sensor de temperatura está completamente rodeado por otras fuentes de calor no naturales (edificios, asfalto, tráfico ...)
Watts afirma que la mala localización de estas estaciones hace que la medida registrada no corresponda con la temperatura atmosférica meteorológica, sino que en gran parte está reflejando el calor emitido por la actividad humana de los núcleos urbanos.
Revisadas estas estaciones mal localizadas y rehaciendo el cálculo de temperatura global una vez purgados los datos considerados espúreos, el incremento de temperatura en los EEUU para 2015 pasa de +0.324 ºC (dato de la NASA/NOAA) a  +0.204 ºC (dato de A. Watts después de eliminar las estaciones meteorológicas de zonas urbanas o próximas a fuentes de calor no naturales).

Para realizar este reanálisis de los datos de NOAA/NASA, Watts utilizó el Sistema de Clasificación de Emplazamientos recientemente aprobado por la World Meteorological Organization (WMO), ideado por Michel Leroy de METEO-France. Según esta clasificación, se caracterizan con más precisión las cualidades y características de las estaciones meteorológicas y la calidad de su ubicación, para que puedan ser aceptadas como suministradoras de datos "buenos" de la temperatura de superficie.

La denuncia de la inclusión de de estaciones meteorológicas con ubicaciones de mala calidad en el suministro de datos para NASA/NOAA no es nueva, sin embargo, las agencias responsables las siguen manteniendo como suministradoras de datos fiables, aunque estas estaciones no cumplen los criterios de calidad de la WMO. Entonces , ¿por que no las suprimen?.

La sospecha de que este fenómeno de interferencia y sobrecalentamiento en las mediciones, estudiado y evaluado por Anthony Watts para los EEUU, esté presente en otras regiones del mundo y afecte a otras bases de datos (como la HADCrut4 ), es cada vez mayor (pero por ahora, no se ha realizado para Europa un trabajo tan preciso como el reanálisis de Watts ).

4.- En la noticia original (en inglés) junto con los datos de variación de temperatura se menciona la acción de otros factores naturales contribuyentes del calentamiento, como el intenso episodio de "El Niño" que todavía sigue activo en el océano Pacífico; si bien se elude cuantificar el peso de las causas naturales en el calentamiento registrado, de alguna manera en la noticia original se acepta que parte del calentamiento del 2015 pudiera tener causa natural.
En la prensa española no todos los medios recogen la presencia de causas naturales; sí lo refleja brevemente el diario ABC, pero por ej. el diario El Mundo .... no añade ninguna información complementaria ni matiz alguno; solo se dice que el calentamiento continúa.

Para poder evaluar el sentido del Cambio Climático (calentamiento o enfriamiento) y su dimensión (¿cuanto enfría o calienta por década/siglo?) es de gran importancia la buena gestión de las bases de datos y la mejora de la calidad de los registros de temperatura.

Pero además, teniendo en cuenta que en la actualidad la mayor parte de la financiación pública para investigación en ciencias del Clima y del Medio Ambiente se está realizando en el contexto de probar la Teoría del Calentamiento Global (la financiación en investigación del protagonismo e interacciones de otros agentes naturales es casi nula) debemos reconocer que los investigadores que informan sobre el problema (el calentamiento global) han acabado en convertirse en parte del problema a causa de los intereses creados al recibir financiación para probar el calentamiento.
Si resultara que el Calentamiento cesa o bien fuera de una dimensión reducida o se debiera en su mayor parte a causas naturales, muchos proyectos de investigación y numerosos científicos podrían ver comprometida su línea de financiación y su futuro.
Tan solo el buen hacer del trabajo de los científicos, su buena ética y el contraste racional con datos verificables podrán evitar que la Ciencia sea manipulada y sustituida por un debate ideológico interminable (y a veces violento) o por una inútil exhibición de emociones (por favor, ! no mas "intelectuales" leyendo manifiestos en la tv ¡).

Por ahora, la verificación y reanálisis de datos realizados por Anthony Watts sobre las afirmaciones de las agencias gubernamentales de EEUU (NASA y NOAA) hace que estas no queden en buen lugar y que su afirmación de que el año 2015 sea el más cálido desde 1880 no pueda ser considerada  como cierta.

Recuerda:
No es lo mismo Calentamiento climático que Contaminación de agua, aire y suelos (auténtico problema global).
No es lo mismo un problema ambiental que un problema energético (diferentes causas, diferentes procesos, diferentes respuestas).
No es lo mismo gato que liebre.










sábado, 23 de enero de 2016

¿Cual es la causa del calentamiento producido durante los eventos de "El Niño?

Con motivo del intenso episodio de "El Niño" que se está desarrollando desde 2015 y que continúa todavía durante 2016, considero que este podría ser un buen momento para plantear la cuestión:

¿Que es lo que hace aumentar la temperatura global durante los episodios de "El Niño"?

De todos es sabido que la causa principal estaría relacionada con el Sol, ya que la energía solar es la principal fuente de energía para el sistema climático. Pero  lo que no es tan fácil de explicar es por qué los años de "El Niño" son tan inusualmente cálidos y los de "La Niña" son tan inusualmente fríos.

La respuesta habría que buscarla en la circulación del Océano Pacífico, más en concreto, en la circulación vertical de esa cuenca oceánica.
Debemos tener en cuenta que la mayor parte de la profundidad de los océanos del mundo es muy fría (1ºC , 2ºC) incluso en las zonas tropicales. Solo las capas cercanas a la superficie son cálidas, estando el resto de las profundidades del océano lleno de agua que se enfrió en latitudes más altas y que se hundió al tener más densidad.


El siguiente vídeo muestra el estado actual del cinturón de convección oceánica, uno de los más importantes mecanismos terrestres para la regulación térmica del planeta, llevando calor a las zonas frías y refrescando las de mayor irradiación solar.

Esto nos lleva a la interesante observación de que la temperatura media de masa ponderada del Sistema Climático es realmente muy fría.
Este estado de superficie caliente (por irradiación solar) y profundidades frías presenta continuas interacciones de compensación, fundamentalmente por medio de procesos verticales de mezcla (inducida por los vientos alisios, por las corrientes de marea, por la topografía del fondo marino ....).

Cuando estos procesos de mezcla se ralentizan (lo que ocurre durante durante "El Niño") las aguas superficiales (principalmente las superiores a 100 m) alcanzan temperaturas más elevadas que lo normal.
Al mismo tiempo, las capas por debajo de los 100 m. (100 m es la profundidad global media que separa el mundo de aguas cálidas del mundo de aguas frías) se vuelven más frías de lo normal.

En cierto sentido, las profundidades del océano se comportan como un sistema de aire acondicionado para el Clima del planeta y puede decirse que durante los episodios de "El Niño", este sistema de aire acondicionado funciona a muy baja intensidad y no es capaz de refrescar la atmósfera.
Sin embargo, durante los episodios de "La Niña" el sistema de aire acondicionado trabajaría al máximo de su capacidad, provocando un enfriamiento de la temperatura media global.

Durante "El Niño", las grandes tasas de evaporación de la superficie oceánica caliente causan aumento de condensación-precipitación, transfiriéndose calor a la atmósfera. Esto se produce inicialmente en los trópicos, donde la ralentización de la circulación oceánica es mayor, pero luego se extiende también a latitudes altas. 
El calentamiento no es uniforme, por supuesto, y algunas regiones pueden experimentar descensos respecto a la temperatura media de referencia ... pero durante "El Niño" el promedio global es de calentamiento.

En la Tabla 1. podemos ver la evolución mensual de la temperatura durante el año 2015.
Tabla 1.
Podemos observar (en azul) que es en los trópicos donde se ha producido la mayor parte del calentamiento, en especial, durante la segunda mitad del 2015.
A gran escala, la causa del calentamiento provocado por "El Niño" sigue siendo la reducción de la mezcla vertical global de las aguas cálidas superficiales con las aguas profundas frías que deberían aflorar desde el fondo oceánico. 
A medida que se desarrolla "El Niño" también se produce un aumento de la entrada de energía de radiación (solar) en el Sistema Climático global debido principalmente a una pequeña disminución de la cubierta de nubes bajas (y disminución del albedo global terrestre) asociada a los cambios de circulación atmosférica durante "El Niño".
 Durante "La Niña" ocurre a la inversa, aumentando la cobertura nubosa global y el enfriamiento de la superficie.
Los picos o máximos de calor suelen estar desplazados unos 9 meses respecto al inicio del proceso de ralentización de la mezcla vertical oceánica.
Los equipos que trabajan en la monitorización de los fenómenos "El Niño"/"La Niña" han observado también que cuando un episodio de "El Niño" tiene una duración superior a un año, en el segundo año el calentamiento suele ser algo mayor, lo que significa que en 2016 las temperaturas medias mensuales pueden ser mayores que las de la segunda mitad de 2015, salvo que el episodio finalice, iniciándose en este caso un enfriamiento global.

Por lo tanto si el Sistema Climático pasa por un período de varias décadas de aumento de la actividad de "El Niño" y disminución de la actividad de "La Niña", (como ya ocurrió el pasado siglo durante la década de los 70) debería aceptarse la existencia de una tendencia hacia el calentamiento de causa natural

Quiero hacer recordar que para el IPCC , ningún agente natural conocido puede justificar el actual calentamiento; para sus especialistas, solo las emisiones de gases de efecto invernadero, provocadas por la actividad humana, pueden justificar la evolución de la temperatura superficial observada. Y aunque esta temperatura superficial observada muestre un calentamiento siempre menor que el pronosticado en sus modelos de simulación, centran todos sus esfuerzos y recursos en reunir pruebas de cargo contra el CO2, menospreciando y desestimando otras líneas de investigación. 

LLegados a este punto, discernir y cuantificar la importancia de las causas naturales y las causas antrópicas (calentamiento forzado por la actividad humana) de esta etapa de calentamiento iniciada en la década de los 70 del pasado siglo, se nos presenta como una tarea pendiente de muy difícil ejecución, ya que no podemos observar el planeta con un Sistema Clima sin huella de actividad humana, para así poder compararlo con un escenario afectado solo por agentes naturales. 
Esto resolvería de una vez para siempre la incertidumbre sobre el protagonismo real que las emisiones de CO2 ( y otros ..) tienen sobre la evolución del Clima en la Tierra.
Como alternativa, nos queda la oportunidad de seguir construyendo series de datos de observación cada vez más completas y realizar también el oportuno y necesario contraste con la evidencia de las oscilaciones climáticas.

Pero esto es un proceso lento, ya que se necesitan periodos no inferiores a 30 años para poder hablar de "tendencias climáticas" (recuerda que el clima nos informa del estado medio de la atmósfera mantenido durante un largo periodo de tiempo) y ahora, transcurridos 35 años del inicio de la fase de calentamiento, apenas nos encontramos con las primeras iniciativas y oportunidades para poder evaluar la validez de la Teoría del Cambio Climático.
Espero con curiosidad e interés (si la salud lo permite) el discurrir de los próximos 5 años; comprobaremos la eficacia de los acuerdos de la reciente Cumbre del Clima de París, observaremos directamente el efecto sobre el Sistema Clima del decaimiento sostenido de la actividad magnética del Sol (que ya se ha iniciado) y con toda probabilidad, veremos la importancia de las consecuencias de al menos un episodio "La Niña" .
Y compararemos la evidencia observada con la proyección de futuro elaborada por el IPCC en sus modelos climáticos y publicado en su quinto informe de evaluación en 2014.
Es decir, ciencia racional.
Que nadie se lo pierda.




martes, 22 de diciembre de 2015

Exploradores en el Ártico en el siglo XIX. ¿El Ártico se funde?

Este es un resumen del artículo de los investigadores James E.Overland y Kevin Wood  en el  que muestran el uso de instrumentos y registros históricos descriptivos para probar la certeza de la hipótesis de que las condiciones ambientales observadas por los exploradores del siglo XIX  en el archipiélago canadiense fueron consistentes con una Pequeña Edad de Hielo tal y como es sugerido en conclusiones de otras reconstrucciones climáticas (metodología de estratigrafía de núcleos de hielo) y aceptado  por los defensores de la Teoría del Cambio Climático.
Concluyen que de los testimonios y registros de los exploradores se deduce poca evidencia de frío extremo y proporcionan una reconstrucción climática disconforme con la obtenida por medio de la estratigrafía de núcleos de hielo (la aceptada por el IPCC de la ONU). 
En la actualidad, y dentro del contexto alarmista de las noticias relacionadas con el Cambio Climático, la disminución de la masa de hielo en el Ártico se presenta con frecuencia como un acontecimiento excepcional y catastrófico, consecuencia de las elevadas emisiones de CO2 de los últimos 80 años.
Pero  de la lectura de los registros históricos de los exploradores árticos del siglo XIX se deduce que la disminución de la masa de hielo ártico no es algo excepcional sino que ya se ha producido en otras épocas (con menos CO2 en la atmósfera que en la actualidad) y que han venido seguidas de  otras fases de recuperación .   
Las expediciones organizadas en el siglo XIX para encontrar un tránsito por el denominado Paso Ártico del Noreste, se percibieron en general como grandes fracasos, como un vana y trágica exploración fallida ; la causa se ha venido atribuyendo a las extraordinarias condiciones de frío asociado a la denominada "Pequeña Edad de Hielo". 
Esa perspectiva había sido reforzada desde 1970, cuando las reconstrucciones del paleoclima basadas en el hielo del Ártico (estratigrafía de núcleos de hielo) parecieron confirmar la existencia de condiciones excepcionalmente frías conforme con  lo que los glaciólogos habían denominado como la "Pequeña Edad de Hielo", con temperaturas más frías que la media de los primeros años del siglo 20 [Koerner, 1977; Koerner y Fisher, 1990; Overpeck et al., 1998].

Sin embargo, el examen de 44 registros de exploradores del Ártico occidental desde 1818-1910 revela que los indicadores del clima tales como:
a) navegabilidad,
b) distribución y espesor de hielo anual del mar
c) temperatura media mesual del aire en superficie, y
d) el inicio de la fusión y congelación 
estaban dentro de la actual gama de variabilidad, entendiendo por "actual" la referencia al periodo 1970-2000..

Si bien existe una amplia literatura sobre el historia de la exploración del Ártico del siglo XIX se ha hecho muy poco uso de observaciones científicas y meteorológicas detalladas compiladas durante muchas expediciones.
Hubo más de setenta expediciones o empresas científicas de diversos tipos enviados al Ártico canadiense en el período comprendido entre 1818 y 1910.
De este número total, se analizaron 44 informes científicos originales y relatos relacionados. 
La mayoría de los datos provienen de grandes expediciones navales, con gran capacidad, que abarcan varios años, con invernadas en el Ártico.

Hemos centrado nuestro análisis en los cuatro indicadores de cambio climático antes citados; a saber: extensión del hielo marino de verano, espesor anual del hielo marino, la temperatura media mensual, y el inicio de la fusión y de congelación como estima de media diaria de temperatura. 
Tanto la extensión del hielo marino y la aparición del inicio de la fusión y congelación se compararon con los del período de referencia de 30 años entre 1971-2000.
Los valores de espesor de hielo (media mensual), se compararon con los del período de 50 años entre 1951-2000.
Es quizás sorprendente que la mayor parte del Paso del Noroeste fuera ya navegado durante el siglo XIX con buques de las diferentes expediciones que quedaron tan solo a 150 km de completar el paso en un buen número de ocasiones.
Figura 1.
La imagen muestra la presencia de hielo en el mar el 10 de septiembre, que es la fecha habitual del mínimo anual de hielo durante el período de referencia 1971-2000 ( según el Servicio Canadiense del hielo, 2002). En varias ocasiones, las expediciones llegaron a menos de 150 km de completar el Paso del noroeste, pero incluso en años con condiciones desfavorables de hielo, la mayoría de los barcos eran todavía capaces de llegar a posiciones relativamente avanzados dentro del archipiélago canadiense. En 1859, ya se habían descubierto todas las posibles rutas que comprenden el Paso del Noroeste.
La mas sorprendente es que, incluso en los años reconocidos como desfavorables (por más fríos), los buques todavía eran capaces de llegar a lugares cuya accesibilidad es semejante a la de las peores condiciones de hielo de la referencia moderna (1971-2000).
De 33 expediciones o suministros de barcos con destino a la parte occidental de Lancaster entre 1819 y 1859, sólo dos fallaron debido a las condiciones del hielo desfavorables.
Dieciocho mediciones de máxima anual del espesor del hielo marino se registraron entre 1819 y 1876; cuatro de ellos son incompletos, porque fueron interrumpidos antes del final de la estación.
De las restantes 14 observaciones, se obtuvo una media (anual) de 215 cm y un máximo de 250 cm.
En la actualidad (datos de la referencia moderna) , las condiciones de hielo para Resolute Bay, Sachs Harbor, y Mould Bay dan una media anual de 199 cm y una máximo en tres estaciones de 248 cm.

Por lo tanto, las observaciones históricas son consistentes con los valores del siglo XX.

Treinta y dos años aproximadamente de series mensuales de temperatura media del aire superficial  se recogieron durante los años comprendidos entre 1819 y 1854, y se comparó con la referencia de 50 años del periodo 1951-2000.
El  63% de los 343 valores de anomalías mensuales de la temperatura caen dentro de una normal desviación de la media de la referencia moderna. 
Los exploradores relatan que encuentran tanto años cálidos como años fríos.
Si bien los datos históricos de los viajes de exploración son intermitentes, tomados en su conjunto, proporcionan una perspectiva valiosa sobre el clima del pasado del Ártico canadiense.

Los exploradores encuentran a la vez temporadas cálidas y temporadas frías, y en general, las condiciones  de hielo que nos recuerdan a las del siglo XX.
La aparición temprana de la congelación en algunos casos representa la mayor aparente diferencia respecto de las condiciones actuales, mientras que el momento de la transición al estado fundido en la primavera mostró poco cambio respecto el presente.
Si hubiera habido un cambio en la media de la temperatura del aire de verano de la magnitud del sugerido por el método de estratigrafía en núcleos de hielo (isla de Devon), las indicaciones de  más frío  habrían sido detectados en nuestra análisis. 
Los relatos y registros de los exploradores no avalan los resultados de reconstrucción de temperaturas por estratigrafía de núcleo de hielo.

Por último, debemos señalar que es engañoso afirmar que no se encontró el Paso del Noroeste y que el el fracaso se debió a un clima adverso extraordinariamente frío.
De hecho, todas las rutas posibles que componen el Paso del Noroeste fueron descubiertos, y casi
toda la costa laberíntica fue asignada durante este periodo.
Un resultado de navegación similar podría obtenerse hoy dentro de los límites de navegación en las condiciones presentes.

Figura. 2. 
Los exploradores encontraron ambas condiciones representadas en los dibujos, en la isla de Beechey:  poco hielo (1850) y mucho hielo (1853).

El estado de hielo favorable y desfavorable en las proximidades de la isla de Beechey ilustran la gama de condiciones de hielo en diferentes años.
La Figura A ilustra la situación de la H.M.S. Resolute y el vapor Pioneer el 5 de septiembre 1850 [tomado de Facsímil del Ártico, Illustrated News, cortesía de Elmer E.Rasmuson Biblioteca, Univ. de Alaska- Fairbanks].
La Figura B muestra el H.M.S. Breadalbane y el vapor Phoenix atrapados en el banco de hielo el 21 de agosto 1853.
El Phoenix escapó, pero el Breadalbane fue aplastado por la presión del hielo y se hundió (Archivos Nacionales de Canadá, el número de acceso 1989-399-4).

Referencias:
Bradley,R. S. and P.D. Jones,“Little Ice Age”summer temperature variations:Their nature and relevance to recent global warming trends,The Holocene,3, 367–376, 1993.
Jones,P.D. and K. R. Briffa,The “Little Ice Age”: Local and global perspectives, Climatic Change,48, 5–8, 2001.
Koerner,R. M.,Devon Island ice cap: Core stratigraphy and paleoclimate, Science,196, 15–18, 1977.
Koerner,R.M. and D.A. Fisher,A record of Holocene summer climate from a Canadian high-Arctic ice core, Nature,343, 630–631, 1990.
Neatby, L. H., In quest of the North West Passage,pp. 135–136, Longmans,Toronto, 1958.
Oglvie,A.E. J., and T. Jónsson,“Little Ice Age” research:A perspective from Iceland, Climatic
Change, 48, 9–52, 2001.
Overpeck, J. et al.,Arctic environmental change of the last four centuries,Science,278,1251–1256,1998.

Información del autor de la fuente original:
James E.Overland, Pacific Marine Environmental Laboratory/NOAA, Seattle,Wash., and Kevin Wood , Arctic Research Office/NOAA, Silver Spring,Md.














domingo, 20 de diciembre de 2015

Cambio Climático: el polémico asunto de la medición de la temperatura global de la superficie de la Tierra.
Iosu Marruedo. Biólogo


¿Como se determina la Temperatura superficial  media anual en el planeta? 
La obtención de un único número que caracterice la temperatura media superficial (anual) es una operación compleja y de significado desconcertante para el ciudadano, pues puede ocurrir que no corresponda con su "experiencia vital local".
Pensemos que la variabilidad de temperatura para un mismo día, en un mismo lugar, puede oscilar fácilmente entre 2º C y 16º C (por ej. un día normal de otoño en Pamplona, Navarra). También durante un mismo día en diferentes lugares de la Tierra; así, por ej.,  el 10 de agosto de 2010 en la Antártida se registró una temperatura de - 93.2ºC cuando en Trinidad (Bolivia) era de  + 28ºC.
La temperatura superficial terrestre es una magnitud extremadamente variable: varía en un mismo día, varía de un lugar a otro y de un año a otro.
Su valor medio, es útil solo cuando se contempla por "el retrovisor", cuando pasados un buen número de años podemos mirar hacia atrás y observar la tendencia o comportamiento medio global durante esos años (nunca menos de 25-30 años).
Obtener un único valor de temperatura representativo de toda la superficie del planeta requiere el manejo de cientos de miles de datos, procedentes de todos los puntos de la Tierra, correspondientes a los 365 días de cada año, durante una larga serie de años.

Para conseguirlo, son dos los elementos necesarios:
1) Un instrumento de medición de la temperatura. En la actualidad, se utilizan principalmente dos tipos de instrumentos de medida: los instalados en estaciones meteorológicas terrestres continentales (termómetros)  y a bordo de barcos (para datos de la superficie oceánica), y los instalados en satélites que orbitan alrededor de la Tierra. Estos últimos llevan a bordo termómetros de precisión (resistencia redundante de platino) calibrados en el laboratorio antes de su lanzamiento.
2) Una metodología para el tratamiento estadístico de los cientos de miles de datos recogidos. Esta es quizás la parte más polémica o más frágil del complicado proceso de obtención de la Temperatura superficial global anual.
Dicho de otra manera: es posible que de un mismo conjunto de datos, dependiendo del tratamiento estadístico aplicado (decisión que adopta en cada caso el equipo de trabajo correspondiente) se obtengan resultados diferentes. Es por esto que suele ser frecuente el fuego cruzado de críticas y acusaciones de manipulación de datos entre los diferentes equipos (diferentes metodologías) que ofrecen información de la Temperatura Global..

Existen cinco registros o bases de datos oficiales para la medición de la Temperatura global de la superficial terrestre.
Tres de estas bases de datos se nutren de mediciones por instrumentos situados en la superficie de la Tierra (estaciones meteorológicas y barcos). Hay registros directos (termométricos) fiables desde 1850. Esta tres Bases de Datos son:

a) Base de datos del Instituto Goddard de Estudios Espaciales , NASA,  con datos procedentes de 6300 estaciones meteorológicas (GISTEMP  NASA).
b) Base de Datos de la Unidad de Investigación del Clima de la Universidad de East Anglia, corazón del IPCC  de la ONU (las últimas versiones de estas bases de datos son HadCRUT3 y HadCRUT4).
c) Base de Datos de la Administración Oceánica y Atmosférica de EEUU, ( GHCN  NOAA).

Suele haber diferencias entre el resultado presentado por estas tres bases de datos, debido fundamentalmente a que emplean diferente número de estaciones meteorológicas, con diferente localización y también emplean diferente metodología para la interpolación de los datos.

La imagen siguientes muestran un ejemplo de estas diferencias; vemos el resultado del GISS-NASA en rojo comparado con el del equipo del Hadley Centre (HadCRUT) en azul y con la versión del NOAA en verde. Se compara además con la versión de la Agencia Meteorológica del Japón, línea en morado.
La línea horizontal de referencia 0.0 corresponde al valor medio de temperatura durante el periodo 1951-1980.


Figura 1.
Las otras dos bases de datos registran mediciones realizadas por instrumentos situados en satélites; existe registro satelital continuo desde 1978:
d) Base de datos Sistemas de Teledetección RSS MSU , en California.
e) Base de Datos del Clima en la Universidad de Alabama en Huntsville, (UAH).

También existen diferencias entre los resultados presentados por RSS MSU y UAH, procedentes fundamentalmente de los diferentes algoritmos y procesos de conversión de la lectura del sensor instalado en el satélite en temperatura del aire (en realidad, lo que el satélite mide es la emisión de microondas de las moléculas de oxígeno de la atmósfera, que es función de la temperatura del aire; este valor de emisión del oxígeno debe convertirse en temperatura del aire).
En las imágenes siguientes (Figura 2. y 3.) podemos ver la versión del equipo UAH (Roy Spencer y John Christy) y la de RSS MSU (Mears) de California:
Figura2. 


Figura 3.

Pero cuando constatamos que las diferencias son mayores es cuando comparamos el resultado de las mediciones instrumentales (termométricas) con el de las satelitales (RSS MSU y UAH)..

¿Cuales son estas diferencias y qué importancia tienen?
1.- Las mediciones satelitales registran casi siempre temperaturas menores que las mediciones basadas en interpolación de los datos de estaciones meteorológicas en superficie.
2.- Entre las dos mediciones satelitales, la base UAH presenta menor tendencia global que la base RSS MSU.
3.- También muestran un área de enfriamiento para altas latitudes en el Hemisferio sur; muestran que el calentamiento no es homogéneo.
4.- Hay discrepancias entre UAH y RSS para ciertas áreas sobre el ecuador y Australia, en las que UAH registra enfriamiento y RSS calentamiento.
5.-  Las mediciones satelitales muestran una etapa de fuerte calentamiento entre los años 1993-1998 y una etapa de estabilización hasta 2014. Según UAH  y RSS, el calentamiento no es global y no es continuo.
Para los instrumentos situados en satélites, el año más caliente fue 1998; desde entonces la temperatura se ha estabilizado, desapareciendo el calentamiento hasta la primavera de 2015, cuando el intenso episodio de "El Niño" que todavía está activo provoca una nueva subida de temperatura.
6.- Para la UAH, 2015 es solo el tercer año más caliente, después de 1998 y 2010. Sin embargo para la NASA y para Hadley Centre, 2015 ha sido el año más caliente.
7.- Para el registro por satélite, durante el período comprendido entre octubre 1996 octubre 2014 la tendencia de variabilidad ha sido cero. Es lo que se ha denominado "la pausa" (18 años de pausa en el calentamiento), que podemos ver en la imagen siguiente.
Figura 4.
El IPCC (panel de expertos de la ONU) no acepta los resultados basado en mediciones satelitales; pese a que estos ofrecen mayor cobertura global (desde 1979) cubriendo una mayor superficie de la Tierra (continentes y océanos) y registran series continuas de datos también en vertical (baja troposfera, media y alta troposfera).

Críticas hacia las mediciones satelitales:
Proceden fundamentalmente de los promotores y defensores de la Teoría del Cambio Climático.
Aducen que los algoritmos empleados en la conversión de datos y su interpolación son erróneos y que, sobre todo, el efecto de las masas de nubes distorsiona el valor real de temperatura en superficie, haciendo que estas aparezcan con valores menores que los registrados en estaciones meteorológicas.
Algunas de las personas que trabajan en esos equipos son tachadas de "negacionistas" con intereses espúreos.

Críticas hacia las mediciones con instrumentos de superficie (termométricas):
Proceden de los sectores de Ciencia escéptica con la Teoría del Cambio Climático.
Argumentan, por ejemplo, que en esas Bases de Datos existen amplias regiones de la superficie del planeta poco o nada representadas (especialmente la superficie oceánica) cuando otras, en cambio, lo están en exceso.
Se les atribuye una selección sesgada o intencionada de las estaciones meteorológicas utilizadas para el suministro de los datos, abundando las cercanas a grandes núcleos de población, donde por efecto de la "isla urbana de calor" (calor emitido por la propia ciudad) los registros siempre tienden a indicar calentamiento.

Así mismo, expresan desconfianza hacia los métodos de interpolación de datos empleados, con acusaciones de "cocinado" de datos (ver imagen de la izquierda), es decir, manipulación del tratamiento estadístico hasta lograr el resultado previamente esperado (hasta demostrar que existe una etapa de calentamiento global sostenido).

Esta última acusación se ha revitalizado como consecuencia de la modificación de la Base de Datos HardCRUT3 de la Universidad de East Anglia (el IPCC de la ONU) para dar lugar a la versión HardCRUT4.
Me explicaré:
Los 18 años de no calentamiento (octubre1996-0ctubre2014) conocidos como "la pausa" (Figura 4.) desconcertaron enormemente a los miembros del IPCC y comunidad de partidarios de la Teoría del Calentamiento Global. Nadie lo esperaba.
En la revista Investigación y Ciencia de junio de 2014, se publica una entrevista anterior con uno de los representantes más destacados del IPCC, Michael E. Mann, quien reconocía la existencia de un parón en el calentamiento; atribuía ese fenómeno (que no fueron capaces de predecir en el informe del IPCC de 2001) a un comportamiento inesperado del Sol y sobre todo, a la erupción del volcán islandés Eyjafjallajökull en 2010.
A continuación afirmaba: .. "pero el calentamiento regresará"...

La dichosa "pausa" era una molesta espina clavada en el corazón del IPCC. Sus modelos de proyección del futuro climático del planeta contenidos en el informe del año 2001 habían fallado estrepitosamente; ya que no habían sabido ver lo que sucedería en los próximos 13 años, todas las proyecciones a más largo plazo quedaban invalidadas. La valía de su modelo informático de proyección  quedaba muy dañada.
Pero todo se arregló en marzo de 2012; el director del Cru, Phil Jones, explicó que ... " HadCRUT se basa en observaciones y nos hemos dado cuenta que en años anteriores (anteriores a 2010) los datos del Ártico no se han capturado de manera integral debido a los pocos datos que se tienen de esa zona. Hemos realizado una nueva versión de la base de datos , HardCRUT4, en la que se han incluido más de 400 estaciones a lo largo del Ártico, Rusia y Canadá"...

Es decir, si se aumenta la representación o peso de las estaciones de lugares fríos para recalcular la temperatura de los primeros años del s. XXI, , la línea horizontal que indica tendencia cero desciende por el extremo izquierdo y aparece nuevamente como una pendiente ascendente hacia la derecha.
Y ya está ....  todo arreglado!; la pausa no existía, era un artefacto, una interferencia provocada por un error de captura e interpolación de datos. Nosotros, los del IPCC, teníamos razón y el calentamiento sigue siendo una realidad, tal y como nuestro modelo de proyección viene asegurando. Y todos contentos en el IPCC, la Teoría del Calentamiento Global sigue viva.

Pero claro está, en otros sectores de la ciencia del Clima, en otros equipos que trabajan con las otras bases de datos el asunto no ha pasado desapercibido y ha crecido el recelo y la desconfianza hacia HadCRUT.

Mientras tanto, esta es la evolución de la concentración de CO2 en la atmósfera comparada con la variación de temperatura global según la base de datos UAH y datos reconstruidos anteriores a 1979
(el valor 0.0 en el eje vertical izquierdo expresa la temperatura media en el período 1981-2010):
Figura 5.
Se pueden distinguir tres etapas:
Una primera parte entre 1960-1979 de escasa correlación temperatura-CO2.
Una segunda, 1980-2002 con buena correlación entre temperatura y CO2, y
Una tercera parte 2003-2014 de escasa correlación.

El núcleo central de la Teoría del Cambio Climático contiene dos enunciados:
1.- Desde la década de los 70 del pasado siglo, el planeta está inmerso en una etapa de calentamiento global rápido y sostenido.
2.- La causa de este calentamiento es el incremento de las emisiones de CO2 (y otros gases de efecto invernadero) procedentes de la actividad humana.

La medición y determinación de la temperatura global, contenido de esta entrada, afecta al primero de los dos enunciados. Aceptando la evidencia del calentamiento, vemos que hay diferentes estimaciones según la base de datos y metodología de trabajo utilizados para interpolación: ¿es global o no?, ¿es continuo o no? ¿cual es el ritmo de variación por década? ¿es un problema grave o leve? o ¿ni tan siquiera es problema?.

La causa del calentamiento para el IPCC de la ONU ha estado clara desde el principio: es el incremento de CO2 atmosférico. Siempre han afirmado que no puede ser ninguna otra cosa; por lo tanto, nunca han buscado "otra cosa", se han limitado a trabajar para reforzar todo aquello que señale la culpabilidad del CO2. Y cuando aparece alguna evidencia incómoda, se silencia, se suprime o se retoca.

Cuanto del calentamiento es debido a la variabilidad natural del clima y cuanto al CO2 emitido por la actividad humana es una pregunta tabú para el IPCC. Quien la haga será inmediatamente tachado de negacionista.
Afortunadamente, son numerosos los científicos (escépticos por ser científicos) que investigan la probable interacción de otras causas: así por ej.
a) el equipo de Roy Spencer  lleva años trabajando sobre la influencia en la variabilidad climática de la oscilación ENSO-El Niño y sobre los patrones de condensación nubosa,
b) los grupos de trabajo que estudian la oscilación de la actividad solar y las variaciones de su campo magnétcio
c) los investigadores en paleoclima que intentan mejorar el conocimiento del Clima en el pasado, y que así, actuando por homología, quizás podamos mejorar la comprensión del Clima presente y futuro  .....

¿Quien tiene razón?¿Cual es la medición correcta?
Difícil es saberlo, pero si atendemos a la opinión pública, he de reconocer que la Teoría del Calentamiento Global ha tenido un éxito insuperable (es la versión del IPCC, con la base de datos HadCRUT4) y se presenta como verdad indiscutible con amplio consenso a su favor:" el calentamiento global es una evidencia incuestionable, el planeta está afectado por una etapa de rápido y sostenido aumento de la temperatura provocado por las actividades humanas".  
Las demás versiones, matices .....  no aparecen en los medios de comunicación.

Pero si tenemos en cuenta que la opinión pública suele ser igual a la opinión publicada, el famoso consenso que respalda la versión HadCRUT4 y que patrocina el IPCC de la ONU, aparece como algo mucho más frágil. Los consensos científicos se establecen sobre el debate entre argumentos diferentes; y aquí no hay debate, solo verdad única (la del IPCC)  y mucha ideología.

Así no se construyen los consensos, así se construyen los dogmas.






viernes, 4 de diciembre de 2015

En la Cumbre del Clima de París no se ponen al Sol 


Mojib Latif  es un científico del Instituto Leibniz de Ciencias Marinas, en Kiel (Alemania); estudia los procesos de calentamiento y enfriamiento de las masas de agua oceánica profundas y es, además, autor colaborador para el IPCC.  En la Conferencia Mundial sobre el Clima, en Ginebra, a principios de setiembre de 2009 advirtió:
  ..."en los próximos años, una tendencia de enfriamiento natural dominará sobre el calentamiento causado por los seres humanos" .... "La gente dirá entonces que  el calentamiento global está desapareciendo; yo no soy un escéptico climático pero tenemos que hacernos las preguntas incómodas nosotros mismos, para intentar comprender mejor el comportamiento del Clima"....

El Dr. Habibullo I. Abdussamatov, es el director del Observatorio Astronómico de Pulkovo (San Petesburgo, Rusia); en febrero de 2012 publicó  un artículo en la revista Applied Physics Research
en el que anuncia una etapa de clima frío para el año 2050, con una lenta transición desde los años 2015-2016 (estos serían los años finales de la etapa cálida).

Dean Pesnell, es científico del Observatorio Dinámico Solar (SDO) de la NASA; ha realizado unas declaraciones en National Geographic, explicando la cada vez mayor certeza en la llegada de una etapa de letargo solar, (periodo de baja actividad magnética en el Sol) que causará un descenso de la temperatura media global. Añade  ...."no creo que los efectos de este enfriamiento vayan a ser especialmente graves, ya que será atenuado por las cantidades de CO2 y metano que el ser humano ha emitido a la atmósfera en los 60 años precedentes" ...

¿Qué  pensarán estas personas de lo que se está diciendo en los medios de comunicación sobre el futuro climático del planeta?. Me pregunto también si ellos habrán acudido a París y si estarán participando en las ponencias y sesiones de trabajo.

Los tres ( y sus equipos de trabajo) son físicos del clima y los tres afirman (desde investigaciones independientes diferentes) que la actividad magnética del Sol se dirige hacia un periodo de mínimo o "letargo solar", durante el cual el campo magnético presenta valores de intensidad muy bajos.
Los tres están de acuerdo en que vivimos los últimos años de una fase climática cálida, que serán desplazados paulatinamente por años con temperaturas cada vez más bajas, hasta entrar en una etapa de enfriamiento global, que será percibida claramente desde 2019-2020.
No están de acuerdo en la duración y la intensidad de este enfriamiento global. Según los casos, la bajada de temperatura puede estar entre 2 ºC - 4 ºC , manteniéndose durante 14 años (en el caso más optimista) o durante varias décadas (según el Dr. Abdussamatov, quien presenta un enfriamiento más sostenido).
Este proceso (ya iniciado) que conduce al planeta hacia una época fría, es explicado de la siguiente manera:

La mayor parte de la energía entrante en la Atmósfera terrestre (99,3%) procede del Sol.
La fusión nuclear del Hidrógeno en nuestra estrella libera inmensas cantidades de energía en forma de ondas (radiación electromagnética) y partículas (protones, neutrones  ...) que son emitidos hacia el espacio en todas las direcciones. Una muy pequeña parte de esta emisión solar ("viento solar") hace diana en nuestro planeta y lo calienta.
Pero el nivel de actividad solar no es constante; a lo largo del tiempo se registran pequeñas oscilaciones en la cantidad de energía emitida  (variabilidad media   +/- 0.12%).
Existe un consenso amplio en aceptar que estas variaciones de energía emitida no tienen gran influencia en la temperatura superficial terrestre.

Pero el Sol nos guarda otra sorpresa: el comportamiento de su campo magnético.
Nuestro Sol es una bola de plasma de casi millón y medio de kilómetros de diámetro; y el plasma no es más que gas (fundamentalmente hidrógeno) cargado eléctricamente.
Cuando una carga eléctrica se mueve, genera un campo magnético, y como el sol en su totalidad es gas con carga eléctrica, se genera un campo magnético en todo su volumen.(Ver video ).

Debido a que el Sol es un sistema en rotación, no rígido, las líneas de fuerza del campo magnético se doblan, estiran y retuercen pues  el plasma de los polos gira a diferente velocidad que el del ecuador.

A veces el plasma se acumula alrededor de las invisibles líneas del campo magnético, haciéndolo entonces visible, como finos bucles de filamentos. (Vídeo)

La temperatura de la superficie del sol es de 6.000 ºC, pero en las zonas donde las líneas del campo se entrecruzan, retuercen e interactúan, la temperatura baja a 3.000-4.000 ºC, apreciándose como zonas menos brillantes, relativamente más oscuras, por lo que se les denomina "manchas solares."
Hoy sabemos que el Sol genera un nuevo flujo magnético cerca de sus polos cada 11 años, y constituye un nuevo campo cuyos polos magnéticos emigran lentamente hacia hacia el ecuador hasta invertir sus polaridades magnéticas.
Cuando el movimiento de migración del flujo magnético alcanza una latitud de 23º, la torsión de las líneas de campo es suficiente para iniciar la formación de manchas solares.
El número de manchas solares está pues relacionado con la intensidad y el estado del campo magnético solar, que cíclicamente se rehace cada 11 años (+/- 2).

Campos intensos provocan numerosas manchas solares. Los campos magnéticos débiles no son capaces de generar manchas solares, presentando el Sol una superficie homogénea, libre de manchas. 

Existe un registro continuado del número de manchas solares observadas en el Sol desde el año 1700, aunque el ciclo nº 1 corresponde al del año 1755; el ciclo actual es el nº 24.

Heinrich Schwabe fue el primero que observó la variación cíclica del numero de manchas entre 1826 y 1843. Esto animó a Rudolf Wolf a realizar observaciones sistemáticas que comienzan en 1848. En la imagen siguiente podemos ver la oscilación del número de manchas de los ciclos solares nº 1 (1755) hasta el actual nº 24.
A simple vista reconocemos que los flujos magnéticos de los diferentes ciclos  tienen diferente intensidad (actividad magnética) . Ciclos de gran actividad (como el nº 19 , 1954-65) han producido gran número de manchas, y a la inversa.

Hoy creemos que cuando la actividad magnética es baja, y no se observan manchas, los planetas del sistema solar quedan más expuestos ante la radiación cósmica procedente del fondo de nuestra galaxia.
El campo magnético solar (Heliosphera) realiza una función protectora de los planetas albergados en su interior; como si fuera un gran paraguas, rechaza los rayos cósmicos (partículas subatómicas, de alta energía, que se desplazan a velocidades próximas a la de la luz), impidiendo que penetren al interior del sistema solar.


Sin este paraguas protector (ver vídeo ), la radiación cósmica penetra con más facilidad; así, las partículas cósmicas llegan a la parte alta de nuestra atmósfera, interaccionando con sus gases y provocando el aumento de la condensación y formación de nubosidad.
La superficie de la Tierra se ensombrece y una mayor cantidad de energía solar es reflejada al espacio. La consecuencia es el enfriamiento del Clima de la Tierra.

Períodos de baja actividad magnética del Sol han ocurrido ya con anterioridad; entre los años 1645-1715 se produjo el primer mínimo solar bien documentado, el mínimo de Maunder (en honor al astrónomo Edward Maunder); entre 1640-1680, se observaron tan solo 7 manchas solares, cuando lo habitual en periodos de actividad magnética hubiera sido varios miles. Coincidió con una larga etapa de clima frío en Europa.
El segundo (no tan acusado como el anterior) se produjo entre 1790-1830, el mínimo de Dalton (en honor al meteorólogo inglés John Dalton).
Desde principios del siglo XIV hasta finales del XIX, el clima fue predominantemente frío; se distinguen tres "pulsos fríos" separados por dos interrupciones en las que las temperaturas se recuperaron en cierta medida. Es lo que se ha venido llamando "pequeña edad de hielo".
En esta figura, puedes ver la evolución temporal del número de manchas solares; los períodos de baja actividad magnética (pocas manchas) coinciden con épocas de clima frío.
La causa principal de esta etapa fría de nuestro clima parece ser debida al intenso vulcanismo. Entre 1275-1300 se produjeron erupciones encadenadas que proyectaron a la atmósfera inmensas cantidades de gases y polvo; la atmósfera se oscureció, impidiendo el paso de la radiación solar: La superficie terrestre se enfrió.
Pero entre los años 1645-1675, el frío fue especialmente intenso. El efecto del vulcanismo se vió reforzado por la ausencia de manchas solares (inactividad del campo magnético solar). Y Europa padeció a causa del frío: malas cosechas, muerte del ganado, hambre .....

Hoy sabemos que las primeras señales de generación de un nuevo flujo magnético aparecen unos 7-8 años antes de la iniciación del correspondiente ciclo de manchas, y sabemos detectarlo.
Así, para el actual ciclo solar (el nº 24) que se inició el 8 de enero de 2008, las primeras señales de flujo se detectaron en 1999, cuando el anterior ciclo (el nº 23) estaba recién iniciado (inicio en 1996).
Esto nos permite hacer predicciones bastante ajustadas sobre el futuro próximo de la actividad magnética del Sol.

Y ¿qué es lo que está ocurriendo en la actualidad? Dos hechos significativos:

1.- Los últimos ciclos solares muestran una tendencia decreciente en la intensidad del campo magnético.
El ciclo nº 24 es el más débil en casi 100 años; se inició con retraso y su máximo de actividad es un mini-máximo, con una disminución del 48% en la actividad respecto al ciclo 21.
Ver figura : Comparación actividad ciclos 21, 22, 23 y 24. Se han superpuesto los cuatro ciclos aunque debemos recordar que el ciclo 21 se desarrolló en el periodo 1976-86,  el 22 en 1986-97,   el 23 en 1997-2008 y el 24 en 2008-2019 (final esperado).


2.- Las señales de generación del nuevo flujo que anunciaría el ciclo nº 25 no aparecen. Esto nos hace creer que el ciclo nº 25 llegará con retraso de 3-5 años o bien, que quizás no se inicie, debido a la debilidad del campo magnético para producir manchas, entrando el Sol en un estado de  "letargo" o mínimo de actividad magnética.

Todo parece indicar que el Sol nos va a dejar sin su protección frente a la radiación cósmica durante unos cuantos años, lo cual (por homología con lo que ya ha ocurrido en el pasado) ocasionará un enfriamiento global.

Es preciso aclarar que NO nos encaminamos hacia una nueva "edad de hielo" (el alarmismo del frío es tan dañino para el conocimiento como el alarmismo del calor). Los científicos que advierten de este fenómeno describen un enfriamiento "asumible".
Solo en el caso de coincidencia con un aumento de actividad volcánica, el enfriamiento podría tener consecuencias más severas en los Sistemas Naturales (atmósfera, oceános ...).  

La causa de que el Sol genere campos magnéticos de muy diferente actividad, originando ciclos activos y ciclos débiles ( con diferentes números de manchas), se encuentra al parecer en el movimiento del baricentro del sistema solar. (Ver vídeo . El baricentro se representa como un pequeño rombo rojo; en realidad, el sol debería permanecer fijo y el rombo rojo desplazarse en su proximidad, pero el movimiento relativo de ambos se ha representado al revés para facilitar la construcción de la animación).
El baricentro es el punto invisible en el que la acción de la fuerza de gravedad de los diferentes planetas se equilibra, se compensa, por eso también se le conoce como punto de equilibrio de masas.
El punto del baricentro se encuentra situado en el Sol o fuera de él pero, en ese caso, muy próximo, describiendo un movimiento irregular que se reinicia cada 178 años.
El baricentro ocupa una posición "errante", no fija, a causa de las órbitas irregulares de los planetas de mayor masa, Júpiter y Saturno principalmente.
Los flujos de plasma en el Sol que originan los campos magnéticos, se ven afectados por la posición del baricentro. Por esta razón, en unos ciclos el campo magnético creado es más activo que en otros.

Pero ninguna de estas noticias aparecerá en la prensa, radio y  tv.

Solo en revistas especializadas; de especialistas para especialistas. La amenaza de ser tildado de negacionista y del consiguiente linchamiento social, profesional y personal surte efecto.
Son numerosos los científicos que perciben que la actitud escéptica o crítica en asuntos relacionados con el Cambio Climático equivale a meter la mano en un avispero y optan por el prudente silencio, mientras siguen trabajando y publicando en las revistas especializadas de su sector.
Es comprensible.

Mientras tanto, en París, sigue la colecta de fondos (eso sí, fondos verdes); he oído en el informativo de las 19:00 que China compromete 65.000 millones de euros para ser invertidos en África.
Imagino los nerviosos movimientos de empresas y organizaciones para ir tomando posiciones que les permitan acceder a esos fondos destinados (en primera intención) a los proyectos de adaptación para hacer frente a los impactos del Calentamiento Global. Surgen nuevos mercados y surgen nuevos negocios. Las medidas de mitigación harán surgir una nueva fiscalidad y fuentes de financiación para los estados. Todo será aceptado por el ciudadano con resignación y emoción; al final. se trata de salvar el planeta.
Espero con curiosidad el momento de ver en los medios de comunicación la información que precise el empleo de esos fondos y el organismo encargado de supervisar su correcto uso y justificación, en lugar de las noticias alarmistas con la estatua de la Libertad cubierta por el mar hasta el cuello.

Quizás algo sea empleado en hacer frente al auténtico problema ambiental global: el problema de la contaminación de los sistemas naturales del planeta, los suelos, el aire y aguas de continentes y océanos.
No estaría nada mal. Aunque la temperatura descienda.


  Benjamín Netanyahu tiene un plan para la franja de Gaza.   Iosu Marruedo. Biólogo   ¿Qué pretende Benjamín Netanyahu en la Franja de Gaza?...