jueves, 28 de enero de 2016

2015 ha sido el año más caluroso desde que se tienen registros termométricos, según la NOAA/NASA de los EEUU.
¿En serio?

Según el dato publicado el pasado 19 de enero de 2016 por la NASA y la Administración para el Océano y la Atmósfera NOAA (ambas, agencias gubernamentales) junto con la agencia meteorológica británica MetOffice, 2015 se sitúa como el año más caluroso a escala global desde que se comenzaron a tomar registros termométricos globales continuos, en 1880.
 Ver noticia. Ver noticia en prensa española (1). Ver noticia en prensa española (2).

Para estas agencias, y claro está, para el IPCC y defensores de la Teoría del Cambio Climático, este dato da validez y fiabilidad a sus modelos de proyección climática y confirma la presencia del Calentamiento Global como fenómeno continuo y creciente.
Tal y como afirman, después del récord de 2014, ahora ya tenemos un nuevo récord de temperatura global en el 2015.
Por lo tanto, queda probado que el Calentamiento continua, y que la Teoría del Cambio Climático es correcta; también  los peligros y amenazas que se anuncian en los informes de evaluación de los expertos del clima quedan justificados, así como la financiación que se solicita para abordar los gastos de las medidas de mitigación (reducción de emisiones ) y de adaptación (100.000 millones de dólares para el 2020, según los acuerdos de la pasada Cumbre del Clima en París).

Ante una noticia como esta, ¿puede añadirse algo?
, y no solo puede añadirse algo sino que es necesario añadir algo, como siempre, información significativa que quizás nos sirva para modificar el valor de la noticia y que no encontraremos en los medios de comunicación:

1.- Las agencias responsables de la publicación del dato de temperatura record para 2015, utilizan las bases de datos GISTEMP (NASA), GHCN (NOAA) y HadCRUT4 (Met Office). En todos los casos, los registros de temperatura utilizados proceden de miles de estaciones meteorológicas situadas en superficie, cuyos datos son posteriormente sometidos a diferentes metodologías de interpolación, hasta obtener la temperatura superficial global para cada mes y para el año.

2.- Hay un desacuerdo entre las mediciones realizadas por instrumentos en superficie (termómetros en estaciones meteorológicas) y las mediciones satelitales (continuas desde 1979).
Los satélites siempre registran menor calentamiento que el observado por los instrumentos de superficie; así, para la base de datos UAH, 2015 es tan solo el tercer año más calido, por detrás de 1998 (récord hasta hoy) y 2010. Para la base de datos RSS, 2015 es el cuarto año más cálido.
Para el registro de temperatura satelital (UAH y RSS), el Calentamiento no continua, y desde el máximo observado en 1998 todas las temperaturas globales de los años posteriores han sido menores.
Como ya señalé en una entrada anterior, el IPCC (panel de expertos del Clima, integrado en la ONU) no acepta como válidas las mediciones satelitales y utiliza exclusivamente registros de temperaturas de instrumentos de superficie.

El desacuerdo entre las medidas procedentes de instrumentos de superficie y las procedentes de instrumentos situados en satélites es hoy un hecho no bien comprendido. Confío en que con el paso de los años, la desconfianza mutua entre los usuarios de unas y otras fuentes de datos desaparezca, y que los avances tecnológicos ( unidos al buen hacer ético de los científicos)  vayan acercando los resultados de ambos procedimientos de medición.

3.-  En el pasado meeting de la AGU (American Geophisical Union) celebrado en San Francisco (EEUU, diciembre 2015) Anthony Watts presentó un estudio (ver aquí, sesión A43G-0396 del 17 de diciembre) con el reanálisis y evaluación del impacto provocado por la mala localización de numerosas estaciones meteorológicas utilizadas por NOAA/NASA en sus mediciones de temperatura.

Según Anthony Watts, la utilización de registros de temperatura de estaciones meteorológicas situadas en zonas urbanas o en proximidad de fuentes de calor artificiales tales como edificios, superficies asfaltadas, salidas de ventilación de líneas del metro .....  es la responsable de una exageración en el calentamiento cercana al 30% para el caso de la temperatura en EEUU.
Sirva como ejemplo una de las imágenes aportadas por A. Watts, en la que el sensor de temperatura está completamente rodeado por otras fuentes de calor no naturales (edificios, asfalto, tráfico ...)
Watts afirma que la mala localización de estas estaciones hace que la medida registrada no corresponda con la temperatura atmosférica meteorológica, sino que en gran parte está reflejando el calor emitido por la actividad humana de los núcleos urbanos.
Revisadas estas estaciones mal localizadas y rehaciendo el cálculo de temperatura global una vez purgados los datos considerados espúreos, el incremento de temperatura en los EEUU para 2015 pasa de +0.324 ºC (dato de la NASA/NOAA) a  +0.204 ºC (dato de A. Watts después de eliminar las estaciones meteorológicas de zonas urbanas o próximas a fuentes de calor no naturales).

Para realizar este reanálisis de los datos de NOAA/NASA, Watts utilizó el Sistema de Clasificación de Emplazamientos recientemente aprobado por la World Meteorological Organization (WMO), ideado por Michel Leroy de METEO-France. Según esta clasificación, se caracterizan con más precisión las cualidades y características de las estaciones meteorológicas y la calidad de su ubicación, para que puedan ser aceptadas como suministradoras de datos "buenos" de la temperatura de superficie.

La denuncia de la inclusión de de estaciones meteorológicas con ubicaciones de mala calidad en el suministro de datos para NASA/NOAA no es nueva, sin embargo, las agencias responsables las siguen manteniendo como suministradoras de datos fiables, aunque estas estaciones no cumplen los criterios de calidad de la WMO. Entonces , ¿por que no las suprimen?.

La sospecha de que este fenómeno de interferencia y sobrecalentamiento en las mediciones, estudiado y evaluado por Anthony Watts para los EEUU, esté presente en otras regiones del mundo y afecte a otras bases de datos (como la HADCrut4 ), es cada vez mayor (pero por ahora, no se ha realizado para Europa un trabajo tan preciso como el reanálisis de Watts ).

4.- En la noticia original (en inglés) junto con los datos de variación de temperatura se menciona la acción de otros factores naturales contribuyentes del calentamiento, como el intenso episodio de "El Niño" que todavía sigue activo en el océano Pacífico; si bien se elude cuantificar el peso de las causas naturales en el calentamiento registrado, de alguna manera en la noticia original se acepta que parte del calentamiento del 2015 pudiera tener causa natural.
En la prensa española no todos los medios recogen la presencia de causas naturales; sí lo refleja brevemente el diario ABC, pero por ej. el diario El Mundo .... no añade ninguna información complementaria ni matiz alguno; solo se dice que el calentamiento continúa.

Para poder evaluar el sentido del Cambio Climático (calentamiento o enfriamiento) y su dimensión (¿cuanto enfría o calienta por década/siglo?) es de gran importancia la buena gestión de las bases de datos y la mejora de la calidad de los registros de temperatura.

Pero además, teniendo en cuenta que en la actualidad la mayor parte de la financiación pública para investigación en ciencias del Clima y del Medio Ambiente se está realizando en el contexto de probar la Teoría del Calentamiento Global (la financiación en investigación del protagonismo e interacciones de otros agentes naturales es casi nula) debemos reconocer que los investigadores que informan sobre el problema (el calentamiento global) han acabado en convertirse en parte del problema a causa de los intereses creados al recibir financiación para probar el calentamiento.
Si resultara que el Calentamiento cesa o bien fuera de una dimensión reducida o se debiera en su mayor parte a causas naturales, muchos proyectos de investigación y numerosos científicos podrían ver comprometida su línea de financiación y su futuro.
Tan solo el buen hacer del trabajo de los científicos, su buena ética y el contraste racional con datos verificables podrán evitar que la Ciencia sea manipulada y sustituida por un debate ideológico interminable (y a veces violento) o por una inútil exhibición de emociones (por favor, ! no mas "intelectuales" leyendo manifiestos en la tv ¡).

Por ahora, la verificación y reanálisis de datos realizados por Anthony Watts sobre las afirmaciones de las agencias gubernamentales de EEUU (NASA y NOAA) hace que estas no queden en buen lugar y que su afirmación de que el año 2015 sea el más cálido desde 1880 no pueda ser considerada  como cierta.

Recuerda:
No es lo mismo Calentamiento climático que Contaminación de agua, aire y suelos (auténtico problema global).
No es lo mismo un problema ambiental que un problema energético (diferentes causas, diferentes procesos, diferentes respuestas).
No es lo mismo gato que liebre.










sábado, 23 de enero de 2016

¿Cual es la causa del calentamiento producido durante los eventos de "El Niño?

Con motivo del intenso episodio de "El Niño" que se está desarrollando desde 2015 y que continúa todavía durante 2016, considero que este podría ser un buen momento para plantear la cuestión:

¿Que es lo que hace aumentar la temperatura global durante los episodios de "El Niño"?

De todos es sabido que la causa principal estaría relacionada con el Sol, ya que la energía solar es la principal fuente de energía para el sistema climático. Pero  lo que no es tan fácil de explicar es por qué los años de "El Niño" son tan inusualmente cálidos y los de "La Niña" son tan inusualmente fríos.

La respuesta habría que buscarla en la circulación del Océano Pacífico, más en concreto, en la circulación vertical de esa cuenca oceánica.
Debemos tener en cuenta que la mayor parte de la profundidad de los océanos del mundo es muy fría (1ºC , 2ºC) incluso en las zonas tropicales. Solo las capas cercanas a la superficie son cálidas, estando el resto de las profundidades del océano lleno de agua que se enfrió en latitudes más altas y que se hundió al tener más densidad.


El siguiente vídeo muestra el estado actual del cinturón de convección oceánica, uno de los más importantes mecanismos terrestres para la regulación térmica del planeta, llevando calor a las zonas frías y refrescando las de mayor irradiación solar.

Esto nos lleva a la interesante observación de que la temperatura media de masa ponderada del Sistema Climático es realmente muy fría.
Este estado de superficie caliente (por irradiación solar) y profundidades frías presenta continuas interacciones de compensación, fundamentalmente por medio de procesos verticales de mezcla (inducida por los vientos alisios, por las corrientes de marea, por la topografía del fondo marino ....).

Cuando estos procesos de mezcla se ralentizan (lo que ocurre durante durante "El Niño") las aguas superficiales (principalmente las superiores a 100 m) alcanzan temperaturas más elevadas que lo normal.
Al mismo tiempo, las capas por debajo de los 100 m. (100 m es la profundidad global media que separa el mundo de aguas cálidas del mundo de aguas frías) se vuelven más frías de lo normal.

En cierto sentido, las profundidades del océano se comportan como un sistema de aire acondicionado para el Clima del planeta y puede decirse que durante los episodios de "El Niño", este sistema de aire acondicionado funciona a muy baja intensidad y no es capaz de refrescar la atmósfera.
Sin embargo, durante los episodios de "La Niña" el sistema de aire acondicionado trabajaría al máximo de su capacidad, provocando un enfriamiento de la temperatura media global.

Durante "El Niño", las grandes tasas de evaporación de la superficie oceánica caliente causan aumento de condensación-precipitación, transfiriéndose calor a la atmósfera. Esto se produce inicialmente en los trópicos, donde la ralentización de la circulación oceánica es mayor, pero luego se extiende también a latitudes altas. 
El calentamiento no es uniforme, por supuesto, y algunas regiones pueden experimentar descensos respecto a la temperatura media de referencia ... pero durante "El Niño" el promedio global es de calentamiento.

En la Tabla 1. podemos ver la evolución mensual de la temperatura durante el año 2015.
Tabla 1.
Podemos observar (en azul) que es en los trópicos donde se ha producido la mayor parte del calentamiento, en especial, durante la segunda mitad del 2015.
A gran escala, la causa del calentamiento provocado por "El Niño" sigue siendo la reducción de la mezcla vertical global de las aguas cálidas superficiales con las aguas profundas frías que deberían aflorar desde el fondo oceánico. 
A medida que se desarrolla "El Niño" también se produce un aumento de la entrada de energía de radiación (solar) en el Sistema Climático global debido principalmente a una pequeña disminución de la cubierta de nubes bajas (y disminución del albedo global terrestre) asociada a los cambios de circulación atmosférica durante "El Niño".
 Durante "La Niña" ocurre a la inversa, aumentando la cobertura nubosa global y el enfriamiento de la superficie.
Los picos o máximos de calor suelen estar desplazados unos 9 meses respecto al inicio del proceso de ralentización de la mezcla vertical oceánica.
Los equipos que trabajan en la monitorización de los fenómenos "El Niño"/"La Niña" han observado también que cuando un episodio de "El Niño" tiene una duración superior a un año, en el segundo año el calentamiento suele ser algo mayor, lo que significa que en 2016 las temperaturas medias mensuales pueden ser mayores que las de la segunda mitad de 2015, salvo que el episodio finalice, iniciándose en este caso un enfriamiento global.

Por lo tanto si el Sistema Climático pasa por un período de varias décadas de aumento de la actividad de "El Niño" y disminución de la actividad de "La Niña", (como ya ocurrió el pasado siglo durante la década de los 70) debería aceptarse la existencia de una tendencia hacia el calentamiento de causa natural

Quiero hacer recordar que para el IPCC , ningún agente natural conocido puede justificar el actual calentamiento; para sus especialistas, solo las emisiones de gases de efecto invernadero, provocadas por la actividad humana, pueden justificar la evolución de la temperatura superficial observada. Y aunque esta temperatura superficial observada muestre un calentamiento siempre menor que el pronosticado en sus modelos de simulación, centran todos sus esfuerzos y recursos en reunir pruebas de cargo contra el CO2, menospreciando y desestimando otras líneas de investigación. 

LLegados a este punto, discernir y cuantificar la importancia de las causas naturales y las causas antrópicas (calentamiento forzado por la actividad humana) de esta etapa de calentamiento iniciada en la década de los 70 del pasado siglo, se nos presenta como una tarea pendiente de muy difícil ejecución, ya que no podemos observar el planeta con un Sistema Clima sin huella de actividad humana, para así poder compararlo con un escenario afectado solo por agentes naturales. 
Esto resolvería de una vez para siempre la incertidumbre sobre el protagonismo real que las emisiones de CO2 ( y otros ..) tienen sobre la evolución del Clima en la Tierra.
Como alternativa, nos queda la oportunidad de seguir construyendo series de datos de observación cada vez más completas y realizar también el oportuno y necesario contraste con la evidencia de las oscilaciones climáticas.

Pero esto es un proceso lento, ya que se necesitan periodos no inferiores a 30 años para poder hablar de "tendencias climáticas" (recuerda que el clima nos informa del estado medio de la atmósfera mantenido durante un largo periodo de tiempo) y ahora, transcurridos 35 años del inicio de la fase de calentamiento, apenas nos encontramos con las primeras iniciativas y oportunidades para poder evaluar la validez de la Teoría del Cambio Climático.
Espero con curiosidad e interés (si la salud lo permite) el discurrir de los próximos 5 años; comprobaremos la eficacia de los acuerdos de la reciente Cumbre del Clima de París, observaremos directamente el efecto sobre el Sistema Clima del decaimiento sostenido de la actividad magnética del Sol (que ya se ha iniciado) y con toda probabilidad, veremos la importancia de las consecuencias de al menos un episodio "La Niña" .
Y compararemos la evidencia observada con la proyección de futuro elaborada por el IPCC en sus modelos climáticos y publicado en su quinto informe de evaluación en 2014.
Es decir, ciencia racional.
Que nadie se lo pierda.




martes, 22 de diciembre de 2015

Exploradores en el Ártico en el siglo XIX. ¿El Ártico se funde?

Este es un resumen del artículo de los investigadores James E.Overland y Kevin Wood  en el  que muestran el uso de instrumentos y registros históricos descriptivos para probar la certeza de la hipótesis de que las condiciones ambientales observadas por los exploradores del siglo XIX  en el archipiélago canadiense fueron consistentes con una Pequeña Edad de Hielo tal y como es sugerido en conclusiones de otras reconstrucciones climáticas (metodología de estratigrafía de núcleos de hielo) y aceptado  por los defensores de la Teoría del Cambio Climático.
Concluyen que de los testimonios y registros de los exploradores se deduce poca evidencia de frío extremo y proporcionan una reconstrucción climática disconforme con la obtenida por medio de la estratigrafía de núcleos de hielo (la aceptada por el IPCC de la ONU). 
En la actualidad, y dentro del contexto alarmista de las noticias relacionadas con el Cambio Climático, la disminución de la masa de hielo en el Ártico se presenta con frecuencia como un acontecimiento excepcional y catastrófico, consecuencia de las elevadas emisiones de CO2 de los últimos 80 años.
Pero  de la lectura de los registros históricos de los exploradores árticos del siglo XIX se deduce que la disminución de la masa de hielo ártico no es algo excepcional sino que ya se ha producido en otras épocas (con menos CO2 en la atmósfera que en la actualidad) y que han venido seguidas de  otras fases de recuperación .   
Las expediciones organizadas en el siglo XIX para encontrar un tránsito por el denominado Paso Ártico del Noreste, se percibieron en general como grandes fracasos, como un vana y trágica exploración fallida ; la causa se ha venido atribuyendo a las extraordinarias condiciones de frío asociado a la denominada "Pequeña Edad de Hielo". 
Esa perspectiva había sido reforzada desde 1970, cuando las reconstrucciones del paleoclima basadas en el hielo del Ártico (estratigrafía de núcleos de hielo) parecieron confirmar la existencia de condiciones excepcionalmente frías conforme con  lo que los glaciólogos habían denominado como la "Pequeña Edad de Hielo", con temperaturas más frías que la media de los primeros años del siglo 20 [Koerner, 1977; Koerner y Fisher, 1990; Overpeck et al., 1998].

Sin embargo, el examen de 44 registros de exploradores del Ártico occidental desde 1818-1910 revela que los indicadores del clima tales como:
a) navegabilidad,
b) distribución y espesor de hielo anual del mar
c) temperatura media mesual del aire en superficie, y
d) el inicio de la fusión y congelación 
estaban dentro de la actual gama de variabilidad, entendiendo por "actual" la referencia al periodo 1970-2000..

Si bien existe una amplia literatura sobre el historia de la exploración del Ártico del siglo XIX se ha hecho muy poco uso de observaciones científicas y meteorológicas detalladas compiladas durante muchas expediciones.
Hubo más de setenta expediciones o empresas científicas de diversos tipos enviados al Ártico canadiense en el período comprendido entre 1818 y 1910.
De este número total, se analizaron 44 informes científicos originales y relatos relacionados. 
La mayoría de los datos provienen de grandes expediciones navales, con gran capacidad, que abarcan varios años, con invernadas en el Ártico.

Hemos centrado nuestro análisis en los cuatro indicadores de cambio climático antes citados; a saber: extensión del hielo marino de verano, espesor anual del hielo marino, la temperatura media mensual, y el inicio de la fusión y de congelación como estima de media diaria de temperatura. 
Tanto la extensión del hielo marino y la aparición del inicio de la fusión y congelación se compararon con los del período de referencia de 30 años entre 1971-2000.
Los valores de espesor de hielo (media mensual), se compararon con los del período de 50 años entre 1951-2000.
Es quizás sorprendente que la mayor parte del Paso del Noroeste fuera ya navegado durante el siglo XIX con buques de las diferentes expediciones que quedaron tan solo a 150 km de completar el paso en un buen número de ocasiones.
Figura 1.
La imagen muestra la presencia de hielo en el mar el 10 de septiembre, que es la fecha habitual del mínimo anual de hielo durante el período de referencia 1971-2000 ( según el Servicio Canadiense del hielo, 2002). En varias ocasiones, las expediciones llegaron a menos de 150 km de completar el Paso del noroeste, pero incluso en años con condiciones desfavorables de hielo, la mayoría de los barcos eran todavía capaces de llegar a posiciones relativamente avanzados dentro del archipiélago canadiense. En 1859, ya se habían descubierto todas las posibles rutas que comprenden el Paso del Noroeste.
La mas sorprendente es que, incluso en los años reconocidos como desfavorables (por más fríos), los buques todavía eran capaces de llegar a lugares cuya accesibilidad es semejante a la de las peores condiciones de hielo de la referencia moderna (1971-2000).
De 33 expediciones o suministros de barcos con destino a la parte occidental de Lancaster entre 1819 y 1859, sólo dos fallaron debido a las condiciones del hielo desfavorables.
Dieciocho mediciones de máxima anual del espesor del hielo marino se registraron entre 1819 y 1876; cuatro de ellos son incompletos, porque fueron interrumpidos antes del final de la estación.
De las restantes 14 observaciones, se obtuvo una media (anual) de 215 cm y un máximo de 250 cm.
En la actualidad (datos de la referencia moderna) , las condiciones de hielo para Resolute Bay, Sachs Harbor, y Mould Bay dan una media anual de 199 cm y una máximo en tres estaciones de 248 cm.

Por lo tanto, las observaciones históricas son consistentes con los valores del siglo XX.

Treinta y dos años aproximadamente de series mensuales de temperatura media del aire superficial  se recogieron durante los años comprendidos entre 1819 y 1854, y se comparó con la referencia de 50 años del periodo 1951-2000.
El  63% de los 343 valores de anomalías mensuales de la temperatura caen dentro de una normal desviación de la media de la referencia moderna. 
Los exploradores relatan que encuentran tanto años cálidos como años fríos.
Si bien los datos históricos de los viajes de exploración son intermitentes, tomados en su conjunto, proporcionan una perspectiva valiosa sobre el clima del pasado del Ártico canadiense.

Los exploradores encuentran a la vez temporadas cálidas y temporadas frías, y en general, las condiciones  de hielo que nos recuerdan a las del siglo XX.
La aparición temprana de la congelación en algunos casos representa la mayor aparente diferencia respecto de las condiciones actuales, mientras que el momento de la transición al estado fundido en la primavera mostró poco cambio respecto el presente.
Si hubiera habido un cambio en la media de la temperatura del aire de verano de la magnitud del sugerido por el método de estratigrafía en núcleos de hielo (isla de Devon), las indicaciones de  más frío  habrían sido detectados en nuestra análisis. 
Los relatos y registros de los exploradores no avalan los resultados de reconstrucción de temperaturas por estratigrafía de núcleo de hielo.

Por último, debemos señalar que es engañoso afirmar que no se encontró el Paso del Noroeste y que el el fracaso se debió a un clima adverso extraordinariamente frío.
De hecho, todas las rutas posibles que componen el Paso del Noroeste fueron descubiertos, y casi
toda la costa laberíntica fue asignada durante este periodo.
Un resultado de navegación similar podría obtenerse hoy dentro de los límites de navegación en las condiciones presentes.

Figura. 2. 
Los exploradores encontraron ambas condiciones representadas en los dibujos, en la isla de Beechey:  poco hielo (1850) y mucho hielo (1853).

El estado de hielo favorable y desfavorable en las proximidades de la isla de Beechey ilustran la gama de condiciones de hielo en diferentes años.
La Figura A ilustra la situación de la H.M.S. Resolute y el vapor Pioneer el 5 de septiembre 1850 [tomado de Facsímil del Ártico, Illustrated News, cortesía de Elmer E.Rasmuson Biblioteca, Univ. de Alaska- Fairbanks].
La Figura B muestra el H.M.S. Breadalbane y el vapor Phoenix atrapados en el banco de hielo el 21 de agosto 1853.
El Phoenix escapó, pero el Breadalbane fue aplastado por la presión del hielo y se hundió (Archivos Nacionales de Canadá, el número de acceso 1989-399-4).

Referencias:
Bradley,R. S. and P.D. Jones,“Little Ice Age”summer temperature variations:Their nature and relevance to recent global warming trends,The Holocene,3, 367–376, 1993.
Jones,P.D. and K. R. Briffa,The “Little Ice Age”: Local and global perspectives, Climatic Change,48, 5–8, 2001.
Koerner,R. M.,Devon Island ice cap: Core stratigraphy and paleoclimate, Science,196, 15–18, 1977.
Koerner,R.M. and D.A. Fisher,A record of Holocene summer climate from a Canadian high-Arctic ice core, Nature,343, 630–631, 1990.
Neatby, L. H., In quest of the North West Passage,pp. 135–136, Longmans,Toronto, 1958.
Oglvie,A.E. J., and T. Jónsson,“Little Ice Age” research:A perspective from Iceland, Climatic
Change, 48, 9–52, 2001.
Overpeck, J. et al.,Arctic environmental change of the last four centuries,Science,278,1251–1256,1998.

Información del autor de la fuente original:
James E.Overland, Pacific Marine Environmental Laboratory/NOAA, Seattle,Wash., and Kevin Wood , Arctic Research Office/NOAA, Silver Spring,Md.














domingo, 20 de diciembre de 2015

Cambio Climático: el polémico asunto de la medición de la temperatura global de la superficie de la Tierra.
Iosu Marruedo. Biólogo


¿Como se determina la Temperatura superficial  media anual en el planeta? 
La obtención de un único número que caracterice la temperatura media superficial (anual) es una operación compleja y de significado desconcertante para el ciudadano, pues puede ocurrir que no corresponda con su "experiencia vital local".
Pensemos que la variabilidad de temperatura para un mismo día, en un mismo lugar, puede oscilar fácilmente entre 2º C y 16º C (por ej. un día normal de otoño en Pamplona, Navarra). También durante un mismo día en diferentes lugares de la Tierra; así, por ej.,  el 10 de agosto de 2010 en la Antártida se registró una temperatura de - 93.2ºC cuando en Trinidad (Bolivia) era de  + 28ºC.
La temperatura superficial terrestre es una magnitud extremadamente variable: varía en un mismo día, varía de un lugar a otro y de un año a otro.
Su valor medio, es útil solo cuando se contempla por "el retrovisor", cuando pasados un buen número de años podemos mirar hacia atrás y observar la tendencia o comportamiento medio global durante esos años (nunca menos de 25-30 años).
Obtener un único valor de temperatura representativo de toda la superficie del planeta requiere el manejo de cientos de miles de datos, procedentes de todos los puntos de la Tierra, correspondientes a los 365 días de cada año, durante una larga serie de años.

Para conseguirlo, son dos los elementos necesarios:
1) Un instrumento de medición de la temperatura. En la actualidad, se utilizan principalmente dos tipos de instrumentos de medida: los instalados en estaciones meteorológicas terrestres continentales (termómetros)  y a bordo de barcos (para datos de la superficie oceánica), y los instalados en satélites que orbitan alrededor de la Tierra. Estos últimos llevan a bordo termómetros de precisión (resistencia redundante de platino) calibrados en el laboratorio antes de su lanzamiento.
2) Una metodología para el tratamiento estadístico de los cientos de miles de datos recogidos. Esta es quizás la parte más polémica o más frágil del complicado proceso de obtención de la Temperatura superficial global anual.
Dicho de otra manera: es posible que de un mismo conjunto de datos, dependiendo del tratamiento estadístico aplicado (decisión que adopta en cada caso el equipo de trabajo correspondiente) se obtengan resultados diferentes. Es por esto que suele ser frecuente el fuego cruzado de críticas y acusaciones de manipulación de datos entre los diferentes equipos (diferentes metodologías) que ofrecen información de la Temperatura Global..

Existen cinco registros o bases de datos oficiales para la medición de la Temperatura global de la superficial terrestre.
Tres de estas bases de datos se nutren de mediciones por instrumentos situados en la superficie de la Tierra (estaciones meteorológicas y barcos). Hay registros directos (termométricos) fiables desde 1850. Esta tres Bases de Datos son:

a) Base de datos del Instituto Goddard de Estudios Espaciales , NASA,  con datos procedentes de 6300 estaciones meteorológicas (GISTEMP  NASA).
b) Base de Datos de la Unidad de Investigación del Clima de la Universidad de East Anglia, corazón del IPCC  de la ONU (las últimas versiones de estas bases de datos son HadCRUT3 y HadCRUT4).
c) Base de Datos de la Administración Oceánica y Atmosférica de EEUU, ( GHCN  NOAA).

Suele haber diferencias entre el resultado presentado por estas tres bases de datos, debido fundamentalmente a que emplean diferente número de estaciones meteorológicas, con diferente localización y también emplean diferente metodología para la interpolación de los datos.

La imagen siguientes muestran un ejemplo de estas diferencias; vemos el resultado del GISS-NASA en rojo comparado con el del equipo del Hadley Centre (HadCRUT) en azul y con la versión del NOAA en verde. Se compara además con la versión de la Agencia Meteorológica del Japón, línea en morado.
La línea horizontal de referencia 0.0 corresponde al valor medio de temperatura durante el periodo 1951-1980.


Figura 1.
Las otras dos bases de datos registran mediciones realizadas por instrumentos situados en satélites; existe registro satelital continuo desde 1978:
d) Base de datos Sistemas de Teledetección RSS MSU , en California.
e) Base de Datos del Clima en la Universidad de Alabama en Huntsville, (UAH).

También existen diferencias entre los resultados presentados por RSS MSU y UAH, procedentes fundamentalmente de los diferentes algoritmos y procesos de conversión de la lectura del sensor instalado en el satélite en temperatura del aire (en realidad, lo que el satélite mide es la emisión de microondas de las moléculas de oxígeno de la atmósfera, que es función de la temperatura del aire; este valor de emisión del oxígeno debe convertirse en temperatura del aire).
En las imágenes siguientes (Figura 2. y 3.) podemos ver la versión del equipo UAH (Roy Spencer y John Christy) y la de RSS MSU (Mears) de California:
Figura2. 


Figura 3.

Pero cuando constatamos que las diferencias son mayores es cuando comparamos el resultado de las mediciones instrumentales (termométricas) con el de las satelitales (RSS MSU y UAH)..

¿Cuales son estas diferencias y qué importancia tienen?
1.- Las mediciones satelitales registran casi siempre temperaturas menores que las mediciones basadas en interpolación de los datos de estaciones meteorológicas en superficie.
2.- Entre las dos mediciones satelitales, la base UAH presenta menor tendencia global que la base RSS MSU.
3.- También muestran un área de enfriamiento para altas latitudes en el Hemisferio sur; muestran que el calentamiento no es homogéneo.
4.- Hay discrepancias entre UAH y RSS para ciertas áreas sobre el ecuador y Australia, en las que UAH registra enfriamiento y RSS calentamiento.
5.-  Las mediciones satelitales muestran una etapa de fuerte calentamiento entre los años 1993-1998 y una etapa de estabilización hasta 2014. Según UAH  y RSS, el calentamiento no es global y no es continuo.
Para los instrumentos situados en satélites, el año más caliente fue 1998; desde entonces la temperatura se ha estabilizado, desapareciendo el calentamiento hasta la primavera de 2015, cuando el intenso episodio de "El Niño" que todavía está activo provoca una nueva subida de temperatura.
6.- Para la UAH, 2015 es solo el tercer año más caliente, después de 1998 y 2010. Sin embargo para la NASA y para Hadley Centre, 2015 ha sido el año más caliente.
7.- Para el registro por satélite, durante el período comprendido entre octubre 1996 octubre 2014 la tendencia de variabilidad ha sido cero. Es lo que se ha denominado "la pausa" (18 años de pausa en el calentamiento), que podemos ver en la imagen siguiente.
Figura 4.
El IPCC (panel de expertos de la ONU) no acepta los resultados basado en mediciones satelitales; pese a que estos ofrecen mayor cobertura global (desde 1979) cubriendo una mayor superficie de la Tierra (continentes y océanos) y registran series continuas de datos también en vertical (baja troposfera, media y alta troposfera).

Críticas hacia las mediciones satelitales:
Proceden fundamentalmente de los promotores y defensores de la Teoría del Cambio Climático.
Aducen que los algoritmos empleados en la conversión de datos y su interpolación son erróneos y que, sobre todo, el efecto de las masas de nubes distorsiona el valor real de temperatura en superficie, haciendo que estas aparezcan con valores menores que los registrados en estaciones meteorológicas.
Algunas de las personas que trabajan en esos equipos son tachadas de "negacionistas" con intereses espúreos.

Críticas hacia las mediciones con instrumentos de superficie (termométricas):
Proceden de los sectores de Ciencia escéptica con la Teoría del Cambio Climático.
Argumentan, por ejemplo, que en esas Bases de Datos existen amplias regiones de la superficie del planeta poco o nada representadas (especialmente la superficie oceánica) cuando otras, en cambio, lo están en exceso.
Se les atribuye una selección sesgada o intencionada de las estaciones meteorológicas utilizadas para el suministro de los datos, abundando las cercanas a grandes núcleos de población, donde por efecto de la "isla urbana de calor" (calor emitido por la propia ciudad) los registros siempre tienden a indicar calentamiento.

Así mismo, expresan desconfianza hacia los métodos de interpolación de datos empleados, con acusaciones de "cocinado" de datos (ver imagen de la izquierda), es decir, manipulación del tratamiento estadístico hasta lograr el resultado previamente esperado (hasta demostrar que existe una etapa de calentamiento global sostenido).

Esta última acusación se ha revitalizado como consecuencia de la modificación de la Base de Datos HardCRUT3 de la Universidad de East Anglia (el IPCC de la ONU) para dar lugar a la versión HardCRUT4.
Me explicaré:
Los 18 años de no calentamiento (octubre1996-0ctubre2014) conocidos como "la pausa" (Figura 4.) desconcertaron enormemente a los miembros del IPCC y comunidad de partidarios de la Teoría del Calentamiento Global. Nadie lo esperaba.
En la revista Investigación y Ciencia de junio de 2014, se publica una entrevista anterior con uno de los representantes más destacados del IPCC, Michael E. Mann, quien reconocía la existencia de un parón en el calentamiento; atribuía ese fenómeno (que no fueron capaces de predecir en el informe del IPCC de 2001) a un comportamiento inesperado del Sol y sobre todo, a la erupción del volcán islandés Eyjafjallajökull en 2010.
A continuación afirmaba: .. "pero el calentamiento regresará"...

La dichosa "pausa" era una molesta espina clavada en el corazón del IPCC. Sus modelos de proyección del futuro climático del planeta contenidos en el informe del año 2001 habían fallado estrepitosamente; ya que no habían sabido ver lo que sucedería en los próximos 13 años, todas las proyecciones a más largo plazo quedaban invalidadas. La valía de su modelo informático de proyección  quedaba muy dañada.
Pero todo se arregló en marzo de 2012; el director del Cru, Phil Jones, explicó que ... " HadCRUT se basa en observaciones y nos hemos dado cuenta que en años anteriores (anteriores a 2010) los datos del Ártico no se han capturado de manera integral debido a los pocos datos que se tienen de esa zona. Hemos realizado una nueva versión de la base de datos , HardCRUT4, en la que se han incluido más de 400 estaciones a lo largo del Ártico, Rusia y Canadá"...

Es decir, si se aumenta la representación o peso de las estaciones de lugares fríos para recalcular la temperatura de los primeros años del s. XXI, , la línea horizontal que indica tendencia cero desciende por el extremo izquierdo y aparece nuevamente como una pendiente ascendente hacia la derecha.
Y ya está ....  todo arreglado!; la pausa no existía, era un artefacto, una interferencia provocada por un error de captura e interpolación de datos. Nosotros, los del IPCC, teníamos razón y el calentamiento sigue siendo una realidad, tal y como nuestro modelo de proyección viene asegurando. Y todos contentos en el IPCC, la Teoría del Calentamiento Global sigue viva.

Pero claro está, en otros sectores de la ciencia del Clima, en otros equipos que trabajan con las otras bases de datos el asunto no ha pasado desapercibido y ha crecido el recelo y la desconfianza hacia HadCRUT.

Mientras tanto, esta es la evolución de la concentración de CO2 en la atmósfera comparada con la variación de temperatura global según la base de datos UAH y datos reconstruidos anteriores a 1979
(el valor 0.0 en el eje vertical izquierdo expresa la temperatura media en el período 1981-2010):
Figura 5.
Se pueden distinguir tres etapas:
Una primera parte entre 1960-1979 de escasa correlación temperatura-CO2.
Una segunda, 1980-2002 con buena correlación entre temperatura y CO2, y
Una tercera parte 2003-2014 de escasa correlación.

El núcleo central de la Teoría del Cambio Climático contiene dos enunciados:
1.- Desde la década de los 70 del pasado siglo, el planeta está inmerso en una etapa de calentamiento global rápido y sostenido.
2.- La causa de este calentamiento es el incremento de las emisiones de CO2 (y otros gases de efecto invernadero) procedentes de la actividad humana.

La medición y determinación de la temperatura global, contenido de esta entrada, afecta al primero de los dos enunciados. Aceptando la evidencia del calentamiento, vemos que hay diferentes estimaciones según la base de datos y metodología de trabajo utilizados para interpolación: ¿es global o no?, ¿es continuo o no? ¿cual es el ritmo de variación por década? ¿es un problema grave o leve? o ¿ni tan siquiera es problema?.

La causa del calentamiento para el IPCC de la ONU ha estado clara desde el principio: es el incremento de CO2 atmosférico. Siempre han afirmado que no puede ser ninguna otra cosa; por lo tanto, nunca han buscado "otra cosa", se han limitado a trabajar para reforzar todo aquello que señale la culpabilidad del CO2. Y cuando aparece alguna evidencia incómoda, se silencia, se suprime o se retoca.

Cuanto del calentamiento es debido a la variabilidad natural del clima y cuanto al CO2 emitido por la actividad humana es una pregunta tabú para el IPCC. Quien la haga será inmediatamente tachado de negacionista.
Afortunadamente, son numerosos los científicos (escépticos por ser científicos) que investigan la probable interacción de otras causas: así por ej.
a) el equipo de Roy Spencer  lleva años trabajando sobre la influencia en la variabilidad climática de la oscilación ENSO-El Niño y sobre los patrones de condensación nubosa,
b) los grupos de trabajo que estudian la oscilación de la actividad solar y las variaciones de su campo magnétcio
c) los investigadores en paleoclima que intentan mejorar el conocimiento del Clima en el pasado, y que así, actuando por homología, quizás podamos mejorar la comprensión del Clima presente y futuro  .....

¿Quien tiene razón?¿Cual es la medición correcta?
Difícil es saberlo, pero si atendemos a la opinión pública, he de reconocer que la Teoría del Calentamiento Global ha tenido un éxito insuperable (es la versión del IPCC, con la base de datos HadCRUT4) y se presenta como verdad indiscutible con amplio consenso a su favor:" el calentamiento global es una evidencia incuestionable, el planeta está afectado por una etapa de rápido y sostenido aumento de la temperatura provocado por las actividades humanas".  
Las demás versiones, matices .....  no aparecen en los medios de comunicación.

Pero si tenemos en cuenta que la opinión pública suele ser igual a la opinión publicada, el famoso consenso que respalda la versión HadCRUT4 y que patrocina el IPCC de la ONU, aparece como algo mucho más frágil. Los consensos científicos se establecen sobre el debate entre argumentos diferentes; y aquí no hay debate, solo verdad única (la del IPCC)  y mucha ideología.

Así no se construyen los consensos, así se construyen los dogmas.






viernes, 4 de diciembre de 2015

En la Cumbre del Clima de París no se ponen al Sol 


Mojib Latif  es un científico del Instituto Leibniz de Ciencias Marinas, en Kiel (Alemania); estudia los procesos de calentamiento y enfriamiento de las masas de agua oceánica profundas y es, además, autor colaborador para el IPCC.  En la Conferencia Mundial sobre el Clima, en Ginebra, a principios de setiembre de 2009 advirtió:
  ..."en los próximos años, una tendencia de enfriamiento natural dominará sobre el calentamiento causado por los seres humanos" .... "La gente dirá entonces que  el calentamiento global está desapareciendo; yo no soy un escéptico climático pero tenemos que hacernos las preguntas incómodas nosotros mismos, para intentar comprender mejor el comportamiento del Clima"....

El Dr. Habibullo I. Abdussamatov, es el director del Observatorio Astronómico de Pulkovo (San Petesburgo, Rusia); en febrero de 2012 publicó  un artículo en la revista Applied Physics Research
en el que anuncia una etapa de clima frío para el año 2050, con una lenta transición desde los años 2015-2016 (estos serían los años finales de la etapa cálida).

Dean Pesnell, es científico del Observatorio Dinámico Solar (SDO) de la NASA; ha realizado unas declaraciones en National Geographic, explicando la cada vez mayor certeza en la llegada de una etapa de letargo solar, (periodo de baja actividad magnética en el Sol) que causará un descenso de la temperatura media global. Añade  ...."no creo que los efectos de este enfriamiento vayan a ser especialmente graves, ya que será atenuado por las cantidades de CO2 y metano que el ser humano ha emitido a la atmósfera en los 60 años precedentes" ...

¿Qué  pensarán estas personas de lo que se está diciendo en los medios de comunicación sobre el futuro climático del planeta?. Me pregunto también si ellos habrán acudido a París y si estarán participando en las ponencias y sesiones de trabajo.

Los tres ( y sus equipos de trabajo) son físicos del clima y los tres afirman (desde investigaciones independientes diferentes) que la actividad magnética del Sol se dirige hacia un periodo de mínimo o "letargo solar", durante el cual el campo magnético presenta valores de intensidad muy bajos.
Los tres están de acuerdo en que vivimos los últimos años de una fase climática cálida, que serán desplazados paulatinamente por años con temperaturas cada vez más bajas, hasta entrar en una etapa de enfriamiento global, que será percibida claramente desde 2019-2020.
No están de acuerdo en la duración y la intensidad de este enfriamiento global. Según los casos, la bajada de temperatura puede estar entre 2 ºC - 4 ºC , manteniéndose durante 14 años (en el caso más optimista) o durante varias décadas (según el Dr. Abdussamatov, quien presenta un enfriamiento más sostenido).
Este proceso (ya iniciado) que conduce al planeta hacia una época fría, es explicado de la siguiente manera:

La mayor parte de la energía entrante en la Atmósfera terrestre (99,3%) procede del Sol.
La fusión nuclear del Hidrógeno en nuestra estrella libera inmensas cantidades de energía en forma de ondas (radiación electromagnética) y partículas (protones, neutrones  ...) que son emitidos hacia el espacio en todas las direcciones. Una muy pequeña parte de esta emisión solar ("viento solar") hace diana en nuestro planeta y lo calienta.
Pero el nivel de actividad solar no es constante; a lo largo del tiempo se registran pequeñas oscilaciones en la cantidad de energía emitida  (variabilidad media   +/- 0.12%).
Existe un consenso amplio en aceptar que estas variaciones de energía emitida no tienen gran influencia en la temperatura superficial terrestre.

Pero el Sol nos guarda otra sorpresa: el comportamiento de su campo magnético.
Nuestro Sol es una bola de plasma de casi millón y medio de kilómetros de diámetro; y el plasma no es más que gas (fundamentalmente hidrógeno) cargado eléctricamente.
Cuando una carga eléctrica se mueve, genera un campo magnético, y como el sol en su totalidad es gas con carga eléctrica, se genera un campo magnético en todo su volumen.(Ver video ).

Debido a que el Sol es un sistema en rotación, no rígido, las líneas de fuerza del campo magnético se doblan, estiran y retuercen pues  el plasma de los polos gira a diferente velocidad que el del ecuador.

A veces el plasma se acumula alrededor de las invisibles líneas del campo magnético, haciéndolo entonces visible, como finos bucles de filamentos. (Vídeo)

La temperatura de la superficie del sol es de 6.000 ºC, pero en las zonas donde las líneas del campo se entrecruzan, retuercen e interactúan, la temperatura baja a 3.000-4.000 ºC, apreciándose como zonas menos brillantes, relativamente más oscuras, por lo que se les denomina "manchas solares."
Hoy sabemos que el Sol genera un nuevo flujo magnético cerca de sus polos cada 11 años, y constituye un nuevo campo cuyos polos magnéticos emigran lentamente hacia hacia el ecuador hasta invertir sus polaridades magnéticas.
Cuando el movimiento de migración del flujo magnético alcanza una latitud de 23º, la torsión de las líneas de campo es suficiente para iniciar la formación de manchas solares.
El número de manchas solares está pues relacionado con la intensidad y el estado del campo magnético solar, que cíclicamente se rehace cada 11 años (+/- 2).

Campos intensos provocan numerosas manchas solares. Los campos magnéticos débiles no son capaces de generar manchas solares, presentando el Sol una superficie homogénea, libre de manchas. 

Existe un registro continuado del número de manchas solares observadas en el Sol desde el año 1700, aunque el ciclo nº 1 corresponde al del año 1755; el ciclo actual es el nº 24.

Heinrich Schwabe fue el primero que observó la variación cíclica del numero de manchas entre 1826 y 1843. Esto animó a Rudolf Wolf a realizar observaciones sistemáticas que comienzan en 1848. En la imagen siguiente podemos ver la oscilación del número de manchas de los ciclos solares nº 1 (1755) hasta el actual nº 24.
A simple vista reconocemos que los flujos magnéticos de los diferentes ciclos  tienen diferente intensidad (actividad magnética) . Ciclos de gran actividad (como el nº 19 , 1954-65) han producido gran número de manchas, y a la inversa.

Hoy creemos que cuando la actividad magnética es baja, y no se observan manchas, los planetas del sistema solar quedan más expuestos ante la radiación cósmica procedente del fondo de nuestra galaxia.
El campo magnético solar (Heliosphera) realiza una función protectora de los planetas albergados en su interior; como si fuera un gran paraguas, rechaza los rayos cósmicos (partículas subatómicas, de alta energía, que se desplazan a velocidades próximas a la de la luz), impidiendo que penetren al interior del sistema solar.


Sin este paraguas protector (ver vídeo ), la radiación cósmica penetra con más facilidad; así, las partículas cósmicas llegan a la parte alta de nuestra atmósfera, interaccionando con sus gases y provocando el aumento de la condensación y formación de nubosidad.
La superficie de la Tierra se ensombrece y una mayor cantidad de energía solar es reflejada al espacio. La consecuencia es el enfriamiento del Clima de la Tierra.

Períodos de baja actividad magnética del Sol han ocurrido ya con anterioridad; entre los años 1645-1715 se produjo el primer mínimo solar bien documentado, el mínimo de Maunder (en honor al astrónomo Edward Maunder); entre 1640-1680, se observaron tan solo 7 manchas solares, cuando lo habitual en periodos de actividad magnética hubiera sido varios miles. Coincidió con una larga etapa de clima frío en Europa.
El segundo (no tan acusado como el anterior) se produjo entre 1790-1830, el mínimo de Dalton (en honor al meteorólogo inglés John Dalton).
Desde principios del siglo XIV hasta finales del XIX, el clima fue predominantemente frío; se distinguen tres "pulsos fríos" separados por dos interrupciones en las que las temperaturas se recuperaron en cierta medida. Es lo que se ha venido llamando "pequeña edad de hielo".
En esta figura, puedes ver la evolución temporal del número de manchas solares; los períodos de baja actividad magnética (pocas manchas) coinciden con épocas de clima frío.
La causa principal de esta etapa fría de nuestro clima parece ser debida al intenso vulcanismo. Entre 1275-1300 se produjeron erupciones encadenadas que proyectaron a la atmósfera inmensas cantidades de gases y polvo; la atmósfera se oscureció, impidiendo el paso de la radiación solar: La superficie terrestre se enfrió.
Pero entre los años 1645-1675, el frío fue especialmente intenso. El efecto del vulcanismo se vió reforzado por la ausencia de manchas solares (inactividad del campo magnético solar). Y Europa padeció a causa del frío: malas cosechas, muerte del ganado, hambre .....

Hoy sabemos que las primeras señales de generación de un nuevo flujo magnético aparecen unos 7-8 años antes de la iniciación del correspondiente ciclo de manchas, y sabemos detectarlo.
Así, para el actual ciclo solar (el nº 24) que se inició el 8 de enero de 2008, las primeras señales de flujo se detectaron en 1999, cuando el anterior ciclo (el nº 23) estaba recién iniciado (inicio en 1996).
Esto nos permite hacer predicciones bastante ajustadas sobre el futuro próximo de la actividad magnética del Sol.

Y ¿qué es lo que está ocurriendo en la actualidad? Dos hechos significativos:

1.- Los últimos ciclos solares muestran una tendencia decreciente en la intensidad del campo magnético.
El ciclo nº 24 es el más débil en casi 100 años; se inició con retraso y su máximo de actividad es un mini-máximo, con una disminución del 48% en la actividad respecto al ciclo 21.
Ver figura : Comparación actividad ciclos 21, 22, 23 y 24. Se han superpuesto los cuatro ciclos aunque debemos recordar que el ciclo 21 se desarrolló en el periodo 1976-86,  el 22 en 1986-97,   el 23 en 1997-2008 y el 24 en 2008-2019 (final esperado).


2.- Las señales de generación del nuevo flujo que anunciaría el ciclo nº 25 no aparecen. Esto nos hace creer que el ciclo nº 25 llegará con retraso de 3-5 años o bien, que quizás no se inicie, debido a la debilidad del campo magnético para producir manchas, entrando el Sol en un estado de  "letargo" o mínimo de actividad magnética.

Todo parece indicar que el Sol nos va a dejar sin su protección frente a la radiación cósmica durante unos cuantos años, lo cual (por homología con lo que ya ha ocurrido en el pasado) ocasionará un enfriamiento global.

Es preciso aclarar que NO nos encaminamos hacia una nueva "edad de hielo" (el alarmismo del frío es tan dañino para el conocimiento como el alarmismo del calor). Los científicos que advierten de este fenómeno describen un enfriamiento "asumible".
Solo en el caso de coincidencia con un aumento de actividad volcánica, el enfriamiento podría tener consecuencias más severas en los Sistemas Naturales (atmósfera, oceános ...).  

La causa de que el Sol genere campos magnéticos de muy diferente actividad, originando ciclos activos y ciclos débiles ( con diferentes números de manchas), se encuentra al parecer en el movimiento del baricentro del sistema solar. (Ver vídeo . El baricentro se representa como un pequeño rombo rojo; en realidad, el sol debería permanecer fijo y el rombo rojo desplazarse en su proximidad, pero el movimiento relativo de ambos se ha representado al revés para facilitar la construcción de la animación).
El baricentro es el punto invisible en el que la acción de la fuerza de gravedad de los diferentes planetas se equilibra, se compensa, por eso también se le conoce como punto de equilibrio de masas.
El punto del baricentro se encuentra situado en el Sol o fuera de él pero, en ese caso, muy próximo, describiendo un movimiento irregular que se reinicia cada 178 años.
El baricentro ocupa una posición "errante", no fija, a causa de las órbitas irregulares de los planetas de mayor masa, Júpiter y Saturno principalmente.
Los flujos de plasma en el Sol que originan los campos magnéticos, se ven afectados por la posición del baricentro. Por esta razón, en unos ciclos el campo magnético creado es más activo que en otros.

Pero ninguna de estas noticias aparecerá en la prensa, radio y  tv.

Solo en revistas especializadas; de especialistas para especialistas. La amenaza de ser tildado de negacionista y del consiguiente linchamiento social, profesional y personal surte efecto.
Son numerosos los científicos que perciben que la actitud escéptica o crítica en asuntos relacionados con el Cambio Climático equivale a meter la mano en un avispero y optan por el prudente silencio, mientras siguen trabajando y publicando en las revistas especializadas de su sector.
Es comprensible.

Mientras tanto, en París, sigue la colecta de fondos (eso sí, fondos verdes); he oído en el informativo de las 19:00 que China compromete 65.000 millones de euros para ser invertidos en África.
Imagino los nerviosos movimientos de empresas y organizaciones para ir tomando posiciones que les permitan acceder a esos fondos destinados (en primera intención) a los proyectos de adaptación para hacer frente a los impactos del Calentamiento Global. Surgen nuevos mercados y surgen nuevos negocios. Las medidas de mitigación harán surgir una nueva fiscalidad y fuentes de financiación para los estados. Todo será aceptado por el ciudadano con resignación y emoción; al final. se trata de salvar el planeta.
Espero con curiosidad el momento de ver en los medios de comunicación la información que precise el empleo de esos fondos y el organismo encargado de supervisar su correcto uso y justificación, en lugar de las noticias alarmistas con la estatua de la Libertad cubierta por el mar hasta el cuello.

Quizás algo sea empleado en hacer frente al auténtico problema ambiental global: el problema de la contaminación de los sistemas naturales del planeta, los suelos, el aire y aguas de continentes y océanos.
No estaría nada mal. Aunque la temperatura descienda.


lunes, 30 de noviembre de 2015

Los escépticos climáticos NO somos negacionistas.


Hoy es 30 de noviembre, y hoy es la inauguración de la Cumbre del Clima en París, COP 21. Todavía estoy impresionado por el discurso inaugural del presidente Obama; más que impresionado, acojonado.
La lista de desastres futuros ha sido exhaustiva: sequías, ciudades bajo el agua, pueblos abandonados, guerras y conflictos sociales, huracanes ......
Desde el pasado mes de julio he venido observando el creciente esfuerzo de propaganda preparatorio de esta Cumbre del Clima; en prensa escrita, prensa digital, radios y televisiones he presenciado el desfile de noticias anunciadoras de terribles desastres y catástrofes causado por la acción humana responsable de las emisiones de CO2 ( y otros gases invernadero) a la atmósfera.
En setiembre ya vaticiné que la campaña propagandística iría ganando en intensidad según nos acercáramos a la fecha de hoy. Pero debo confesar que no esperaba tal derroche de medios.
El mes de noviembre ha sido inundado por el tema del Cambio Climático; el aspecto alarmista y catastrofista de la Teoría del Calentamiento Global ha aparecido a diario en prensa, radio y televisión, como un mantra terrorífico, culminando en la llamada a múltiples concentraciones, carreras populares y manifestaciones en diversas ciudades para el día 29 de noviembre.
Se ha grabado con miedo en las mentes de los ciudadanos que todos somos responsables de  cualquier acontecimiento meteorológico  presente y futuro (se dibujan los diferentes escenarios con brocha gorda y no se distingue entre meteorología y clima) y, sobre todo, de que nuestras ciudades queden bajo el agua (tema recurrente, por lo espectacular; incluso se ha celebrado un exposición que recrea las ciudades del mundo bajo las aguas, y publicado mapas de "inundación" publicitados extensamente en la prensa escrita y digital), de las olas de calor ..... incluso ya se afirma sin lugar a duda, que la guerra en Siria, el surgimiento del ISIS-DAESH y la crisis de los desplazados sirios es otra consecuencia más del Cambio Climático.

Paralelamente, ha ascendido a nivel premium el acoso, censura y descrédito personal de todo aquel que se atreva a  poner en cuestión cualquier enunciado o afirmación de la Teoría del Cambio Climático.
Se les denomina negacionistas, y son la basura, el demonio, el eje del mal en esta historia.

Pero no, los científicos escépticos (pido perdón por la redundancia) no somos negacionistas.

El pasado 5 de diciembre de 2014, medio centenar de destacados científicos y divulgadores ha suscrito un manifiesto en el que se pide a los periodistas que no se refieran a los negacionistas del Cambio Climático como escépticos. Entre los firmantes se encuentran conocidos científicos como
David Morrison . director del centro Carl Sagan en el instituto SETI para la investigación de la vida en el Universo, y Sir Harold Kroto, premio Nobel en Química, entre otros.
Texto completo con la lista de los científicos firmantes (en inglés) aquí.

"El escepticismo promueve la investigación científica y crítica, y el uso de la razón en el examen de afirmaciones controvertidas y extraordinarias. Está en la base del método científico.
El negacionismo, por otro lado, es el rechazo a priori de las ideas sin realizar una consideración objetiva de las mismas."
El escepticismo real se puede resumir en una cita de Carl Sagan: "Afirmaciones extraordinarias requieren pruebas extraordinarias"
Los escépticos científicos somos conscientes de los esfuerzos políticos para socavar la ciencia del Clima por parte de aquellos que niegan la realidad pero que no se dedican a la investigación científica, y que argumentan desde posiciones ideológicas o/y religiosas (generalmente muy arraigadas) sin recorrer el protocolo del método científico ni probar sus afirmaciones. La palabra más adecuada para describir a este tipo de personas es "la negación".
Pero no todos los individuos que se hacen llamar escépticos del Cambio Climático son negacionistas. Aunque sí se puede afirmar que todos los negacionistas se atribuyen a sí mismos (falsamente) la marca de escépticos.
Debido a este  uso inapropiado del término escéptico, los periodistas han otorgado credibilidad inmerecida a los que rechazan la Ciencia y la investigación científica.
Los científicos escépticos hemos dedicado gran parte de nuestras carreras a practicar y promover el escepticismo científico. Pedimos a los periodistas que procedan con mayor cuidado al informar sobre los que rechazan la Ciencia del Clima y sobre quienes sostenemos los principios de la verdad y el método científico.
Por favor, dejen de usar el término escéptico para referirse a los negacionistas.

Termina el documento con la lista de los científicos firmantes.

Recordemos que negacionista es un término utilizado por los partidarios de los enunciados de la Teoría del Cambio Climático para referirse a los escépticos. ¿Y, por qué no les llaman escépticos, sin más? Pues porque la palabra escéptico es demasiado correcta; recordemos que la Ciencia de calidad debe ser escéptica. La palabra negacionista, en cambio, tiene una connotación negativa e irracional (negacionismo del Holocausto judío, del bombardeo de Guernica ....).

Entonces, si los escépticos no somos negacionistas y no negamos el Cambio Climático, ¿cual es el fundamento de nuestro escepticismo?:
Fundamentalmente los científicos estamos de acuerdo en :
a) Desde que existen registros termométricos continuados (1879) la temperatura anual media terrestre ha aumentado.
b) La actividad humana ha añadido CO2 a la atmósfera.
c) El CO2 y demás gases invernadero tienen un efecto de calentamiento de la superficie del planeta.

Pero hay un considerable desacuerdo y/o incertidumbre en aceptar  :
a) Si el calentamiento desde 1950 esta fundamentalmente provocado por la acción humana: ¿cuanto de la variabilidad climática se debe al comportamiento natural del sistema Clima y cuanto a la acción humana?
b) Cuanto se calentará el planeta durante el siglo XXI. La determinación de la temperatura anual media es un asunto espinoso; existen diferentes fuentes de datos (registro satelital RSS, registro por selección de estaciones meteorológicas, boyas Argos  ...) y el tratamiento estadístico de los datos registrados es diverso, dependiendo de quien lo haga. Esto nos conduce a diferentes valores de evolución de la temperatura anual media a lo largo del tiempo y, por lo tanto, diferentes perspectivas del problema.
c) Si ese calentamiento es un problema grave, leve o "no es problema".
d) Si realmente podemos o sabemos hacer algo para controlar la evolución climática del planeta.

Referente al último punto, me gustaría formular alguna de las preguntas desde la ciencia escéptica , que seguro no se formularán en la Cumbre de París:

1.- En los enunciados del Cambio Climático se habla con frecuencia de "actuar para revertir el Cambio Climático" y también se usa la expresión  "actuaciones dirigidas a estabilizar el Clima del planeta". La pregunta es :
Ya que revertir significa retornar a una situación anterior, ¿cual es la situación anterior del sistema Clima, hacia la cual debemos revertir? ¿Al estado climático del siglo XI-XII. con su periodo templado parecido al actual? ¿O al estado del Clima durante la Pequeña Edad de Hielo, siglos XIV-XV?  ¿ O bien todas las recomendaciones van dirigidas a revertir hacia algún otro estado Climático, desconocido hasta hoy, pero que reúne las características de estado Climático  correcto? y si fuera así, ¿Que es lo que convierte a un estado climático en correcto o no alterado?
Llevo tiempo esperando una respuesta, para comprender mejor hacia donde vamos a "revertir" con las propuestas del IPCC. Me temo que todavía tendré que esperar bastante más.

2.- Las propuestas realizadas por el IPCC, que serán el fundamento de las decisiones que se adopten en París, nacen de las proyecciones de futuro (el IPCC evita el término predicción)  realizadas con un modelo de simulación por ordenador. Expresan la probabilidad de que ocurra un suceso determinado, siempre y cuando se cumplan las suposiciones incluidas en la elaboración del modelo de simulación. Los informes del IPCC no contienen hechos comprobados experimentalmente. Contienen probabilidad de sucesos esperados.
Es decir, nunca se ha comprobado experimentalmente que la reducción de la actual concentración de CO2 en la atmósfera de 395 ppm hasta 340 ppm provoque un descenso de la temperatura anual media terrestre hasta alcanzar valores próximos a los de 1978.
La pregunta es ¿Por qué se propone crear un fondo verde de 100.000 millones de dólares, para financiar un esfuerzo cuyo resultado carece de ninguna garantía científica? ¿Por qué el problema de calentamiento climático sigue tapando y ocultando el verdadero problema de contaminación de sistemas acuáticos, terrestres y atmosféricos, incluyendo la deforestación provocada por la mano del Ser Humano?.
(Recuerda, calentamiento climático no es sinónimo de contaminación).

Espero con interés el resultado de la Cumbre de París.









sábado, 21 de noviembre de 2015

Daños colaterales del propagandismo del Cambio Climático.

El pasado 5 de noviembre fui a casa de mis suegros con la intención de pasar un rato en compañía, cosa que agradecen, ya que debido a su frágil estado de salud consecuencia de la edad, sus salidas "al exterior" se han reducido.
En esas ocasiones, tenemos la costumbre de ver en Antena 3 el programa "Ahora caigo" presentado por Arturo Valls.
Se trata de un entretenido concurso en el que los participantes tienen que responder preguntas de diferentes temas, contando como ayuda con algunas de las letras de la respuesta correcta, diseminadas entre el resto de las letras ocultas como casillas en blanco. El concursante conoce así el el número de palabras, el número de letras (tantas como casillas en blanco) y algunas de las letras.

Pues bien,  el otro día uno de los concursantes se enfrentó a la siguiente pregunta:

¿Cual es el principal gas atmosférico causante de efecto invernadero?

Y se le ofrecía como ayuda esta plantilla:
_ _ _ o _     _ _     _ g _ a

Como quizás ya hayas deducido, la respuesta correcta es  vapor de agua .
Pero lo que ocurrió con el concursante fue llamativo; se quedó perplejo ante la distribución de las palabras y letras de la ayuda.
Mientras, musitaba en voz baja dióxido de carbono, ozono ... y otros imposibles intentos de solución, se desesperaba al comprobar el paso de los segundos que le acercaba a la eliminación.
Sus ideas previas le impedían ver la solución obvia.
Fue incapaz de responder correctamente y, como ocurre con los concursantes eliminados, fue "tragado" por una trampilla del suelo que se abre a tal efecto (de esta manera de librarse de los concursantes eliminados procede el nombre del programa).
Efectivamente, el vapor de agua es el responsable del 60%-90% del efecto invernadero, dependiendo del grado de humedad del aire.
Dicho de otra manera, la energía solar entrante modulada por la humedad del aire, son la llave principal que regula el efecto invernadero en nuestro planeta.
El protagonismo del CO2 , metano, .... es muchísimo menos importante, debido sobre todo a la diferencia de concentración de uno y otros en la atmósfera.
Pero la información (o habría que decir desinformación) que insistente y repetidamente nos llega desde los medios de comunicación no menciona el papel del vapor de agua; tampoco se habla de la enorme dificultad de hacer predicciones fiables para los patrones de condensación y formación de nubes más allá de cinco días.
Aunque todos aceptamos que la fiabilidad de la meteorología no supera esa línea mágica de cinco días, desconocemos que eso es debido al comportamiento caótico (difícilmente predecible) de la humedad y la condensación  de nubes en la atmósfera.
El concursante había estado sometido al bombardeo mediático de los postulados de la Teoría del Cambio Climático; a saber:
- El efecto invernadero es causado por el incremento de las emisiones CO2
- Este aumento de emisiones ya está causando un Cambio Climático, con consecuencias de Calentamiento Global, estimado (de continuar el actual ritmo de emisiones) entre +2 ºC  y +6 ºC  para el año 2100.
Es curioso comprobar que el IPCC (organismo integrado en la ONU responsable de los informes y de la propaganda sobre Cambio Climático) evita utilizar el término predicción, usando en su lugar la palabra proyección.
El IPCC hace pues proyecciones climáticas a 80 años vista, contemplando diferentes escenarios de emisiones de CO2 ( y demás gases como NOx, metano ...).
¿Y que pasa con el vapor de agua? ¿Como se puede entender que las predicciones de Meteorología sobre patrones de nubosidad no van más allá de cinco días, pero el IPCC se proyecta 80 años hacia el futuro, definiendo la evolución climática de ese periodo?
¿Que saben los del IPCC que desconocen los meteorólogos?
Nada, lo que ocurre es que la Meteorología es ciencia deductiva, es decir, de la observación directa del estado de la atmósfera hoy, deduzco el estado de la atmósfera durante los próximos días.
La Climatología es ciencia inductiva, es decir, junto con los datos obtenidos de la observación directa, realizo un conjunto de suposiciones de comportamiento futuro (entre los más de doce agentes que intervienen en la evolución climática) para afirmar que si durante los próximos decenios se cumplieran las suposiciones asumidas, hay un elevado grado de probabilidad de llegar a un escenario climático u otro.

Pero en los medios de comunicación, los informes del IPCC no se presentan como probabilidad de que se produzca un suceso si se cumplen sus suposiciones; se presentan como hecho probado y con amplio consenso en la comunidad científica.

La propaganda es eficaz; repite miles de veces un mismo mensaje, simple, sin matices, sin dudas.
El éxito de la propaganda, en este caso, se tradujo en el fracaso del concursante.
Sentí algo de pena por su eliminación, porque era evidente que en este caso, él no tenía la culpa.

  Cambio Climático: reflexiones para una ética posible. Iosu Marruedo. Biólogo La Conferencia Científica de las Naciones Unidas (también con...