martes, 22 de diciembre de 2015

Exploradores en el Ártico en el siglo XIX. ¿El Ártico se funde?

Este es un resumen del artículo de los investigadores James E.Overland y Kevin Wood  en el  que muestran el uso de instrumentos y registros históricos descriptivos para probar la certeza de la hipótesis de que las condiciones ambientales observadas por los exploradores del siglo XIX  en el archipiélago canadiense fueron consistentes con una Pequeña Edad de Hielo tal y como es sugerido en conclusiones de otras reconstrucciones climáticas (metodología de estratigrafía de núcleos de hielo) y aceptado  por los defensores de la Teoría del Cambio Climático.
Concluyen que de los testimonios y registros de los exploradores se deduce poca evidencia de frío extremo y proporcionan una reconstrucción climática disconforme con la obtenida por medio de la estratigrafía de núcleos de hielo (la aceptada por el IPCC de la ONU). 
En la actualidad, y dentro del contexto alarmista de las noticias relacionadas con el Cambio Climático, la disminución de la masa de hielo en el Ártico se presenta con frecuencia como un acontecimiento excepcional y catastrófico, consecuencia de las elevadas emisiones de CO2 de los últimos 80 años.
Pero  de la lectura de los registros históricos de los exploradores árticos del siglo XIX se deduce que la disminución de la masa de hielo ártico no es algo excepcional sino que ya se ha producido en otras épocas (con menos CO2 en la atmósfera que en la actualidad) y que han venido seguidas de  otras fases de recuperación .   
Las expediciones organizadas en el siglo XIX para encontrar un tránsito por el denominado Paso Ártico del Noreste, se percibieron en general como grandes fracasos, como un vana y trágica exploración fallida ; la causa se ha venido atribuyendo a las extraordinarias condiciones de frío asociado a la denominada "Pequeña Edad de Hielo". 
Esa perspectiva había sido reforzada desde 1970, cuando las reconstrucciones del paleoclima basadas en el hielo del Ártico (estratigrafía de núcleos de hielo) parecieron confirmar la existencia de condiciones excepcionalmente frías conforme con  lo que los glaciólogos habían denominado como la "Pequeña Edad de Hielo", con temperaturas más frías que la media de los primeros años del siglo 20 [Koerner, 1977; Koerner y Fisher, 1990; Overpeck et al., 1998].

Sin embargo, el examen de 44 registros de exploradores del Ártico occidental desde 1818-1910 revela que los indicadores del clima tales como:
a) navegabilidad,
b) distribución y espesor de hielo anual del mar
c) temperatura media mesual del aire en superficie, y
d) el inicio de la fusión y congelación 
estaban dentro de la actual gama de variabilidad, entendiendo por "actual" la referencia al periodo 1970-2000..

Si bien existe una amplia literatura sobre el historia de la exploración del Ártico del siglo XIX se ha hecho muy poco uso de observaciones científicas y meteorológicas detalladas compiladas durante muchas expediciones.
Hubo más de setenta expediciones o empresas científicas de diversos tipos enviados al Ártico canadiense en el período comprendido entre 1818 y 1910.
De este número total, se analizaron 44 informes científicos originales y relatos relacionados. 
La mayoría de los datos provienen de grandes expediciones navales, con gran capacidad, que abarcan varios años, con invernadas en el Ártico.

Hemos centrado nuestro análisis en los cuatro indicadores de cambio climático antes citados; a saber: extensión del hielo marino de verano, espesor anual del hielo marino, la temperatura media mensual, y el inicio de la fusión y de congelación como estima de media diaria de temperatura. 
Tanto la extensión del hielo marino y la aparición del inicio de la fusión y congelación se compararon con los del período de referencia de 30 años entre 1971-2000.
Los valores de espesor de hielo (media mensual), se compararon con los del período de 50 años entre 1951-2000.
Es quizás sorprendente que la mayor parte del Paso del Noroeste fuera ya navegado durante el siglo XIX con buques de las diferentes expediciones que quedaron tan solo a 150 km de completar el paso en un buen número de ocasiones.
Figura 1.
La imagen muestra la presencia de hielo en el mar el 10 de septiembre, que es la fecha habitual del mínimo anual de hielo durante el período de referencia 1971-2000 ( según el Servicio Canadiense del hielo, 2002). En varias ocasiones, las expediciones llegaron a menos de 150 km de completar el Paso del noroeste, pero incluso en años con condiciones desfavorables de hielo, la mayoría de los barcos eran todavía capaces de llegar a posiciones relativamente avanzados dentro del archipiélago canadiense. En 1859, ya se habían descubierto todas las posibles rutas que comprenden el Paso del Noroeste.
La mas sorprendente es que, incluso en los años reconocidos como desfavorables (por más fríos), los buques todavía eran capaces de llegar a lugares cuya accesibilidad es semejante a la de las peores condiciones de hielo de la referencia moderna (1971-2000).
De 33 expediciones o suministros de barcos con destino a la parte occidental de Lancaster entre 1819 y 1859, sólo dos fallaron debido a las condiciones del hielo desfavorables.
Dieciocho mediciones de máxima anual del espesor del hielo marino se registraron entre 1819 y 1876; cuatro de ellos son incompletos, porque fueron interrumpidos antes del final de la estación.
De las restantes 14 observaciones, se obtuvo una media (anual) de 215 cm y un máximo de 250 cm.
En la actualidad (datos de la referencia moderna) , las condiciones de hielo para Resolute Bay, Sachs Harbor, y Mould Bay dan una media anual de 199 cm y una máximo en tres estaciones de 248 cm.

Por lo tanto, las observaciones históricas son consistentes con los valores del siglo XX.

Treinta y dos años aproximadamente de series mensuales de temperatura media del aire superficial  se recogieron durante los años comprendidos entre 1819 y 1854, y se comparó con la referencia de 50 años del periodo 1951-2000.
El  63% de los 343 valores de anomalías mensuales de la temperatura caen dentro de una normal desviación de la media de la referencia moderna. 
Los exploradores relatan que encuentran tanto años cálidos como años fríos.
Si bien los datos históricos de los viajes de exploración son intermitentes, tomados en su conjunto, proporcionan una perspectiva valiosa sobre el clima del pasado del Ártico canadiense.

Los exploradores encuentran a la vez temporadas cálidas y temporadas frías, y en general, las condiciones  de hielo que nos recuerdan a las del siglo XX.
La aparición temprana de la congelación en algunos casos representa la mayor aparente diferencia respecto de las condiciones actuales, mientras que el momento de la transición al estado fundido en la primavera mostró poco cambio respecto el presente.
Si hubiera habido un cambio en la media de la temperatura del aire de verano de la magnitud del sugerido por el método de estratigrafía en núcleos de hielo (isla de Devon), las indicaciones de  más frío  habrían sido detectados en nuestra análisis. 
Los relatos y registros de los exploradores no avalan los resultados de reconstrucción de temperaturas por estratigrafía de núcleo de hielo.

Por último, debemos señalar que es engañoso afirmar que no se encontró el Paso del Noroeste y que el el fracaso se debió a un clima adverso extraordinariamente frío.
De hecho, todas las rutas posibles que componen el Paso del Noroeste fueron descubiertos, y casi
toda la costa laberíntica fue asignada durante este periodo.
Un resultado de navegación similar podría obtenerse hoy dentro de los límites de navegación en las condiciones presentes.

Figura. 2. 
Los exploradores encontraron ambas condiciones representadas en los dibujos, en la isla de Beechey:  poco hielo (1850) y mucho hielo (1853).

El estado de hielo favorable y desfavorable en las proximidades de la isla de Beechey ilustran la gama de condiciones de hielo en diferentes años.
La Figura A ilustra la situación de la H.M.S. Resolute y el vapor Pioneer el 5 de septiembre 1850 [tomado de Facsímil del Ártico, Illustrated News, cortesía de Elmer E.Rasmuson Biblioteca, Univ. de Alaska- Fairbanks].
La Figura B muestra el H.M.S. Breadalbane y el vapor Phoenix atrapados en el banco de hielo el 21 de agosto 1853.
El Phoenix escapó, pero el Breadalbane fue aplastado por la presión del hielo y se hundió (Archivos Nacionales de Canadá, el número de acceso 1989-399-4).

Referencias:
Bradley,R. S. and P.D. Jones,“Little Ice Age”summer temperature variations:Their nature and relevance to recent global warming trends,The Holocene,3, 367–376, 1993.
Jones,P.D. and K. R. Briffa,The “Little Ice Age”: Local and global perspectives, Climatic Change,48, 5–8, 2001.
Koerner,R. M.,Devon Island ice cap: Core stratigraphy and paleoclimate, Science,196, 15–18, 1977.
Koerner,R.M. and D.A. Fisher,A record of Holocene summer climate from a Canadian high-Arctic ice core, Nature,343, 630–631, 1990.
Neatby, L. H., In quest of the North West Passage,pp. 135–136, Longmans,Toronto, 1958.
Oglvie,A.E. J., and T. Jónsson,“Little Ice Age” research:A perspective from Iceland, Climatic
Change, 48, 9–52, 2001.
Overpeck, J. et al.,Arctic environmental change of the last four centuries,Science,278,1251–1256,1998.

Información del autor de la fuente original:
James E.Overland, Pacific Marine Environmental Laboratory/NOAA, Seattle,Wash., and Kevin Wood , Arctic Research Office/NOAA, Silver Spring,Md.














domingo, 20 de diciembre de 2015

Cambio Climático: el polémico asunto de la medición de la temperatura global de la superficie de la Tierra.
Iosu Marruedo. Biólogo


¿Como se determina la Temperatura superficial  media anual en el planeta? 
La obtención de un único número que caracterice la temperatura media superficial (anual) es una operación compleja y de significado desconcertante para el ciudadano, pues puede ocurrir que no corresponda con su "experiencia vital local".
Pensemos que la variabilidad de temperatura para un mismo día, en un mismo lugar, puede oscilar fácilmente entre 2º C y 16º C (por ej. un día normal de otoño en Pamplona, Navarra). También durante un mismo día en diferentes lugares de la Tierra; así, por ej.,  el 10 de agosto de 2010 en la Antártida se registró una temperatura de - 93.2ºC cuando en Trinidad (Bolivia) era de  + 28ºC.
La temperatura superficial terrestre es una magnitud extremadamente variable: varía en un mismo día, varía de un lugar a otro y de un año a otro.
Su valor medio, es útil solo cuando se contempla por "el retrovisor", cuando pasados un buen número de años podemos mirar hacia atrás y observar la tendencia o comportamiento medio global durante esos años (nunca menos de 25-30 años).
Obtener un único valor de temperatura representativo de toda la superficie del planeta requiere el manejo de cientos de miles de datos, procedentes de todos los puntos de la Tierra, correspondientes a los 365 días de cada año, durante una larga serie de años.

Para conseguirlo, son dos los elementos necesarios:
1) Un instrumento de medición de la temperatura. En la actualidad, se utilizan principalmente dos tipos de instrumentos de medida: los instalados en estaciones meteorológicas terrestres continentales (termómetros)  y a bordo de barcos (para datos de la superficie oceánica), y los instalados en satélites que orbitan alrededor de la Tierra. Estos últimos llevan a bordo termómetros de precisión (resistencia redundante de platino) calibrados en el laboratorio antes de su lanzamiento.
2) Una metodología para el tratamiento estadístico de los cientos de miles de datos recogidos. Esta es quizás la parte más polémica o más frágil del complicado proceso de obtención de la Temperatura superficial global anual.
Dicho de otra manera: es posible que de un mismo conjunto de datos, dependiendo del tratamiento estadístico aplicado (decisión que adopta en cada caso el equipo de trabajo correspondiente) se obtengan resultados diferentes. Es por esto que suele ser frecuente el fuego cruzado de críticas y acusaciones de manipulación de datos entre los diferentes equipos (diferentes metodologías) que ofrecen información de la Temperatura Global..

Existen cinco registros o bases de datos oficiales para la medición de la Temperatura global de la superficial terrestre.
Tres de estas bases de datos se nutren de mediciones por instrumentos situados en la superficie de la Tierra (estaciones meteorológicas y barcos). Hay registros directos (termométricos) fiables desde 1850. Esta tres Bases de Datos son:

a) Base de datos del Instituto Goddard de Estudios Espaciales , NASA,  con datos procedentes de 6300 estaciones meteorológicas (GISTEMP  NASA).
b) Base de Datos de la Unidad de Investigación del Clima de la Universidad de East Anglia, corazón del IPCC  de la ONU (las últimas versiones de estas bases de datos son HadCRUT3 y HadCRUT4).
c) Base de Datos de la Administración Oceánica y Atmosférica de EEUU, ( GHCN  NOAA).

Suele haber diferencias entre el resultado presentado por estas tres bases de datos, debido fundamentalmente a que emplean diferente número de estaciones meteorológicas, con diferente localización y también emplean diferente metodología para la interpolación de los datos.

La imagen siguientes muestran un ejemplo de estas diferencias; vemos el resultado del GISS-NASA en rojo comparado con el del equipo del Hadley Centre (HadCRUT) en azul y con la versión del NOAA en verde. Se compara además con la versión de la Agencia Meteorológica del Japón, línea en morado.
La línea horizontal de referencia 0.0 corresponde al valor medio de temperatura durante el periodo 1951-1980.


Figura 1.
Las otras dos bases de datos registran mediciones realizadas por instrumentos situados en satélites; existe registro satelital continuo desde 1978:
d) Base de datos Sistemas de Teledetección RSS MSU , en California.
e) Base de Datos del Clima en la Universidad de Alabama en Huntsville, (UAH).

También existen diferencias entre los resultados presentados por RSS MSU y UAH, procedentes fundamentalmente de los diferentes algoritmos y procesos de conversión de la lectura del sensor instalado en el satélite en temperatura del aire (en realidad, lo que el satélite mide es la emisión de microondas de las moléculas de oxígeno de la atmósfera, que es función de la temperatura del aire; este valor de emisión del oxígeno debe convertirse en temperatura del aire).
En las imágenes siguientes (Figura 2. y 3.) podemos ver la versión del equipo UAH (Roy Spencer y John Christy) y la de RSS MSU (Mears) de California:
Figura2. 


Figura 3.

Pero cuando constatamos que las diferencias son mayores es cuando comparamos el resultado de las mediciones instrumentales (termométricas) con el de las satelitales (RSS MSU y UAH)..

¿Cuales son estas diferencias y qué importancia tienen?
1.- Las mediciones satelitales registran casi siempre temperaturas menores que las mediciones basadas en interpolación de los datos de estaciones meteorológicas en superficie.
2.- Entre las dos mediciones satelitales, la base UAH presenta menor tendencia global que la base RSS MSU.
3.- También muestran un área de enfriamiento para altas latitudes en el Hemisferio sur; muestran que el calentamiento no es homogéneo.
4.- Hay discrepancias entre UAH y RSS para ciertas áreas sobre el ecuador y Australia, en las que UAH registra enfriamiento y RSS calentamiento.
5.-  Las mediciones satelitales muestran una etapa de fuerte calentamiento entre los años 1993-1998 y una etapa de estabilización hasta 2014. Según UAH  y RSS, el calentamiento no es global y no es continuo.
Para los instrumentos situados en satélites, el año más caliente fue 1998; desde entonces la temperatura se ha estabilizado, desapareciendo el calentamiento hasta la primavera de 2015, cuando el intenso episodio de "El Niño" que todavía está activo provoca una nueva subida de temperatura.
6.- Para la UAH, 2015 es solo el tercer año más caliente, después de 1998 y 2010. Sin embargo para la NASA y para Hadley Centre, 2015 ha sido el año más caliente.
7.- Para el registro por satélite, durante el período comprendido entre octubre 1996 octubre 2014 la tendencia de variabilidad ha sido cero. Es lo que se ha denominado "la pausa" (18 años de pausa en el calentamiento), que podemos ver en la imagen siguiente.
Figura 4.
El IPCC (panel de expertos de la ONU) no acepta los resultados basado en mediciones satelitales; pese a que estos ofrecen mayor cobertura global (desde 1979) cubriendo una mayor superficie de la Tierra (continentes y océanos) y registran series continuas de datos también en vertical (baja troposfera, media y alta troposfera).

Críticas hacia las mediciones satelitales:
Proceden fundamentalmente de los promotores y defensores de la Teoría del Cambio Climático.
Aducen que los algoritmos empleados en la conversión de datos y su interpolación son erróneos y que, sobre todo, el efecto de las masas de nubes distorsiona el valor real de temperatura en superficie, haciendo que estas aparezcan con valores menores que los registrados en estaciones meteorológicas.
Algunas de las personas que trabajan en esos equipos son tachadas de "negacionistas" con intereses espúreos.

Críticas hacia las mediciones con instrumentos de superficie (termométricas):
Proceden de los sectores de Ciencia escéptica con la Teoría del Cambio Climático.
Argumentan, por ejemplo, que en esas Bases de Datos existen amplias regiones de la superficie del planeta poco o nada representadas (especialmente la superficie oceánica) cuando otras, en cambio, lo están en exceso.
Se les atribuye una selección sesgada o intencionada de las estaciones meteorológicas utilizadas para el suministro de los datos, abundando las cercanas a grandes núcleos de población, donde por efecto de la "isla urbana de calor" (calor emitido por la propia ciudad) los registros siempre tienden a indicar calentamiento.

Así mismo, expresan desconfianza hacia los métodos de interpolación de datos empleados, con acusaciones de "cocinado" de datos (ver imagen de la izquierda), es decir, manipulación del tratamiento estadístico hasta lograr el resultado previamente esperado (hasta demostrar que existe una etapa de calentamiento global sostenido).

Esta última acusación se ha revitalizado como consecuencia de la modificación de la Base de Datos HardCRUT3 de la Universidad de East Anglia (el IPCC de la ONU) para dar lugar a la versión HardCRUT4.
Me explicaré:
Los 18 años de no calentamiento (octubre1996-0ctubre2014) conocidos como "la pausa" (Figura 4.) desconcertaron enormemente a los miembros del IPCC y comunidad de partidarios de la Teoría del Calentamiento Global. Nadie lo esperaba.
En la revista Investigación y Ciencia de junio de 2014, se publica una entrevista anterior con uno de los representantes más destacados del IPCC, Michael E. Mann, quien reconocía la existencia de un parón en el calentamiento; atribuía ese fenómeno (que no fueron capaces de predecir en el informe del IPCC de 2001) a un comportamiento inesperado del Sol y sobre todo, a la erupción del volcán islandés Eyjafjallajökull en 2010.
A continuación afirmaba: .. "pero el calentamiento regresará"...

La dichosa "pausa" era una molesta espina clavada en el corazón del IPCC. Sus modelos de proyección del futuro climático del planeta contenidos en el informe del año 2001 habían fallado estrepitosamente; ya que no habían sabido ver lo que sucedería en los próximos 13 años, todas las proyecciones a más largo plazo quedaban invalidadas. La valía de su modelo informático de proyección  quedaba muy dañada.
Pero todo se arregló en marzo de 2012; el director del Cru, Phil Jones, explicó que ... " HadCRUT se basa en observaciones y nos hemos dado cuenta que en años anteriores (anteriores a 2010) los datos del Ártico no se han capturado de manera integral debido a los pocos datos que se tienen de esa zona. Hemos realizado una nueva versión de la base de datos , HardCRUT4, en la que se han incluido más de 400 estaciones a lo largo del Ártico, Rusia y Canadá"...

Es decir, si se aumenta la representación o peso de las estaciones de lugares fríos para recalcular la temperatura de los primeros años del s. XXI, , la línea horizontal que indica tendencia cero desciende por el extremo izquierdo y aparece nuevamente como una pendiente ascendente hacia la derecha.
Y ya está ....  todo arreglado!; la pausa no existía, era un artefacto, una interferencia provocada por un error de captura e interpolación de datos. Nosotros, los del IPCC, teníamos razón y el calentamiento sigue siendo una realidad, tal y como nuestro modelo de proyección viene asegurando. Y todos contentos en el IPCC, la Teoría del Calentamiento Global sigue viva.

Pero claro está, en otros sectores de la ciencia del Clima, en otros equipos que trabajan con las otras bases de datos el asunto no ha pasado desapercibido y ha crecido el recelo y la desconfianza hacia HadCRUT.

Mientras tanto, esta es la evolución de la concentración de CO2 en la atmósfera comparada con la variación de temperatura global según la base de datos UAH y datos reconstruidos anteriores a 1979
(el valor 0.0 en el eje vertical izquierdo expresa la temperatura media en el período 1981-2010):
Figura 5.
Se pueden distinguir tres etapas:
Una primera parte entre 1960-1979 de escasa correlación temperatura-CO2.
Una segunda, 1980-2002 con buena correlación entre temperatura y CO2, y
Una tercera parte 2003-2014 de escasa correlación.

El núcleo central de la Teoría del Cambio Climático contiene dos enunciados:
1.- Desde la década de los 70 del pasado siglo, el planeta está inmerso en una etapa de calentamiento global rápido y sostenido.
2.- La causa de este calentamiento es el incremento de las emisiones de CO2 (y otros gases de efecto invernadero) procedentes de la actividad humana.

La medición y determinación de la temperatura global, contenido de esta entrada, afecta al primero de los dos enunciados. Aceptando la evidencia del calentamiento, vemos que hay diferentes estimaciones según la base de datos y metodología de trabajo utilizados para interpolación: ¿es global o no?, ¿es continuo o no? ¿cual es el ritmo de variación por década? ¿es un problema grave o leve? o ¿ni tan siquiera es problema?.

La causa del calentamiento para el IPCC de la ONU ha estado clara desde el principio: es el incremento de CO2 atmosférico. Siempre han afirmado que no puede ser ninguna otra cosa; por lo tanto, nunca han buscado "otra cosa", se han limitado a trabajar para reforzar todo aquello que señale la culpabilidad del CO2. Y cuando aparece alguna evidencia incómoda, se silencia, se suprime o se retoca.

Cuanto del calentamiento es debido a la variabilidad natural del clima y cuanto al CO2 emitido por la actividad humana es una pregunta tabú para el IPCC. Quien la haga será inmediatamente tachado de negacionista.
Afortunadamente, son numerosos los científicos (escépticos por ser científicos) que investigan la probable interacción de otras causas: así por ej.
a) el equipo de Roy Spencer  lleva años trabajando sobre la influencia en la variabilidad climática de la oscilación ENSO-El Niño y sobre los patrones de condensación nubosa,
b) los grupos de trabajo que estudian la oscilación de la actividad solar y las variaciones de su campo magnétcio
c) los investigadores en paleoclima que intentan mejorar el conocimiento del Clima en el pasado, y que así, actuando por homología, quizás podamos mejorar la comprensión del Clima presente y futuro  .....

¿Quien tiene razón?¿Cual es la medición correcta?
Difícil es saberlo, pero si atendemos a la opinión pública, he de reconocer que la Teoría del Calentamiento Global ha tenido un éxito insuperable (es la versión del IPCC, con la base de datos HadCRUT4) y se presenta como verdad indiscutible con amplio consenso a su favor:" el calentamiento global es una evidencia incuestionable, el planeta está afectado por una etapa de rápido y sostenido aumento de la temperatura provocado por las actividades humanas".  
Las demás versiones, matices .....  no aparecen en los medios de comunicación.

Pero si tenemos en cuenta que la opinión pública suele ser igual a la opinión publicada, el famoso consenso que respalda la versión HadCRUT4 y que patrocina el IPCC de la ONU, aparece como algo mucho más frágil. Los consensos científicos se establecen sobre el debate entre argumentos diferentes; y aquí no hay debate, solo verdad única (la del IPCC)  y mucha ideología.

Así no se construyen los consensos, así se construyen los dogmas.






viernes, 4 de diciembre de 2015

En la Cumbre del Clima de París no se ponen al Sol 


Mojib Latif  es un científico del Instituto Leibniz de Ciencias Marinas, en Kiel (Alemania); estudia los procesos de calentamiento y enfriamiento de las masas de agua oceánica profundas y es, además, autor colaborador para el IPCC.  En la Conferencia Mundial sobre el Clima, en Ginebra, a principios de setiembre de 2009 advirtió:
  ..."en los próximos años, una tendencia de enfriamiento natural dominará sobre el calentamiento causado por los seres humanos" .... "La gente dirá entonces que  el calentamiento global está desapareciendo; yo no soy un escéptico climático pero tenemos que hacernos las preguntas incómodas nosotros mismos, para intentar comprender mejor el comportamiento del Clima"....

El Dr. Habibullo I. Abdussamatov, es el director del Observatorio Astronómico de Pulkovo (San Petesburgo, Rusia); en febrero de 2012 publicó  un artículo en la revista Applied Physics Research
en el que anuncia una etapa de clima frío para el año 2050, con una lenta transición desde los años 2015-2016 (estos serían los años finales de la etapa cálida).

Dean Pesnell, es científico del Observatorio Dinámico Solar (SDO) de la NASA; ha realizado unas declaraciones en National Geographic, explicando la cada vez mayor certeza en la llegada de una etapa de letargo solar, (periodo de baja actividad magnética en el Sol) que causará un descenso de la temperatura media global. Añade  ...."no creo que los efectos de este enfriamiento vayan a ser especialmente graves, ya que será atenuado por las cantidades de CO2 y metano que el ser humano ha emitido a la atmósfera en los 60 años precedentes" ...

¿Qué  pensarán estas personas de lo que se está diciendo en los medios de comunicación sobre el futuro climático del planeta?. Me pregunto también si ellos habrán acudido a París y si estarán participando en las ponencias y sesiones de trabajo.

Los tres ( y sus equipos de trabajo) son físicos del clima y los tres afirman (desde investigaciones independientes diferentes) que la actividad magnética del Sol se dirige hacia un periodo de mínimo o "letargo solar", durante el cual el campo magnético presenta valores de intensidad muy bajos.
Los tres están de acuerdo en que vivimos los últimos años de una fase climática cálida, que serán desplazados paulatinamente por años con temperaturas cada vez más bajas, hasta entrar en una etapa de enfriamiento global, que será percibida claramente desde 2019-2020.
No están de acuerdo en la duración y la intensidad de este enfriamiento global. Según los casos, la bajada de temperatura puede estar entre 2 ºC - 4 ºC , manteniéndose durante 14 años (en el caso más optimista) o durante varias décadas (según el Dr. Abdussamatov, quien presenta un enfriamiento más sostenido).
Este proceso (ya iniciado) que conduce al planeta hacia una época fría, es explicado de la siguiente manera:

La mayor parte de la energía entrante en la Atmósfera terrestre (99,3%) procede del Sol.
La fusión nuclear del Hidrógeno en nuestra estrella libera inmensas cantidades de energía en forma de ondas (radiación electromagnética) y partículas (protones, neutrones  ...) que son emitidos hacia el espacio en todas las direcciones. Una muy pequeña parte de esta emisión solar ("viento solar") hace diana en nuestro planeta y lo calienta.
Pero el nivel de actividad solar no es constante; a lo largo del tiempo se registran pequeñas oscilaciones en la cantidad de energía emitida  (variabilidad media   +/- 0.12%).
Existe un consenso amplio en aceptar que estas variaciones de energía emitida no tienen gran influencia en la temperatura superficial terrestre.

Pero el Sol nos guarda otra sorpresa: el comportamiento de su campo magnético.
Nuestro Sol es una bola de plasma de casi millón y medio de kilómetros de diámetro; y el plasma no es más que gas (fundamentalmente hidrógeno) cargado eléctricamente.
Cuando una carga eléctrica se mueve, genera un campo magnético, y como el sol en su totalidad es gas con carga eléctrica, se genera un campo magnético en todo su volumen.(Ver video ).

Debido a que el Sol es un sistema en rotación, no rígido, las líneas de fuerza del campo magnético se doblan, estiran y retuercen pues  el plasma de los polos gira a diferente velocidad que el del ecuador.

A veces el plasma se acumula alrededor de las invisibles líneas del campo magnético, haciéndolo entonces visible, como finos bucles de filamentos. (Vídeo)

La temperatura de la superficie del sol es de 6.000 ºC, pero en las zonas donde las líneas del campo se entrecruzan, retuercen e interactúan, la temperatura baja a 3.000-4.000 ºC, apreciándose como zonas menos brillantes, relativamente más oscuras, por lo que se les denomina "manchas solares."
Hoy sabemos que el Sol genera un nuevo flujo magnético cerca de sus polos cada 11 años, y constituye un nuevo campo cuyos polos magnéticos emigran lentamente hacia hacia el ecuador hasta invertir sus polaridades magnéticas.
Cuando el movimiento de migración del flujo magnético alcanza una latitud de 23º, la torsión de las líneas de campo es suficiente para iniciar la formación de manchas solares.
El número de manchas solares está pues relacionado con la intensidad y el estado del campo magnético solar, que cíclicamente se rehace cada 11 años (+/- 2).

Campos intensos provocan numerosas manchas solares. Los campos magnéticos débiles no son capaces de generar manchas solares, presentando el Sol una superficie homogénea, libre de manchas. 

Existe un registro continuado del número de manchas solares observadas en el Sol desde el año 1700, aunque el ciclo nº 1 corresponde al del año 1755; el ciclo actual es el nº 24.

Heinrich Schwabe fue el primero que observó la variación cíclica del numero de manchas entre 1826 y 1843. Esto animó a Rudolf Wolf a realizar observaciones sistemáticas que comienzan en 1848. En la imagen siguiente podemos ver la oscilación del número de manchas de los ciclos solares nº 1 (1755) hasta el actual nº 24.
A simple vista reconocemos que los flujos magnéticos de los diferentes ciclos  tienen diferente intensidad (actividad magnética) . Ciclos de gran actividad (como el nº 19 , 1954-65) han producido gran número de manchas, y a la inversa.

Hoy creemos que cuando la actividad magnética es baja, y no se observan manchas, los planetas del sistema solar quedan más expuestos ante la radiación cósmica procedente del fondo de nuestra galaxia.
El campo magnético solar (Heliosphera) realiza una función protectora de los planetas albergados en su interior; como si fuera un gran paraguas, rechaza los rayos cósmicos (partículas subatómicas, de alta energía, que se desplazan a velocidades próximas a la de la luz), impidiendo que penetren al interior del sistema solar.


Sin este paraguas protector (ver vídeo ), la radiación cósmica penetra con más facilidad; así, las partículas cósmicas llegan a la parte alta de nuestra atmósfera, interaccionando con sus gases y provocando el aumento de la condensación y formación de nubosidad.
La superficie de la Tierra se ensombrece y una mayor cantidad de energía solar es reflejada al espacio. La consecuencia es el enfriamiento del Clima de la Tierra.

Períodos de baja actividad magnética del Sol han ocurrido ya con anterioridad; entre los años 1645-1715 se produjo el primer mínimo solar bien documentado, el mínimo de Maunder (en honor al astrónomo Edward Maunder); entre 1640-1680, se observaron tan solo 7 manchas solares, cuando lo habitual en periodos de actividad magnética hubiera sido varios miles. Coincidió con una larga etapa de clima frío en Europa.
El segundo (no tan acusado como el anterior) se produjo entre 1790-1830, el mínimo de Dalton (en honor al meteorólogo inglés John Dalton).
Desde principios del siglo XIV hasta finales del XIX, el clima fue predominantemente frío; se distinguen tres "pulsos fríos" separados por dos interrupciones en las que las temperaturas se recuperaron en cierta medida. Es lo que se ha venido llamando "pequeña edad de hielo".
En esta figura, puedes ver la evolución temporal del número de manchas solares; los períodos de baja actividad magnética (pocas manchas) coinciden con épocas de clima frío.
La causa principal de esta etapa fría de nuestro clima parece ser debida al intenso vulcanismo. Entre 1275-1300 se produjeron erupciones encadenadas que proyectaron a la atmósfera inmensas cantidades de gases y polvo; la atmósfera se oscureció, impidiendo el paso de la radiación solar: La superficie terrestre se enfrió.
Pero entre los años 1645-1675, el frío fue especialmente intenso. El efecto del vulcanismo se vió reforzado por la ausencia de manchas solares (inactividad del campo magnético solar). Y Europa padeció a causa del frío: malas cosechas, muerte del ganado, hambre .....

Hoy sabemos que las primeras señales de generación de un nuevo flujo magnético aparecen unos 7-8 años antes de la iniciación del correspondiente ciclo de manchas, y sabemos detectarlo.
Así, para el actual ciclo solar (el nº 24) que se inició el 8 de enero de 2008, las primeras señales de flujo se detectaron en 1999, cuando el anterior ciclo (el nº 23) estaba recién iniciado (inicio en 1996).
Esto nos permite hacer predicciones bastante ajustadas sobre el futuro próximo de la actividad magnética del Sol.

Y ¿qué es lo que está ocurriendo en la actualidad? Dos hechos significativos:

1.- Los últimos ciclos solares muestran una tendencia decreciente en la intensidad del campo magnético.
El ciclo nº 24 es el más débil en casi 100 años; se inició con retraso y su máximo de actividad es un mini-máximo, con una disminución del 48% en la actividad respecto al ciclo 21.
Ver figura : Comparación actividad ciclos 21, 22, 23 y 24. Se han superpuesto los cuatro ciclos aunque debemos recordar que el ciclo 21 se desarrolló en el periodo 1976-86,  el 22 en 1986-97,   el 23 en 1997-2008 y el 24 en 2008-2019 (final esperado).


2.- Las señales de generación del nuevo flujo que anunciaría el ciclo nº 25 no aparecen. Esto nos hace creer que el ciclo nº 25 llegará con retraso de 3-5 años o bien, que quizás no se inicie, debido a la debilidad del campo magnético para producir manchas, entrando el Sol en un estado de  "letargo" o mínimo de actividad magnética.

Todo parece indicar que el Sol nos va a dejar sin su protección frente a la radiación cósmica durante unos cuantos años, lo cual (por homología con lo que ya ha ocurrido en el pasado) ocasionará un enfriamiento global.

Es preciso aclarar que NO nos encaminamos hacia una nueva "edad de hielo" (el alarmismo del frío es tan dañino para el conocimiento como el alarmismo del calor). Los científicos que advierten de este fenómeno describen un enfriamiento "asumible".
Solo en el caso de coincidencia con un aumento de actividad volcánica, el enfriamiento podría tener consecuencias más severas en los Sistemas Naturales (atmósfera, oceános ...).  

La causa de que el Sol genere campos magnéticos de muy diferente actividad, originando ciclos activos y ciclos débiles ( con diferentes números de manchas), se encuentra al parecer en el movimiento del baricentro del sistema solar. (Ver vídeo . El baricentro se representa como un pequeño rombo rojo; en realidad, el sol debería permanecer fijo y el rombo rojo desplazarse en su proximidad, pero el movimiento relativo de ambos se ha representado al revés para facilitar la construcción de la animación).
El baricentro es el punto invisible en el que la acción de la fuerza de gravedad de los diferentes planetas se equilibra, se compensa, por eso también se le conoce como punto de equilibrio de masas.
El punto del baricentro se encuentra situado en el Sol o fuera de él pero, en ese caso, muy próximo, describiendo un movimiento irregular que se reinicia cada 178 años.
El baricentro ocupa una posición "errante", no fija, a causa de las órbitas irregulares de los planetas de mayor masa, Júpiter y Saturno principalmente.
Los flujos de plasma en el Sol que originan los campos magnéticos, se ven afectados por la posición del baricentro. Por esta razón, en unos ciclos el campo magnético creado es más activo que en otros.

Pero ninguna de estas noticias aparecerá en la prensa, radio y  tv.

Solo en revistas especializadas; de especialistas para especialistas. La amenaza de ser tildado de negacionista y del consiguiente linchamiento social, profesional y personal surte efecto.
Son numerosos los científicos que perciben que la actitud escéptica o crítica en asuntos relacionados con el Cambio Climático equivale a meter la mano en un avispero y optan por el prudente silencio, mientras siguen trabajando y publicando en las revistas especializadas de su sector.
Es comprensible.

Mientras tanto, en París, sigue la colecta de fondos (eso sí, fondos verdes); he oído en el informativo de las 19:00 que China compromete 65.000 millones de euros para ser invertidos en África.
Imagino los nerviosos movimientos de empresas y organizaciones para ir tomando posiciones que les permitan acceder a esos fondos destinados (en primera intención) a los proyectos de adaptación para hacer frente a los impactos del Calentamiento Global. Surgen nuevos mercados y surgen nuevos negocios. Las medidas de mitigación harán surgir una nueva fiscalidad y fuentes de financiación para los estados. Todo será aceptado por el ciudadano con resignación y emoción; al final. se trata de salvar el planeta.
Espero con curiosidad el momento de ver en los medios de comunicación la información que precise el empleo de esos fondos y el organismo encargado de supervisar su correcto uso y justificación, en lugar de las noticias alarmistas con la estatua de la Libertad cubierta por el mar hasta el cuello.

Quizás algo sea empleado en hacer frente al auténtico problema ambiental global: el problema de la contaminación de los sistemas naturales del planeta, los suelos, el aire y aguas de continentes y océanos.
No estaría nada mal. Aunque la temperatura descienda.


  Cambio Climático: reflexiones para una ética posible. Iosu Marruedo. Biólogo La Conferencia Científica de las Naciones Unidas (también con...