miércoles, 28 de diciembre de 2011

La circulación de Walker


Sabemos que hay una circulación atmosférica que varía según la latitud, y que da lugar a las células llamadas de Hadley (la más cercana al ecuador), de Ferrell (que se encuentra el latitudes intermedias) y polar (la más cercana a los polos).


También existen unas células de circulación que varían según la longitud. La más importante es la circulación de Walker, que se produce en el ecuador, sobre el océano Pacífico. El agua del Pacífico de Indonesia y del norte de Australia  está normalmente más caliente que la del otro lado del océano, en las costas americanas, razón por la cual el aire tiende a elevarse en la zona australiana, creando una depresión que induce una corriente de aire superficial que va de América a Indonesia, llevando consigo grandes cantidades de humedad, que dejan importantes lluvias cuando suben. En altura se crea una contracorriente de aire más seco en sentido contrario en altura, que desciende conforme se enfría y se acerca a las costas americanas.



Una vista esquemática en tres dimensiones de la célula de circulación de Walker, que consiste en vientos superficiales que soplan de este a oeste a lo largo del Pacífico tropical (flecha azul), llevando aire húmedo hacia el oeste. Al llegar al Pacifico oeste, el aire húmedo se eleva, formando nubes. El aire ascendente se va secando, al desprenderse de una gran parte de su humedad en forma de lluvia. Este viento, al llegar a unos 10 o 12.000 metros de altura se dirige del oeste al este, moviendo el aire seco hacia América del Sur. El aire desciende de nuevo hacia la superficie al este del Pacífico tropical, seco y relativamente libre de nubes, completando el circuito. Las presiones al nivel del mar son más altas bajo el aire seco descendente en el Pacífico este que en el oeste, más cálido y más húmedo.

Los vientos correspondientes a la parte inferior de la circulación de Walker arrastran el agua superficial cálida desde las costas americanas hasta las de Australia, ocasionando una surgencia en las costas de Perú. Esta surgencia de agua fría y muy rica en alimentos hace que, en condiciones normales, estas aguas sean muy ricas en pesca.



Cuando las condiciones del océano varían, la circulación de Walker se modifica.



La circulación de Walker está, por tanto, íntimamente relacionada con los ciclos de El Niño y La Niña.

La teoría sugiere que el aumento de gases de efecto invernadero debería debilitar la circulación tridimensional de la atmósfera en los trópicos, incluyendo la circulación de Walker. A medida que aumentan las temperaturas y se evapora más agua de los océanos, la cantidad de vapor de agua en la atmósfera inferior se incrementa rápidamente. Sin embargo, los procesos físicos impiden que la precipitación aumente tan rápidamente como aumenta el contenido en vapor de agua de la atmósfera tropical. Por tanto, con el paso del tiempo, la cantidad de vapor de agua transportado a la atmósfera superior debe permanecer en equilibrio con la precipitación, el ritmo al que se eleva el aire húmedo se ralentiza para compensar. Esto debe conducir a una disminución general de la Circulación de Walker.


En un clima más cálido, (A) la evaporación desde el cálido tropical del Océano Pacífico aumenta fuertemente y humedece la atmósfera inferior. Al este Los vientos del este hacia el oeste transportan el aire caliente de superficie cargado de humedad hacia el Pacífico del oeste (C), donde el aire húmedo se eleva y alimenta la lluvia, pero la precipitación aumenta más lentamente que el contenido de humedad atmosférica. Para compensar el desequilibrio de la humedad, los vientos alisios (B) se ralentizan, al igual que todo el circuito de circulación Walker, incluyendo los vientos de nivel superior (D).

De hecho, en el artículo Weakening of tropical Pacific atmospheric circulation due to anthropogenic forcing, de Vecchi y otros, publicado el año 2006, se afirma que la circulación de Walker ha disminuido un 3,5 % en los últimos 150 años, lo que confirmaría, de ser cierto, la teoría de que el aumento de las temperaturas ralentizan las circulaciones de las células atmosféricas que varían según la longitud. En cambio, esta teoría aplicada a la célula de Hadley también debería conducir a su debilitación con el calentamiento global, cosa que no se ha podido observar.

En el artículo Global warming and the weakening of tropical circulation, deVecchi y Soden, publicado en el 2007, dicen que “con los escenarios futuros de emisiones de gases de efecto invernadero y de aerosoles se puede pronosticar un debilitamiento de la circulación de Walker de un 10 a un 15 % durante el siglo XXI”.

En caso de que ocurriera un debilitamiento del 10 al 15 % de la circulación de Walker, se producirían cambios significativos en los patrones de precipitación, de vientos y de corrientes marinas en amplias zonas. Por ejemplo, la reducción del flujo ascendente de agua rica en nutrientes el la costa americana podría tener un gran impacto en su ecosistema. Un debilitamiento de la circulación de Walker también podría causar un aumento del gradiente del viento en el Atlántico tropical, lo que sería menos favorable para que se desarrollasen ciclones tropicales, ya que el desarrollo de estos ciclones requiere valores relativamente bajos del gradiente vertical del viento, de manera que su núcleo más caliente pueda mantenerse encima de su centro de circulación superficial (los ciclones con un gradiente vertical de vientos importante se debilitan al ser arrastrada la zona superior del ciclón lejos del núcleo).

Sin embargo, estas previsiones a largo plazo son poco fiables, tanto por nuestro desconocimiento de cómo cambiará en el futuro la composición de la atmósfera, como por las imperfecciones de los modelos utilizados.




lunes, 26 de diciembre de 2011

¿Qué pasaría si la concentración de gases de efecto invernadero pasara por cero?


Un experimento climático numérico demuestra el papel fundamental del forzamiento radiativo de los gases de efecto invernadero que no condensan (CO2, CH4, etc), a pesar de que, en cuanto a efecto invernadero, el vapor de agua es la sustancia dominante, responsable de aproximadamente el 50% de la absorción de calor, las nubes son responsables de alrededor del 25%, y el CO2 es responsable del 20% del efecto. El resto corresponde a los gases de efecto invernadero menores, como la capa de ozono y el metano, por ejemplo, y una pequeña cantidad de partículas en el aire (polvo y otros "aerosoles").

Esto demostraría que el papel del vapor de agua y nubes es únicamente de retroalimentación.

Este experimento se ha realizado mediante el modelo climático GISS ModelE de circulación general acoplada atmósfera-océano, reduciendo a cero la concentración de todos los gases de efecto invernadero que no condensan. Al hacer esto se elimina el forzamiento radiativo que sustenta el apoyo para las retroalimentaciones del vapor de agua y las nubes, causando una rápida condensación y precipitación del vapor de agua de la atmósfera, produciendo el colapso del efecto invernadero terrestre, y la caída de la Tierra en un estado de congelación.

Evolución en el tiempo de la temperatura global, del flujo neto en la cima de la atmósfera (TOA – top of atmosphere), la columna de vapor de agua, el albedo del planeta, la superficie de hielo marino y la cobertura de nubes, después de pasar a cero la concentracción de gases de efecto invernadero que no condensan (CO2, CH4, etc.)
Para el flujo neto en la cima de la atmósfera y para la temperatura global, utilizar la ordenada de la izquierda.

En la figura se ve que el alcance del impacto climático del hecho de reducir a cero la concentración de los gases de efecto invernadero que no condensan se hace evidente al cabo de tan sólo 10 años.

Durante el primer año, la temperatura media de la superficie cae 4,6 ° C.

Pasados 50 años, la temperatura global se sitúa en -21 ° C, una disminución de 34,8 ° C. El vapor de agua atmosférico se encuentra alrededor del 10% del valor inicial (pasa de 22,6 a 2,2 mm). El aumento global de la cubierta de nubes pasa de su valor inicial de 58% a más del 75%, la fracción del hielo marino global aumenta del 4,6% al 46,7%, haciendo que el albedo planetario de la Tierra aumente del ~ 29% al 41,8%. Esto tiene como efecto reducir la energía solar absorbida y exacerbar aún más el enfriamiento global.

Al cabo de 50 años, un tercio de la superficie del océano sigue estando libre de hielo, a pesar de que la temperatura global de la superficie está por debajo de -21 ° C.

En las latitudes tropicales, la radiación solar incidente es suficiente para que el mar no se congele. Si bien este oasis dentro de una Tierra cubierto de hielo parece ser estable, al menos en el corto plazo de tiempo del gráfico, son necesarios más cálculos con un océano interactivo para verificar su potencial para la estabilidad a largo plazo.



Promedio anual de la temparatura global según la latitud a pasar por cero la concentración de gases de efecto invernadero no condensables


CO2: The Thermostat that Controls Earth's Temperature


domingo, 25 de diciembre de 2011

El precio de la electricidad del primer trimestre 2012


Los resultados de la XVII subasta TUR (tarifa de Último Recurso) de electricidad para el primer trimestre de 2012 son:



Los precios des esta subasta representan una bajada del 8,6 % con respecto a los de la anterior del 27 de setiembre, por lo que, en teoría, el precio que pagamos por la electricidad debería bajar el próximo 1 de enero. Pero, teniendo en cuenta que en la subasta anterior el precio no aumentó a pesar de que el de la subasta lo había hecho en un 9 % (el gobierno prefirió bajar la otra parte de la componente del precio, para no alarmar al personal, a pesar de que con ello se aumentaba considerablemente el déficit de tarifa), lo más probable es que el gobierno tampoco modifique el precio del kWh esta vez.


Para centrarnos con algunos datos: el coste de acceso del año 2011 previsto en la Orden ITC/3353/2010 era de 16.571 millones de euros, de los que 6.019 correspondían a primas para el régimen especial (fundamentalmente energías renovables). El consumo previsto era de 255.075 GWh y la tarifa de acceso media de 0,511 €/kWh, lo que supone una recaudación de 13.036 millones de euros, a la que se deben añadir otros ingresos (energía reactiva, excesos de potencia, etc.) por un valor de 528 millones de euros. El déficit previsto para el año 2011 era, pues, de 16.571 – 13.036 - 528 = 3.047 millones de euros.

La previsión de la CNE (Comisión Nacional de la Energía) de setiembre de 2011, es de un coste de acceso para el año 2011 de 16.985 millones de euros, de los que 6.602 corresponden a las primas del régimen especial. El consumo anual previsto se reduce a 250.789 GWh, y la recaudación prevista es de 12.651 millones de euros (correspondiente a una tarifa de peaje de 0,504 €/kWh, que ha bajado a causa de la bajada del tercer trimestre), a la que hay que añadir otros ingresos por un valor de 528 millones de euros. El déficit previsto es de 16.985 – 12.561 – 528 = 3.772 millones de euros, un 24 % superior al inicial.

Es decir, para equilibrar las cuentas de la tarifa de acceso habría que ponerlas a 16.985.000/250.789 = 67,7 €/MWh = 0,677 €/kWh, un aumento de más del 30 %. Y no digamos si, además, se quiere compensar el déficit acumulado, que ya supera los 22.000 millones de euros.

Recordemos que el objetivo del Gobierno, fijado por normativa, era que para este año 2011 el déficit no superara los 3.000 millones, el año que viene los 1.500 millones y dejase de generarse en 2013.


domingo, 18 de diciembre de 2011

La presidencia danesa de la Unión Europea

La nueva primera ministra danesa Helle Thorning-Schmidt

El hecho de que Dinamarca se hará cargo de la Presidencia de la Unión Europea el próximo 1 de enero, sustituyendo a Polonia dará, sin duda, un impulso a las políticas de energía "verde" en la UE, que desde Varsovia no se han visto como una prioridad, pero que con toda seguridad si lo serán para Copenhague.

El nuevo gobierno de centro izquierda danés ya ha indicado que se promoverá la Hoja de Ruta Climática 2050 que publicó la Comisión a principios de este año y la Hoja de Ruta de la Energía 2050, que se acaba de publicar el 13 de diciembre. También ha dicho que va a promover la adopción de la Directiva de Eficiencia Energética de la UE, y que tratará de encontrar el modo de limitar la cantidad de cuotas de emisiones de CO2 en el Sistema de Comercio de Emisiones Europeo (ETS), para ayudar a impulsar el precio del CO2. Por supuesto, con el danés Connie Hedegaard como Comisario del Clima, Dinamarca ya tiene una figura verde con poder en Bruselas.

Pero hay mucho más que eso. Cuando se trata de energía verde y de políticas climáticas, los daneses también están tratando de predicar con el ejemplo. El mes pasado, el Gobierno danés presentó un plan de energía, "Nuestra Energía del Futuro", que pondrá a Dinamarca en lo que bien puede llamarse como una carrera radical hacia la descarbonización.

El gobierno ha declarado que quiere eliminar todo el uso de combustibles fósiles para el año 2050. Eso es revolucionario, si se tiene en cuenta que los combustibles fósiles suministraron el 79% del consumo bruto de energía en Dinamarca el año pasado. Y que quiere hacerlo sin energía nuclear y sin captura y almacenamiento de carbono (CCS).

¿Cómo? Eso es ciertamente una pregunta muy interesante a la que el resto de Europa espera ver cual será la respuesta danesa. En ese sentido, Dinamarca puede ser considerada como un campo de pruebas fascinante para las políticas de descarbonización de ámbito europeo. Muy brevemente, el plan de Copenhague consiste en ampliar el uso de la energía eólica (pasar del 22 % actual de la producción total de electricidad a la friolera de 50 % en 2020), así como el uso de la biomasa, y con una fuerte inversión en redes inteligentes, en movilidad eléctrica y en más interconexiones con países vecinos.

Este plan plantea algunas preguntas interesantes, tales como:

- ¿Puede el sistema eléctrico hacer frente a un porcentaje tan elevado de energía eólica?
- ¿Cuál será su efecto sobre el sistema eléctrico europeo, dado que prácticamente todos los países vecinos de Dinamarca también están tratando de ampliar grandemente su capacidad de energía eólica?
- ¿Puede la biomasa ser producida de manera "sostenible" y rentable en las grandes cantidades que van a ser necesarias?
- ¿Con qué rapidez se implementarán las redes inteligentes y los vehículos eléctricos y cuáles serán sus efectos en el sistema eléctrico?
- ¿Puede crear los daneses las innovaciones tecnológicas que la revolución verde necesitará para ser económicamente sostenible?

Estas son preguntas que los daneses apenas están empezando a hacerse a sí mismos. Para ellos lo más importante parece haber sido establecer los objetivos primero y preocuparse después. Tampoco parecen estar muy preocupados por los costos de todo esto. Por lo menos, todavía no.

En resumen, nos espera un semestre de presidencia danesa muy interesante desde el punto de vista de la energía.

Para más información: Danes decline oil, gas, coal and nuclear, publicado en European Energy Review del 12 de diciembre.



jueves, 15 de diciembre de 2011

Una posible explicación de la actual desaceleración del calentamiento global


El calentamiento global experimentado en el siglo XX ha tenido un período en el que parece haberse detenido: hablamos del período entre 1950 y 1979. Esta parada se ha vuelto a repetir en los últimos 10 años. En el hemisferio sur, sin embargo, no se nota la desaceleración del calentamiento durante el período 1950-1979, ya que la tendencia de este período es muy parecida a la del período 1980-2000, aunque la tendencia de los 10 últimos años (2001-2011) es a la disminución de la temperatura.




En el año 2009, Martin Wild, del Institute for Atmospheric and Climate Science, de Zurich, publicó el artículo Global dimming and brightening: A review, en el que se daba una explicación de por qué la temperatura no aumentó en el hemisferio norte pero sí lo hizo en el hemisferio sur. En el año 2011, el mismo autor ha publicado Enlightening Global Dimming and Brightening, que complementa el anterior, incluyendo el período 2001-2010. Su explicación se basa en la disminución de la radiación solar recibida por la superficie terrestre (SSR – surface solar radiation) durante el período 1950-1980, su aumento durante el período 1980-2000, y su posterior disminución.

Representación esquemática de los períodos de amortiguación (dimming) y de aumento (brightening) de la radiación solar en la superficie. Las cifras señalan los cambios en los flujos de energía en la superficie en vatios por metro cuadrado. Las cifras en rojo indican un aumento de las magnitudes de los flujos de energía en la dirección indicada por las flechas, mientras que las azules indican una disminución.

Durante el período 1950-1980, debido a los aerosoles de la atmósfera, la disminución de la radiación solar recibida en la superficie puede haber sido mayor que al aumento de radiación debido al crecimiento de la concentración de los gases de efecto invernadero (LW↓), contrarrestando el calentamiento global. Como resultado, la energía emitida por la superficie (LW↑) tuvo un aumento poco importante, lo que puede haber atenuado la evaporación y su energía equivalente, al flujo de calor latente (LH en la figura), conduciendo a una desaceleración del ciclo del agua.

Durante el período de aumento de la SSR, entre 1980 y 2000, con una atmósfera más limpia, el efecto de los gases de efecto invernadero quedó al descubierto, causando un calentamiento más rápido, mayor evaporación y calor latente (LH) y una intensificación del ciclo del agua.

La figura siguiente indica los cambios de la radiación solar recibida en la superficie observada en las regiones con una buena cobertura de estaciones de medida. Durante el período 1950-1980 hay un claro predominio de disminución de la SSR, durante el período 1980-2000 esta radiación se recupera en todas partes salvo en la India, mientras que, a partir de 2000 no hay una tendencia clara, aunque se observa una fuerte disminución en China e India. Las cifras son en vatios por metro cuadrado y por década.


Podemos estimar la emisión de aerosoles siguiendo las emisiones de azufre, que son mucho mayores en el hemisferio norte que en el sur, que aumentaron durante el período 1950-1970, para empezar a disminuir a partir de los años 90. El hecho de que las emisiones de azufre y, por tanto, de aerosoles, fue mucho menor en el hemisferio sur puede ser una explicación de porque la temperatura en el hemisferio sur siguió aumentando en el período 1950-1980, ya que los aerosoles no contrarrestaron el calentamiento debido a los gases de efecto invernadero.

Por último, podemos ver en la figura siguiente que las precipitaciones en el hemisferio norte siguen la pauta explicada anteriormente: una disminución durante el período de amortiguación de la radiación recibida por la superficie terrestre (1950-1980) y un aumento a partir de entonces, durante el período de aumento de la SSR. En esta figura vemos que la precipitación ha seguido aumentando durante el período 2001-2008, lo que representa una cierta contradicción con la desaceleración del aumento de las temperaturas.

Estimación de las anomalías anuales de precipitación durante el período 1950-2008 sobre las tierras emergidas del hemisferio norte, tomando como referencia el período 1961-1990. En azul, la media de 11 años. Las unidades son en mm.

miércoles, 7 de diciembre de 2011

Un clima menos sensible al CO2 de lo que se creía


Hay un cierto consenso en poner como objetivo la limitación del aumento de la temperatura global en 2 ºC respecto de la era preindustrial para evitar problemas mayores, lo que, según los modelos, es el aumento de temperatura que se tendría con una concentración de 450 ppm de CO2.

Pero, ¿es cierto que una concentración de 450 ppm de CO2 daría como resultado un calentamiento de 2 ºC? Según un nuevo estudio publicado el pasado noviembre en Science, titulado Climate Sensitivity Estimated from Temperature Reconstructions of the Last Glacial Maximum, la sensibilidad del clima con respecto a la concentración de CO2 podría ser menor que lo que se creía.

Generalmente se acepta que al doblar la concentración de CO2 (es decir, al pasar de 300 a 600 ppm) se obtendría un aumento de temperatura de 3 ± 1,5 ºC, con una probabilidad del 66 %.

En este estudio, combinando las reconstrucciones de temperatura del océano y de la tierra emergida del último máximo glacial con simulaciones de un modelo climático de complejidad intermedia, se llega a la conclusión de que al pasar de 300 a 600 ppm de CO2, el aumento de temperatura mediano sería de 2,3 ºC, con una probabilidad del 66 % de que se encuentre entre 1,7 y 2,6 ºC, y con una probabilidad del 90 % de que se encuentre entre 1,4 y 2,8 ºC.

Según la función de probabilidad mostrada en la figura, tanto la temperatura global como la de los océanos presenta un máximo bastante ancho, con dos picos, a 2,0 y 2,6 ºC, dos picos menores a 1,3 y 2,8 ºC, y con probabilidades ya mucho menores de aumentos de temperatura menores de 1,0 ºC y superiores a 3,2 ºC. En cambio, para la tierra emergida, es decir, para los continentes, la función de probabilidad presenta un máximo más elevado (media y mediana = 3,4 ºC). La tabla siguiente presenta los intervalos para cada probabilidad y para cada caso (global, océano y continentes)


Los resultados de este estudio implican una menor probabilidad de un inminente cambio climático que lo que se pensaba previamente, por lo que el mundo tendrá más tiempo para enfrentarse al cambio climático, lo que dará alas a las naciones que no quieren comprometerse en acciones para reducir las emisiones de CO2.

lunes, 5 de diciembre de 2011

El episodio frío del año 536 d.C.


En el año 536 d.C., la niebla seca más persistente y más densa de la historia registrada afectó a Europa, Oriente Medio, China, y probablemente a todo el mundo. El verano fue frío y hubo hambre, escasez y guerra. La cosecha insólitamente grande de 534 se consumió tratando de alimentar a la gente. Un gran porcentaje de la población de Europa murió y el número de habitantes de Europa disminuyó a su nivel más bajo entre los tiempos clásico y moderno.

Flavio Magno Aurelio Casiodoro Senator era el prefecto del pretorio, lo que podríamos llamar hoy en día el primer ministro del reino visigodo del siglo VI, que tenía su capital en Rávena, y que incluía Roma. En otoño de 536 escribió una carta desde su finca de campo a su asistente, Ambrosio. En ella, describe como era vivir en Italia durante este año: ¿Qué clase de experiencia es esta, te pregunto, de mirar al astro principal y no percibir su luz usual? ¿Mirar la luna totalmente llena pero sin su esplendor natural? Todos percibimos un sol coloreado de azul. Nos sorprendemos que a mediodía los cuerpos no tengan sombras, de que el calor más fuerte haya alcanzado la inercia de la tibieza extrema durante el espacio de un año entero.

Zacarías de Mitilena refirió las observaciones hechas en Constantinopla en el mismo año: El sol empezó a oscurecerse durante el día y la luna, por la noche… desde el 24 de marzo de este año hasta el 24 de junio del año que sigue.

El historiador bizantino Procopio, en su descripción de las guerras contra los vándalos, escribió, refiriéndose al año 536: “Durante este año tuvo lugar el signo más temible. Porque el sol daba su luz sin brillo, como la luna, durante este año entero, y se parecía completamente al sol eclipsado, porque sus rayos no eran claros tal como acostumbra. Y desde el momento en que eso sucedió, los hombres no estuvieron libres ni de la guerra ni de la peste ni de ninguna cosa que no llevara a la muerte. Y sucedió en el momento en que Justiniano estaba en el décimo año de su reinado”.

En Irlanda, los Anales de los cuatro maestros registran referencias en 536 y 539 d.C. de una escasez de pan. En los Anales cámbricos británicos, hay una referencia en 537 a mortalitas in Britannia et Hiberna, muerte en Bretaña e Irlanda. El período de hambruna fue seguido por el brote de plaga en 542 en la región del Mediterráneo, que llegó hasta Irlanda en 545.

En China, durante los equinoccios de primavera y otoño de cada año, los antiguos chinos buscaban a Canopus, la estrella más brillante de la constelación de Alfa Carina, para asegurarse buenos tiempos y para marcar las estaciones. Sin embargo, en 536 d.C. no se pudo ver Canopus. Los registros del gobierno Ching en el sur de China informan de frío y nieve en julio y agosto que acabó con el cultivo de granos, causando una grave hambruna el siguiente otoño. Las narraciones muestran que los efectos climáticos se notaron hasta 538. Otros reinos chinos informaron de desastres similares. Uno de ellos señaló que el tiempo fue tan severo que del 70 al 80 % de la gente de la región murió de hambre.

Los registros de la capa de hielo Quelccaya en los Andes del sur de Perú señalan un período de sequía severa alrededor de 540-560 d.C. y de 570-610 d.C. Un estudio ha sugerido que una era fría puede haber empezado alrededor del año 535.

El profesor Mike Bailley, experto en dendrocronología, encontró un crecimiento anormalmente pequeño en los anillos de los robles de Irlanda en el año 536, seguido de otra caída brusca en el año 540, después de una recuperación (Dendrochronology raises questions about the nature of the AD 536 dustveil event). Se han encontrado patrones semejantes en árboles de Suecia, Finlandia y California. En la figura siguiente se puede ver una cronología del crecimiento de los anillos de los árboles de los últimos 1000 años, en el que se aprecia, en la franja amarilla, el evento de 536 d.C.


Durante los años 540 y 541 se extendió por toda Europa, el norte de África y parte de Asia, la llamada plaga de Justiniano (en aquel entonces emperador de Bizancio), que causó la muerte de millones de personas. La enorme mortandad de esta plaga se puede explicar por la debilidad de la población después del período de malas cosechas debidas al frío de los años anteriores.

¿Cuál fue la causa de este frío intenso, repentino y que afecto todos los continentes? Una causa puede ser una explosión volcánica que provocase la misteriosa nube de aerosol de 536 d.C. Hasta hace poco había dos candidatos para esta erupción: la caldera Rabaul, en Papúa Nueva Guinea, y El Chichón. Pero no hay pruebas evidentes para ninguno de ellos.

Se ha planteado la posibilidad de que la niebla seca de 536 d.C. no fuese el resultado de una erupción volcánica, sino más bien el efecto del choque de un asteroide o cometa contra uno de los océanos del mundo, o bien el del paso de la órbita de la Tierra a través de una nube de polvo interestelar. Puesto que no hay ningún volcán que sea un candidato indiscutible, y como la señal ácida en el hielo es mucho menor de lo que se esperaría de una erupción de tamaño suficiente para causar los efectos observados por todo el mundo, hay que considerar la posibilidad de un impacto o de una nube de polvo cósmico.

Últimamente han aparecido dos estudios sobre el tema. La novedad es que se ha mejorado mucho la precisión con la que se pueden datar los testigos de hielo. El primero, New ice core evidence for a volcanic cause of the A.D. 536 dust veil, publicado en el 2008, tras analizar el contenido en SO4 de los testigos de hielo de Groenlandia, en los que se encontró un depósito de SO4 en los años 533-534 ± 2, precedido de otro depósito de SO4 aún mayor datado el año 529 ± 2, como se ve en la figura, se formula la hipótesis de una erupción del volcán Haruna, en el Japón. Por la cantidad de SO4 encontrado, la explosión del año 529 debió ser mucho más importante que la del Tambora de 1815.


El segundo estudio está firmado en primer lugar por Dallas Abbott, de la Universidad de Columbia, y es del año 2008, Magnetite and Silicate Spherules from the GISP2 Core at the 536 A.D. Horizon. Este estudio se completa por otro de la misma autora, del año 2009, Comet smashes triggered ancient famine. En él, los autores han examinado los residuos sólidos del testigo de hielo de GISP 2 con una profundidad entre 361,45 y 361,55 metros, que cubre las fechas entre el 24 de febrero y el 28 de agosto del año 536 d.C. Esta muestra de hielo contiene la concentración de cloro no volcánico más elevada de los últimos 2.000 años (64 ppb). La zona correspondiente a principios del año 536 contiene, además, 5 esférulas perfectamente redondas, de las cuales 3 son de óxido de hierro puro, y miden entre 0,3 y 1,3 micras de diámetro. Otra es de silicato con óxido de hierro, y mide 0,5 micras. La última es un silicato sódico potásico de aluminio, y mide 2,6 micras. Estas esférulas, según los autores, tienen su origen en un impacto, aunque no provienen directamente del cuerpo causante del impacto, sino que su análisis hace pensar que se trata de restos terrestres lanzados a la atmósfera por el impacto. En el segundo estudio se añade que estas esférulas se hallan en testigos de hielo correspondientes a varios años, lo que hace suponer que se trata del impacto de un cometa, ya que estos cuerpos tienden a fragmentarse antes de llagar a la Tierra. Localizan la caída de un primer objeto de unos 640 metros en el golfo de Carpentaria, en Australia, y de un segundo objeto, más pequeño, en el Mar del Norte, cerca de Noruega. Microfósiles marinos encontrados junto con las esférulas son coherentes con un impacto oceánico.

De manera que, hoy por hoy, no tenemos la certeza de cual fue la causa del evento del año 536. Pudo ser una erupción volcánica o la caída de un cometa.


jueves, 1 de diciembre de 2011

Las manchas solares del ciclo 24 serán más numerosas que la previsión inicial


Habíamos visto en una entrada anterior la previsión de manchas solares del ciclo 24 que efectúa la NASA. Con los datos de manchas de mayo, la previsión era que el promedio mensual de manchas sería de unas 70 en el máximo, por 120 en el ciclo 23. Pues bien, la nueva previsión, con los datos de manchas de octubre, es que el número de manchas en el máximo del ciclo 24 será de 90.



Estas predicciones de la actividad del ciclo solar en curso son bastante precisas cuando el ciclo solar lleva tres años. En mayo, llevábamos 2 ,5 años dentro del ciclo solar 24, por lo que esta predicción debería afinarse antes de acabar el año 2011.

En los gráficos vemos, en rojo, el número promedio mensual de manchas del ciclo 23 y de lo que llevamos del ciclo 24, y en negro la predicción (el trazo grueso es la predicción promedio, y los dos trazos finos indican el intervalo donde se situarán el 90 % de los datos mensuales)

Parece, pues, que tendremos un ciclo 24 algo más activo que lo previsto inicialmente.

Volveremos sobre estas previsiones dentro de tres u cuatro meses.

miércoles, 30 de noviembre de 2011

Energía nuclear en el World Energy Outlook 2011


Acaba de publicarse el World Energy Outlook 2011, editado por la Agencia Internacional de la Energía (IEA). En el leemos que, en un mundo con muchas incertidumbres, hay una certeza: la demanda de energía va a seguir creciendo de manera robusta, al ir aumentando la población mundial y al ir creciendo la aspiración de los países en desarrollo de alcanzar el nivel de vida occidental. La gran pregunta es si esta demanda podrá ser satisfecha de manera segura, sostenible y a un precio asequible.

Además, cuando las naciones se están preparando para la próxima ronda sobre el clima en Durban, cada vez parece menos claro que los legisladores estén poniendo el mundo en una trayectoria que limite el calentamiento global a 2ºC. El mensaje de la IEA es claro: o actuamos ahora, o estaremos encerrados en un futuro energético altamente carbonizado, que será inseguro e ineficiente.

El World Energy Outlook 2008 presentaba tres escenarios:

- el de referencia, en el que se seguía como hasta ahora, y en el que las emisiones de CO2 llegaban a más de 40.000 millones de toneladas en el año 2030.

- el escenario 550, en el que las emisiones de CO2 se limitan a 33.000 millones de toneladas a partir de 2020, y que, se calcula, limitarán la concentración de CO2 a 550 ppm.

- el escenario 450, en el que se calcula que se limitará la concentración de CO2 a 450 ppm, consecuente con un 50 % de probabilidad de limitar el aumento de la temperatura global respecto de la era preindustrial limitado a 2º C, y que necesita que las emisiones de CO2 se reduzcan a partir de 2020 para alcanzar los 26.000 millones de toneladas en 2030.

La reducción de emisiones entre los tres escenarios, como se ve en la figura, se obtiene por la captación de CO2 (CCS – Carbon Capture and Storage), por el aumento de la energía nuclear, de la energía renovable y de los biocarburantes, y por el aumento de la eficiencia energética.


Como en años anteriores, la IEA presenta en 2011 tres escenarios entre 2010 y 2035. El escenario 550 ha sido sustituido por el escenario llamado Nuevas Políticas, en el que se presume que los más recientes compromisos en materia de política energética se aplican de manera prudente, aunque no vengan avaladas todavía por medidas firmes.

A pesar de la incertidumbre reinante sobre las perspectivas de crecimiento económico a corto plazo, en el Escenario de Nuevas Políticas la demanda de energía global registra una fuerte alza y aumenta un tercio de 2010 a 2035. Asumiendo un aumento de la población mundial de 1.700 millones de personas y un crecimiento medio anual de la economía mundial del 3,5% para el período, se obtiene una demanda sin precedentes de servicios de energía y movilidad. La adopción de una tasa de crecimiento del PIB mundial a corto plazo inferior a la utilizada en esta publicación solo generaría una diferencia marginal en las tendencias a largo plazo.


Los países no pertenecientes a la OCDE determinarán cada vez más la dinámica de los mercados energéticos. El 90% del aumento de la población, el 70% del incremento del producto económico y el 90% del alza de la demanda de energía de 2010 a 2035 serán atribuibles a los países no pertenecientes a la OCDE. China consolidará su posición de máximo consumidor mundial de energía: en 2035, utilizará aproximadamente un 70% de energía más que Estados Unidos, el segundo consumidor mundial, aunque, para esa fecha, el consumo de energía per cápita en China representará aún menos de la mitad del de Estados Unidos. Los índices de crecimiento del consumo de energía en la India, Indonesia, Brasil y Oriente Medio serán incluso más rápidos que en China.

Será necesaria una inversión mundial de 38 billones USD (USD de 2010) en infraestructura energética durante el periodo 2011-2035. Casi dos tercios de la inversión total se realizarán en países no pertenecientes a la OCDE. El petróleo y el gas conjuntamente acapararán cerca de 20 billones USD del total, porque tanto la necesidad de inversión en exploración-producción como el coste inherente aumentarán a medio y largo plazo para estas dos fuentes de energía. La mayor parte de la inversión restante se destinará al sector eléctrico, y de esta un 40% de ella se dedicará a las redes de transmisión y distribución.


La era de los combustibles fósiles dista mucho de haber terminado, pero la preponderancia de estos disminuirá. Si bien aumentará la demanda de todos los combustibles, la proporción de los combustibles fósiles en el consumo mundial de energía primaria descenderá ligeramente, del 81% en 2010 al 75% en 2035; el gas natural será el único combustible fósil que aumente su presencia en la combinación energética mundial en el periodo que va hasta 2035. En el sector eléctrico, las tecnologías basadas en energías renovables, encabezadas por la energía hidroeléctrica y la eólica, representarán la mitad de la nueva capacidad que se instale para responder a la creciente demanda. La producción de energía nuclear también deberá crecer.

Iremos comentando este informe de la IEA. Empezamos por la energía nuclear.

El efecto Fukushima

Una gran incertidumbre que se cierne sobre nuestro futuro energético es lo que los gobiernos de todo el mundo pueden tomar decisiones sobre la energía nuclear tras la crisis nuclear en Fukushima Japón. En el Escenario de Nuevas Políticas se supone que la energía nuclear sigue creciendo con fuerza, sobre la base de que la mayoría de los países con ambiciosos programas de energía nuclear continuarán con sus planes, con pocos cambios. Estos países incluyen China, India y Corea del Sur.


Pero ¿y si esos gobiernos cambian de idea y disminuyen radicalmente o eliminan la energía nuclear? de La AIE examina los impactos de una reducción a la mitad, respecto del Escenario de Nuevas Políticas, de la componente nuclear del suministro de energía global (ver figura). Las consecuencias son alarmantes. Las energías renovables podrían llenar la brecha hasta cierto punto, pero el carbón y el gas natural serían los ganadores principales. Habría tres efectos desafortunados de un futuro con menos energía nuclear: sería malo para la economía de la producción de energía, malo para la seguridad energética y malo para el cambio climático. La demanda de carbón aumentaría hasta el doble de las exportaciones actuales de Australia. La demanda mundial de gas aumentaría en dos tercios de las actuales exportaciones de Rusia. Las emisiones de dióxido de carbono aumentarían en alrededor de una gigatonelada, lo que equivale a las emisiones actuales de Francia y Alemania juntos.

María van der Hoeven, Directora Ejecutiva de la IEA responde, cuando se le pregunta lo que World Energy Outlook tiene que decir sobre las posibilidades de reemplazar centrales de energía nuclear por centrales de energía renovable, que tienen una producción intermitente: "Todo gobierno tiene el derecho de decidir su mix energético. Pero si alguien decide eliminar la energía nuclear se tiene que hacer algunas preguntas. Y una de las preguntas es cómo cubrir la falta de energía. Tenemos que ser honestos con la gente. Si queremos eliminar la energía nuclear, ¿Cuánto cuesta? ¿Cómo vas a lidiar con las energías renovables? ¿Cómo vamos a prever la fiabilidad del sistema? ¿Qué vamos a hacer con respecto a la seguridad energética? No es sólo una cuestión de la eliminación nuclear. Es mucho más complicado que eso".

lunes, 28 de noviembre de 2011

El precio del CO2 sigue cayendo


Ahora que empieza la conferencia de Durban sobre el cambio climático, observamos como el precio de la tonelada de CO2 en el mercado europeo de emisiones sigue a la baja. Ha llegado a costar menos de 8 €/t, tres veces menos del que costaba a mediados del 2008, cuando hace un año, la consultora Point Carbon predijo que la tonelada estaría en 22 euros en 2011, 25 en 2012 y a 36 en 2020.


Una parte de este descenso de los precios puede deberse a la crisis, ya que se distribuyó una gran cantidad de derechos de emisión gratis para el período 2008 – 2012 que, con la crisis, no se han utilizado, al bajar la producción. Pero otra parte de este descenso, probablemente la más importante, se debe a las causas que ya detallamos en otra entrada (El fracaso anunciado del Comercio de Emisiones europeo).

Cada vez hay más dudas sobre el futuro de este comercio europeo de emisiones de CO2.

Datos del precio de las emisiones de CO2

sábado, 26 de noviembre de 2011

Ciclos solares y temperatura


¿Varía la temperatura global con los ciclos solares? En la siguiente figura hemos colocado las anomalías de temperatura global desde el año 1960 hasta ahora (en valores mensuales y en valores promediados a 3 años) de la serie hadCRUT3 (base 1961 – 1990), junto con el número de manchas solares mensual y también promediado a tres años. En ella podemos observar que, en cada ciclo solar, la temperatura global varía de 0,15 a 0,20 ºC.


Los valores de temperatura “aberrantes” de 1973 y de 1988 reflejan los efectos de El Niño.

Sería interesante saber en cuanto afectó a la temperatura global el mínimo de radiación solar entre 1640 y 1715. Desgraciadamente, no tenemos medidas de temperatura globales en estas fechas. Sin embargo, tenemos medidas de las temperaturas del centro de Inglaterra desde 1659. Podemos observar como los valores más bajos de la serie se encuentran en este período de menos radiación solar. Puede intuirse que la temperatura bajó en el centro de Inglaterra de 0,5 a 1,0 ºC.

Temperaturas del centro de Inglaterra y radiación solar según Lean.



miércoles, 23 de noviembre de 2011

La variación del clima europeo y el imperio romano


La arqueóloga Carole Crumley realizó un estudio muy interesante de la relación entre clima y cultura en el noroeste de Europa, en el que identificó los tres principales regímenes climáticos: oceánico, continental y mediterráneo. El conjunto de climas oceánico y continental se denomina clima templado, en contraposición al clima mediterráneo. Cada régimen produce diferentes patrones climáticos en Europa:

Verano:
Clima continental: cálido y húmedo, mayoría de la lluvia en verano
Clima oceánico: frío, húmedo
Clima mediterráneo: caliente, seco

Invierno:
Clima continental: fresco, seco
Clima oceánico: templado, húmedo → seco
Clima mediterráneo: templado, húmedo, mayoría de lluvia en invierno

Las fronteras entre estos tres climas no son constantes, y su desplazamiento de hacia delante y hacia atrás es causado principalmente por las posiciones cambiantes de la corriente de chorro. Estas fronteras reciben el nombre de ecotonos.

Los ecotonos representan una zona de transición entre sistemas ecológicos adyacentes y, por lo general, indican cambios súbitos. La posición del ecotono actual que separa los regímenes climáticos mediterráneo y continental en Europa pueden verse claramente en el extremo sur del Macizo Central de Francia, donde la vegetación cambia unos pocos metros, pasando de la flora mediterránea a la zona templada. En el corredor Ródano-Saona, el cambio en los tejados y en las prácticas culinarias produce la fuerte sensación de pasar del sur al centro de Europa.

La posición, la anchura y la permanencia del ecotono en las distintas épocas pueden estudiarse mediante la palinología (estudio del polen y de las esporas), la paleoetnobotánica (estudio de las interacciones antiguas entre el hombre y las especies vegetales) y otros estudios paleoclimatológicos. Crumley demostró que los ecotonos europeos pueden emigrar sobre distancias importantes. De hecho, en los dos últimos milenios, el ecotono que separaba los regímenes climáticos mediterráneo y continental emigró hacia el norte y hacia el sur desde 36ºN a lo largo de la costa septentrional de África hasta 48ºC a lo largo de las costas del Mar del Norte y del Mar Báltico en el noroeste de Europa: una distancia de casi 1.000 km, como se puede ver en la figura, sacada de la publicación de Crumley.


En la reconstrucción hecha por Crumley de la historia climática de Europa, desde 1200 hasta 500 a.C., ésta fue azotada por un largo período frío con inviernos particularmente severos. El ecotono que separaba el régimen climático continental del mediterráneo se localizaba muy hacia el sur, en el norte de África. Hubo un período de notable variabilidad climática cuando la región estuvo dominada alternativamente por los regímenes oceánico y continental. Como respuesta, la cultura celta desarrolló prácticas para maximizar la producción agrícola en condiciones alternadas oceánicas y continentales, y para minimizar el riesgo debido a la variabilidad climática.

Al llegar el año 300 a.C., el ecotono se había desplazado mucho hacia el norte, tal vez hasta el norte de la Borgoña, donde se mantuvo hasta cerca de 300 d.C., período conocido como el óptimo climático romano. Este cambio llevó un clima mediterráneo a la mayor parte de la Europa occidental, con veranos cálidos y secos e inviernos húmedos. El asentamiento y el uso de la tierra romana eran marcadamente distintos de los célticos, porque eran apropiados para un clima mediterráneo. El sistema agrícola romano exigía una producción extensiva de unas pocas cosechas, favorecía grandes poblaciones urbanas, y era apropiado para un régimen climático semiárido. En cambio, no tenía la versatilidad de una agricultura de espacios múltiples y el pastoralismo de los celtas, que era un sistema mucho más apropiado para períodos de clima incierto.

Aproximadamente a partir del año 300 y hasta cerca del año 500 d.C, el ecotono fue progresivamente retrayéndose hacia el sur. Entre 500 y 900 d.C., el ecotono se estabilizó muy hacia el sur, tan lejos, de hecho, que el Nilo se cubrió de nieve en el año 829. Otra vez se situó aproximadamente a lo largo de la costa del norte de África.

Durante el primer milenio a.C., pueblos celtas ocuparon la mitad septentrional de la extensión del ecotono mediterráneo-continental. Al sur de los celtas, a lo largo del litoral septentrional del Mediterráneo, vivían griegos, etruscos y romanos. Alrededor del siglo V a.C., durante un período en que el ecotono se localizaba hacia el sur, los celtas hicieron avanzar sus asentamientos en Italia y Grecia, llegando a poner cerco a Roma y a incendiar la ciudad en el año 391 a.C. Hacia el año 300 a.C., cuando el ecotono se desvió súbitamente hacia el norte, las cosas cambiaron de manera espectacular. Roma dominó las rutas marítimas que antes dominaban los griegos y convirtió en provincia la franja meridional de los estados célticos en Francia. Hacia finales del siglo I a.C., Roma había conquistado toda la región del Mediterráneo y de la Europa occidental, hasta el Rin, aproximadamente la localización norte del ecotono.

La extensión y la duración de la Pax Romana en Europa fueron grandemente facilitadas por unas condiciones climáticas que favorecieron la organización económica, social y política romana, en contraste con la celta. El tipo romano de asentamiento y uso de la tierra no sólo era marcadamente distinto de la de los celtas, sino que era especialmente apropiado para el clima mediterraneizado de Europa.

El uso que los romanos daban al espacio, su agricultura y horticultura, sus relaciones entre las clases, y sus formas de gobierno, asociado todo ello a los ecosistemas mediterráneos, se desplazaron hacia el norte junto con sus legiones, siguiendo el ecotono.

Cuando en el siglo V d.C. la retracción del ecotono se hizo palpable y el clima continental pasó a dominar la mayor parte de Europa, el imperio europeo de Roma decayó, sus legiones retrocedieron hacia el sur y las culturas del norte avanzaron hacia al sur. Los pictos y los escoceses traspasaron la muralla de Adriano en Britania a finales del siglo IV. Hacia principios del siglo V, los visigodos invadieron Roma y, hacia finales de este mismo siglo, en el año 476, un jefe germánico llamado Odoacro depuso al último emperador romano, el joven de 15 años Rómulo Augústulo.

Cabe hacer notar la estrecha asociación entre el avance del poder militar, político, económico y, sobre todo, agrícola de Roma y el avance de un régimen climático mediterraneizado por Europa Occidental. También cabe notar la retirada del poder romano junto con la retirada del clima mediterraneizado hacia el sur. Sin duda muchos factores desempeñaron un papel importante en el auge y la caída del imperio romano. El clima es, ciertamente, uno de estos factores.

Bibliografía

Regional Dynamics. Burgundian Landscapes in the Historical Perspective – Carole Crumley y William Marquandt
El largo verano – Brian Fagan



domingo, 20 de noviembre de 2011

Las variaciones naturales de la temperatura


Si tomamos los datos de la estación antártica de Vostok, observamos que los anteriores períodos interglaciales fueron hace aproximadamente 125.000 años, 280.000 años, 325.000 años y 415.000 años. Todos estos períodos interglaciares fueron más calurosos que el actual. La duración típica de un período glacial ha sido de 100.000 años aproximadamente, mientras que los períodos interglaciales han durado entre 10.000 y 15.000 años.


Si ahora detallamos las temperaturas del actual período interglacial tomando las temperaturas de los hielos de Groenlandia (GISP 2) desde hace 11.000 años, observamos el final del Dryass reciente, un período frío que duró 400 años, de 6.600 a 6.200 a.C., el calentamiento llamado minoico, el llamado romano, el período cálido de la Edad Media y la Pequeña Edad del Hielo. Teniendo en cuenta el calentamiento desde el año 1.900 (último año con datos disponibles de GISP 2), representado como línea de puntos, las temperaturas de los hielos de Groenlandia han sido mayores que las actuales en varios momentos del período interglacial en el que nos encontramos.


Sabemos que las temperaturas de Groenlandia no representan totalmente las temperaturas globales. Sin embargo, salvo la excepción de la Antártida y de las zonas que la circundan, que tienen muchas veces una tendencia opuesta para variaciones del período interglacial, las temperaturas de Groenlandia central tienden a reflejar la temperatura global del resto del planeta.

Es interesante observar que, durante los últimos 4.000 años, la tendencia de la temperatura de Groenlandia representa claramente una disminución, lo que podría ser el indicio de la llegada de una nueva glaciación. Hemos indicado en azul la recta de regresión de estas temperaturas entre loa años 2.000 a.C y 1.900 d.C.

También es interesante observar que, en estos últimos 4.000 años, se ha producido un calentamiento aproximadamente cada 1.000 años. De aquí que muchos escépticos de la influencia antropogénica sobre el calentamiento global afirmen que nos encontramos en el siguiente ciclo de calentamiento, ya que el último se produjo a principios del anterior milenio. A la vista de todo ello, no es completamente absurdo pensar que hay una parte natural y otra antropogénica en el actual calentamiento global.

viernes, 18 de noviembre de 2011

La variabilidad del clima del Pleistoceno podría anunciar una futura, y estable, era glacial


Siempre es interesante especular sobre el clima que hará en los próximos milenios, a pesar de no ser más que eso, especulaciones. Es interesante porque los modelos utilizados son parecidos a los que se utilizan para prever la evolución del cambio climático actual. Dentro de estas especulaciones encontramos el artículo Transient nature of late Pleistocene climate variability, publicado el año 2009.

El clima en el Pleistoceno temprano varió con un período de 41.000 años y estaba relacionado con las variaciones en la oblicuidad de la Tierra. Hace unos 900.000 años, aumentó la variabilidad y osciló con un período de 100.000 años, lo que sugiere que la relación era entonces con la excentricidad de la órbita de la Tierra.

En el artículo citado los autores proponen que el aumento de la variabilidad en los últimos millones de años puede indicar que el sistema climático se acerca a un segundo punto de bifurcación del clima, después del cual volvería otra vez a un nuevo estado estable, caracterizado por la permanente glaciación de las latitudes medias del hemisferio norte. Desde esta perspectiva los últimos millones de años pueden ser vistos como un intervalo transitorio en la evolución del clima de la Tierra.

De ser alcanzado, este estado sería más "simétrico" que el clima actual, con áreas comparables de hielo / cubierta de hielo marino en cada continente, y representarían la culminación de 50 millones de años de evolución desde climas glaciales no bipolares hacia climas glaciales bipolares.

Los autores apoyan su hipótesis utilizando un modelo que acopla balance de energía y capa de hielo, que predice que la futura transición implicaría una gran expansión de la capa de hielo de Eurasia.

No sería la primera vez que se producen estas transiciones del clima en la historia de la Tierra. El avance de los hielos hace 33,6 millones de años, cerca de la frontera entre el Eoceno y el Oligoceno podría ser una de ellas (ver artículo Rapid Cenozoic glaciation of Antarctica induced by declining atmospheric CO2).


En las figuras se puede ver el volumen de hielo en el hemisferio norte y el nivel del mar, calculados según el modelo utilizado en el artículo. En la primera de ellas, podemos observar que, al haber separado la evolución del hielo en el hemisferio norte en dos, América del Norte y Eurasia, se puede ver que la capa de hielo de Norteamérica cruzó por primera vez el umbral de bifurcación hace 1,4 millones de años aproximadamente, durante un intervalo de baja excentricidad de la órbita terrestre. Este tipo de respuesta concuerda con una explicación de cómo comienza una glaciación: al ser América del Norte menos extensa que Eurasia, no se calienta tanto durante el verano.


Esta predicción está basada en un nivel relativamente constante de CO2, lo que nos puede hacer pensar que, para evitar la nueva glaciación, las civilizaciones futuras podrían controlar las concentraciones de gases de efecto invernadero para retrasarla.

miércoles, 9 de noviembre de 2011

El enfriamiento del hemisferio norte de la década de los 70

Las temperaturas de los océanos durante el siglo XX no han seguido una evolución uniforme. En el hemisferio sur, después de un enfriamiento a finales del XIX y principios del XX, el aumento de las temperaturas ha sido uniforme. En el hemisferio norte, en cambio, después del enfriamiento de finales del XIX y principios del XX, la evolución ha sido más irregular: un aumento hasta la década de los 40, una ligera disminución a mediados de siglo y un importante aumento a partir de los años 80.


La temperatura de los océanos del hemisferio norte bajó bruscamente de 0,3 ºC entre los años 1968 y 1972. Si bien un aumento de los aerosoles de sulfatos después de la segunda guerra mundial puede explicar el ligero enfriamiento de mediados de siglo en el hemisferio norte, esta causa no puede explicar este cambio brusco de temperatura.

Si ponemos en un gráfico la evolución de las anomalías de temperatura del océano del hemisferio norte y del hemisferio sur, así como la diferencia entre ambas, vemos claramente en esta última una discontinuidad importante, de más de 0,5 ºC, entre los años 1968 y 1972.

En el mapa se puede ver que esta disminución brusca de la temperatura se produjo en la mayor parte de los océanos del hemisferio norte, pero mayormente en el Atlántico noroeste.


En el artículo An abrupt drop in Northern Hemisphere sea surface temperature around 1970, publicado en setiembre del 2010, los autores sugieren como causa de este enfriamiento brusco fue una fusión a gran escala de hielo ártico en el Atlántico norte.

Probablemente esta fusión a gran escala de hielo ártico en el Atlántico norte sea la causa de la caída de temperatura en la península ibérica en la década de los 70, caída que rompe el aumento progresivo década a década, observada desde la década de los 60.


miércoles, 2 de noviembre de 2011

El "enfriamiento" del océano de mediados del siglo XX

Si observamos la evolución de la temperatura del océano desde el año 1880 hasta la actualidad, resaltan una serie de discontinuidades bruscas que acontecieron a partir de agosto del año 1946, con un brusco descenso de 0,3 ºC en un período de seis meses, que se mantuvo durante seis años, seguido de dos bruscas subidas y bajadas durante los años siguientes, como se puede ver en la figura, realizada según los datos hadSST2.


En el artículo A large discontinuity in the mid-twentieth century in observed global-mean surface temperature, publicado en el año 2008, y cuyos autores son David W. J. Thompson, John J. Kennedy, John M. Wallace & Phil D. Jones se da una explicación a estas discontinuidades.

En el artículo se corrige la variación global media de las temperaturas con la contribución de los fenómenos ENSO (la oscilación de El Niño) y COWL (Cold Ocean / Warm Land - la advección invernal en las latitudes altas del hemisferio norte). En la figura siguiente se ve como queda la temperatura global corregida o residual.


Aplicando el mismo criterio a las temperaturas oceánicas se obtiene la figura siguiente, en donde las líneas verticales continuas coinciden con las fechas de erupciones volcánicas, de izquierda a derecha: Krakatoa, Santa María Agung, El Chichón y Pinatubo. La discontinuidad de las temperaturas al final del año 1945 es evidente en la curva sin corregir, pero en la curva corregida después de eliminar la contribución de ENSO y COWL, esta discontinuidad queda como la única discontinuidad prominente que no está relacionada con ningún fenómeno físico. La amplitud del escalón es importante, ya que las temperaturas cayeron de 0,3 ºC en los seis meses que siguieron al de agosto de 1945.

Una teoría decía que esta caída brusca de las temperaturas podía ser debida a las explosiones nucleares de Hiroshima y Nagasaki, pero se ha calculado que estas explosiones podían provocar un enfriamiento de menos de 0,03 ºC.

Además, si hubiera habido un forzamiento externo que explicara esta brusca caída de las temperaturas, debería de haber influido también en las temperaturas del aire sobre los continentes, pero no es el caso, como se puede ver en las curvas b de la figura siguiente, aún en el caso de la curva corregida o residual.


Para entender esta caída brusca de la temperatura oceánica, es importante observar que las observaciones de la temperatura terrestre y de la temperatura oceánica son fundamentalmente distintas. La red de estaciones en tierra es relativamente fija, y no tiene una tendencia a moverse mucho. Además, en una estación dada, los termómetros se calibran continuamente para dar unos datos bien calibrados. Los cambios en una estación dada que puedan tener una influencia sobre las medidas (por ejemplo, un cambio de emplazamiento), pueden corregirse.

Para los océanos, la situación es muy diferente. Hasta los años 70 del siglo pasado, las observaciones se hacían exclusivamente desde barcos. Después, se empezaron a usar boyas y, a partir de los años 80, se usaron satélites. Distintos barcos podían utilizar diferentes métodos de medida con el paso de los años, cada método teniendo su propio error. Algunas medidas se hacían bajando termómetros por el borde de los barcos, lo que tiende a medir temperaturas más bajas, debido al efecto de la evaporación una vez el termómetro salía del agua. Otras medidas se tomaban en la entrada del agua de refrigeración de los motores; estas medidas tenían una tendencia a medir temperaturas más altas, debido al calentamiento de la sala de máquinas. Cada país tenía un procedimiento para medir la temperatura oceánica. Vemos que durante la segunda guerra mundial hubo un número de medidas mucho menor que el habitual.

Los resultados de HadSST2 provienen de la versión reciente de la Oficina Meteorológica de Gran Bretaña, Hadley Centre. Como todas las series históricas de temperaturas oceánicas, los datos se derivan de la base de datos bruta (es decir, no corregida) de las observaciones marinas del ICOADS (International Comprehensive Ocean-Atmosphere Data Set). Estos datos están afectados, como ya hemos visto, por numerosos cambios en la instrumentación. Los datos HadSST2 han sido corregidos por lo que respecta al uso de termómetros no aislados en el siglo XIX y principios del XX, y del cambio de instrumentación producido cuando las barcos mercantes de los Estados Unidos cambiaron los termómetros no aislados por medidas en la sala de máquinas entre 1939 y el final de 1941. Estas correcciones se hicieron ajustando los datos de antes del 1941, por lo que son compatibles con los datos obtenidos durante el período de referencia (1961 - 1990). Se puede observar que hay una gran diferencia entre las temperaturas de ICAODS y las del HadSST2 antes del año 1941.


En agosto del año 1945 ocurrió otro cambio notable en las medidas de las temperaturas oceánicas. Entre enero del 1942 y agosto del 1945, el 80 % de las observaciones son de barcos de los Estados Unidos, y 5 % lo son de barcos ingleses. Entre finales del 1945 y el año 1949, sólo el 30 % de las observaciones son americanas, y aproximadamente el 50 % son inglesas. Este cambio del mes de agosto del 1945 es importante, ya que los barcos estadounidenses medían mayoritariamente la temperatura en la entrada de agua en la sala de máquinas, mientras que la mayoría de los barcos ingleses utilizaban el método del termómetro no aislado. En la figura se ha señalado el porcentaje de medidas de barcos americanos en azul, y el de medidas de barcos ingleses en rojo.

La conclusión de los autores del artículo es que la brusca bajada de la temperatura oceánica de 0,3 ºC en el año 1945 es, aparentemente, el resultado de desvíos instrumentales no corregidos.