Me desayuno esta mañana con una noticia en la Vanguardia: El riesgo fotovoltaico amenaza a la banca; los bancos podrían “comerse” 20.000 millones de euros.
Los proyectos instalados en España hasta la fecha, que suman 3.500 megavatios, están apoyados en el crédito bancario entre el 80 y el 90 % de la inversión total. Es decir, los bancos, nacionales o extranjeros, han puesto entre 18.400 y 20.700 millones de los 23.000 que lleva invertidos la industria en el mercado español.
La razón de este problema es que el Ministerio de Industria piensa reducir la retribución que da a las fotovoltaicas entre un 30 y un 50 %, antes del 1 de julio. El problema es que las instalaciones de antes del 28 de setiembre del 2008 reciben una prima de 0,45 euros por kWh producido (R.D. 661/2007), mientras que las posteriores a esta fecha reciben 0,31 euros si están ubicadas en tejados y 0,265 si se trata de sistemas en suelo (R.D. 1578/2008), y el gobierno pretende reducir la retribución tanto para las plantas existente como para las futuras.
Si se reducen las primas en la cuantía deseada por el gobierno, los propietarios de las centrales no podrían ni pagar los intereses de los préstamos concedidos por los bancos, por lo que las asociaciones patronales estarían de acuerdo en admitir retribuciones en torno a 0,20 euros/kWh, pero sólo para las nuevas instalaciones, pero se niegan a aceptar modificaciones en las que están funcionando.
El pasado 8 de marzo publicó el New York Times un artículo titulado Solar Industry Learns Lessons in Spanish Sun, donde se hace un análisis lúcido de la creación de la burbuja fotovoltaica en España, basada en unas instalaciones de baja calidad y de pobre rendimiento que son totalmente dependientes de unas subvenciones exageradas, concedidas por el gobierno español. Debido a estas generosas subvenciones, la capacidad prevista, que era de 400 megavatios, ha crecido desmesuradamente hasta los 3.500 actuales.
Si no se bajan las subvenciones sólo quedan dos posibilidades: subir la tarifa de la electricidad o aumentar el déficit de tarifa, dos posibilidades que, después de las recientes medidas de reducción del déficit que se acaban de adoptar, son prácticamente imposibles de tomar.
Por otra parte, para el sistema financiero, otro agujero de 20.000 millones de euros (a sumar al de 60.000 millones de activos inmobiliarios que ya han asumido de la burbuja del ladrillo), puede ser un duro golpe, al tener que asumirlos en sus balances.
Foto tomada del artículo del New York Times, en la que se ve a un agricultor de Puertollano que vendió terrenos para parques fotovoltaicos en la época del “boom”.
lunes, 31 de mayo de 2010
domingo, 30 de mayo de 2010
El súper Niño de 1998 y el aumento de las temperaturas
Un artículo titulado Satellite Data Shows No Global Warming Before 1997, cuyo autor es Arno Arrak, no fue aceptado en su momento por la revista Science. Sin embargo, es un artículo interesante, que da una interpretación diferente al calentamiento que se ha venido observando desde hace cuarenta años, y que pone en duda que su causa sea el incremento de los gases de efecto invernadero.
Empezamos por trazar un gráfico con las temperaturas de la baja atmósfera, medidas por satélite. Se dispone de estas medidas desde finales del año 1978. Hemos tomado las medidas publicadas por la Universidad de Alabama. En ellas observamos tres períodos:
- de 1978 hasta 1997, un primer período de 20 años en el que no se observa ninguna tendencia al calentamiento. Este período tiene tres episodios del Niño y tres de la Niña, con dos erupciones volcánicas: Chichón y Pinatubo. Hay oscilaciones de temperatura de 0,1 ºC con una frecuencia de dos a tres meses, y una oscilación más amplia, del orden de 0,5 ºC don una frecuencia de unos cinco años. Dice el autor que la causa de estas oscilaciones climáticas es el movimiento periódico a gran escala de las aguas del océano Pacífico de costa a costa, conocida como Oscilación Sur El Niño (ENOS). Se acompaña de una transferencia masiva y periódica de calor de los océanos a la atmósfera y viceversa. Este fenómeno atmosférico importante falta en todos los modelos globales de circulación del IPCC (GCM), lo que invalida las conclusiones extraídas de sus modelos del clima. Las medidas de satélite muestran que este período oscilatorio terminó con un pico de calentamiento gigante conocido como el “súper El Niño de 1998".
- en 1998 se produce un episodio extremadamente importante del Niño, cuya causa es desconocida (aunque el autor del artículo la sitúa hipotéticamente en una fuerte erupción de rayos gamma procedentes de un foco situado a 12.000 millones de años luz, y descubierto el 14 de diciembre de 1977)
- a partir de 1999 se produce una “meseta” en las temperaturas medidas por satélite, situada a unos 0,2 ºC por encima de la media de las oscilaciones del primer período. Esta “meseta” más caliente puede tener como origen “El Niño que no debía encontrase ahí”, debido al exceso de calor de este fenómeno, que hay que ir disipando. Durante los años de disipación de este calor se observa un enfriamiento de 0,12 ºC por década. De manera que en este período “falta” algún episodio de La Niña. Cuando este calor se ha disipado, hacia 2008, vuelven a empezar las oscilaciones.
El autor publicó su artículo en febrero del 2009, razón por la que no nos ha podido, por ahora, dar explicaciones sobre el incremento importante de las temperaturas que se han medido en estos últimos meses.
Datos de las temperaturas de la Universidad de Alabama Huntsville
Empezamos por trazar un gráfico con las temperaturas de la baja atmósfera, medidas por satélite. Se dispone de estas medidas desde finales del año 1978. Hemos tomado las medidas publicadas por la Universidad de Alabama. En ellas observamos tres períodos:
- de 1978 hasta 1997, un primer período de 20 años en el que no se observa ninguna tendencia al calentamiento. Este período tiene tres episodios del Niño y tres de la Niña, con dos erupciones volcánicas: Chichón y Pinatubo. Hay oscilaciones de temperatura de 0,1 ºC con una frecuencia de dos a tres meses, y una oscilación más amplia, del orden de 0,5 ºC don una frecuencia de unos cinco años. Dice el autor que la causa de estas oscilaciones climáticas es el movimiento periódico a gran escala de las aguas del océano Pacífico de costa a costa, conocida como Oscilación Sur El Niño (ENOS). Se acompaña de una transferencia masiva y periódica de calor de los océanos a la atmósfera y viceversa. Este fenómeno atmosférico importante falta en todos los modelos globales de circulación del IPCC (GCM), lo que invalida las conclusiones extraídas de sus modelos del clima. Las medidas de satélite muestran que este período oscilatorio terminó con un pico de calentamiento gigante conocido como el “súper El Niño de 1998".
- en 1998 se produce un episodio extremadamente importante del Niño, cuya causa es desconocida (aunque el autor del artículo la sitúa hipotéticamente en una fuerte erupción de rayos gamma procedentes de un foco situado a 12.000 millones de años luz, y descubierto el 14 de diciembre de 1977)
- a partir de 1999 se produce una “meseta” en las temperaturas medidas por satélite, situada a unos 0,2 ºC por encima de la media de las oscilaciones del primer período. Esta “meseta” más caliente puede tener como origen “El Niño que no debía encontrase ahí”, debido al exceso de calor de este fenómeno, que hay que ir disipando. Durante los años de disipación de este calor se observa un enfriamiento de 0,12 ºC por década. De manera que en este período “falta” algún episodio de La Niña. Cuando este calor se ha disipado, hacia 2008, vuelven a empezar las oscilaciones.
El autor publicó su artículo en febrero del 2009, razón por la que no nos ha podido, por ahora, dar explicaciones sobre el incremento importante de las temperaturas que se han medido en estos últimos meses.
Datos de las temperaturas de la Universidad de Alabama Huntsville
viernes, 28 de mayo de 2010
Implicaciones del vapor de agua y de la humedad en la Teoría del Calentamiento Global basada en las emisiones de CO2
La troposfera terrestre se puede dividir en tres partes: la cercana a la superficie, que se define por una presión de 1000 mb (milibares), la troposfera media, que se define por una presión de 600 mb, y que se encuentra a una altura de unos 5.000 metros, y la troposfera alta, que se define por una presión media de 300 mb, y que se encuentra a una altura de unos 10.000 metros.
La humedad específica se ha incrementado en las últimas décadas cerca de la superficie de la Tierra (como lo demuestran la figura de 1000 mb), mientras que ha disminuido en la troposfera media y en la superior (como lo demuestran las figuras de 300 mb y de 600 mb). El aumento en la humedad específica en la superficie de la Tierra (1000 mb) está relacionada con las temperaturas de superficie. La disminución de la humedad específica en la troposfera media y en la superior (300 mb) indica que el calentamiento en la superficie de la Tierra no coincide con la teoría del calentamiento debido a las emisiones de CO2, que predice un aumento en la humedad en la alta troposfera (los datos se pueden encontrar aquí) Esto es especialmente así en el hemisferio norte, que ha experimentado la mayor parte del calentamiento en las últimas décadas, mientras que en el hemisferio sur la tendencia en ambas alturas es de una humedad que permanece constante.
Esta es un área importante de controversia en el área de la ciencia del clima, ya que sin la retroalimentación del vapor de agua la teoría del calentamiento global basada en el incremento del CO2 pierde su significado.
Un estudio de 2008 (Dessler, Zhang y Yang: “Water-vapor climate feedback inferred from climate fluctuations, 2003-2008”, Geophysical Research Letters, Vol 35, 2008) establece: "Entre 2003 y 2008, la temperatura global promedio de la superficie de la Tierra presentó una anomalía de 0,6 º C respecto del período 1961-1990. Analizamos aquí la respuesta del vapor de agua troposférico a estas variaciones. ... En la mayor parte de la troposfera, q [humedad específica] aumentó con el aumento promedio de la temperatura global de la superficie, aunque algunas regiones mostraron una respuesta opuesta. .... La retroalimentación del vapor de agua implícita en estas observaciones es muy positiva, con un valor medio de 2,04 vatios/m2, similar a la predicha por los modelos". La figura de la izquierda es la del estudio, y en la de la derecha se la ha superpuesto en rojo la humedad específica anual global en la superficie. Aunque los autores dicen que la temperatura de la superficie ha tenido una anomalía de 0,6 º C, la verdad es que fluctuó hacia arriba y hacia abajo con un ligero cambio neto negativo. Dado que su enfoque está en la superficie y se concentra en un período de tiempo muy corto de 5 años, no apoya la teoría de las emisiones de CO2 de que se requiere un aumento de la humedad específica en la troposfera superior.
Un estudio de 2006 basado en los datos del satélite AIRS (Atmospheric Infrared Sounder, lanzado en mayo del 2.002, es capaz de crear mapas tridimensionales de la temperatura del aire y de la superficie, del vapor de agua y de las propiedades de las nubes), y está realizado por Pierce, Barnett, Fetzner & Gleckler: " Three-dimensional tropospheric water vapor in coupled climate models compared with observations from the AIRS satellite system ", Geophysical Research Letters, Vol. 33, 2006, establece: “Hemos encontrado que la mayoría de los modelos dan unos valores con menos humedad (entre el 10 y el 25 %) que las condiciones observadas en los trópicos a alturas inferiores a los 800 hPa (hectopascal: 1 hPa = 1 mb), pero, en cambio, dan unos valores de humedad demasiado altos entre los 300 y los 600 hPa, espacialmente en las regiones situadas fuera de los trópicos. Esta discrepancia es muy superior a la incertidumbre en los datos de AIRS, por lo que se puede deducir que estas diferencias son debidas a errores sistemáticos en los modelos, que pueden afectar al rango del calentamiento anticipado por los modelos para el próximo siglo”.
La humedad específica se ha incrementado en las últimas décadas cerca de la superficie de la Tierra (como lo demuestran la figura de 1000 mb), mientras que ha disminuido en la troposfera media y en la superior (como lo demuestran las figuras de 300 mb y de 600 mb). El aumento en la humedad específica en la superficie de la Tierra (1000 mb) está relacionada con las temperaturas de superficie. La disminución de la humedad específica en la troposfera media y en la superior (300 mb) indica que el calentamiento en la superficie de la Tierra no coincide con la teoría del calentamiento debido a las emisiones de CO2, que predice un aumento en la humedad en la alta troposfera (los datos se pueden encontrar aquí) Esto es especialmente así en el hemisferio norte, que ha experimentado la mayor parte del calentamiento en las últimas décadas, mientras que en el hemisferio sur la tendencia en ambas alturas es de una humedad que permanece constante.
Esta es un área importante de controversia en el área de la ciencia del clima, ya que sin la retroalimentación del vapor de agua la teoría del calentamiento global basada en el incremento del CO2 pierde su significado.
Un estudio de 2008 (Dessler, Zhang y Yang: “Water-vapor climate feedback inferred from climate fluctuations, 2003-2008”, Geophysical Research Letters, Vol 35, 2008) establece: "Entre 2003 y 2008, la temperatura global promedio de la superficie de la Tierra presentó una anomalía de 0,6 º C respecto del período 1961-1990. Analizamos aquí la respuesta del vapor de agua troposférico a estas variaciones. ... En la mayor parte de la troposfera, q [humedad específica] aumentó con el aumento promedio de la temperatura global de la superficie, aunque algunas regiones mostraron una respuesta opuesta. .... La retroalimentación del vapor de agua implícita en estas observaciones es muy positiva, con un valor medio de 2,04 vatios/m2, similar a la predicha por los modelos". La figura de la izquierda es la del estudio, y en la de la derecha se la ha superpuesto en rojo la humedad específica anual global en la superficie. Aunque los autores dicen que la temperatura de la superficie ha tenido una anomalía de 0,6 º C, la verdad es que fluctuó hacia arriba y hacia abajo con un ligero cambio neto negativo. Dado que su enfoque está en la superficie y se concentra en un período de tiempo muy corto de 5 años, no apoya la teoría de las emisiones de CO2 de que se requiere un aumento de la humedad específica en la troposfera superior.
Un estudio de 2006 basado en los datos del satélite AIRS (Atmospheric Infrared Sounder, lanzado en mayo del 2.002, es capaz de crear mapas tridimensionales de la temperatura del aire y de la superficie, del vapor de agua y de las propiedades de las nubes), y está realizado por Pierce, Barnett, Fetzner & Gleckler: " Three-dimensional tropospheric water vapor in coupled climate models compared with observations from the AIRS satellite system ", Geophysical Research Letters, Vol. 33, 2006, establece: “Hemos encontrado que la mayoría de los modelos dan unos valores con menos humedad (entre el 10 y el 25 %) que las condiciones observadas en los trópicos a alturas inferiores a los 800 hPa (hectopascal: 1 hPa = 1 mb), pero, en cambio, dan unos valores de humedad demasiado altos entre los 300 y los 600 hPa, espacialmente en las regiones situadas fuera de los trópicos. Esta discrepancia es muy superior a la incertidumbre en los datos de AIRS, por lo que se puede deducir que estas diferencias son debidas a errores sistemáticos en los modelos, que pueden afectar al rango del calentamiento anticipado por los modelos para el próximo siglo”.
jueves, 27 de mayo de 2010
La concentración de CO2
La concentración de CO2 sigue aumentando. Pero lo hace cíclicamente a lo largo del año: tiene un mínimo en setiembre (mínimo que ha pasado al mes de octubre desde el año 2008) y un máximo en mayo. Esto es así porque el hemisferio norte contiene la mayor parte de la tierra emergida. Por tanto, la época de primavera y verano de este hemisferio es preponderante respecto al hemisferio sur. La disminución de la concentración de CO2 en este período es debido a la clorofila de las plantas, que absorben el CO2 atmosférico.
Además de pasar el mínimo de setiembre a octubre, podemos observar en el gráfico que el “escalón”, más o menos marcado que se observa normalmente en enero y febrero (época de verano en el hemisferio sur), parece que ha desaparecido este año. ¡Curioso!
Además de pasar el mínimo de setiembre a octubre, podemos observar en el gráfico que el “escalón”, más o menos marcado que se observa normalmente en enero y febrero (época de verano en el hemisferio sur), parece que ha desaparecido este año. ¡Curioso!
Los precios del petróleo y la crisis económica
El verdadero origen de la crisis económica actual es el aumento de los precios del petróleo que hubo de 2.004 hasta mediados del 2.007. Este aumento del petróleo, que pasó de los 20 a 30 US $ por barril que se pagaban en los años anteriores, hasta los casi 140 US $ por barril de mediados de julio del 2007 provocaron un aumento de la inflación muy importante. Este aumento de la inflación hizo que los precios de los créditos aumentaran, y así llegó el frenazo económico.
Dado que, con una baja inflación y unos créditos bajos el personal se había endeudado mucho, y los bancos (sobre todo los bancos que antes eran de inversión, y a los que el presidente Clinton les autorizó a dar créditos como a la banca comercial) tuvieron que crear instrumentos al límite de la regularidad financiera para satisfacer todos los créditos que la gente pedía. De modo que cuando los créditos se encarecieron y mucha gente no pudo seguir pagando las hipotecas, los precios de las viviendas, que habían ido subiendo como la espuma, se derrumbaron. Y los instrumentos financieros creados se convirtieron en papel mojado. Y todos los que habían querido especular se quemaron los dedos.
Pero no nos equivoquemos. El origen de todo esto fue el aumento de los precios del petróleo. ¿Y porque los precios del petróleo aumentaron? Porque a partir del año 2003 la demanda de petróleo fue yendo a más y la producción de petróleo no pudo seguir esa demanda.
En el gráfico podemos encontrar los precios semanales del petróleo a partir de enero del 1997 hasta ahora. Distinguimos varias fases:
- Unos precios estables hasta el 2.003.
- Un espectacular aumento del 2.004 en julio del 2.007.
- Una bajada aún más espectacular del mes de agosto del 2.007 hasta finales del 2.008.
- Una subida desde primeros del 2.009 hasta ahora, en que el bruto se cotiza a unos 80 US $ por barril.
Con la vuelta del crecimiento económico mundial, la demanda de petróleo seguirá aumentando, sobre todo en el continente asiático.
Como dice hace unas semanas, en La Contra de la Vanguardia, el señor Pierre André Beauquis, ahora mismo nos encontramos en una fase de transición hacia la próxima crisis. ¿Será, como dice el documento del que hablábamos en una entrada anterior, en 2.015, o será, como insinúa el señor Beauquis, cuando dentro de veinte o treinta años llegue el tan temido "pico del petróleo"? Probablemente dentro de cinco años empezará otra crisis económica importante, cuando los precios del petróleo hayan vuelto a subir mucho, crisis que será intermitente y que se irá alargando en el tiempo, haciéndose cada vez más fuerte.
Datos de los precios del petróleo
Dado que, con una baja inflación y unos créditos bajos el personal se había endeudado mucho, y los bancos (sobre todo los bancos que antes eran de inversión, y a los que el presidente Clinton les autorizó a dar créditos como a la banca comercial) tuvieron que crear instrumentos al límite de la regularidad financiera para satisfacer todos los créditos que la gente pedía. De modo que cuando los créditos se encarecieron y mucha gente no pudo seguir pagando las hipotecas, los precios de las viviendas, que habían ido subiendo como la espuma, se derrumbaron. Y los instrumentos financieros creados se convirtieron en papel mojado. Y todos los que habían querido especular se quemaron los dedos.
Pero no nos equivoquemos. El origen de todo esto fue el aumento de los precios del petróleo. ¿Y porque los precios del petróleo aumentaron? Porque a partir del año 2003 la demanda de petróleo fue yendo a más y la producción de petróleo no pudo seguir esa demanda.
En el gráfico podemos encontrar los precios semanales del petróleo a partir de enero del 1997 hasta ahora. Distinguimos varias fases:
- Unos precios estables hasta el 2.003.
- Un espectacular aumento del 2.004 en julio del 2.007.
- Una bajada aún más espectacular del mes de agosto del 2.007 hasta finales del 2.008.
- Una subida desde primeros del 2.009 hasta ahora, en que el bruto se cotiza a unos 80 US $ por barril.
Con la vuelta del crecimiento económico mundial, la demanda de petróleo seguirá aumentando, sobre todo en el continente asiático.
Como dice hace unas semanas, en La Contra de la Vanguardia, el señor Pierre André Beauquis, ahora mismo nos encontramos en una fase de transición hacia la próxima crisis. ¿Será, como dice el documento del que hablábamos en una entrada anterior, en 2.015, o será, como insinúa el señor Beauquis, cuando dentro de veinte o treinta años llegue el tan temido "pico del petróleo"? Probablemente dentro de cinco años empezará otra crisis económica importante, cuando los precios del petróleo hayan vuelto a subir mucho, crisis que será intermitente y que se irá alargando en el tiempo, haciéndose cada vez más fuerte.
Datos de los precios del petróleo
El clima del Plioceno: su utilidad para prever como será un mundo más cálido
Se denomina Plioceno (plio = más, cene = reciente) a la época geológica que comienza hace 5,3 y termina hace 2,6 millones de años antes de ahora. Se divide en dos edades: Zancleano (5,3 a 3,6 millones de años) y Piacenziano (3,6 a 2,6 millones de años).
Climáticamente, el Plioceno puede dividirse, a grandes rasgos, en tres fases:
1 – un período cálido en el Plioceno temprano,
2 – un período relativamente corto (de 3,3 a 3 millones de años antes de ahora) conocido como el “Optimo Climático del Plioceno Medio”, y
3 – una deterioración climática durante el Plioceno tardío, que se tradujo por una gran variabilidad climática asociada con los ciclos glaciares e interglaciares del Pleistoceno.
El Plioceno es importante para el estudio del cambio climático actual
El Plioceno medio (3,3 a 3,0 millones de años antes de ahora) es la época más reciente en la historia de la Tierra en que las temperaturas medias globales fueron sustancialmente más cálidas durante un periodo continuado (de 2 a 3 ºC por encima de las temperaturas preindustriales) por lo que nos ofrecen un ejemplo accesible de un mundo que, en muchos aspectos, es similar al que los modelos estiman que puede ser la Tierra al final del siglo XXI. El Plioceno es también una época suficientemente reciente para que los continentes y los océanos hubieran casi alcanzado su configuración geográfica actual. Tomados a la vez, el promedio de los períodos más calidos durante el Plioceno medio presentan una vista del estado de equilibrio de un mundo globalmente más caliente, en el que las concentraciones de CO2 en la atmósfera (estimadas entre 360 y 400 ppm) eran mayores que las de los valores preindustriales, y en el que las evidencias geológicas y los isótopos están de acuerdo en que el nivel del mar era como mínimo entre 15 y 25 metros superior a los niveles modernos, con la correspondiente reducción de las capas de hielo y una menor aridez continental (ver IPCC 4 – capítulo 6 – pág 441-442).
Por esta razón, desde hace más de veinte años se han realizado muchos estudios sobre esta época.
Movimientos tectónicos durante el Plioceno
Empezaremos por ver los cambios que se produjeron en los continentes y en los océanos en el Plioceno. Los más importantes, por lo que respecta al clima, fueron:
- América del Sur se unió con América del Norte a través del istmo de Panamá hace unos 3,4 millones de años. Esta unión tuvo consecuencias importantes sobre el clima, ya que cortó las corrientes cálidas ecuatoriales, lo que permitió que se produjeran las corrientes atlánticas, con aguas frías provenientes tanto del Ártico como del Antártico, que enfriaron el océano Atlántico, que quedó, a partir de entonces, relativamente aislado. Este cambio en las corrientes oceánicas puede ser la causa del calentamiento de las temperaturas que se produjo entre 3,3 y 3,0 años antes de ahora.
- A finales del Mioceno (período anterior al Plioceno), África chocó con Europa, formando el mar Mediterráneo. El estrecho de Gibraltar se cerró, quedando el Mediterráneo, que tiene más evaporación que aporte de agua, parcialmente seco. Hace unos 6 millones de años este cierre se produjo por primera vez, hasta que el puente formado en Gibraltar se rompió, inundándose de nuevo el Mediterráneo con aguas provenientes del Atlántico. El ciclo se repitió varias veces durante unos 700.000 años hasta que el último puente se formó hace unos 5,6 millones de años, y se reabrió definitivamente hace 5,3 millones de años, al inicio del Zancleano.
- La placa india continuó su movimiento hacia el norte bajo la placa asiática, elevando la cordillera del Himalaya, creando una zona seca en el Tíbet debido a la “sombra” que las montañas cada vez más altas hacían a la lluvia.
El proyecto PRISM
El Servicio Geológico de los Estados Unidos (USGS) ha creado hace años el Proyecto de Investigación, Interpretación y Cartografía Sinóptica del Plioceno (PRISM), cuyo objeto es la reconstrucción de las condiciones globales durante el intervalo de hace 3,3 a hace 3,0 millones de años, conocido como Piacenziano medio.
Las diferencias climáticas con la actualidad
Las reconstrucciones de las temperaturas de la superficie marina (SST) obtenidas con este proyecto, basadas fundamentalmente en datos sobre el plancton foraminífero, indican que la diferencia entre estas temperaturas y las actuales aumentaban con la latitud en el Atlántico Norte. Es decir, las temperaturas de la superficie marina eran parecidas a las actuales cerca del ecuador, pero que eran superiores a las actuales en las latitudes más altas, llegando hasta los 18 ºC en los polos. En la figura podemos ver estas diferencias.
- La vegetación arbórea llegaba hasta las orillas del Ártico, ocupando las zonas donde actualmente hay tundra.
- Hubo una reducción importante de la capa de hielo en Groenlandia y en la Antártida.
- En verano, el océano Ártico se encontraba libre de hielo, mientras que la extensión helada en invierno era similar a la actual en verano.
- El desierto de Namibia tenía unas condiciones más húmedas que las actuales.
- El nivel del mar era de 20 a 30 metros más alto que el actual.
- Se cree que el fenómeno de El Niño era crónico durante el Piacenziano medio.
El problema de la circulación termohalina atlántica
En la frontera entre el Atlántico Norte y el Océano Ártico es donde se produce el hundimiento del agua fría y cargada de sal, que es el fenómeno que alimenta la circulación termohalina. Por puro sentido común (y los modelos lo confirman), un aumento de la temperatura de las aguas de estas zonas hace que disminuya el hundimiento de agua fría y salina, por lo que podemos pensar que durante el Piacanziano medio la circulación termohalina había disminuido. Sin embargo, diversos estudios, independientes y basados en diferentes evidencias, parecen demostrar un aumento en la circulación termohalina atlántica en esa época. O el sistema climático en el Atlántico Norte y el Océano Ártico era entonces muy diferente del actual, o los modelos climáticos son inapropiados para Europa y en el este de los Estados Unidos.
La concentración de CO2
La concentración de CO2 en la atmósfera era de unos 450 ppm durante el Piacenziano medio. Con los modelos actuales, esta concentración de CO2 no puede explicar el aumento tan importante de la temperatura del Atlántico Norte y del Océano Ártico, mientras que este calentamiento no afectó a las zonas tropicales.
Por ahora no hay una explicación clara a este comportamiento del clima durante el Piacenziano medio. Se podría suponer que, con respecto a los modelos actuales, las zonas polares tienen una sensibilidad mayor al aumento del CO2 de lo que predicen los modelos, mientras que las zonas ecuatoriales tienen, en cambio, una sensibilidad menor.
Conclusión
O bien la diferencia entre las condiciones climáticas del Piacenziano medio difieren de las calculadas por los modelos, tanto en la circulación termohalina como en la sensibilidad al CO2, debido a que se trata de unas condiciones estabilizadas, mientras que los modelos tratan de condiciones de transición, o bien los modelos actuales del clima deben ser corregidos.
Veremos cual es la conclusión de próximo informe del IPCC.
Mientras tanto, el proyecto PRISM continua trabajando para mejorar el conocimiento de las condiciones climáticas existentes hace de 3,3 a 3,0 millones de años.
Pliocene climate. Processes and Problems
Why study Paleoclimate?
Climáticamente, el Plioceno puede dividirse, a grandes rasgos, en tres fases:
1 – un período cálido en el Plioceno temprano,
2 – un período relativamente corto (de 3,3 a 3 millones de años antes de ahora) conocido como el “Optimo Climático del Plioceno Medio”, y
3 – una deterioración climática durante el Plioceno tardío, que se tradujo por una gran variabilidad climática asociada con los ciclos glaciares e interglaciares del Pleistoceno.
El Plioceno es importante para el estudio del cambio climático actual
El Plioceno medio (3,3 a 3,0 millones de años antes de ahora) es la época más reciente en la historia de la Tierra en que las temperaturas medias globales fueron sustancialmente más cálidas durante un periodo continuado (de 2 a 3 ºC por encima de las temperaturas preindustriales) por lo que nos ofrecen un ejemplo accesible de un mundo que, en muchos aspectos, es similar al que los modelos estiman que puede ser la Tierra al final del siglo XXI. El Plioceno es también una época suficientemente reciente para que los continentes y los océanos hubieran casi alcanzado su configuración geográfica actual. Tomados a la vez, el promedio de los períodos más calidos durante el Plioceno medio presentan una vista del estado de equilibrio de un mundo globalmente más caliente, en el que las concentraciones de CO2 en la atmósfera (estimadas entre 360 y 400 ppm) eran mayores que las de los valores preindustriales, y en el que las evidencias geológicas y los isótopos están de acuerdo en que el nivel del mar era como mínimo entre 15 y 25 metros superior a los niveles modernos, con la correspondiente reducción de las capas de hielo y una menor aridez continental (ver IPCC 4 – capítulo 6 – pág 441-442).
Por esta razón, desde hace más de veinte años se han realizado muchos estudios sobre esta época.
Movimientos tectónicos durante el Plioceno
Empezaremos por ver los cambios que se produjeron en los continentes y en los océanos en el Plioceno. Los más importantes, por lo que respecta al clima, fueron:
- América del Sur se unió con América del Norte a través del istmo de Panamá hace unos 3,4 millones de años. Esta unión tuvo consecuencias importantes sobre el clima, ya que cortó las corrientes cálidas ecuatoriales, lo que permitió que se produjeran las corrientes atlánticas, con aguas frías provenientes tanto del Ártico como del Antártico, que enfriaron el océano Atlántico, que quedó, a partir de entonces, relativamente aislado. Este cambio en las corrientes oceánicas puede ser la causa del calentamiento de las temperaturas que se produjo entre 3,3 y 3,0 años antes de ahora.
- A finales del Mioceno (período anterior al Plioceno), África chocó con Europa, formando el mar Mediterráneo. El estrecho de Gibraltar se cerró, quedando el Mediterráneo, que tiene más evaporación que aporte de agua, parcialmente seco. Hace unos 6 millones de años este cierre se produjo por primera vez, hasta que el puente formado en Gibraltar se rompió, inundándose de nuevo el Mediterráneo con aguas provenientes del Atlántico. El ciclo se repitió varias veces durante unos 700.000 años hasta que el último puente se formó hace unos 5,6 millones de años, y se reabrió definitivamente hace 5,3 millones de años, al inicio del Zancleano.
- La placa india continuó su movimiento hacia el norte bajo la placa asiática, elevando la cordillera del Himalaya, creando una zona seca en el Tíbet debido a la “sombra” que las montañas cada vez más altas hacían a la lluvia.
El proyecto PRISM
El Servicio Geológico de los Estados Unidos (USGS) ha creado hace años el Proyecto de Investigación, Interpretación y Cartografía Sinóptica del Plioceno (PRISM), cuyo objeto es la reconstrucción de las condiciones globales durante el intervalo de hace 3,3 a hace 3,0 millones de años, conocido como Piacenziano medio.
Las diferencias climáticas con la actualidad
Las reconstrucciones de las temperaturas de la superficie marina (SST) obtenidas con este proyecto, basadas fundamentalmente en datos sobre el plancton foraminífero, indican que la diferencia entre estas temperaturas y las actuales aumentaban con la latitud en el Atlántico Norte. Es decir, las temperaturas de la superficie marina eran parecidas a las actuales cerca del ecuador, pero que eran superiores a las actuales en las latitudes más altas, llegando hasta los 18 ºC en los polos. En la figura podemos ver estas diferencias.
- La vegetación arbórea llegaba hasta las orillas del Ártico, ocupando las zonas donde actualmente hay tundra.
- Hubo una reducción importante de la capa de hielo en Groenlandia y en la Antártida.
- En verano, el océano Ártico se encontraba libre de hielo, mientras que la extensión helada en invierno era similar a la actual en verano.
- El desierto de Namibia tenía unas condiciones más húmedas que las actuales.
- El nivel del mar era de 20 a 30 metros más alto que el actual.
- Se cree que el fenómeno de El Niño era crónico durante el Piacenziano medio.
- La superficie del hielo marino antártico era inferior a la actual.
El problema de la circulación termohalina atlántica
En la frontera entre el Atlántico Norte y el Océano Ártico es donde se produce el hundimiento del agua fría y cargada de sal, que es el fenómeno que alimenta la circulación termohalina. Por puro sentido común (y los modelos lo confirman), un aumento de la temperatura de las aguas de estas zonas hace que disminuya el hundimiento de agua fría y salina, por lo que podemos pensar que durante el Piacanziano medio la circulación termohalina había disminuido. Sin embargo, diversos estudios, independientes y basados en diferentes evidencias, parecen demostrar un aumento en la circulación termohalina atlántica en esa época. O el sistema climático en el Atlántico Norte y el Océano Ártico era entonces muy diferente del actual, o los modelos climáticos son inapropiados para Europa y en el este de los Estados Unidos.
La concentración de CO2
La concentración de CO2 en la atmósfera era de unos 450 ppm durante el Piacenziano medio. Con los modelos actuales, esta concentración de CO2 no puede explicar el aumento tan importante de la temperatura del Atlántico Norte y del Océano Ártico, mientras que este calentamiento no afectó a las zonas tropicales.
Por ahora no hay una explicación clara a este comportamiento del clima durante el Piacenziano medio. Se podría suponer que, con respecto a los modelos actuales, las zonas polares tienen una sensibilidad mayor al aumento del CO2 de lo que predicen los modelos, mientras que las zonas ecuatoriales tienen, en cambio, una sensibilidad menor.
Conclusión
O bien la diferencia entre las condiciones climáticas del Piacenziano medio difieren de las calculadas por los modelos, tanto en la circulación termohalina como en la sensibilidad al CO2, debido a que se trata de unas condiciones estabilizadas, mientras que los modelos tratan de condiciones de transición, o bien los modelos actuales del clima deben ser corregidos.
Veremos cual es la conclusión de próximo informe del IPCC.
Mientras tanto, el proyecto PRISM continua trabajando para mejorar el conocimiento de las condiciones climáticas existentes hace de 3,3 a 3,0 millones de años.
Pliocene climate. Processes and Problems
Why study Paleoclimate?
Al filo de la navaja
Leído ayer en el periódico Información, de Alicante, en la sección meteorológica, y firmado por José Sierra:
Un pronóstico difícil
A finales de este año se espera que España alcance una potencia eólica instalada de casi 20.000 MW, que pueden llegar a 30.000 dentro de una década. Tan rápido y brutal crecimiento constituye un quebradero de cabeza para Red Eléctrica, el operador eléctrico español.
La eólica ha hecho que Red Eléctrica opere a diario al filo de una afilada navaja para casar la producción y demanda, en una difícil conveniencia en la que no cabe descartar “desajustes” que los españoles percibirían en forma de apagón. En ocasiones, la evolución de la generación eólica es contraria a los requerimientos de la demanda, con puntas en invierno y verano (olas de frío y calor) que coinciden con situaciones anticiclónicas que llegan a parar los inagotables molinos.
Aunque relativamente antiguo, el ejemplo de 2007 puede resultar ilustrativo el 4 de febrero se produjo un mínimo de producción eólica de 24 MW. Este mismo año, el 19 de marzo, se producía un récord de producción, hoy superado, de 8375 MW. En 2008 hubo un día en el que la eólica representó el 48 % de la demanda eléctrica en España, y otro en el que no superó el 1 %.
En este contexto, disponer de reservas hidroeléctricas, como la de la Muela Cortés, capaz de corregir en segundos cualquier necesidad de la demanda, resulta fundamental.
También ayuda, y mucho, anticipar la producción eólica mediante modelos meteorológicos. Desde 2002, Red Eléctrica desarrolla su propia herramienta, de nombre Sipreolico, basada en los modelos de la Agencia Estatal de meteorología, y realimentada constantemente con datos y experiencias reales. Sin embargo, el sistema tiene dificultades para predecir más allá de 24 horas, y mantiene todavía una elevada probabilidad de “desvíos” con repercusiones en la operación del sistema.
Pues eso…
Un pronóstico difícil
A finales de este año se espera que España alcance una potencia eólica instalada de casi 20.000 MW, que pueden llegar a 30.000 dentro de una década. Tan rápido y brutal crecimiento constituye un quebradero de cabeza para Red Eléctrica, el operador eléctrico español.
La eólica ha hecho que Red Eléctrica opere a diario al filo de una afilada navaja para casar la producción y demanda, en una difícil conveniencia en la que no cabe descartar “desajustes” que los españoles percibirían en forma de apagón. En ocasiones, la evolución de la generación eólica es contraria a los requerimientos de la demanda, con puntas en invierno y verano (olas de frío y calor) que coinciden con situaciones anticiclónicas que llegan a parar los inagotables molinos.
Aunque relativamente antiguo, el ejemplo de 2007 puede resultar ilustrativo el 4 de febrero se produjo un mínimo de producción eólica de 24 MW. Este mismo año, el 19 de marzo, se producía un récord de producción, hoy superado, de 8375 MW. En 2008 hubo un día en el que la eólica representó el 48 % de la demanda eléctrica en España, y otro en el que no superó el 1 %.
En este contexto, disponer de reservas hidroeléctricas, como la de la Muela Cortés, capaz de corregir en segundos cualquier necesidad de la demanda, resulta fundamental.
También ayuda, y mucho, anticipar la producción eólica mediante modelos meteorológicos. Desde 2002, Red Eléctrica desarrolla su propia herramienta, de nombre Sipreolico, basada en los modelos de la Agencia Estatal de meteorología, y realimentada constantemente con datos y experiencias reales. Sin embargo, el sistema tiene dificultades para predecir más allá de 24 horas, y mantiene todavía una elevada probabilidad de “desvíos” con repercusiones en la operación del sistema.
Pues eso…
miércoles, 26 de mayo de 2010
Las centrales nucleares en construcción
Ya he dicho alguna vez que soy partidario de la energía nuclear. La razón es que, habiendo trabajado en Francia, he podido constatar que una de las causas de que la industria francesa siga siendo competitiva es que dispone de una energía eléctrica a un precio correcto (no podemos decir lo mismo de nuestro país). De modo que la crisis, en Francia, tiene un impacto menos importante que aquí en España.
Pues bien, no debo ser el único que piensa que la energía nuclear tiene un futuro. En el gráfico, publicado en Les Echos del 9 de marzo, se puede observar los reactores en construcción en todo el mundo: 21 en China, 9 a Rusia, 6 en Corea del Sur, 5 en India, etc. Un total de 56 reactores nucleares se están construyendo ahora mismo en todo el mundo.
Para pensar en ello, si queremos ser competitivos.
Pues bien, no debo ser el único que piensa que la energía nuclear tiene un futuro. En el gráfico, publicado en Les Echos del 9 de marzo, se puede observar los reactores en construcción en todo el mundo: 21 en China, 9 a Rusia, 6 en Corea del Sur, 5 en India, etc. Un total de 56 reactores nucleares se están construyendo ahora mismo en todo el mundo.
Para pensar en ello, si queremos ser competitivos.
El nivel del mar en el siglo XX
La posición oficial del IPCC es la siguiente:
"A nivel mundial el nivel medio del mar aumentó a una tasa promedio de 1,8 [1,3 a 2,3] mm por año durante 1961 a 2003. La tasa de aumento fue más rápida durante el período 1993 y 2003, alrededor de 3,1 [2,4 a 3,8] mm por año. No está claro si esta tasa más rápida para el período 1993 a 2003 refleja una variabilidad decadal o un aumento de la tendencia a largo plazo"
El estudio On the decadal rates of sea level change during the twentieth Century, de S. J. Holgate, publicado en el año 2007 es muy interesante para ver como ha variado el nivel del mar durante el siglo pasado.
Se han escogido nueve registros largos y casi continuos del nivel del mar de todo el mundo para explorar la tasa de variación del nivel del mar para el período 1904-2003. Estos registros que la alta variabilidad en la tasa de variación del nivel del mar observado en los últimos 20 años no era particularmente inusual.
Se encontró que la tasa de variación del nivel del mar fue mayor en la primera parte del pasado siglo (+ 2,03 ± 0,35 mm / año 1904-1953), en comparación con la segunda parte (+ 1,45 ± 0,34 mm / año 1954-2003), aunque esta diferencia no se puede considerar significativa. La tasa más alta de aumento por década se produjo en la década centrada en 1980 ( + 5,31 mm / año) mientras que la menor tasa de aumento se encuentra en la década centrada en 1964 (-1.49 mm / año).
Del estudio de Holgate no se puede deducir que haya habido una aceleración en la tasa de variación del nivel del mar a partir del año 1975, cuando la temperatura global del planeta empezó a aumentar, contrariamente a lo que indica el IPCC.
Los datos históricos de las diversas estaciones que hay en el mundo se pueden encontrar aquí. En las dos últimas figuras se pueden ver los datos mensuales del nivel del mar en las estaciones de Brest (la que tiene datos más antiguos) y de Auckland (una de las utilizadas en el estudio citado).
"A nivel mundial el nivel medio del mar aumentó a una tasa promedio de 1,8 [1,3 a 2,3] mm por año durante 1961 a 2003. La tasa de aumento fue más rápida durante el período 1993 y 2003, alrededor de 3,1 [2,4 a 3,8] mm por año. No está claro si esta tasa más rápida para el período 1993 a 2003 refleja una variabilidad decadal o un aumento de la tendencia a largo plazo"
El estudio On the decadal rates of sea level change during the twentieth Century, de S. J. Holgate, publicado en el año 2007 es muy interesante para ver como ha variado el nivel del mar durante el siglo pasado.
Se han escogido nueve registros largos y casi continuos del nivel del mar de todo el mundo para explorar la tasa de variación del nivel del mar para el período 1904-2003. Estos registros que la alta variabilidad en la tasa de variación del nivel del mar observado en los últimos 20 años no era particularmente inusual.
Se encontró que la tasa de variación del nivel del mar fue mayor en la primera parte del pasado siglo (+ 2,03 ± 0,35 mm / año 1904-1953), en comparación con la segunda parte (+ 1,45 ± 0,34 mm / año 1954-2003), aunque esta diferencia no se puede considerar significativa. La tasa más alta de aumento por década se produjo en la década centrada en 1980 ( + 5,31 mm / año) mientras que la menor tasa de aumento se encuentra en la década centrada en 1964 (-1.49 mm / año).
Durante todo el siglo la tasa media de cambio fue de 1,74 ± 0,16 mm / año.
Del estudio de Holgate no se puede deducir que haya habido una aceleración en la tasa de variación del nivel del mar a partir del año 1975, cuando la temperatura global del planeta empezó a aumentar, contrariamente a lo que indica el IPCC.
Los datos históricos de las diversas estaciones que hay en el mundo se pueden encontrar aquí. En las dos últimas figuras se pueden ver los datos mensuales del nivel del mar en las estaciones de Brest (la que tiene datos más antiguos) y de Auckland (una de las utilizadas en el estudio citado).
El misterio de la energía perdida
Un artículo reciente titulado Tracking Earth’s energy: From El Niño to global warming, uno de cuyos autores el Kevin Trenberg, del que ya hemos hablado, discute el hecho de que los satélites que miden por una parte, la cantidad total de luz solar absorbida por la Tierra, y por otra, el total de energía infrarroja (IR) liberada por la Tierra, parecen sugerir que estos flujos de energía que entran y salen del sistema climático de la Tierra han estado cada vez más fuera del equilibrio en los últimos 10 años, con un aumento de la energía absorbida del orden de un vatio por metro cuadrado.
A pesar de que este vatio por metro cuadrado es una cantidad pequeña comparada con los flujos promedio de energía (que se estiman en alrededor 235 a 240 vatios por metro cuadrado) representa un efecto de calentamiento considerable.
El problema es que los océanos no han estado calentando en respuesta a este desequilibrio. Los autores del artículo parecen inclinarse por la posibilidad de que este calor esté "perdido" en alguna parte, quizá temporalmente atrapado en las profundidades del océano. Sin embargo, otros científicos han expresado su opinión de que el calor no puede no ser visto, como por arte de magia, por los sensores de temperatura del océano, tanto los que se encuentran en el espacio como los que están flotando en los océanos de todo el mundo, que vigilan la superficie del océano y las temperaturas de las capas superiores.
Los autores del artículo no destacan el hecho de que esta "falta" de energía probablemente no está en el infrarrojo, que es donde se origina el calentamiento global supuestamente hecho por el hombre, sino en la componente de energía solar reflejada. El componente de infrarrojos no presenta ninguna tendencia entre marzo de 2000 y diciembre de 2007 (según el balance de radiación de la Tierra que se deduce de loa datos del satélite CERES).
Esto sugiere una leve disminución en la cubierta de nubes de nivel medio o bajo, que dejaría entrar más luz solar a través de la atmósfera. El hecho de que esta energía extra no implique un aumento de la temperatura en el océano puede hacer sospechar de las propias medidas. Si hubiera algún problema con las mediciones del balance de la radiación terrestre no habría esta falta de energía.
En la figura podemos encontrar una estimación de la energía que entra en el sistema climático.
Los cambios observados muestran:
- en rojo fino los promedios de 12 meses de las anomalías de la temperatura global media de la superficie con respecto a 1901-2000 de la NOAA y por década (rojo grueso)) en ° C (escala inferior izquierda),
- las concentraciones de dióxido de carbono (verde) en ppmv de la NOAA,
- el nivel del mar global ajustado por rebote isostático de AVISO (azul, junto con la tendencia lineal de 3,2 mm / año) en relación a 1993.
En la siguiente figura se indica el flujo global neto de energía. Las tasas de variación de la energía global en vatios por metro cuadrado muestran un contraste entre la era del IPCC AR4 (1993-2003) y el período posterior a 2003. De 1992 a 2003, los cambios en el contenido de calor decenal del océano (azul), así como las contribuciones de los glaciares, de los casquetes polares, de Groenlandia, de la Antártida y del hielo del Ártico, además de pequeñas contribuciones de la tierra y del calentamiento de la atmósfera (rojo), sugieren una el calentamiento total del planeta de 0,6 ± 0,2 vatios por metro cuadrado.
A partir del año 2000, las observaciones de la energía entrante y saliente en la alta atmósfera (negro), tomando como referencia los valores de 2000, muestran una diferencia creciente (oro) en relación con el calentamiento total observado (rojo). La menor actividad solar reduce ligeramente el calentamiento neto (morado), pero se observa una gran falta de energía (anaranjado).
Esta energía perdida corresponde al período en que la superficie del planeta no se ha calentado conforme a lo que estaba previsto: si esta energía está almacenada en alguna parte, cuando aparezca el calentamiento recuperará el tiempo perdido. Pero si esta energía perdida no existe, habrá que preguntarse sobre la idoneidad de los actuales modelos o de la precisión de las medidas. Sólo el tiempo nos dirá si tal pérdida de energía existe y, si existe, cual es su importancia en las previsiones climáticas futuras.
A pesar de que este vatio por metro cuadrado es una cantidad pequeña comparada con los flujos promedio de energía (que se estiman en alrededor 235 a 240 vatios por metro cuadrado) representa un efecto de calentamiento considerable.
El problema es que los océanos no han estado calentando en respuesta a este desequilibrio. Los autores del artículo parecen inclinarse por la posibilidad de que este calor esté "perdido" en alguna parte, quizá temporalmente atrapado en las profundidades del océano. Sin embargo, otros científicos han expresado su opinión de que el calor no puede no ser visto, como por arte de magia, por los sensores de temperatura del océano, tanto los que se encuentran en el espacio como los que están flotando en los océanos de todo el mundo, que vigilan la superficie del océano y las temperaturas de las capas superiores.
Los autores del artículo no destacan el hecho de que esta "falta" de energía probablemente no está en el infrarrojo, que es donde se origina el calentamiento global supuestamente hecho por el hombre, sino en la componente de energía solar reflejada. El componente de infrarrojos no presenta ninguna tendencia entre marzo de 2000 y diciembre de 2007 (según el balance de radiación de la Tierra que se deduce de loa datos del satélite CERES).
Esto sugiere una leve disminución en la cubierta de nubes de nivel medio o bajo, que dejaría entrar más luz solar a través de la atmósfera. El hecho de que esta energía extra no implique un aumento de la temperatura en el océano puede hacer sospechar de las propias medidas. Si hubiera algún problema con las mediciones del balance de la radiación terrestre no habría esta falta de energía.
En la figura podemos encontrar una estimación de la energía que entra en el sistema climático.
Los cambios observados muestran:
- en rojo fino los promedios de 12 meses de las anomalías de la temperatura global media de la superficie con respecto a 1901-2000 de la NOAA y por década (rojo grueso)) en ° C (escala inferior izquierda),
- las concentraciones de dióxido de carbono (verde) en ppmv de la NOAA,
- el nivel del mar global ajustado por rebote isostático de AVISO (azul, junto con la tendencia lineal de 3,2 mm / año) en relación a 1993.
En la siguiente figura se indica el flujo global neto de energía. Las tasas de variación de la energía global en vatios por metro cuadrado muestran un contraste entre la era del IPCC AR4 (1993-2003) y el período posterior a 2003. De 1992 a 2003, los cambios en el contenido de calor decenal del océano (azul), así como las contribuciones de los glaciares, de los casquetes polares, de Groenlandia, de la Antártida y del hielo del Ártico, además de pequeñas contribuciones de la tierra y del calentamiento de la atmósfera (rojo), sugieren una el calentamiento total del planeta de 0,6 ± 0,2 vatios por metro cuadrado.
A partir del año 2000, las observaciones de la energía entrante y saliente en la alta atmósfera (negro), tomando como referencia los valores de 2000, muestran una diferencia creciente (oro) en relación con el calentamiento total observado (rojo). La menor actividad solar reduce ligeramente el calentamiento neto (morado), pero se observa una gran falta de energía (anaranjado).
Esta energía perdida corresponde al período en que la superficie del planeta no se ha calentado conforme a lo que estaba previsto: si esta energía está almacenada en alguna parte, cuando aparezca el calentamiento recuperará el tiempo perdido. Pero si esta energía perdida no existe, habrá que preguntarse sobre la idoneidad de los actuales modelos o de la precisión de las medidas. Sólo el tiempo nos dirá si tal pérdida de energía existe y, si existe, cual es su importancia en las previsiones climáticas futuras.
La Oscilación del Pacífico Norte y la evolución de la temperatura global
Hablábamos el otro día de la Oscilación del Pacífico Norte. Los datos mensuales de la anomalía de esta oscilación se pueden encontrar aquí, y se han puesto en las figuras en forma de barras para las anuales, y en forma de puntos para las mensuales. En ambos casos, se ha trazado la curva de tendencia polinomial de grado seis, y se observa que estas tendencias tienen las características siguientes:
- pendiente positiva: de 1915 a 1930 y de 1960 a 1992.
- pendiente negativa: de 1930 a 1960 y a partir de 1993
Si ahora observamos la evolución anual de las temperaturas globales, vemos que la pendiente de la curva de tendencia polinomial de grado seis con respecto a la pendiente de la tendencia lineal sigue las siguientes pautas:
- pendiente mayor: de 1910 a 1940 y de 1975 a 2002
- pendiente menor: de 1940 a 1975 y a partir de 2002
Parece, por tanto, claro que hay alguna relación entre la Oscilación del Pacífico Norte y la al calentamiento global. Parece que cuando la Oscilación entra en una fase de pendiente negativa, hace disminuir la temperatura global, compensando el aumento debido a los gases de efecto invernadero. Es por esto que algunos consideran que, desde que la PDO ha entrado en una fase descendente, las temperaturas globales dejarán de aumentar. Y como, por lo que parece, el período de la PDO es de unos 30 años, pronostican que la temperatura global no aumentará antes del 2030.
- pendiente positiva: de 1915 a 1930 y de 1960 a 1992.
- pendiente negativa: de 1930 a 1960 y a partir de 1993
Si ahora observamos la evolución anual de las temperaturas globales, vemos que la pendiente de la curva de tendencia polinomial de grado seis con respecto a la pendiente de la tendencia lineal sigue las siguientes pautas:
- pendiente mayor: de 1910 a 1940 y de 1975 a 2002
- pendiente menor: de 1940 a 1975 y a partir de 2002
Parece, por tanto, claro que hay alguna relación entre la Oscilación del Pacífico Norte y la al calentamiento global. Parece que cuando la Oscilación entra en una fase de pendiente negativa, hace disminuir la temperatura global, compensando el aumento debido a los gases de efecto invernadero. Es por esto que algunos consideran que, desde que la PDO ha entrado en una fase descendente, las temperaturas globales dejarán de aumentar. Y como, por lo que parece, el período de la PDO es de unos 30 años, pronostican que la temperatura global no aumentará antes del 2030.
¿Por qué se calienta el Ártico?
Las aguas del océano Ártico y las de los mares que lo circundan se han estado calentando desde el año 1965. El ritmo de su calentamiento se ha acelerado desde el año 1995, y los años 2007 y 2008 han sido los dos primeros años seguidos con una superficie helada en verano extremadamente reducida. La zona del Ártico se calienta más rápidamente que cualquier otro lugar del planeta. ¿Por qué?
Una publicación reciente, The central role of diminishing sea ice in recent Arctic temperature amplification, intenta dar una respuesta a esta pregunta. En ella se llega a la conclusión de que este calentamiento de las aguas del Ártico está muy ligado a la reducción de la cantidad de superficie helada, mientras que los cambios en la cobertura nubosa no han contribuido demasiado a este calentamiento. El contenido en vapor de agua atmosférico ha aumentado, en buena parte como respuesta a la reducción de la superficie helada, y este aumento del vapor de agua puede haber contribuido al aumento del calentamiento de la baja atmósfera durante el verano y principio del otoño.
En la figura se puede ver el aumento de la temperatura durante el período 1989 – 2008 en los distintos niveles de la atmósfera (1000 Hp = superficie) en cada época del año. Parece sorprendente que el ritmo de calentamiento sea inferior en verano (+ 0,5 ºC por década) que en las demás estaciones (+ 1,6 ºC en invierno, + 0,9 ºC en primavera y + 1,6 ºC en otoño), pero la explicación está en que durante esta estación, la fusión del hielo y el calentamiento del agua absorben mucha energía, mientras que en invierno es mucho mayor, exactamente por el motivo contrario.
En la siguiente figura se puede ver el aumento de la temperatura en el período 1989 – 2008 debida a los cambios del hielo marino en los distintos niveles de la atmósfera en cada época del año. En esta figura podemos ver que, al norte del paralelo 70, una buena parte del aumento de temperatura está ligado con la reducción de la superficie helada. En invierno, la mayor parte del calentamiento está ligado con ella, aunque la disminución de la superficie helada sea relativamente pequeña y la retroalimentación debida al albedo sea poco importante en esta estación. El fuerte calentamiento del verano es coherente con la respuesta de la atmósfera a la reducción de la superficie helada, y refleja el ciclo estacional el ciclo anual de flujo de calor entre el océano y la atmósfera: durante el verano, la atmósfera pierde calor, mientras que en invierno hay un flujo da calor del océano hacia la atmósfera. De esta manera, en verano, la disminución de la superficie helada permite un mayor aumento de la temperatura del océano pero, sin embargo, el aumento de la temperatura de la atmósfera es más reducido.
En cuanto a las nubes, un aumento de éstas disminuye la radiación solar (ondas cortas), pero este efecto “sombra” puede ser compensado por un aumento de la radiación de onda larga (efecto invernadero). En el Ártico, el efecto invernadero es predominante en invierno, primavera y otoño, pero en verano el efecto predominante es el efecto sombra. El efecto de las nubes sobre la radiación es pequeño comparado con el del aumento de la humedad.
Al ser el calentamiento de la baja atmósfera del océano Ártico casi el doble que el de las otras partes del planeta, se puede deducir que las retroalimentaciones en la zona ártica son positivas y mayores que en el resto de la Tierra. Lo que hace suponer a los autores de publicación que las posibilidades de que el rápido calentamiento y el deshielo acelerado del océano Ártico y de los mares circundantes tiene muchas posibilidades de proseguir.
En una próxima entrega veremos qué pasó en el Ártico durante el Plioceno. Quizá el conocimiento de lo que sucedió hace 3 millones de años nos pueda dar algunas pistas de lo que puede suceder ahora.
Una publicación reciente, The central role of diminishing sea ice in recent Arctic temperature amplification, intenta dar una respuesta a esta pregunta. En ella se llega a la conclusión de que este calentamiento de las aguas del Ártico está muy ligado a la reducción de la cantidad de superficie helada, mientras que los cambios en la cobertura nubosa no han contribuido demasiado a este calentamiento. El contenido en vapor de agua atmosférico ha aumentado, en buena parte como respuesta a la reducción de la superficie helada, y este aumento del vapor de agua puede haber contribuido al aumento del calentamiento de la baja atmósfera durante el verano y principio del otoño.
En la figura se puede ver el aumento de la temperatura durante el período 1989 – 2008 en los distintos niveles de la atmósfera (1000 Hp = superficie) en cada época del año. Parece sorprendente que el ritmo de calentamiento sea inferior en verano (+ 0,5 ºC por década) que en las demás estaciones (+ 1,6 ºC en invierno, + 0,9 ºC en primavera y + 1,6 ºC en otoño), pero la explicación está en que durante esta estación, la fusión del hielo y el calentamiento del agua absorben mucha energía, mientras que en invierno es mucho mayor, exactamente por el motivo contrario.
En la siguiente figura se puede ver el aumento de la temperatura en el período 1989 – 2008 debida a los cambios del hielo marino en los distintos niveles de la atmósfera en cada época del año. En esta figura podemos ver que, al norte del paralelo 70, una buena parte del aumento de temperatura está ligado con la reducción de la superficie helada. En invierno, la mayor parte del calentamiento está ligado con ella, aunque la disminución de la superficie helada sea relativamente pequeña y la retroalimentación debida al albedo sea poco importante en esta estación. El fuerte calentamiento del verano es coherente con la respuesta de la atmósfera a la reducción de la superficie helada, y refleja el ciclo estacional el ciclo anual de flujo de calor entre el océano y la atmósfera: durante el verano, la atmósfera pierde calor, mientras que en invierno hay un flujo da calor del océano hacia la atmósfera. De esta manera, en verano, la disminución de la superficie helada permite un mayor aumento de la temperatura del océano pero, sin embargo, el aumento de la temperatura de la atmósfera es más reducido.
En cuanto a las nubes, un aumento de éstas disminuye la radiación solar (ondas cortas), pero este efecto “sombra” puede ser compensado por un aumento de la radiación de onda larga (efecto invernadero). En el Ártico, el efecto invernadero es predominante en invierno, primavera y otoño, pero en verano el efecto predominante es el efecto sombra. El efecto de las nubes sobre la radiación es pequeño comparado con el del aumento de la humedad.
Al ser el calentamiento de la baja atmósfera del océano Ártico casi el doble que el de las otras partes del planeta, se puede deducir que las retroalimentaciones en la zona ártica son positivas y mayores que en el resto de la Tierra. Lo que hace suponer a los autores de publicación que las posibilidades de que el rápido calentamiento y el deshielo acelerado del océano Ártico y de los mares circundantes tiene muchas posibilidades de proseguir.
En una próxima entrega veremos qué pasó en el Ártico durante el Plioceno. Quizá el conocimiento de lo que sucedió hace 3 millones de años nos pueda dar algunas pistas de lo que puede suceder ahora.
Una retroalimentación menos importante de lo que se pensaba
Una de las retroalimentaciones positivas de los modelos que predicen el aumento de temperaturas debido al calentamiento global por el aumento de gases de efecto invernadero es la de que los procesos que controlan el flujo de carbono y el almacenamiento de carbono de la atmósfera, los océanos y la biosfera terrestre son sensibles a la temperatura y tienden a proporcionar una realimentación positiva que conduce a amplificar el calentamiento antropogénico. Debido a esta retroalimentación, el calentamiento del sistema climático provoca una liberación neta de CO2 a la atmósfera, lo que amplifica el calentamiento.
Por ejemplo, cuando el clima se vuelve más cálido, el océano también se calienta. Un océano más cálido tiene una menor solubilidad de CO2, por lo que liberará CO2 a la atmósfera, lo que puede causar que el calentamiento global aumente. Este es un ejemplo de retroalimentación positiva.
La magnitud de la sensibilidad climática del ciclo global del carbono (denominada γ), y, por tanto, de su fuerza de retroalimentación positiva, es objeto de debate, dando lugar a grandes incertidumbres en las proyecciones del calentamiento global. Esta sensibilidad climática del ciclo global del carbono se mide en ppm de CO2 liberados por ºC de aumento de temperatura.
Aproximadamente el 40% de la incertidumbre relacionada con el calentamiento proyectado para el siglo XXI radica en el comportamiento poco conocido del ciclo del carbono, que es un componente importante del sistema climático mundial. Por tanto, para disminuir la incertidumbre de las predicciones es muy importante cuantificar lo mejor posible el valor de γ.
Hasta ahora se estimaba γ = 20 a 200 ppm de CO2 liberados por ºC de aumento de temperatura, con un valor medio de 40. Estas estimaciones están basadas en el estudio del período 1.860 – 1.995 y, por tanto, son difíciles de interpretar debido a las emisiones antropogénicas de CO2 durante este período. Con este valor de γ la concentración de CO2 el año 2.100 sería de 980 ppm, mientras que sería de 700 ppm si γ fuera igual a cero.
En un reciente artículo, Ensemble Reconstruction Constraints on the Global Carbon Cycle Sensitivity to Climate, publicado en la revista Nature el 28 de enero pasado, David C. Frank y otros estiman el valor de γ en 7,7 ppm de CO2 liberados por ºC de aumento de temperatura, con un intervalo de confianza que ve de 1,7 a 21,4. Para este cálculo, los autores del estudio se basan en las temperaturas y las concentraciones de CO2 del año 1.050 al 1.800. La razón aducida para considerar este período es que no casi hay emisiones antropogénicas, lo que hace el estudio más fiable.
Estos resultados sugieren que esta retroalimentación positiva es, por tanto, un 80 % más pequeña que la calculada en la mayoría de los modelos actuales. Si estos resultados se confirman, el calentamiento global estimado por el IPCC sería un 32 % menor del previsto (80 % de 40 %) por los modelos. Es decir, si nos han dicho que a finales de siglo la temperatura aumentará de 3ºC, en realidad sólo aumentará de 2.
Por ejemplo, cuando el clima se vuelve más cálido, el océano también se calienta. Un océano más cálido tiene una menor solubilidad de CO2, por lo que liberará CO2 a la atmósfera, lo que puede causar que el calentamiento global aumente. Este es un ejemplo de retroalimentación positiva.
La magnitud de la sensibilidad climática del ciclo global del carbono (denominada γ), y, por tanto, de su fuerza de retroalimentación positiva, es objeto de debate, dando lugar a grandes incertidumbres en las proyecciones del calentamiento global. Esta sensibilidad climática del ciclo global del carbono se mide en ppm de CO2 liberados por ºC de aumento de temperatura.
Aproximadamente el 40% de la incertidumbre relacionada con el calentamiento proyectado para el siglo XXI radica en el comportamiento poco conocido del ciclo del carbono, que es un componente importante del sistema climático mundial. Por tanto, para disminuir la incertidumbre de las predicciones es muy importante cuantificar lo mejor posible el valor de γ.
Hasta ahora se estimaba γ = 20 a 200 ppm de CO2 liberados por ºC de aumento de temperatura, con un valor medio de 40. Estas estimaciones están basadas en el estudio del período 1.860 – 1.995 y, por tanto, son difíciles de interpretar debido a las emisiones antropogénicas de CO2 durante este período. Con este valor de γ la concentración de CO2 el año 2.100 sería de 980 ppm, mientras que sería de 700 ppm si γ fuera igual a cero.
En un reciente artículo, Ensemble Reconstruction Constraints on the Global Carbon Cycle Sensitivity to Climate, publicado en la revista Nature el 28 de enero pasado, David C. Frank y otros estiman el valor de γ en 7,7 ppm de CO2 liberados por ºC de aumento de temperatura, con un intervalo de confianza que ve de 1,7 a 21,4. Para este cálculo, los autores del estudio se basan en las temperaturas y las concentraciones de CO2 del año 1.050 al 1.800. La razón aducida para considerar este período es que no casi hay emisiones antropogénicas, lo que hace el estudio más fiable.
Estos resultados sugieren que esta retroalimentación positiva es, por tanto, un 80 % más pequeña que la calculada en la mayoría de los modelos actuales. Si estos resultados se confirman, el calentamiento global estimado por el IPCC sería un 32 % menor del previsto (80 % de 40 %) por los modelos. Es decir, si nos han dicho que a finales de siglo la temperatura aumentará de 3ºC, en realidad sólo aumentará de 2.
martes, 25 de mayo de 2010
El precio del kWh
Leyendo el documento Key World Energy Statistics, publicado por la Agencia Internacional de la Energía, correspondiente al año 2.009, nos encontramos que el precio de la energía eléctrica en España y en Francia, en el primer trimestre del 2.009, ha sido el siguiente:
En el mismo documento, pero del año 2.007, los precios indicados para los mismos países, en el primer trimestre del 2.007, eran:
Si comparamos los precios de España con los de Francia, encontramos que la electricidad para industrias cuesta, en el primer trimestre del 2.009, un 110% más en España que en Francia, y la electricidad doméstica, un 29 % más.
Desde el año 2.007 hasta el 2.009, el precio de la electricidad para industrias ha aumentado, en España, un 37 %, mientras que la doméstica lo ha hecho en un 32 %, mientras que en Francia, estos aumentos han sido de un 12 % para los dos mercados.
Esta disparidad tan importante debe ser debida a que en Francia se produce la gran mayoría de la electricidad mediante la energía nuclear, mientras que en España cada vez hay más electricidad procedente de energías renovables, más caras y que, además, disfrutan de primas a la producción. Estas primas, para el año 2.009, han significado unos 2 céntimos por MWh del total de la energía eléctrica producida.
No es extraño, por tanto, que en Francia las industrias sean más competitivas que las españolas, más cuanto más electricidad consuman, lo que contribuye a que en Francia la crisis económica haya afectado de manera menos importante que en España.
Mi factura
Sin embargo, no tenía la impresión de que la electricidad que consumo haya aumentado tanto como dice la publicación de la IEA, de manera que he mirado cuánto me costaba la energía eléctrica que consumo, con los precios vigentes a primero de enero de cada año, desde 2.006 al 2.010. Las características importantes son (reconozco que no estoy muy electrificado):
Potencia contratada = 3,3 kW
Consumo anual = 1.800 kWh
El importe anual del consumo eléctrico se puede ver la tabla, y se calcula como sigue:
Potencia contratada: se obtiene multiplicando la potencia contratada por 12 veces el coste mensual de kW contratado. A partir de mediados del 2.009, el precio es por kW contratado y por día. En este caso, el valor mensual se obtiene multiplicando este valos por 12 y dividiéndolo por 365.
Energía consumida: se obtiene multiplicando el valor de kWh por la energía consumida.
Subtotal: es la suma de lo pagado anualmente por la potencia contratada y por la energía consumida.
Impuesto especial: el subtotal anterior se multiplica por 1,05113 y por 0,04684.
Alquiler del contador: su precio no ha variado, era de 0,54 €/mes hasta mediados de 2.009, y de 0,017753 €/día a partir de mediados de 2.009.
Subtotal 2: se obtiene sumando al subtotal 1 el impuesto especial y el alquiler del contador.
IVA: el Impuesto sobre el Valor Añadido es el 16 % del subtotal 2 (subirá al 18 % en julio)
Total: el coste total anual es la suma del subtotal 2 más el IVA.
Dividiendo el total por los 1.800 kWh consumidos obtenemos el precio del kWh.
Observamos que el aumento de “mi” factura eléctrica es algo más barata y ha subido algo menos de lo que indica el IEA. La mayor subida se produjo en el año 2.008. Sin embargo, ha subido mucho más que la inflación, que del 1 de enero del 2.006 al 31 de diciembre del 2.009 ha sido del 9 %, menos de la tercera parte de lo que ha subido la factura eléctrica.
El problema es saber la causa de esta subida tan importante, que complica nuestra salida de la crisis: ¿renovables? ¿deuda tarifaria?...
España: 0,1252 €/kWh industrial y 0,2180 €/kWh doméstico
Francia: 0,0595 €/kWh industrial y 0,1690 €/kWh doméstico
En el mismo documento, pero del año 2.007, los precios indicados para los mismos países, en el primer trimestre del 2.007, eran:
España: 0,0913 €/kWh industrial y 0,1647 €/kWh doméstico
Francia: 0,0533 €/kWh industrial y 0,1515 €/kWh doméstico
Si comparamos los precios de España con los de Francia, encontramos que la electricidad para industrias cuesta, en el primer trimestre del 2.009, un 110% más en España que en Francia, y la electricidad doméstica, un 29 % más.
Desde el año 2.007 hasta el 2.009, el precio de la electricidad para industrias ha aumentado, en España, un 37 %, mientras que la doméstica lo ha hecho en un 32 %, mientras que en Francia, estos aumentos han sido de un 12 % para los dos mercados.
Esta disparidad tan importante debe ser debida a que en Francia se produce la gran mayoría de la electricidad mediante la energía nuclear, mientras que en España cada vez hay más electricidad procedente de energías renovables, más caras y que, además, disfrutan de primas a la producción. Estas primas, para el año 2.009, han significado unos 2 céntimos por MWh del total de la energía eléctrica producida.
No es extraño, por tanto, que en Francia las industrias sean más competitivas que las españolas, más cuanto más electricidad consuman, lo que contribuye a que en Francia la crisis económica haya afectado de manera menos importante que en España.
Mi factura
Sin embargo, no tenía la impresión de que la electricidad que consumo haya aumentado tanto como dice la publicación de la IEA, de manera que he mirado cuánto me costaba la energía eléctrica que consumo, con los precios vigentes a primero de enero de cada año, desde 2.006 al 2.010. Las características importantes son (reconozco que no estoy muy electrificado):
Potencia contratada = 3,3 kW
Consumo anual = 1.800 kWh
El importe anual del consumo eléctrico se puede ver la tabla, y se calcula como sigue:
Potencia contratada: se obtiene multiplicando la potencia contratada por 12 veces el coste mensual de kW contratado. A partir de mediados del 2.009, el precio es por kW contratado y por día. En este caso, el valor mensual se obtiene multiplicando este valos por 12 y dividiéndolo por 365.
Energía consumida: se obtiene multiplicando el valor de kWh por la energía consumida.
Subtotal: es la suma de lo pagado anualmente por la potencia contratada y por la energía consumida.
Impuesto especial: el subtotal anterior se multiplica por 1,05113 y por 0,04684.
Alquiler del contador: su precio no ha variado, era de 0,54 €/mes hasta mediados de 2.009, y de 0,017753 €/día a partir de mediados de 2.009.
Subtotal 2: se obtiene sumando al subtotal 1 el impuesto especial y el alquiler del contador.
IVA: el Impuesto sobre el Valor Añadido es el 16 % del subtotal 2 (subirá al 18 % en julio)
Total: el coste total anual es la suma del subtotal 2 más el IVA.
Dividiendo el total por los 1.800 kWh consumidos obtenemos el precio del kWh.
Observamos que el aumento de “mi” factura eléctrica es algo más barata y ha subido algo menos de lo que indica el IEA. La mayor subida se produjo en el año 2.008. Sin embargo, ha subido mucho más que la inflación, que del 1 de enero del 2.006 al 31 de diciembre del 2.009 ha sido del 9 %, menos de la tercera parte de lo que ha subido la factura eléctrica.
El problema es saber la causa de esta subida tan importante, que complica nuestra salida de la crisis: ¿renovables? ¿deuda tarifaria?...
CO2 equivalente
El nivel CO2 equivalente es la cantidad de CO2 que se necesitaría para dar el mismo forzamiento radiativo medio mundial que la suma de los forzamientos de los otros gases de efecto invernadero. Esta es una manera de incluir los efectos del CH4, del N2O y de otros gases de efecto invernadero de vida larga, de una manera sencilla.
En el año 2.005 la concentración de CO2 era de 379 ppm, la de CH4 de 1.774 ppb, la de NO2 de 319 ppb.
La cantidad equivalente se calcula mediante la fórmula que nos da el forzamiento del CO2:
donde el CO2 original es la concentración que había en el año 1750 (278 ppmv).
En el cuadro 2.12 del capítulo 2 del informe 2.007 del IPCC WG1, encontramos que los valores del forzamiento radiativo de la variación de los principales gases de efecto invernadero desde 1.750 hasta el 2.005 son:
Forzamiento radiativo del CO2 = + 1,66 ± 0,17
Forzamiento radiativo del CH4 = + 0,48 ± 0,05
Forzamiento radiativo del NO2 = + 0,16 ± 0,02
Forzamiento radiativo de los halocarbones = + 0,34 ± 0,03
Total = + 2,63 ± 0,26
Aplicando la fórmula
Si queremos ser más exactos, tendremos que añadir el forzamiento radiativo debido al vapor de agua estratosférico correspondiente a la degradación del metano a través de reacciones químicas en la atmósfera, que el IPCC estima en + 0,07 ± 0,05. Esto nos da un forzamiento total de + 2,71 ± 0,30. El CO2 equivalente es:
Esta concentración de CO2 equivalente se debe comparar con la concentración de CO2 real, que era de 379 ppm en el año 2.005.
Figura: componentes del forzamiento radiativo de las emisiones principales, según el informe 2.007 del IPCC WG1
En el año 2.005 la concentración de CO2 era de 379 ppm, la de CH4 de 1.774 ppb, la de NO2 de 319 ppb.
La cantidad equivalente se calcula mediante la fórmula que nos da el forzamiento del CO2:
Forzamiento total = 5,35 x log (CO2 equivalente/CO2 original)
donde el CO2 original es la concentración que había en el año 1750 (278 ppmv).
En el cuadro 2.12 del capítulo 2 del informe 2.007 del IPCC WG1, encontramos que los valores del forzamiento radiativo de la variación de los principales gases de efecto invernadero desde 1.750 hasta el 2.005 son:
Forzamiento radiativo del CO2 = + 1,66 ± 0,17
Forzamiento radiativo del CH4 = + 0,48 ± 0,05
Forzamiento radiativo del NO2 = + 0,16 ± 0,02
Forzamiento radiativo de los halocarbones = + 0,34 ± 0,03
Total = + 2,63 ± 0,26
Aplicando la fórmula
2,63 = 5,35 x log (CO2 equivalente/278)
CO2 equivalente = 278 x e^(2,63/5,35) = 278 x 1,635 = 455 ppm
Si queremos ser más exactos, tendremos que añadir el forzamiento radiativo debido al vapor de agua estratosférico correspondiente a la degradación del metano a través de reacciones químicas en la atmósfera, que el IPCC estima en + 0,07 ± 0,05. Esto nos da un forzamiento total de + 2,71 ± 0,30. El CO2 equivalente es:
2,71 = 5,35 x log (CO2 equivalente/278)
CO2 equivalente = 278 x e^(2,71/5,35) = 278 x 1,6595 = 461 ppm
Esta concentración de CO2 equivalente se debe comparar con la concentración de CO2 real, que era de 379 ppm en el año 2.005.
Figura: componentes del forzamiento radiativo de las emisiones principales, según el informe 2.007 del IPCC WG1
La fusión del hielo de Groenlandia y de la Antártida y el aumento del nivel del mar
Hemos visto que, en los últimos años, Groenlandia ha perdido 237 ± 20 Gt por año, mientras que la Antártida ha perdido 190 ± 77 Gt por año. En total, por tanto, la pérdida de masa de hielo anual de estas dos zonas ha sido de 427 Gt por año.
Como 1 Gt de masa de hielo fundido equivale a un aumento del nivel del mar de 0,00277 mm (cálculo detallado en una entrada anterior), el total de las 427 Gt anuales equivalen a un aumento del nivel del mar de 1,18 mm por año.
Según los datos publicados por la Universidad de Colorado, el aumento medio del nivel del mar desde el año 2.000 hasta hoy ha sido de 3,1 mm por año, valor muy superior al correspondiente al aporte de Groenlandia y de la Antártida.
Como 1 Gt de masa de hielo fundido equivale a un aumento del nivel del mar de 0,00277 mm (cálculo detallado en una entrada anterior), el total de las 427 Gt anuales equivalen a un aumento del nivel del mar de 1,18 mm por año.
Según los datos publicados por la Universidad de Colorado, el aumento medio del nivel del mar desde el año 2.000 hasta hoy ha sido de 3,1 mm por año, valor muy superior al correspondiente al aporte de Groenlandia y de la Antártida.
El agua de la estratosfera tiene su importancia
Malos tiempos para el IPCC (Panel Internacional del Cambio Climático). Después de que un pirateo de los archivos de la Universidad de Anglia, en Inglaterra, revelara que hay, aparentemente, intentos de falsear datos, se descubre que algunos estudios en los que se basado el IPCC para hacer su último informe (velocidad de desaparición de los glaciares y de la selva amazónica) son, cuando menos, muy poco documentados. También hay serias dudas sobre la fiabilidad de los datos provenientes de China. Pero la preocupación mayor de los responsables del IPCC es que el planeta parece haber dejado de calentarse desde principios de la década actual. Y, lo que faltaba, un informe recientemente publicado da una explicación razonable a esta frenada del calentamiento global y, a la vez, da una nueva explicación al calentamiento global de los años 1975 a 2000.
Un nuevo informe en Science, publicado el pasado 28 de enero, está haciendo furor en la red. Subraya lo que muchos científicos han estado diciendo durante años, que es el vapor de agua, y no el CO2, quien ha estado impulsando los cambios de la temperatura global en las últimas décadas. La concentración de vapor de agua estratosférico ha disminuido en un 10% desde del año 2000, ralentizando el ritmo de aumento de temperatura de la superficie mundial en los últimos 10 años. También parece probable que el vapor de agua en la estratosfera ha disminuido entre 1980 y 2000, provocando un suplemento del 30% en el aumento de las temperaturas de la superficie. Estos hallazgos muestran que el vapor de agua estratosférico representa un importante motor de cambio climático global.
El nuevo informe, "Contributions of Stratospheric Water Vapor to Decadal Changes in the Rate of Global Warming", de Susan Solomon et al., indica que entre los años 2000 a 2009 disminuyó el nivel de vapor de agua en la atmósfera superior disminuyendo el calentamiento global en un 25% en comparación con lo que se habría producido debido sólo al dióxido de carbono y otros gases de efecto invernadero.
El contenido de vapor de agua de la atmósfera es muy variable, que van desde un 0% a un 4%. Aproximadamente el 99% de este vapor de agua se encuentra en la troposfera, pero también está presente en altitudes más altas. El aumento de vapor de agua estratosférico actúa de manera que se enfría la estratosfera, pero calienta la troposfera subyacente. Como era de esperar, lo contrario también es cierto: si en la estratosfera disminuye el vapor de agua, se calienta la estratosfera, pero disminuyen las temperaturas del aire más cercano a la superficie de la Tierra. Estudios anteriores han sugerido que el vapor de agua de la estratosfera puede contribuir significativamente al cambio climático, la pregunta que quedaba en el aire era cuantificar esta influencia.
El vapor de agua entra en la atmósfera a partir de diversos orígenes. Por ejemplo, el vapor de agua es el gas volcánico más común, representando más del 60% del total de emisiones durante una erupción. Pero es el agua que se evapora de la superficie de los océanos la que proporciona la mayor parte del vapor de agua en la atmósfera de la Tierra. El vapor de agua troposférico aumenta en estrecha asociación con el calentamiento y esto representa una respuesta climática importante. La condensación de vapor de agua para convertirse en líquido o hielo crea las nubes, la lluvia, la nieve, y otras formas de precipitación. Y el calor de condensación es otro factor importante que influye en el clima.
La tropopausa es la frontera entre la troposfera (la parte más baja de la atmósfera) y la estratosfera, la segunda capa de la atmósfera. Si subimos desde la superficie, el aire se enfría con la altura. Pero, a unos 12 km de altura (algo más en los trópicos), el aire se empieza a calentar a medida que subimos, formando una especie de inversión térmica (ver la figura). La tropopausa es el punto donde el aire deja de enfriarse con la altura. De manera más científica, es la región de la atmósfera donde el ritmo al que la temperatura disminuye con la altura cambia de positivo a negativo. En la estratosfera las capas más calientes son las capas que están más arriba y las más frías son las que están más abajo.
La estratosfera está casi completamente seca, sin vapor de agua. Las nubes se han quedado abajo, en la troposfera, y son incapaces de traspasar la inversión térmica de la frontera. Antes de llegar allá, por lo general, las gotitas de agua de las nubes ya se han helado y precipitado y, además, las burbujas de aire ascendente se frenan cuando, de repente, encuentran capas de aire ambiente más cálidas y menos densas que ellas mismas. Pero la tropopausa no es completamente impermeable al vapor de agua, y permite que haya algunos intercambios entre trposfera y estratosfera. Es decir, la cantidad de vapor de agua estratosférico puede cambiar.
La investigación supone que entre 1980 y el período de 1996-2000 el vapor de agua ha aumentado de manera uniforme de 1 ppmv en todas las latitudes y altitudes por encima de la tropopausa, y se calcula que este aumento de 1 ppmv equivale un forzamiento radiativo de 0,24 W m/2. En comparación, el aumento de forzamiento radiativo debido al aumento de dióxido de carbono se estima en alrededor de 0,36 W m/2 durante el período que va de 1980 a 1996.
Los autores concluyen que el estudio diciendo: "Este trabajo destaca la importancia del vapor de agua estratosférico en las tasas de calentamiento, y se basa directamente en observaciones, mostrando la necesidad de nuevas observaciones y un examen más detallado de la representación de los cambios de vapor de agua estratosférico en los modelos climáticos”. En otras palabras, tenemos que mejorar nuestro conocimiento teórico, recoger mejores datos, y realizar cambios importantes en los modelos climáticos, que no son suficientemente exactos.
Este estudio, encabezado por Susan Salomon, que es una eminente especialista en la estratosfera y ferviente creyente en el cambio climático provocado por los gases de efecto invernadero, demuestra que las predicciones catastrofistas que el IPCC ha hecho hasta el momento deben tomarse con pinzas, ya que queda mucho por conocer sobre los mecanismos que dominan los cambios de clima.
Un nuevo informe en Science, publicado el pasado 28 de enero, está haciendo furor en la red. Subraya lo que muchos científicos han estado diciendo durante años, que es el vapor de agua, y no el CO2, quien ha estado impulsando los cambios de la temperatura global en las últimas décadas. La concentración de vapor de agua estratosférico ha disminuido en un 10% desde del año 2000, ralentizando el ritmo de aumento de temperatura de la superficie mundial en los últimos 10 años. También parece probable que el vapor de agua en la estratosfera ha disminuido entre 1980 y 2000, provocando un suplemento del 30% en el aumento de las temperaturas de la superficie. Estos hallazgos muestran que el vapor de agua estratosférico representa un importante motor de cambio climático global.
El nuevo informe, "Contributions of Stratospheric Water Vapor to Decadal Changes in the Rate of Global Warming", de Susan Solomon et al., indica que entre los años 2000 a 2009 disminuyó el nivel de vapor de agua en la atmósfera superior disminuyendo el calentamiento global en un 25% en comparación con lo que se habría producido debido sólo al dióxido de carbono y otros gases de efecto invernadero.
El contenido de vapor de agua de la atmósfera es muy variable, que van desde un 0% a un 4%. Aproximadamente el 99% de este vapor de agua se encuentra en la troposfera, pero también está presente en altitudes más altas. El aumento de vapor de agua estratosférico actúa de manera que se enfría la estratosfera, pero calienta la troposfera subyacente. Como era de esperar, lo contrario también es cierto: si en la estratosfera disminuye el vapor de agua, se calienta la estratosfera, pero disminuyen las temperaturas del aire más cercano a la superficie de la Tierra. Estudios anteriores han sugerido que el vapor de agua de la estratosfera puede contribuir significativamente al cambio climático, la pregunta que quedaba en el aire era cuantificar esta influencia.
El vapor de agua entra en la atmósfera a partir de diversos orígenes. Por ejemplo, el vapor de agua es el gas volcánico más común, representando más del 60% del total de emisiones durante una erupción. Pero es el agua que se evapora de la superficie de los océanos la que proporciona la mayor parte del vapor de agua en la atmósfera de la Tierra. El vapor de agua troposférico aumenta en estrecha asociación con el calentamiento y esto representa una respuesta climática importante. La condensación de vapor de agua para convertirse en líquido o hielo crea las nubes, la lluvia, la nieve, y otras formas de precipitación. Y el calor de condensación es otro factor importante que influye en el clima.
La tropopausa es la frontera entre la troposfera (la parte más baja de la atmósfera) y la estratosfera, la segunda capa de la atmósfera. Si subimos desde la superficie, el aire se enfría con la altura. Pero, a unos 12 km de altura (algo más en los trópicos), el aire se empieza a calentar a medida que subimos, formando una especie de inversión térmica (ver la figura). La tropopausa es el punto donde el aire deja de enfriarse con la altura. De manera más científica, es la región de la atmósfera donde el ritmo al que la temperatura disminuye con la altura cambia de positivo a negativo. En la estratosfera las capas más calientes son las capas que están más arriba y las más frías son las que están más abajo.
La estratosfera está casi completamente seca, sin vapor de agua. Las nubes se han quedado abajo, en la troposfera, y son incapaces de traspasar la inversión térmica de la frontera. Antes de llegar allá, por lo general, las gotitas de agua de las nubes ya se han helado y precipitado y, además, las burbujas de aire ascendente se frenan cuando, de repente, encuentran capas de aire ambiente más cálidas y menos densas que ellas mismas. Pero la tropopausa no es completamente impermeable al vapor de agua, y permite que haya algunos intercambios entre trposfera y estratosfera. Es decir, la cantidad de vapor de agua estratosférico puede cambiar.
La investigación supone que entre 1980 y el período de 1996-2000 el vapor de agua ha aumentado de manera uniforme de 1 ppmv en todas las latitudes y altitudes por encima de la tropopausa, y se calcula que este aumento de 1 ppmv equivale un forzamiento radiativo de 0,24 W m/2. En comparación, el aumento de forzamiento radiativo debido al aumento de dióxido de carbono se estima en alrededor de 0,36 W m/2 durante el período que va de 1980 a 1996.
Los autores concluyen que el estudio diciendo: "Este trabajo destaca la importancia del vapor de agua estratosférico en las tasas de calentamiento, y se basa directamente en observaciones, mostrando la necesidad de nuevas observaciones y un examen más detallado de la representación de los cambios de vapor de agua estratosférico en los modelos climáticos”. En otras palabras, tenemos que mejorar nuestro conocimiento teórico, recoger mejores datos, y realizar cambios importantes en los modelos climáticos, que no son suficientemente exactos.
Este estudio, encabezado por Susan Salomon, que es una eminente especialista en la estratosfera y ferviente creyente en el cambio climático provocado por los gases de efecto invernadero, demuestra que las predicciones catastrofistas que el IPCC ha hecho hasta el momento deben tomarse con pinzas, ya que queda mucho por conocer sobre los mecanismos que dominan los cambios de clima.
lunes, 24 de mayo de 2010
La Oscilación del Pacífico Norte
Parece que nadie sabe explicar la causa de la temperatura global no haya aumentado desde 2002, pese a que el CO2 de la atmósfera ha continuado aumentando. Mirando aquí y allá, he aquí que parece que esta estabilidad sea debida a la oscilación del Pacífico Norte, más conocido como PDO (Pacific Decadal Oscillation). No hace demasiado tiempo que se conoce la PDO: el año 1996 se describió por primera vez, estudiando la producción de salmones.
¿En qué consiste esta oscilación? Es una variación del clima del Pacífico que alterna fases de calentamiento y de enfriamiento cada 20 o 30 años. Esta oscilación se detecta midiendo las temperaturas de las aguas del Pacífico Norte (al norte del paralelo 20).
Esta oscilación afecta al clima, ya que el cambio en la situación de las masas de agua fría y agua caliente modifica el camino de las corrientes marinas. En la fase "fría" de la PDO encontramos una franja de agua más fría de lo normal en la parte este del Pacífico Norte (la costa de Estados Unidos) y una masa de agua más caliente de lo normal en forma de herradura que conecta el Pacífico norte con el Pacífico oeste y el Pacífico sur. En la fase "caliente" de la PDO, el Pacífico oeste se vuelve más frío y la franja del Pacífico este se calienta.
Las oscilaciones desde el año 1900 han sido las siguientes:
1905 - comienza una fase "caliente"
1946 - comienza una fase "fría"
1977 - comienza una fase "caliente"
1998 - parece comenzar una fase "fría", pero, después de 5 años, la tendencia no se confirma.
2008 - probablemente entramos en una fase "fría"
Lo interesante de la PDO es que la tendencia al calentamiento del siglo XX se cambió hacia un enfriamiento durante la fase "fría" del PDO de 1946 a 1977.
Ahora parece que hemos entrado en una fase "fría". Hay muchos expertos que piensan que esta es una de las razones de que el clima global no se caliente desde hace ocho o nueve años. Muchos también dicen que, debido a que hemos entrado en esta fase "fría", es posible que el clima global no se caliente durante los próximos veinte o treinta años.
Tenemos, pues, una explicación que parece coherente. Pero, ¿por qué la PDO oscila de este modo? El problema es que, hoy por hoy, esta pregunta no parece tener una respuesta satisfactoria. Y es que la ciencia es así: se responde a una pregunta y sale otra.
¿En qué consiste esta oscilación? Es una variación del clima del Pacífico que alterna fases de calentamiento y de enfriamiento cada 20 o 30 años. Esta oscilación se detecta midiendo las temperaturas de las aguas del Pacífico Norte (al norte del paralelo 20).
Esta oscilación afecta al clima, ya que el cambio en la situación de las masas de agua fría y agua caliente modifica el camino de las corrientes marinas. En la fase "fría" de la PDO encontramos una franja de agua más fría de lo normal en la parte este del Pacífico Norte (la costa de Estados Unidos) y una masa de agua más caliente de lo normal en forma de herradura que conecta el Pacífico norte con el Pacífico oeste y el Pacífico sur. En la fase "caliente" de la PDO, el Pacífico oeste se vuelve más frío y la franja del Pacífico este se calienta.
Las oscilaciones desde el año 1900 han sido las siguientes:
1905 - comienza una fase "caliente"
1946 - comienza una fase "fría"
1977 - comienza una fase "caliente"
1998 - parece comenzar una fase "fría", pero, después de 5 años, la tendencia no se confirma.
2008 - probablemente entramos en una fase "fría"
Lo interesante de la PDO es que la tendencia al calentamiento del siglo XX se cambió hacia un enfriamiento durante la fase "fría" del PDO de 1946 a 1977.
Ahora parece que hemos entrado en una fase "fría". Hay muchos expertos que piensan que esta es una de las razones de que el clima global no se caliente desde hace ocho o nueve años. Muchos también dicen que, debido a que hemos entrado en esta fase "fría", es posible que el clima global no se caliente durante los próximos veinte o treinta años.
Tenemos, pues, una explicación que parece coherente. Pero, ¿por qué la PDO oscila de este modo? El problema es que, hoy por hoy, esta pregunta no parece tener una respuesta satisfactoria. Y es que la ciencia es así: se responde a una pregunta y sale otra.
El aumento del nivel del mar: previsiones basadas en la paleoclimatología
El aumento del nivel del mar es probablemente el impacto más importante que tendrá el cambio climático antropogénico en los próximos siglos. El enfoque utilizado por Grupo Intergubernamental de Expertos Sobre el Cambio Climático (IPCC) para estimar el futuro del mar el aumento del nivel ha sido el modelo de los componentes principales del balance del nivel del mar: la expansión térmica volumétrica y el hielo de fusión. Las estimaciones del IPCC del aumento del nivel del mar para el año 2100 son de 18 a 59 cm respecto del nivel de la década 1990-1999.
Sin embargo, estas estimaciones han sido cuestionadas sobre la base de que grandes placas de hielo parecen estar cambiando mucho más rápidamente que lo que predicen los modelos. Los glaciares pequeños se miden correctamente y su comportamiento se comprende bien, y es probable que sólo contribuyan con 10 a 20 cm, al aumento del nivel del mar del siglo vigésimo primero. La expansión térmica es también conoce bastante bien y se espera que contribuya de 10-30 cm. En cambio, las grandes placas de hielo presentan muchas más dificultades tanto para medirlas como para poderlas modelizar.
Tradicionalmente las mediciones del balance de masa glaciológica de grandes capas de hielo son siempre difíciles, debido a los problemas logísticos relacionados con la medición de la acumulación y la fusión de la nieve, la escorrentía sub-glacial y el derretimiento del hielo en su plataforma basal. Sin embargo, los antiguos datos glaciológicos medidos por altimetría mediante satélites y radares aéreos, y los más recientes datos de GRACE muestran una tendencia a un saldo cada vez más negativo de la masa de hielo de Groenlandia. Decíamos en una entrada reciente, en efecto, que “hay indicaciones claras de que la fusión de las capas de hielo de Groenlandia se ha acelerado recientemente, pasando de una pérdida de 97 Gt por año en la década de los 90 a 267 ± 38 Gt en el año 2.007”.
Hay varios estudios que se basan en el nivel del mar del pasado para intentar obtener indicios de cómo se comportará si se cumplen las previsiones de aumento de temperatura del IPCC. Uno de ellos es Reconstructing sea level from paleo and projected temperaturas 200 to 2100 AD, publicado a principios del año 2.009. En él los autores proyectan el nivel del mar del futuro suponiendo que la relación establecida entre la temperatura y el nivel del mar se ha mantenido sin variaciones importantes desde el año 200 hasta el 2100 dC. En los últimos 2.000 años el nivel mínimo del mar (-19 a -26 cm) se produjo alrededor del año 1730 dC, cuando la temperatura era de 0,2 ºC inferior a la de los años 1950, y el máximo (+12 a +21 cm) alrededor del año 1150 dC, cuando la temperatura era de 0,2 ºC superior a la de los años 1950. Esto equivale a un aumento del nivel del mar del orden de 1 metro por cada grado centímetro de aumento de temperatura (los autores usan las reconstrucciones de temperatura de Jones & Mann y de Moberg. Sin embargo, otras reconstrucciones dan valores más elevados de diferencias de temperatura para estos dos períodos, como, por ejemplo, la reconstrucción de Loehle, que da ± 0,5 ºC, lo que disminuiría a la mitad la “sensibilidad” del nivel del mar a la variación de temperatura)
Por otra parte, en el último período interglacial, las temperaturas llegaron a ser de 3 a 5 ºC más altas que las actuales, y el nivel del mar era de 4 a 6 metros más alto: esto daría un aumento del nivel del mar de 1,2 a 1,3 metros por cada grado centígrado de aumento de la temperatura. Sin embargo, con datos históricos, en los últimos 150 años el nivel del mar ha subido de 0,3 metros, mientras que la temperatura ha subido en 0,6 ºC, lo que daría un aumento del nivel del mar de 0,5 metros por cada grado de subida de temperatura; esta valor aparentemente bajo comparado con los anteriores se puede explicar teniendo en cuenta que, seguramente, el efecto del aumento de temperatura no ha tenido tiempo de reflejarse completamente en la subida del nivel del mar, lo que nos lleva a la necesidad de trabajar con una constante de tiempo.
Los autores del estudio calculan, en base a todos estos datos, los coeficientes correspondientes a las ecuaciones siguientes, en tres casos distintos:
Los tres casos estudiados son, para el escenario A1B del IPCC (que dice que el nivel de gases de efecto invernadero y aerosoles en equivalente CO2 para el año 2.100 será de 850 ppm):
- reconstrucción de temperaturas de Jones & Mann: τ = 317 ± 117 años, a = 2,56 ± 0,9 m/ºC, b = 1,36 ± 0,52 m, aumento del nivel del mar 2090-2099 = 1,21 – 1,79 m
- reconstrucción de temperaturas de Moberg: τ = 208 ± 67 años, a = 1,29 ± 0,36 m/ºC, b = 0,77 ± 0,25 m, aumento del nivel del mar 2090-2099 = 0,91 – 1,32 m
- datos históricos basados en las temperaturas medidas desde 1850 hasta la actualidad: τ = 1193 ± 501 años, a = 3,10 ± 1,64 m/ºC, b = 3,68 ± 1,15 m, aumento del nivel del mar 2090-2099 = 0,32 – 1,34 m. Como es natural, la precisión es menor, ya que la serie de datos es más pequeña.
¿Qué grado de fiabilidad podemos dar a estas previsiones? Si nos atenemos a lo que ya ha sucedido en el pasado, la subida del nivel del mar predicha es superior a todo cuanto se ha visto en los últimos 2.000 años. La pregunta es: ¿podemos extrapolar de los datos de los últimos 2.000 años un fenómeno que es cuantitativamente muy superior?
Por otra parte, si se tomara como base de temperaturas las de Loehle, la subida prevista sería menor.
Pero si tomamos como referencia el aumento del nivel del mar en el período que va desde hace 14.000 años hasta hace 7.000 años, éste aumentó a un ritmo de 11 mm/año, que ya es más coherente con el resultado del estudio, que prevé un aumento medio anual del mismo orden durante el período de 100 años que va de la década 1990-1999 a la 2090-2099.
Sin embargo, estas estimaciones han sido cuestionadas sobre la base de que grandes placas de hielo parecen estar cambiando mucho más rápidamente que lo que predicen los modelos. Los glaciares pequeños se miden correctamente y su comportamiento se comprende bien, y es probable que sólo contribuyan con 10 a 20 cm, al aumento del nivel del mar del siglo vigésimo primero. La expansión térmica es también conoce bastante bien y se espera que contribuya de 10-30 cm. En cambio, las grandes placas de hielo presentan muchas más dificultades tanto para medirlas como para poderlas modelizar.
Tradicionalmente las mediciones del balance de masa glaciológica de grandes capas de hielo son siempre difíciles, debido a los problemas logísticos relacionados con la medición de la acumulación y la fusión de la nieve, la escorrentía sub-glacial y el derretimiento del hielo en su plataforma basal. Sin embargo, los antiguos datos glaciológicos medidos por altimetría mediante satélites y radares aéreos, y los más recientes datos de GRACE muestran una tendencia a un saldo cada vez más negativo de la masa de hielo de Groenlandia. Decíamos en una entrada reciente, en efecto, que “hay indicaciones claras de que la fusión de las capas de hielo de Groenlandia se ha acelerado recientemente, pasando de una pérdida de 97 Gt por año en la década de los 90 a 267 ± 38 Gt en el año 2.007”.
Hay varios estudios que se basan en el nivel del mar del pasado para intentar obtener indicios de cómo se comportará si se cumplen las previsiones de aumento de temperatura del IPCC. Uno de ellos es Reconstructing sea level from paleo and projected temperaturas 200 to 2100 AD, publicado a principios del año 2.009. En él los autores proyectan el nivel del mar del futuro suponiendo que la relación establecida entre la temperatura y el nivel del mar se ha mantenido sin variaciones importantes desde el año 200 hasta el 2100 dC. En los últimos 2.000 años el nivel mínimo del mar (-19 a -26 cm) se produjo alrededor del año 1730 dC, cuando la temperatura era de 0,2 ºC inferior a la de los años 1950, y el máximo (+12 a +21 cm) alrededor del año 1150 dC, cuando la temperatura era de 0,2 ºC superior a la de los años 1950. Esto equivale a un aumento del nivel del mar del orden de 1 metro por cada grado centímetro de aumento de temperatura (los autores usan las reconstrucciones de temperatura de Jones & Mann y de Moberg. Sin embargo, otras reconstrucciones dan valores más elevados de diferencias de temperatura para estos dos períodos, como, por ejemplo, la reconstrucción de Loehle, que da ± 0,5 ºC, lo que disminuiría a la mitad la “sensibilidad” del nivel del mar a la variación de temperatura)
Por otra parte, en el último período interglacial, las temperaturas llegaron a ser de 3 a 5 ºC más altas que las actuales, y el nivel del mar era de 4 a 6 metros más alto: esto daría un aumento del nivel del mar de 1,2 a 1,3 metros por cada grado centígrado de aumento de la temperatura. Sin embargo, con datos históricos, en los últimos 150 años el nivel del mar ha subido de 0,3 metros, mientras que la temperatura ha subido en 0,6 ºC, lo que daría un aumento del nivel del mar de 0,5 metros por cada grado de subida de temperatura; esta valor aparentemente bajo comparado con los anteriores se puede explicar teniendo en cuenta que, seguramente, el efecto del aumento de temperatura no ha tenido tiempo de reflejarse completamente en la subida del nivel del mar, lo que nos lleva a la necesidad de trabajar con una constante de tiempo.
Los autores del estudio calculan, en base a todos estos datos, los coeficientes correspondientes a las ecuaciones siguientes, en tres casos distintos:
Seq = a t + b (Seq es al nivel del mar en el equilibrio correspondiente a una temperatura global t)
δS/δt = (Seq – S) / τ (τ es la constante de tiempo y S el nivel del mar en cada momento)
Los tres casos estudiados son, para el escenario A1B del IPCC (que dice que el nivel de gases de efecto invernadero y aerosoles en equivalente CO2 para el año 2.100 será de 850 ppm):
- reconstrucción de temperaturas de Jones & Mann: τ = 317 ± 117 años, a = 2,56 ± 0,9 m/ºC, b = 1,36 ± 0,52 m, aumento del nivel del mar 2090-2099 = 1,21 – 1,79 m
- reconstrucción de temperaturas de Moberg: τ = 208 ± 67 años, a = 1,29 ± 0,36 m/ºC, b = 0,77 ± 0,25 m, aumento del nivel del mar 2090-2099 = 0,91 – 1,32 m
- datos históricos basados en las temperaturas medidas desde 1850 hasta la actualidad: τ = 1193 ± 501 años, a = 3,10 ± 1,64 m/ºC, b = 3,68 ± 1,15 m, aumento del nivel del mar 2090-2099 = 0,32 – 1,34 m. Como es natural, la precisión es menor, ya que la serie de datos es más pequeña.
¿Qué grado de fiabilidad podemos dar a estas previsiones? Si nos atenemos a lo que ya ha sucedido en el pasado, la subida del nivel del mar predicha es superior a todo cuanto se ha visto en los últimos 2.000 años. La pregunta es: ¿podemos extrapolar de los datos de los últimos 2.000 años un fenómeno que es cuantitativamente muy superior?
Por otra parte, si se tomara como base de temperaturas las de Loehle, la subida prevista sería menor.
Pero si tomamos como referencia el aumento del nivel del mar en el período que va desde hace 14.000 años hasta hace 7.000 años, éste aumentó a un ritmo de 11 mm/año, que ya es más coherente con el resultado del estudio, que prevé un aumento medio anual del mismo orden durante el período de 100 años que va de la década 1990-1999 a la 2090-2099.
Insolación y glaciaciones
En anteriores entregas hemos analizado los movimientos orbitales de la Tierra. El profesor Berger, da la universidad de Lovaina, uno de los mejores especialistas en este tema, ha calculado estos movimientos a lo largo del tiempo y de ellos ha deducido la insolación que recibía el Planeta en la alta atmósfera en cada momento. En las figuras, como ejemplo, se puede ver la insolación de los paralelos 30 y 65 del hemisferio norte y del hemisferio sur en junio, en los últimos 200.000 años.
El periodo de glaciaciones comenzó hace unos 2,7 millones de años, y presenta dos períodos bien determinados: uno con ciclos de 41.000 años, que van desde el inicio del período hasta hace 1,1 millones de años, y un segundo período, que ha durado hasta ahora, con unos ciclos de 100.000 años de duración. Los cambios de insolación, unidos a variaciones en la concentración de CO2, pueden explicar estos ciclos: en la última figura podemos ver como coincide relativamente bien los ciclos de los últimos 400.000 años con las variaciones de insolación.
Si comparamos los datos de insolación del mes de junio en el paralelo 65 norte con los datos de las anomalías de temperatura del hielo de la Antártida de los últimos 250.000 años, observamos también bastantes coincidencias: los períodos interglaciares coinciden con máximos de insolación.
Los datos del profesor Berger se pueden encontrar aquí.
Los datos de las temperaturas de la Antártida se pueden encontrar aquí.
El periodo de glaciaciones comenzó hace unos 2,7 millones de años, y presenta dos períodos bien determinados: uno con ciclos de 41.000 años, que van desde el inicio del período hasta hace 1,1 millones de años, y un segundo período, que ha durado hasta ahora, con unos ciclos de 100.000 años de duración. Los cambios de insolación, unidos a variaciones en la concentración de CO2, pueden explicar estos ciclos: en la última figura podemos ver como coincide relativamente bien los ciclos de los últimos 400.000 años con las variaciones de insolación.
Si comparamos los datos de insolación del mes de junio en el paralelo 65 norte con los datos de las anomalías de temperatura del hielo de la Antártida de los últimos 250.000 años, observamos también bastantes coincidencias: los períodos interglaciares coinciden con máximos de insolación.
Los datos del profesor Berger se pueden encontrar aquí.
Los datos de las temperaturas de la Antártida se pueden encontrar aquí.
domingo, 23 de mayo de 2010
Reconstrucciones de las temperaturas de los 2.000 últimos años
Reconstruir las temperaturas de los tiempos pasados mediante lo que los anglófonos llaman “proxies”, es decir, mediante métodos indirectos, no es cosa fácil. Sin embargo, este tipo de reconstrucción tiene mucha importancia, ya que puede permitir correlacionar la evolución de las temperaturas con la radiación solar (para épocas preindustriales, por ejemplo), o bien el nivel del mar con la temperatura global. En este último caso, esta correlación puede servir para calcular cual será el nivel del mar resultante de una subida de temperatura.
Las reconstrucciones del clima están normalmente basadas en varias fuentes, como cilindros de hielo (ice cores), anillos de los árboles y sedimentos. Los datos de los anillos de los árboles, como son los más abundantes para los períodos relativamente recientes, tienden a ser dominantes en las reconstrucciones. Pero hay razones para creer que los datos de los anillos de los árboles pueden no captar correctamente los cambios de temperatura a largo plazo.
Examinaremos tres de estas reconstrucciones: la de Loehle, la de Mann & Jones y la de Moberg.
El documento A 2000-year Global Temperature Reconstruction Base don Non-treering Proxies, de Craig Loehle, publicado en 2007, no usa datos provenientes de los anillos de los árboles. Usa datos de 18 puntos repartidos entre el hemisferio norte y el sur, basados tanto en cilindros de hielo, como en el polen, en la relación Mg/Ca de los sedimentos, diatomeas, O18, etc. Los resultados son presentados globalmente para toda la Tierra, promediados de 30 años. Observamos que la amplitud de las temperaturas es de 1,2 ºC (de + 0,58 ºC para el año 870 a – 0,61 para el año 1620)
La reconstrucción de Mann & Jones, Global Surface Temperatures over the Past Two Millennia, publicado en 2003, distingue los hemisferios norte y sur. Emplea 23 diferentes “proxies”, y estudia 8 regiones del hemisferio norte y 5 del hemisferio sur. Publica los resultados año por año desde el año 200 hasta el 1980 de nuestra era. En las figuras indicamos, además de los valores anuales, las medias móviles de 40 años. En estas últimas observamos que la amplitud de las temperaturas globales es de 0,4 ºC (de + 0,09 ºC para el período 635-694 hasta – 0,35 ºC para el período 1433-1472). Es muy interesante en esa reconstrucción ver que la evolución de las temperaturas ha sido muy diferente en el hemisferio norte, con un período cálido medieval y una pequeña edad del hielo muy marcadas, y el hemisferio sur, cuyo máximo se encuentra cien años antes que en el hemisferio norte, y donde la pequeña edad del hielo no aparece hasta bien entrado el siglo XX, y es de muy pequeña duración.
Finalmente, la reconstrucción de Moberg, Highly variable Northern Hemisphere Temperatures Reconstructed from Low- and High-resolution Proxy Data, publicado en 2005, sólo se refiere al hemisferio norte. Utiliza 11 zonas con “proxies” de baja resolución y 7 donde se estudian los anillos de los árboles. Publica los resultados año por año desde el año 200 hasta el 1979. En la figura hemos indicado los valores anuales, la media móvil de 30 años y la tendencia. Los valores de esta media móvil presentan una amplitud de 0,8 ºC (de + 0,02 ºC para el período 1003-1032 hasta – 0,70 ºC para el período 1571-1600).
Estas reconstrucciones presentan diferencias notables, entre ellas la de tener una amplitud de temperaturas muy diferente. Según cual sea la reconstrucción que utilicemos para obtener correlaciones, bien con el nivel del mar, bien con la radiación solar, es evidente que los resultados que obtendremos serán muy distintos.
Las reconstrucciones del clima están normalmente basadas en varias fuentes, como cilindros de hielo (ice cores), anillos de los árboles y sedimentos. Los datos de los anillos de los árboles, como son los más abundantes para los períodos relativamente recientes, tienden a ser dominantes en las reconstrucciones. Pero hay razones para creer que los datos de los anillos de los árboles pueden no captar correctamente los cambios de temperatura a largo plazo.
Examinaremos tres de estas reconstrucciones: la de Loehle, la de Mann & Jones y la de Moberg.
El documento A 2000-year Global Temperature Reconstruction Base don Non-treering Proxies, de Craig Loehle, publicado en 2007, no usa datos provenientes de los anillos de los árboles. Usa datos de 18 puntos repartidos entre el hemisferio norte y el sur, basados tanto en cilindros de hielo, como en el polen, en la relación Mg/Ca de los sedimentos, diatomeas, O18, etc. Los resultados son presentados globalmente para toda la Tierra, promediados de 30 años. Observamos que la amplitud de las temperaturas es de 1,2 ºC (de + 0,58 ºC para el año 870 a – 0,61 para el año 1620)
La reconstrucción de Mann & Jones, Global Surface Temperatures over the Past Two Millennia, publicado en 2003, distingue los hemisferios norte y sur. Emplea 23 diferentes “proxies”, y estudia 8 regiones del hemisferio norte y 5 del hemisferio sur. Publica los resultados año por año desde el año 200 hasta el 1980 de nuestra era. En las figuras indicamos, además de los valores anuales, las medias móviles de 40 años. En estas últimas observamos que la amplitud de las temperaturas globales es de 0,4 ºC (de + 0,09 ºC para el período 635-694 hasta – 0,35 ºC para el período 1433-1472). Es muy interesante en esa reconstrucción ver que la evolución de las temperaturas ha sido muy diferente en el hemisferio norte, con un período cálido medieval y una pequeña edad del hielo muy marcadas, y el hemisferio sur, cuyo máximo se encuentra cien años antes que en el hemisferio norte, y donde la pequeña edad del hielo no aparece hasta bien entrado el siglo XX, y es de muy pequeña duración.
Finalmente, la reconstrucción de Moberg, Highly variable Northern Hemisphere Temperatures Reconstructed from Low- and High-resolution Proxy Data, publicado en 2005, sólo se refiere al hemisferio norte. Utiliza 11 zonas con “proxies” de baja resolución y 7 donde se estudian los anillos de los árboles. Publica los resultados año por año desde el año 200 hasta el 1979. En la figura hemos indicado los valores anuales, la media móvil de 30 años y la tendencia. Los valores de esta media móvil presentan una amplitud de 0,8 ºC (de + 0,02 ºC para el período 1003-1032 hasta – 0,70 ºC para el período 1571-1600).
Estas reconstrucciones presentan diferencias notables, entre ellas la de tener una amplitud de temperaturas muy diferente. Según cual sea la reconstrucción que utilicemos para obtener correlaciones, bien con el nivel del mar, bien con la radiación solar, es evidente que los resultados que obtendremos serán muy distintos.