miércoles, 26 de diciembre de 2012
La Antártida Occidental se calienta más de lo que se creía
El Oeste de la Antártida se ha calentado, durante el último medio siglo, más de lo que los científicos habían pensado, un hallazgo inquietante, dado que la enorme capa de hielo puede ser vulnerable a un colapso a largo plazo, con efectos potencialmente drásticos en los niveles del mar.
Un artículo publicado el pasado domingo en Nature Geoscience, Central West Antarctica among the most rapidly warming regions on Earth, afirma que la temperatura en una estación de investigación en el centro del oeste de la Antártida ha aumentado 2,4 grados centígrados desde 1958. Eso es más o menos el doble de lo que pensaban los científicos y tres veces la tasa global del calentamiento global, por lo que el centro de la Antártida Occidental es una de las regiones de la Tierra cuyo calentamiento es más rápido.
Por supuesto, el calentamiento en la Antártida es un concepto relativo. La Antártida Occidental sigue siendo un lugar muy frío, con temperaturas medias anuales en el centro que son de cerca de 50 grados centígrados bajo cero. Sin embargo, la temperatura allí se eleva algunas veces por encima del punto de congelación en el verano, y la nueva investigación plantea la posibilidad de que esto podría comenzar a ocurrir con más frecuencia, lo que podría debilitar la capa de hielo. Capa de hielo que ya está sometida a ataques en sus bordes por el agua del océano, cada vez más cálida.
Un colapso potencial de la capa de hielo de la Antártida Occidental es uno de los riesgos a largo plazo que han llevado a los expertos a preocuparse por el calentamiento global. La base de la capa de hielo se encuentra bajo el nivel del mar, en una configuración que hace que sea especialmente vulnerable. Los científicos dicen que una ruptura de la capa de hielo, durante un período que presumiblemente iba a durar al menos varios cientos de años, podría elevar unos 3 metros el nivel del mar, posiblemente más.
Esta nueva investigación es un intento de resolver una controversia científica que surgió hace varios años sobre lo rápido que se calienta la Antártida Occidental. Con pocas estaciones meteorológicas automáticas y aún menos observadores humanos en la región, los científicos han tenido que utilizar técnicas estadísticas para inferir tendencias a largo plazo del clima a partir de datos dispersos. Un área cercana llamada la Península Antártica, que se adentra hacia el norte desde la Antártida Occidental, cuyos registros son bastante buenos y están disponibles, ya es conocida por tener un calentamiento rápido.
Un documento de 2009 (Warming of the Antarctic ice-sheet surface since the 1957 International Geophysical Year) ya encontró un calentamiento importante en buena parte de la Antártida Occidental, pero los resultados fueron cuestionados por un grupo de científicos (Improved methods for PCA-based reconstructions: case study using the Steig et al. (2009) Antarctic temperature reconstruction)
En un puesto solitario llamado Byrd Station, en el centro oeste de la Antártida, las personas y equipos automatizados han mantenido un registro de la temperatura y otras variables climáticas desde finales de los años 50. Debido a su ubicación cerca de 700 kilómetros del Polo Sur y cerca del centro del área correspondiente a la Antártida Occidental, las condiciones de Byrd Station son un indicador importante del cambio climático en la región.
En el pasado, los investigadores no han sido capaces de hacer mucho uso de las mediciones de la estación Byrd debido a las observaciones de temperatura incompletos. Desde su creación en 1957, la estación no se ha ocupado de manera continua. Una estación automatizada para que funcionara todo el año se instaló en 1980, pero ha sufrido frecuentes cortes de energía, especialmente durante la larga noche polar, cuando sus paneles solares no se pueden recargar.
Sin embargo es, con mucho, el registro más largo en el tiempo de esa región, pero al tener lagunas intermitentes y otros problemas, muchos investigadores desconfiaron de él. El grupo de científicos autor del artículo que estamos comentando decidió tratar de salvar el registro Byrd. Para ello se recuperó uno de los sensores y se ajustó de nuevo que en la Universidad de Wisconsin. Se descubrió un error de software que había introducido errores en el registro, que se corrigieron, y luego se usó un potente modelo de la atmósfera para llenar los huecos. El resultado se ve en la figura siguiente, en que los puntos rojos son los correspondientes a períodos para los que faltan más de 1/3 de los datos.
La conclusión es que el documento de 2009, lejos de calentamiento, lejos de sobreestimar el aumento de temperatura de la Antártida Occidental, es probable que lo haya subestimado, sobre todo en verano. Eric J. Steig, de la Universidad de Washington, el investigador que dirigió el trabajo de 2009, dijo en una entrevista que él consideraba que los resultados del estudio recientemente publicado son mejores que los que él había publicado, y que sus conclusiones deben ser adoptadas como la mejor estimación hasta el día de hoy.
Gran parte del calentamiento descubierto en el nuevo estudio sucedió en la década de 1980, prácticamente al mismo tiempo que el planeta se calentaba con más fuerza. Más recientemente, el clima en la Antártida occidental parece haberse convertido en algo errático. En el verano de 2005, el interior de la Antártida Occidental se calentó lo suficiente para que el deshielo superficial durara varios días.
Sería preocupante que este deshielo pudiera llegar a convertirse en una rutina, lo que aceleraría la fusión de la capa de hielo de la Antártida Occidental, aunque este calentamiento no es lo suficientemente rápido como para que eso suceda de inmediato. Estamos hablando de decenas de años antes de que esto pueda suceder.
domingo, 23 de diciembre de 2012
La selva amazónica no debería desparecer debido al cambio climático
Un nuevo análisis genético ha revelado que muchas especies de árboles amazónicos deberían sobrevivir en los próximos 100 años al calentamiento global causado por el hombre, contrariamente a otras conclusiones anteriores que afirmaban que los aumentos de temperatura causarían su desaparición.
El estudio, titulado Neogene origins and implied warmth tolerance of Amazon tree species, recientemente publicado, muestra la sorprendente edad de algunas especies de árboles amazónicos - más de 8 millones de años - y con ello demuestra que han sobrevivido a períodos anteriores al menos tan cálidos como muchos de los escenarios de calentamiento global que se prevén para el año 2100.
Los autores determinaron las edades de 12 especies de árboles amazónicos de amplia distribución, incluyendo la ceiba y la balsa. Las 12 especies de árboles utilizados en el estudio son representativas de la flora arbórea del Amazonas. Los principales sitios de recolección se encuentran en el centro de Panamá, en el Ecuador occidental y en el Ecuador amazónico. Otras recolecciones se realizaron en Brasil, Perú, Guayana y Bolivia, mientras que otras muestras de plantas se obtuvieron a partir de muestras de herbario.
Para determinar la edad de los árboles de cada especie, los investigadores extrajeron y secuenciaron el ADN de las muestras de las plantas recogidas, y luego miraron el número de mutaciones genéticas contenidas en esas secuencias. Utilizando un enfoque de reloj molecular y modelos de genética de poblaciones, estimaron cuánto tiempo necesitaría cada una de las poblaciones de árboles para acumular el número observado de mutaciones, lo que proporcionó una edad mínima para cada especie.
Los investigadores determinaron que nueve de las especies de árboles estudiadas han existido al menos durante 2,6 millones de años, siete han estado presentes durante al menos 5,6 millones de años, y tres han existido en el Amazonas durante más de 8 millones de años, mientras que estudios anteriores sugerían que la mayoría de las especies de árboles amazónicos se habían originado durante el período cuaternario, es decir, hace menos de 2,6 millones de años.
Luego miraron los fenómenos climáticos que han ocurrido desde que aparecieron estas especies arbóreas. En general, se infiere que a mayor edad de las especies arbóreas, más cálido ha sido el clima al que ya han sobrevivido.
Queda por determinar si, al haber vivido estas especies arbóreas los últimos 2 millones de años, es decir, durante el cuaternario, en una época de clima frío, no han perdido su capacidad para resistir a climas más cálidos. Para responder a esta pregunta hay que continuar investigando.
La conclusión es que es muy probable que la selva amazónica no desaparezca debido al calentamiento global. En cambio, sí puede hacerlo debido a la sobreexplotación del territorio, tanto minera como de tala de árboles. Pero esta ya es otra cuestión.
sábado, 22 de diciembre de 2012
El precio de la electricidad volverá a aumentar
Además de tener uno de los precios de la electricidad más elevados de la Unión Europea, el primero de enero volveremos a tener una subida. En efecto, ayer mismo se celebró la subasta de la energía eléctrica que los consumidores domésticos consumiremos los primeros tres meses del año que viene, y que se ha acabado con un aumento del 10%. Como este precio de la subasta representa más o menos la mitad del precio que pagamos (la otra mitad la fija el gobierno para pagar las primas a las renovables, el coste del transporte de la electricidad y toda una serie de otras cosas, y, por lo que parece, a pesar de que el déficit de tarifa sigue aumentando, no la va a subir por el momento), podemos suponer que el aumento que tendremos que pagar será, más o menos, del 5%.
De modo que nos espera un año 2013 complicado. Al menos, que tengamos salud.
miércoles, 19 de diciembre de 2012
Un nuevo estudio sobre los cocolitóforos y la acidificación del océano
Alrededor de entre una cuarta parte y un tercio del dióxido de carbono (CO2) emitido a la atmósfera como resultado de la actividad humana ha sido absorbido por los océanos, donde se disuelve en el agua de mar produciendo ácido carbónico. Esto conduce a la acidificación de los océanos, una de las principales amenazas para los ecosistemas marinos y especialmente para los organismos calcificantes como los corales y cocolitóforos.
Si la emisión de CO2 se mantiene a las tasas actuales, el pH de la superficie oceánica mundial se reducirá en 0,3-0,5 unidades para el 2100. Esto significa que el pH de la superficie oceánica promedio se habrá reducido de 8,2 a alrededor de 7,8 - de Probablemente la Tierra nunca ha experimentado estos niveles en los últimos 20 millones de años.
Los cocolitóforos son el fitoplancton que vive en grandes cantidades en las capas superiores de los océanos y son un componente importante del sistema de la Tierra. Su efecto a corto plazo sobre el medio ambiente es un tanto complejo. Aportan entre aproximadamente el 1% y el 10% de la producción primaria marina, son responsables de una gran parte del flujo oceánico de carbonato de calcio, mientras que también influyen en el clima mundial aumentando el albedo de los océanos. Su posible susceptibilidad a la acidificación del océano es, por tanto, motivo de gran preocupación.
Estas criaturas utilizan el carbonato de calcio, el material que compone las conchas de mar, para construir pequeñas placas en su exterior, liberando CO2. Pero debido a que estos organismos emplean la fotosíntesis también consumen CO2. El equilibrio entre la calcificación y el consumo de CO2 por fotosíntesis es lo que determina si los cocolitóforos actuarán como un sumidero o como una fuente de CO2 a la atmósfera. Hemos hablado de ellos y de la importancia de conocer su comportamiento frente al aumento de la concentración de CO2 en otra entrada de este blog.
Los estudios realizados en laboratorio con unos altos niveles de pCO2 han producido resultados divergentes sin consenso general. Sin embargo, se ha predicho a partir de estos estudios que, aunque la calcificación no se puede predecir en todas las especies, la acidificación produce "una transición en el dominio de más a menos cocolitóforos muy calcificados"
Otro estudio reciente, del que ya hemos hablado en la entrada anteriormente citada, no de laboratorio sino a base de observaciones, sugirió también que los cocolitóforos se calcifican menos en condiciones más ácidas.
Una nueva investigación publicada en mayo del 2012, Predominance of heavily calcified coccolithophores at low CaCO3 saturation during winter in the Bay of Biscay, demuestra que no todos los tipos de cocolitóforos se ven afectados por igual, o incluso de la misma manera. Los investigadores trataron de averiguar cómo la especies de cocolitóforo Emiliania huxleyi responde a los cambios estacionales. Emiliana huxleyi es con mucho la especie más abundante de los cocolitóforos a nivel mundial, y está muy extendida, ya que habita en casi todos los océanos, desde los trópicos hasta las aguas subpolares.
Zonas de muestreo y morfotipos principales de E. huxleyi.
(A) las zonas de muestreo en el Canal de la Mancha, en aguas adyacentes a la plataforma continental, en aguas oceánicas profundas del Golfo de Vizcaya, y en la plataforma ibérica (el color del símbolo denota el mes de recolección de la muestra, como se muestra en la clave).
(B) Los dos morfotipos principales de E. huxleyi observados: la de la izquierda es un tipo de célula sobrecalcificada, y la de la derecha es un tipo de una célula normal.
(C) Yuxtaposición de dos cocolitos individuales, uno de cada morfotipo. Se observa claramente que el morfotipo de la izquierda está más calcificado que el de la derecha.
El estudio, que se basó en un muestreo mensual de las profundas aguas oceánicas en el Golfo de Vizcaya durante el transcurso de un año mostró que, contrariamente a las predicciones anteriores, las células sobrecalcificadas de E. huxleyi eran más numerosas que las de tipo normal cuando las condiciones son más ácidas.
Se presentan los resultados de un gran estudio observacional de la morfología de los cocolitóforos en la Bahía de Vizcaya. Las muestras fueron recolectadas una vez al mes durante más de un año, a lo largo de una zona de 1.000 km de longitud. Los datos muestran claramente que existe una marcada estacionalidad en los morfotipos de Emiliania huxleyi, las especies más abundantes de cocolitóforos. Mientras que el pH y el CaCO3 son más bajos en invierno, la población de la forma muy calcificada de E. huxleyi pasa de se menor del 10% en verano, a ser más del 90% en invierno.
Variables químicas y ambientales y tipo de cocolitóforo.
(A) Los cambios estacionales en la proporción de células de E. huxleyi que son de tipo sobrecalcificado se representan con un trazo negro, así como el estado de saturación de agua de la superficie con respecto a la calcita (Ω, trazo azul), el pH (trazo roja) y la concentración del ión bicarbonato (HCO3-) en mol/kg, (trazo verde discontinuo). No hay datos de los valores químicos de marzo de 2009.
(B) Cambios estacionales de diversas variables ambientales: intensidad media de la luz en términos de radiación fotosintéticamente disponible (trazo negrodiscontinuo), temperatura superficial del mar (º C, trazo azul discontinuo), salinidad de la superficie del mar (línea de color negro sólido), concentración superficial de fosfatos (mol/kg; línea continua roja), profundidad de la zona de la muestra (línea verde discontinua) y datos de la clorofila superficial (mg/m3, línea continua marrón).
Tanto para A como para B, no existen ciertos datos de enero de 2009, cuando el buque estaba en revisión, y todos los puntos representan el promedio de la bahía de Vizcaya.
(C) Diferentes tipos de cocolitóforo en una única cocosfera (flecha amarilla) y cocolitos con grados intermedios de calcificación (flechas rojas) (del mes de marzo de 2009).
Los resultados del estudio ilustran la dificultad de proyectar cómo determinados procesos de calcificación responderán a una acidificación del océano, y suscitan preguntas sobre el destino de los cocolitóforos en un mundo con una alta concentración de CO2.
viernes, 14 de diciembre de 2012
Quizás el clima no sea tan sensible al CO2 como se pensaba
"La sensibilidad del clima" es la cantidad que la temperatura media mundial de la superficie aumentará si se duplica la concentración de dióxido de carbono atmosférico (CO2) en la atmósfera a partir de su valor pre-industrial. El valor de la sensibilidad del clima es clave para saber cual será el calentamiento global a medida que continuemos quemando combustibles fósiles para obtener energía y sigamos emitiendo el CO2 resultante a la atmósfera.
El problema es que no sabemos cuál es el valor de la sensibilidad del clima.
En su Cuarto Informe de Evaluación, publicado en 2007, el Grupo de las Naciones Unidas sobre el Cambio Climático (IPCC) dijo lo siguiente acerca de la sensibilidad del clima: Es probable que esté en el intervalo de 2 ° C a 4,5 ° C con una mejor estimación de alrededor de 3,0 ° C, y es muy poco probable que sea menos de 1,5 º C. Valores sustancialmente mayores que 4,5 ° C no se pueden excluir...
En el lenguaje del IPCC, el término “probable” significa una probabilidad de más del 66 % y "muy probable" significa una probabilidad de más del 90 %. El IPCC no incluye una cifra “muy probable” para valores extremos de la sensibilidad al clima ya que los valores inferiores generarían muy poca preocupación sobre el uso de combustibles fósiles como fuente de energía primaria, y los valores en el extremo superior generarían la exigencia esfuerzos frenéticos (que probablemente no se podrían llevar a cabo) para reducir las emisiones de dióxido de carbono.
Pero lo que ha ocurrido en las últimas décadas es que las emisiones de efecto invernadero han seguido aumentando (de hecho, la mitad del total de las emisiones de dióxido de carbono antropogénicas han ocurrido desde mediados de la década de los años 80). Ahora tenemos muchos más datos que en 2007 para tratar de determinar la sensibilidad del clima.
Mientras que las emisiones globales de dióxido de carbono continúan aumentando año tras año (impulsadas principalmente por el crecimiento rápido en los países en desarrollo, como China), ha habido poco o ningún aumento de la temperatura global general (dependiendo del registro utilizado) en la última década y media.
Eso no es un buen presagio para la gama alta de sensibilidad de la temperatura al CO2 estimada por el IPCC. La literatura científica está empezando a reflejar esa realidad.
La figura muestra las estimaciones de la sensibilidad del clima a partir de cinco trabajos de investigación que han aparecido en los últimos dos años, incluyendo las contribuciones recientes de Ring (2012) y van Hateren (2012). Ambos ponen la estimación central de la sensibilidad del clima a 2 ºC o menos, valores que están en o por debajo del límite inferior del rango "probable" del IPCC.
La sensibilidad del clima a partir de estimaciones de los estudios publicados en los últimos dos años (en color), en comparación con el rango indicado en el Cuarto Informe de Evaluación (negro). Las flechas indican los límites de confianza de 5 a 95% para cada estimación, junto con la media (línea vertical) cuando están disponibles. Ring (2012) presenta cuatro estimaciones de la sensibilidad climática y el rectángulo rojo abarca estas estimaciones. El lado derecho de la gama IPCC está en línea discontinua para indicar que el IPCC en realidad no declara el valor de la confianza superior al 95 %. La línea gris gruesa representa el rango "probable" del IPCC.
Veremos lo que dice el quinto informe del IPCC, que se ha de publicar en el año 2013, sobre este importante tema.
Referencias
Annan, J.D., and J.C. Hargreaves, 2011. On the generation and interpretation of probabilistic estimates of climate sensitivity. Climatic Change, 104, 324-436.
Lindzen, R.S., and Y-S. Choi, 2011. On the observational determination of climate sensitivity and its implications. Asia-Pacific Journal of Atmospheric Sciences, 47, 377-390.
Ring, M.J., et al., 2012. Causes of the global warming observed since the 19th century. Atmospheric and Climate Sciences, 2, 401-415, doi:10.4236/acs.2012.24035.
Schmittner, A., et al., 2011. Climate sensitivity estimated from temperature reconstructions of the Last Glacial Maximum, Science, 334, 1385-1388, doi: 10.1126/science.1203513.
van Hateren, J.H., 2012. A fractal climate response function can simulate global average temperature trends of the modern era and the past millennium. Climate Dynamics, doi:10.1007/s00382-012-1375-3.
sábado, 8 de diciembre de 2012
Balance CO2
Se acaba de publicar el Global Carbon Budget 2012 por Global Carbon Project. En el mismo se prevé unas emisiones debidas a la industria del cemento y a los combustibles fósiles de 9,7 ± 5 Pg de carbono (1 Pg de C = 1 gigatonelada de C = 3,67 Gt de CO2), que equivalen a 35.600 ± 1,8 millones de toneladas de CO2, un 2,6 % superior a las emisiones de 2011, y un 58 % superior a las emisiones de 1990, que son la referencia del Protocolo de Kyoto.
El balance de los últimos 10 años (2002-2011) da las emisiones y absorciones anuales que podemos ver en la figura (en Pg de C) y en la tabla (en Gt de CO2). Del total de emisiones, un 46 % ha ido a la atmósfera, un 26 % ha sido absorbido por los océanos y un 28 % por los agentes terrestres (biomasa, etc.)
Las previsiones de Global Carbon Budget son, si no se toman decisiones políticas de reducción de emisiones, que el aumento de temperatura global para el año 2100 será de 4,0 a 6,1 ºC. Para que la temperatura global no aumente más de 2 ºC, las emisiones tienen que empezar a reducirse un 3 % anual a partir del año 2020.
jueves, 29 de noviembre de 2012
La causa de los fríos inviernos centroeuropeos puede ser la actividad solar
Los científicos han sospechado durante mucho tiempo que el ciclo de 11 años del Sol influye en el clima de ciertas regiones de la Tierra. Sin embargo, los registros de temperaturas no se remontan lo suficiente lejos para poder confirmarlo. Una herramienta para determinar los inviernos muy fríos en Europa es seguir la congelación de río más grande de Alemania, el Rin, de lo que se tienen datos desde hace muchos años. Además, es un dato que se puede medir muy fácilmente.
Esto es lo que han hecho los autores del artículo Solar influence on winter severity in central Europe, que han podido determinar los 14 episodios de congelación del Rin desde el año 1780, que podemos ver en la siguiente tabla.
Superponiendo estas fechas con la curva que da el número de manchas solares, se observa que 10 de estos 14 episodios de congelación del Rin tuvieron lugar en los períodos de menor actividad solar. Utilizando métodos estadísticos, los autores han calculado que hay un 99 % de probabilidades que los episodios de congelación del Rin estén correlacionados.
Cuando el número de manchas solares es bajo, el Sol emite menos radiación ultravioleta. Menos radiación significa un menor calentamiento de la atmósfera terrestre, lo que provoca un cambio en los patrones de circulación de los dos niveles más bajos de la atmósfera, la troposfera y la estratosfera. Estos cambios conducen a fenómenos climáticos como la Oscilación del Atlántico Norte, un patrón de variaciones de presión atmosférica que influye en los patrones de viento en el Atlántico Norte y el comportamiento del clima en las regiones de Europa y sus alrededores.
Debido a este efecto indirecto, el ciclo solar no afecta a las temperaturas medias, pero conduce a anomalías de temperatura regionales. Este cambio en la circulación atmosférica conduce al enfriamiento de algunas partes de la Europa central, pero conduce también al calentamiento de otros países europeos, como Islandia. Por lo tanto, la disminución del número de manchas solares no necesariamente enfría el planeta entero, su efecto de enfriamiento es más localizado.
En 2010 y 2011, los inviernos europeos fueron tan fríos que se dio lugar a mínimos récord para el mes de noviembre en ciertos países, coincidiendo también con un mínimo en las manchas solares.
viernes, 23 de noviembre de 2012
El nivel del mar y los fenómenos El Niño y la Niña
Cuando observamos el nivel medio global del mar medido por satélite, vemos que entre principios de 2010 y el verano de 2011, se redujo considerablemente, alrededor de 5 milímetros.
Esta reducción del nivel del mar coincide con un evento La Niña muy fuerte. Durante un evento de este tipo se cambian las precipitaciones en todo el planeta, llevando enormes cantidades de agua desde el océano hacia los continentes, principalmente a Australia, el norte de América del Sur y Asia Suroriental, causando graves inundaciones.
En los años 1997 y 1998 se pudo observar el mismo fenómeno, pero en sentido contrario: un fuerte fenómeno El Niño trajo como consecuencia un aumento del nivel del mar del mismo orden que el descenso observado recientemente.
Es interesante el gráfico que presenta la Universidad de Colorado en el que muestra la variación del nivel global del mar (GMSL - Global Mean Sea Level) junto con el índice ENSO.
El artículo recientemente publicado The 2011 La Niña: So strong, the oceans fell, analiza con detalle los flujos de agua que se produjeron durante La Niña de 2010-2011. De este artículo hemos extraído la figura siguiente.
jueves, 15 de noviembre de 2012
Economía y energía
Hay una fuerte correlación entre la energía y la economía, como lo demuestra el gráfico que muestra la evolución de PIB mundial (medido en dólares de 2006) junto con la del consumo de energía primaria. Y no es de extrañar que esto sea sí, ya que la energía es la capacidad de hacer trabajo. Dado que disponemos de energía en grandes cantidades podemos aumentar el tamaño de nuestra economía.
El problema es que la energía de la que disponemos cuesta cada vez más cara. Leemos en el blog The Oil Crash que un profesor de economía de la Universidad de California San Diego, James Hamilton, ha estudiado con detalle cómo se propaga el coste de la energía, y particularmente el coste del petróleo, dentro de la estructura de costes de la economía de los EE.UU., y ha llegado a la conclusión de que cada vez que el precio del petróleo supera un cierto umbral, la economía empieza a sufrir. Este umbral se sitúa alrededor de los 90 dólares por barril, a precios de hoy, para economías desarrolladas, y alrededor de 110 para las economías emergentes. Como resultado, las economías desarrolladas tienen un freno a su crecimiento, mientras que las emergentes pueden continuar creciendo, ya que el precio actual se sitúa cerca de los 110 dólares por barril desde mediados de diciembre de 2010, hace casi dos años.
Sin embargo, esta estrecha correlación entre el PIB y el consumo de energía primaria no sucede en todos y cada uno de los países, como podemos ver en los gráficos siguientes. Observamos que en Alemania y en el Reino Unido el PIB ha crecido a pesar de que el consumo de energía no lo haya hecho, mientras que en otros países con economía desarrollada, como Francia, Italia o los EE.UU. la economía ha crecido a la vez que lo hacía la economía hasta hace tres o cuatro años, mientras que ahora el consumo de energía desciende a pesar de que el PIB se mantiene o continúa aumentando. Mientras que en España el consumo de energía sigue exactamente la evolución de PIB.
Para China y la India, podemos observar que el crecimiento del PIB y el del consumo de energía están muy correlacionados.
Podemos ver los mismos datos de otra manera, mediante la intensidad de energía primaria, es decir, la cantidad de energía primaria correspondiente a un PIB de un millón de dólares. Vemos que para China este valor era de 1,26 TEP en 1990, y ha sido de 0,62 en 2011. Para la India, estos valores son de 0,52 y de 0,42, respectivamente, y para los EE.UU., de 0,25 y de 0,17.
Por lo que respecta a los principales países europeos, Alemania ha pasado de 0,16 a 0,10, Francia de 0,13 a 0,11, el Reino Unido de 0,13 a 0,08, Italia se ha mantenido entre 0,10 y 0,11, mientras que España, que estaba en 0,12 en 1990, aumentó su intensidad de energía a 0,14 para volver a 0,12 en 2011, lo que la hace el país europeo, de los cinco citados, con más intensidad energética. Es decir, más vulnerable al aumento de precio de la energía.
Por tanto, con una política de eficiencia energética, por lo menos en teoría, podemos aumentar el PIB sin tener que aumentar, forzosamente, el consumo de energía.
La balanza comercial española de productos energéticos presenta sistemáticamente un saldo negativo. Debido al aumento de precio de los productos energéticos, que en España son importados en su gran mayoría, se ha disparado en los últimos años, a pesar de que el consumo de energía primaria ha disminuido.
Una de las salidas de la crisis económica de España pasa, pues, por disminuir la intensidad energética para poder tener un déficit comercial energético menor, que pueda ser compensado por las exportaciones, por el turismo y demás componentes de la balanza de pagos. Con una balanza de pagos positiva o, por lo menos, equilibrada, no tendremos necesidad de nueva financiación exterior, por lo que los que nos prestan tendrán mayor confianza en que podremos devolver lo que les debemos, lo que hará bajar el tipo de interés que pagaremos por la refinanciación de la deuda.
Para ello, el gobierno anterior publicó un documento llamado Plan de ahorro y eficiencia energética 2011 – 2020, que pretendía reducir la intensidad energética de España. Con el cambio de gobierno, nunca más hemos oído hablar de este plan. Será porque consideran que si lo hicieron los socialistas no servía para nada. Mientras tanto, estamos perdiendo el tiempo.
Datos PIB
Datos de consumo de energía - BP 2012
Plan de ahorro y eficiencia energética 2011-2020
domingo, 11 de noviembre de 2012
La sequía acabó con la civilización maya
Ya hace tiempo que se sabe que la civilización maya desapareció debido a la sequía. Un nuevo artículo aparecido esta semana en Science lo confirma.
En el año 1995 se publicó Possible role of climate in the collapse of Classic Maya Civilization, en el que se estudiaban los sedimentos del lago salado Chichancanab, en Yucatán. Se encontró que hubo tres grandes sequías. La primera tuvo lugar entre los años 475 y 250 a.C., cuando la civilización maya estaba aún en formación. La segunda duró entre el año 125 a.C. hasta el año 210 de nuestra era, coincidiendo con el apogeo de la primera de las grandes ciudades mayas, el Mirador, que fue abandonada alrededor del año 150 de nuestra era, probablemente a causa de esta sequía. La tercera sequía, la mas severa de todas, ocurrió entre los años 750 y 1025, y coincide con el gran colapso de la civilización maya.
En el año 2005 se publicó Climate and the Collapse of Maya Civilisation, donde se estudia con más detalle el clima de, período del colapso de la civilización maya, a partir de los sedimentos del Cariaco. Podemos ver en la figura siguiente las secuencias de clima seco y húmedo según los testigos de los sedimentos del lago Cariaco. Podemos ver que, durante el colapso de la civilización maya, entre los años 760 y 910 de nuestra era, tuvo lugar un período más seco que el las épocas anteriores. Dentro de este período seco de 150 años, observamos cuatro grandes sequías, alrededor de los años 760, 810, 860 y 910. La segunda se prolongó durante 8 años y la última durante 6.
Resultados de los sedimentos del lago Cariaco
El problema es que el lago Cariaco se encuentra muy lejos de la zona donde se asentó la civilización maya, por lo que existen dudas de que el clima seco detectado en la zona del Cariaco se hubiera extendido hasta Yucatán.
Imagen de la cueva Yok Balum y su localización
Se confirma, pues, que la civilización maya es otro ejemplo de cómo una civilización sofisticada no es capaz de adaptarse con éxito al cambio climático.
jueves, 8 de noviembre de 2012
Almacenamiento del CO2: el triste estado actual de las cosas en Europa
La captura y almacenamiento de carbono (CCS – carbon capture and storage) siempre ha tenido una prensa bastante mala. La causa es, probablemente, porque no produce nada, a diferencia de la energía renovable, por ejemplo. Sólo evita algo, a saber, que el CO2 llegue a la atmósfera.
La prevención, por desgracia, nunca ha tenido mucho prestigio para los políticos o para la sociedad en general. El problema es que no se puede ver. Evitar que las personas se enfermen es seguramente mejor, desde cualquier punto de vista, que el tratamiento de las personas enfermas, pero los políticos no ganan votos con hospitales que no se han construido y la industria médica no puede hacer dinero con ellos.
Lo mismo sucede con la CCS. Los políticos son reacios a poner miles de millones de euros en proyectos de CCS, cuando pueden utilizar ese mismo dinero para hacer todo tipo de cosas que son mucho más visibles para los votantes.
Sin embargo, lo que ahora se les pide exactamente es que pongan miles de millones de euros en la CCS.
La CCS se encuentra en Europa en un hoyo muy profundo. Ni un solo proyecto importante en Europa ha tenido una decisión final de inversión positiva hasta el momento. De las docenas de proyectos presentados sólo unos pocos años atrás, en el mejor de los casos todavía se ven como viables a 2 o 3.
De hecho, la cruda realidad es que la CCS no va a ver la luz en Europa, a menos que se inviertan en ella cantidades significativas de dinero público. Y como la Comisión Europea ya ha prometido hacer todo lo posible, son los gobiernos de los Estados miembros que tienen que poner el dinero. Es más, tienen que hacerlo ahora. Si no apoyan sus proyectos nacionales ahora, tampoco recibirán ninguna ayuda de la UE. Eso significa más o menos al final de la CCS en Europa. Como dice un experto CCS: "Es tiempo de decisiones”
¿Por qué ha llegado el momento de tomar decisiones en Europa? El hecho cierto es que Europa está construyendo nuevas centrales de energía a base de carbón, pero continuará dependiendo de las centrales que queman gas, está cerrando la mayoría de su industria nuclear y quiere preservar su industria pesada. Esto significa que, probablemente, la única manera de limitar significativamente las emisiones de CO2, es almacenándolo. América del Norte parece que ya se ha hecho a la idea de que tendrá que hacerlo. Los políticos europeos tendrán que decidirse si quieren seguir el ejemplo estadounidense. El problema es que no van a conseguir ningún voto por hacerlo.
Cómo se produjo el enfriamiento del Dryas reciente
Desde hace más de 30 años, los científicos del clima han debatido si las aguas de inundación de fusión de la enorme capa de hielo Laurentino, que marcó el comienzo del último gran episodio frío en la Tierra, hace 12.900 años aproximadamente, fluyó primero hacia el Ártico por el noroeste, o lo hizo por el este a través del Golfo de San Lorenzo, debilitando la circulación termohalina del océano, lo que tuvo un efecto glacial sobre el clima global.
Temperaturas reconstruidas a partir de los testigos de hielo de Groenlandia (GISP2), y episodios fríos: evento de haee 8,2 miles de años, oscilación preboreal (PBO), Dryas reciente, período frío intra-Allerød (IACP) y Dryas antiguo.
Unos científicos de las Universidades de Massachusetts y de Alaska informan que han encontrado la primera evidencia concluyente de que esta gran cantidad de agua de deshielo debe haber fluido, al menos en una primera instancia, hacia el Ártico por el valle del río Mackenzie. Han llegado a esta conclusión utilizando nuevos modelos de circulación global del océano de alta resolución. También demuestran que si las aguas procedentes de este enorme deshielo hubieran fluido hacia el este por el valle del río San Lorenzo, el clima de la Tierra se habría mantenido relativamente sin cambios. Lo han publicado hace unos días en el artículo Meltwater routing and the Younger Dryas, en Proceedings of the National Academy of Sciences
Este episodio fue la última vez que la Tierra experimentó un enfriamiento mayor, por lo que comprender exactamente lo que lo causó es muy importante para entender cómo el clima moderno podría cambiar en el futuro.
Se sabe que el Dryas reciente se desarrolló después que el lago glacial Agassiz, situado en el extremo sur de la capa de hielo Laurentino, que cubría la bahía de Hudson y gran parte del Ártico canadiense, rompió de manera catastrófica un dique de hielo, lo que, en muy poco tiempo, llevó miles de kilómetros cúbicos de agua dulce hacia el océano.
Esta afluencia masiva de agua dulce y fría sobre la superficie del océano detuvo el hundimiento, en el Atlántico Norte, del agua densa, más salada y más fría, que impulsa la circulación oceánica a gran escala, la llamada circulación termohalina, que transporta el calor hacia Europa y América del Norte. El debilitamiento de esta circulación causado por la inundación dio como resultado un enfriamiento espectacular en América del Norte y Europa.
Usando su modelo de circulación global océano-hielo de alta resolución, que es de 10 a 20 veces más potente que los existentes hasta el momento, los autores compararon las consecuencias que tendrían cada una de las dos posibles salidas del agua del deshielo hacia el Atlántico Norte. Encontraron que la hipótesis original propuesta en 1989 por Wally Broecker de la Universidad de Columbia, que sugiere que el Lago Aggasiz vertió en el Atlántico Norte por el río St. Lawrence, habría debilitado la circulación termohalina en menos del 15 por ciento. Los autores piensan que este nivel de debilitamiento de la circulación termohalina es poco probable que pudiera ser la causa del evento de clima frío de 1.000 años que siguió.
Si el agua de deshielo hubiera fluido por el río St. Lawrence en realidad hubiera entrado en el océano a casi 3.000 km al sur de las regiones de formación de aguas profundas, demasiado al sur para tener un impacto significativo sobre el hundimiento de las aguas superficiales, lo que explica por qué el impacto en la circulación termohalina es tan pequeño.
Por el contrario, el modelo muestra que cuando el agua de deshielo desemboca en el Océano Ártico, corrientes costeras estrechas pueden transportar eficazmente el agua dulce del deshielo muy cerca de las regiones de formación de aguas profundas del Atlántico sub-polar norte, lo que causa que el debilitamiento de la circulación termohalina sea de más del 30 por ciento . Como consecuencia, llegan a la conclusión de que este escenario es el que tiene más probabilidades de haber provocado el enfriamiento del Dryas reciente.
Anomalías de salinidad superficial a lo largo del tiempo según la ruta seguida por el flujo de agua dulce procedente del deshielo.
Los cálculos de este nuevo modelo de circulación global se desarrollan en uno de los superordenadores más importantes del mundo, en el Centro de Investigación de Energía Nacional de Ciencias de la Computación en Berkeley, California. Con su alta resolución el modelo puede simular corrientes costeras estrechas y de rápido movimiento, lo que aumenta espectacularmente el conocimiento de donde se puede dirigir el agua dulce.
Estos resultados son particularmente relevantes para poder modelizar, ahora y en el futuro, la fusión del hielo de Groenlandia y la Antártida, y poder predecir sus consecuencias sobre el clima global.
martes, 30 de octubre de 2012
El aumento del nivel del mar
Leo, en el blog Usted no se lo cree, la siguiente afirmación: “por ahora, el nivel del mar ha aumentado en la última década a un ritmo situado en el límite superior de las predicciones del IPCC (3,4 mm/año y subiendo, con lo que superará ese valor), mientras que en el siglo XX aumentó a razón de 2,3 mm/año”.
Alarmado, he recuperado los datos que la Universidad de Colorado publica sobre el aumento del nivel del mar. Desde finales del año 1992 hasta mediados del año actual, el nivel del mar ha aumentado a un promedio de 3,1 mm/año. Dividiendo el período en dos, desde finales del año 1992 hasta finales del 2001, el aumento fue de 3,3 mm/año, mientras que desde primeros del 2002 hasta mediados del 2012, fue de 2,3 mm/año (y no los 3,4 mm/año que dice el citado blog), aunque el origen de la recta de regresión del último período está situado a un nivel algo más elevado que el final de la recta de regresión del primero, lo que explica que la tendencia total no sea la media de la de los dos períodos.
No está claro, pues, que exista la aceleración que anuncia el admirado Ferran P. Vilar para la última década. Al contrario, parece que hay una desaceleración, algo parecido a lo que pasa con el aumento de las temperaturas.
lunes, 29 de octubre de 2012
El hielo ártico disminuye, el hielo antártico aumenta
El pasado mes de setiembre ha sido testigo de dos registros opuestos sobre el hielo marino. Dos semanas después de que la capa de hielo del Océano Ártico experimentara el nivel más bajo de la era de los satélites (izquierda), el hielo marino antártico alcanzó un punto máximo récord invierno (derecha). Pero el hielo marino en el Ártico se ha derretido a un ritmo mucho más rápido de lo que se ha expandido en el Océano Austral, como se puede ver en esta imagen mediante la comparación de los niveles de hielo marino de 2012 con el contorno amarillo, que representa en la imagen del Ártico la extensión mínima promedio del hielo marino promedio de 1979 a 2010 y en la imagen del Antártico se muestra la extensión media del hielo marino en septiembre de 1979 a 2000.
Este año el máximo invernal del hielo marino antártico se ha alcanzado dos semanas después de que la capa de hielo del Océano Ártico experimentara el valor más bajo de todos los tiempos, fue un récord para la era de los satélites, con una extensión de 19,39 millones de kilómetros cuadrados, alrededor de 600.000 kilómetros cuadrados más de su extensión máxima promedio de los últimos tres decenios, que fue de 18,80 millones de km2.
Las extensiones mínimas de la Antártida, que se alcanzan en el verano antártico, en febrero, también han aumentado ligeramente hasta 3,54 millones de kilómetros cuadrados en 2012, alrededor de 500.000 kilómetros cuadrados más que el promedio de las mínimas desde 1979, que fue de 3,04 millones de km2.
Los polos de la Tierra tienen geografías muy diferentes. El Océano Ártico está rodeado por América del Norte, Groenlandia y Eurasia. Estas masas atrapan la mayor del hielo marino, que se acumula y retira cada año en un ciclo de congelación y derretimiento. Pero una gran parte del hielo marino más grueso y antiguo del Ártico ha desaparecido en los últimos tres decenios. La menguante cubierta de hielo del verano ha expuesto a la superficie el agua oscura del océano, que absorbe la luz solar y se calienta, lo que lleva a la pérdida de más hielo.
En el lado opuesto del planeta, la Antártida es un continente rodeado de aguas abiertas que permiten ampliar el hielo marino durante el invierno, pero también ofrecen menos protección durante la temporada de deshielo. La mayor parte de la cubierta helada del Océano Austral crece y se retira cada año, dando lugar a que haya poco hielo marino perenne en la Antártida.
Utilizando datos de microondas del satélite Nimbus 7 de la NASA y de varios satélites meteorológicos del Departamento de Defensa, un estudio de la NASA, Opposite Behaviors? Arctic Sea Ice Shrinks, Antarctic Grows ha demostrado que los cambios en el hielo marino no han sido uniformes alrededor de la Antártida. La mayor parte del crecimiento de 1978 a 2010 se produjo en el Mar de Ross, que aumentó algo menos de 13.700 kilómetros cuadrados de hielo por año, con incrementos más modestos en el Mar de Weddell y el Océano Índico. Al mismo tiempo, la región de los mares de Bellingshausen y Amundsen perdió un promedio cerca de 8.300 kilómetros cuadrados de hielo cada año.
Dice el estudio que el patrón de crecimiento y de pérdida de hielo alrededor del Océano Antártico podría ser debido a cambios en la circulación atmosférica. La investigación reciente señala como un posible culpable que la capa de ozono sobre la Antártida se ha empobrecido. El ozono absorbe la energía solar, por lo que una menor concentración de esta molécula puede conducir a un enfriamiento de la estratosfera (la capa de entre 15 y 75 kilómetros por encima de la superficie terrestre) sobre la Antártida. Al mismo tiempo, las latitudes templadas se han estado calentando, y la diferencia de las temperaturas ha reforzado los vientos circumpolares que fluyen a través de la plataforma de hielo de Ross.
Los vientos de la plataforma de hielo de Ross son cada vez más fuertes, y eso hace que el hielo del mar sea empujado fuera de la costa, formando polinias (una polinia es un espacio abierto de agua rodeado de hielo marino), lo que genera zonas de aguas abiertas, según el estudio de la NASA Goddard. Cuanto mayor sea la polinia costera, se produce más hielo, ya que en las polinias el agua está en contacto directo con la atmósfera, muy fría en invierno, y se congela rápidamente. Como el viento sigue soplando, el hielo se expande más hacia el norte.
Recordemos que hay otras hipótesis para explicar el aumento del hielo marino antártico a pesar del calentamiento global, como la que ya comentamos en otra entrada, y que decía que la corriente circumpolar se calentaba, lo que provocaba un mayor ciclo hidrológico en la Antártida, aumentando las precipitaciones de nieve, lo que aumentaba la formación de hielo marino. Esta hipótesis preveía que las precipitaciones de nieve, al ir aumentando calentamiento global, pasarían a ser de lluvia, por lo que el aumento de la extensión del hielo marino antártico debería tener, según esta hipótesis, una duración limitada en el tiempo.
El estudio citado dice también que el hecho de que algunas zonas del Océano Austral se estén enfriando y produzcan más hielo marino no desmiente el calentamiento global, ya que el clima no cambia de manera uniforme: La Tierra es muy grande y lo que se esperaría sin duda sería que debe haber cambios diferentes en las distintas regiones del mundo. Eso es cierto incluso si en general el sistema se está calentando.
Otro reciente estudio de la NASA mostró que el hielo marino antártico ha adelgazado ligeramente desde 2003 hasta 2008, pero el aumento de la extensión del hielo ha equilibrado la pérdida de espesor y ha llevado a un aumento de volumen total. Esta última investigación, que usó datos de altimetría láser del satélite ICESat, fue el primero en estimar el espesor del hielo marino en el Océano del Sur desde el espacio.
jueves, 18 de octubre de 2012
Calentamiento global: ¿fenómeno natural o tendencia externa?
Se acepta que la temperatura global del aire en la superficie ha aumentado en los últimos 100 años, con un aumento más pronunciado durante los últimos 50: Sin embargo, todavía no se ha contestado adecuadamente a la pregunta de cual es la causa de este cambio en las temperaturas. Algunos hablan de fluctuaciones naturales, de las oscilaciones multidecadales del Atlántico y del Pacífico, del aumento de gases de efecto invernadero, de los efectos de las islas urbanas sobre las estaciones de medición, de los impactos naturales de los volcanes, de la condensación del vapor de agua atmosférico generada por los rayos cósmicos, cuya concentración está relacionada con el campo magnético solar, de los aerosoles emitidos por las centrales de combustibles fósiles, etc.
El incremento de la temperatura global en el siglo XX se evalúa principalmente por los registros globales de temperatura, establecidos con algoritmos especiales. Sin embargo, los registros locales muestran un escenario diferente, ya que se encuentra una tendencia al enfriamiento en un porcentaje significativo de estaciones de medida distribuidas por todo el mundo.
Trabajando con 2249 registros de temperaturas mensuales distribuidos globalmente, correspondientes al período 1906-2005, obtenidos de la NASA Goddard Institute for Space Studies (GISS), en el artículo How natural is the recent centennial warming? An analysis of 2249 surface temperature record, sus autores evalúan en qué medida el aumento de la temperatura en los últimos 100 años ha sido una tendencia o ha sido una fluctuación natural.
Los autores argumentan que los registros globales no son una herramienta correcta para tratar las temperaturas globales. Primero, porque los procedimientos de homogeneización y el establecimiento de cuadrículas para establecer los registros globales son inevitablemente arbitrarios, lo que indica que pueden dar lugar a resultados distintos si se aplican otras reglas a los mismos registros locales. Además, y esto es muy importante, el establecimiento de registros globales atenúa los valores extremos de los registros locales que no están correlacionados. Como consecuencia, la desviación standard en los registros globales, que es un atributo decisivo en el análisis de tendencias, tiene un valor demasiado pequeño, tanto que no es real.
La consecuencia es que un examen convencional de los registros de temperatura no puede decirnos si un cambio en las temperaturas es natural o debido a una tendencia externa.
Para remediar esta carencia, los autores utilizan el Análisis de Fluctuaciones sin Tendencia (Detrended Fluctuation Analysis, o DFA), un método de análisis de señales que permite estudiar las propiedades de correlación de la señal estudiada.
Según los autores, "la media de todas las estaciones de muestra un calentamiento global 0,58 °C desde 1906 hasta 2005", pero dicen que "si tenemos en cuenta sólo las estaciones con una población de menos de 1000 habitantes y situadas por debajo de 800 metros sobre el nivel del mar, esta cifra cae a 0,41 °C" Además, señalan que "una cuarta parte de todos los registros muestran una bajada de las temperaturas", lo que en sí mismo, en sus palabras, "es una indicación de que las series de temperaturas observadas son predominantemente fluctuaciones naturales", donde la palabra natural significa que "no tenemos dentro de un intervalo de confianza definido una contribución antropogénica positivo". Y siguiendo este aspecto de su análisis, evalúan, con un intervalo de confianza del 95%, la probabilidad de que el calentamiento global observado desde 1906 hasta 2005 fuera una fluctuación natural, encontrando que esta probabilidad está situada "entre el 40% y 70%, dependiendo de las características de la estación", mientras que "para el período 1906 a 1955 las probabilidades están situadas entre el 80% y el 90%, y para 1956 a 2005 entre el 60% y el 70%".
Basándose en lo que han encontrado, los autores escriben que "sólo puede no descartarse una contribución antropogénica marginal", lo que quiere decir que si hay alguna señal de que exista un calentamiento inducido por el CO2 escondida en algún lugar de los datos de temperatura global del GISS, debe ser relativamente pequeña.
miércoles, 10 de octubre de 2012
Temperatura global y concentración de CO2
En el 2008 State of the Climate, de la NOAA, refiriéndose a los modelos climáticos basados en que la concentración de CO2 es el elemento que pilota el calentamiento global, se decía: “Las tendencias cercanas a cero o negativas son comunes para intervalos de una década o menos en las simulaciones, debido a la variabilidad del clima. En cambio, se puede considerar que las simulaciones no son válidas (a un nivel del 95 % de confianza) cuando las tendencias son de cero para intervalos de 15 o más años, lo que quiere decir que se necesitaría una ausencia de calentamiento de esta duración para crear una discrepancia con el ritmo de calentamiento que se espera hoy en día”.
Cuando comparamos las temperaturas globales desde el año 1997 hasta la actualidad, un período de 15 años, vemos que la tendencia del aumento de las temperaturas es muy cercana a cero, mientras que la concentración de CO2 ha seguido aumentando. Habrá que ver qué dice la NOAA, si dice algo, sobre esta cuestión.
sábado, 6 de octubre de 2012
La luna de miel de las renovables europeas
La energía renovable ha resultado ser un gran éxito en Europa en el sentido que las ayudas masivas de los gobiernos han conducido a un enorme aumento de la energía eólica y solar. Pero esta especie de luna de miel puede difícilmente continuar. En primer lugar, los gobiernos deben hacer frente a la necesidad de cortar sus gastos. En segundo lugar, existe un problema técnico, en el sentido de que, en algunos países, el sistema eléctrico puede difícilmente arreglárselas con la enorme variabilidad de la producción de energía eólica y solar. Y, en tercer lugar, hay un problema económico, ya que los subsidios están distorsionando el funcionamiento de los mercados eléctricos; en particular, están socavando la rentabilidad de las centrales convencionales, a las que las renovables han relegado a ser capacidades de respaldo, lo que hace que funcionen cada vez menos horas al año, como podemos ver el la figura siguiente, según datos de Red Eléctrica de España.
Pero esto no es todo. Gracias al aumento de las interconexiones entre los mercados nacionales de la Unión Europea, cada vez hay más intercambios de electricidad entre países. Como consecuencia, las políticas de subsidios de cada estado afectan cada vez más a los mercados de los países vecinos. Y como cada país de la UE tiene una política distinta de apoyo a las renovables, la “revolución” de las renovables distorsiona cada vez más el funcionamiento del mercado europeo en su conjunto.
La Comisión Europea está alarmada con este desarrollo de las energías renovables. En junio de este año presentó un comunicado al Parlamento Europeo, Renewable Energy: a major player in the European energy market, donde aboga por acercarse lo antes posible a esquemas que expongan a los productores de renovables al riesgo de los precios de mercado, especialmente para tecnologías maduras. Propugna, además, que se coordinen las distintas políticas de los países respecto de las energías renovables para evitar la fragmentación del mercado interno europeo.
En este mismo comunicado al Parlamento Europeo, la Comisión comunica su intención de preparar una guía sobre las mejores prácticas y experiencias en las energías renovables (una especie de IPPC para las renovables).
Todo esto hace pensar que la industria de las renovables, en los próximos años, deberá hacer frente a subsidios cada vez menores, por lo que estará menos aislada de los mercados, lo que incrementará la presión sobre las tecnologías maduras para ser competitivas en el mercado global, y sobre las tecnologías menos maduras para probar que son potencialmente rentables.
La luna de miel entre las energías renovables y Europa está llegando a su fin, lo que redundará en beneficio de todos.
miércoles, 3 de octubre de 2012
El enigma de la influencia de los aerosoles sobre el calentamiento global
El dióxido de carbono no es el único problema que debemos abordar si queremos entender y resolver el problema del cambio climático. Según un estudio publicado este mes en la revista International Journal of Global Warming, The aerosol-cloud-climate conundrum, todavía no entendemos adecuadamente el papel de los aerosoles, las nubes y su interacción.
Hay 10 elevado a la potencia 40 moléculas de dióxido de carbono en la atmósfera. Las moléculas de dióxido de carbono absorben y emiten radiación principalmente en la región infrarroja del espectro electromagnético y su presencia es lo que ayuda a mantener nuestro planeta en las temperaturas relativamente cálidas que disfrutamos hoy en día.
Si hubiera demasiado pocas moléculas que absorben el efecto invernadero decaería y experimentaríamos un enfriamiento global que convertiría a todo el planeta en un planeta sin vida, un planeta recubierto de hielo flotando en su órbita. A la inversa, los crecientes niveles de dióxido de carbono atmosférico conducen a un aumento de la temperatura. Este es el fenómeno que ha dado lugar al problema del cambio climático antropogénico. La humanidad ha consumido cantidades cada vez mayores de combustibles fósiles desde los albores de la revolución industrial, liberando a la atmósfera el carbono encerrado en los yacimientos, y aumentando el número de moléculas de dióxido de carbono en la atmósfera.
Sin embargo, estos niveles de dióxido de carbono no completan el panorama del cambio climático, ya que también se deben tener en cuenta las diminutas partículas en la atmósfera, los aerosoles, formados por condensación de vapores, hollín y polvo. No hay duda de que estas especies afectan a la cantidad de energía solar reflejada por la superficie terrestre y a cuanta energía queda atrapada. Según el estudio citado, el número de partículas de aerosol es de apenas 10 elevado a la potencia 26. El “peso”, en el sentido de su influencia en el calentamiento global, que se debe dar a una molécula de dióxido de carbono en comparación con una partícula de aerosol, que puede contener muchas moléculas, es un punto sujeto a discusión. En la figura siguiente vemos el “peso” que atribuye a cada uno el informe 2007 del IPCC: el intervalo de confianza de la suma es extremadamente elevado.
Es, al menos por ahora, un enigma entender los aerosoles atmosféricos y cómo afectan a la formación de nubes y en última instancia como influyen en el clima. Hay múltiples bucles de realimentación a considerar, así como el efecto de forzamiento climático debido a la elevación del nivel de dióxido de carbono en estos bucles y viceversa. El papel clave de los aerosoles y las nubes en el cambio climático antropogénico hace que las grandes incertidumbres relacionadas con ellos sean aún más decisivas.
Antes de realizar algunos proyectos de geoingeniería, consistentes en aumentar la cantidad de aerosoles en la atmósfera para limitar el calentamiento global, el enigma aerosol-nube-clima tiene que ser reducido a un nivel de incertidumbre comparable a los relacionados con los gases de efecto invernadero antropogénicos. Teniendo en cuenta la complejidad del sistema de aerosol-nube el reto será identificar el conocimiento necesario y diferenciarlo de los detalles marginales, concentrando los esfuerzos de investigación sobre estos elementos esenciales con el fin de simplificar el complejo sistema de aerosol-nube sin perder las características indispensables.
Todo esto demuestra que estamos lejos de tener unos modelos de predicción del calentamiento global que sean medianamente fiables.
sábado, 29 de septiembre de 2012
Las glaciaciones precámbricas
La división geológica de la historia de la Tierra desde sus orígenes hace 4.500 millones de años hasta la actualidad se divide en 4 eones:
Hadense: 4.500 a 3.800 millones de años
Arqueozoico: 3.800 a 2.500 millones de años
Proterozoico: 2.500 a 540 millones de años
Fanerozoico: 540 millones de años hasta la actualidad
Se denomina precámbrico a todo el período anterior al Fanerozoico. Este período ocupa el 87 % de la historia terrestre.
Durante toda esta larga historia las variaciones climáticas de la tierra han sido enormes. Entre ellas destacan los períodos de glaciación, que fueron muchos. De estos períodos hubo varios en los que la glaciación fue tan importante que convirtieron el planeta en una bola helada durante largos períodos de tiempo.
Los primeros eventos de glaciación continental que conocemos se produjeron hace alrededor de 2.900 millones de años (glaciación Pongola), seguidos de una serie de tres episodios de glaciaciones, llamadas Huronianas, que sucedieron hace entre 2.450 y 2.220 millones de años. Esta secuencia enlaza con la importante glaciación Makganyene, situada en latitudes cercanas al ecuador, y que sucedió hace entre 2.320 y 2.220 millones de años. Al estar situada cerca del ecuador, es probable que esta glaciación fuera global.
Durante un largo período no se produjeron nuevas glaciaciones de las que tengamos noticia, hasta que, ya al final del Neoproterozoico, en rocas datadas de hace entre 750 y 580 millones de años, se observan señales de otras glaciaciones: la glaciación Sturtiense, hace unos 710 millones de años, la Marinoense, hace unos 635 millones de años, y la Varangiense, hace unos 600 millones de años. Estas glaciaciones fueron, probablemente, las más importantes de la historia de la Tierra, ya que congelaron todo el planeta, formando lo que se llama planeta “iglú” o planeta “bola de nieve”.
Durante estos períodos de planeta “bola de nieve” reinaba el clima más frío que podamos imaginar: un planeta cubierto por hielo de polo a polo. La temperatura media global sería de unos -50 ° C, debido a que la mayor parte de la radiación solar se reflejaba hacia el espacio, ya que la superficie helada tiene un albedo muy elevado (se llama albedo a la fracción de la radiación reflejada y varía mucho según el tipo de superficie, yendo de ~ 0,1 para el agua líquida, al ~ 0,3 para la tierra desnuda, al ~ 0,45-0,65 para el hielo en función del contenido de burbujas, y hasta el ~ 0,9 para la nieve fresca). La temperatura ecuatorial promedio durante estos períodos sería de unos -20° C, más o menos similar a la actual de la Antártida. Al no existir el efecto moderador de los océanos, los cambios de temperatura asociados con los ciclos día-noche y de los cambios de estación serían mucho mayores. Debido a su superficie sólida, el clima en la Tierra durante estos períodos tendría mucho en común con el clima actual de Marte. A pesar del clima frío y seco, la atmósfera seguiría transportando algo de vapor de agua desde las áreas de la sublimación (cambio directo de sólido a vapor) a las zonas de condensación. Al cabo de un tiempo suficiente, el hielo glacial se espesaría y fluiría en la dirección opuesta. Este flujo glacial dio como resultado depósitos sedimentarios, que forman las huellas de la actividad glacial después de que el hielo ha desaparecido.
La existencia de grandes glaciaciones continentales que pudieron llegar hasta latitudes tropicales es una característica importante de las glaciaciones anteriores al Fanerozoico.
Los primeros indicios geológicos de la presencia de glaciares en la Tierra se encuentran en la parte superior de la formación Pongola de Sudáfrica, y se remontan a hace unos 2.900 millones de años. La prueba consta de depósitos glaciares sedimentarios llamados diamictitas (material generalmente transportado por el hielo flotante, incluyendo rocas rayadas por glaciares). Esto no quiere decir que no hubiera glaciaciones anteriores, pero en vista de los chert de sílex (roca sedimentaria silícea, constituida principalmente de agregados cristalinos finos de cuarzo y sílice fibrosa) y de numerosos depósitos de rocas sedimentarias marinas, con edades anteriores a esta glaciación, parece bastante seguro de que la Tierra no pasó la mayor parte de su historia anterior encerrada en un congelador. Por tanto, la glaciación Pongola parece marcar el comienzo del largo coqueteo de la Tierra con el hielo.
La datación de la glaciación Pongola se deduce de que sus registros geológicos están situados entre dos depósitos volcánicos datados, el primero en 2.985 ± 1 millones de años, y el posterior en 2.837 ± 5 millones de años.
El período situado entre hace unos 2.450 millones de años y algún punto situado antes de 2.220 millones años muestra una serie de tres glaciaciones, cuyos registros se encuentran en el Supergrupo Huroniano en el Canadá. No se está seguro de la latitud en la que se encontraban estas rocas en aquel momento, por lo que no se puede asegurar que se tratase de glaciaciones globales.
El comienzo de la glaciación Makganyene ocurrió hace unos 2.320 millones de años, y está grabado en las rocas de Transvaal, en Sudáfrica. Fue una gran glaciación, y bien pudo haber sido global. Sabemos esto porque se ha conservado un registro del campo magnético de la Tierra en las rocas, que puede ser usado para deducir la latitud en la que se encontraban las rocas cuando se establecieron los depósitos glaciares. Estos datos paleomagnéticos muestran que había hielo a unos 12 grados del Ecuador, lo que sugiere que se trató de una glaciación global. Este hallazgo fue publicado en 1997 por David Evans, Beukes Nic y Joe Kirschvink, en su famosa publicación Low-latitude glaciation in the Palaeoproterozoic era.
¿Cuál fue la causa de estas glaciaciones?
Quizá sería mejor preguntarnos por qué durante la primera mitad de la vida del planeta éste no estuvo helado, ya que el flujo de la radiación solar era, en aquellos tiempos, mucho menor que en la actualidad. En la figura siguiente se da una aproximación de la luminosidad del sol a lo largo del tiempo: hace 3.000 millones de años el flujo de radiación solar era un 22 % inferior al actual. Si el flujo de radiación del sol disminuyera bruscamente un 5 o un 10 %, los océanos actuales se congelarían rápidamente. Como hay pruebas geológicas claras de que hace 3.000 millones o más había agua líquida en la superficie de los océanos, podemos deducir que debía haber un efecto invernadero muy superior al actual. Los gases causantes de este efecto invernadero eran principalmente el vapor de agua, el CO2 y el CH4.
Las glaciaciones empezaron con un descenso de las concentraciones de los gases de efecto invernadero, lo que, con un sol menos brillante que en la actualidad, contribuyó a bajar la temperatura del planeta, a helar parte de los océanos y, al aumentar el albedo, a retroalimentarse para bajar todavía más las temperaturas.
Como disminuyó la concentración de CO2
En escalas de tiempo geológicas, el océano y la atmósfera están en equilibrio con respecto al CO2, y pueden ser tratados como un solo depósito. El CO2 se suministra a este depósito por las emanaciones volcánicas y metamórficas, y se elimina como sedimento en forma de CaCO3 (piedra caliza) y materia orgánica (aproximadamente CH2O).
El CO2 atmosférico forma una lluvia de ácido carbónico, que es neutralizada por la meteorización (proceso de descomposición y/o desintegración de las rocas y minerales “in situ”, a no confundir con la erosión) de silicatos.
Los solutos resultantes son los iones Ca++ y HCO3-(bicarbonato) que los ríos llevan al mar, donde el CaCO3 se precipita por la calcificación de los organismos y de la materia orgánica por los productores primarios, como las cianobacterias y las algas.
Todo el proceso es más comúnmente conocido como "meteorización de los silicatos", porque ese es el paso limitante. La tasa de meteorización por los silicatos es sensible al clima, más rápida cuando éste es caliente y húmedo, y más lenta, donde es frío y seco. En la siguiente figura, tomada del profesor Antón Uriarte, podemos ver un esquema del proceso largo del CO2.
Como disminuyó la concentración de CH4
Este período está asociado con el surgimiento del oxígeno "libre", O2 molecular, una de las revoluciones más profundas de la superficie terrestre en toda su historia, y que influyó en la atmósfera, los océanos, la corteza y la vida.
El CH4 atmosférico proviene de microbios que viven en suelos poco drenados como, por ejemplo, las zonas húmedas tropicales, y en sedimentos ricos en productos orgánicos. Comparando molécula con molécula, el CH4 es unas 30 veces más efectivo que el CO2 como gas de efecto invernadero, pero es relativamente inestable en la atmósfera actual, rica en oxígeno, en la que su tiempo de residencia es unas 20.000 veces menor que la del CO2. Pero en la atmósfera primitiva los niveles de oxígeno eran muy bajos, del orden del 1 % de los niveles actuales, y los niveles de CH4 eran probablemente mucho mayores que los actuales, por lo que el tiempo de residencia del CH4 en la atmósfera era mucho mayor que el actual, creando un efecto invernadero muy importante.
Cuando los niveles de oxígeno aumentaron, los niveles de CH4 fueron disminuyendo, causando un bajón del efecto invernadero. Si la pérdida de CH4 fue suficientemente rápida (menos de un millón de años), el enfriamiento terrestre no se pudo contrarrestar por una disminución del ritmo de meteorización de los silicatos, que hubiera podido dar lugar a un aumento del nivel de CO2 que compensara la pérdida de CH4, lo que pudo dar lugar a una glaciación.
Durante las glaciaciones Pongola y Huronianas todavía no había una cantidad suficiente de oxígeno en la atmósfera para eliminar el CH4, según los registros geológicos. En cambio, un poco antes de la glaciación Makganyene se produjo una precipitación masiva de Mn, que dio lugar a los actuales yacimientos de Mn de África del Sur, que, por su potencial redox, necesitan de la presencia significativa de oxígeno para su precipitación. Se puede deducir, por tanto, que las cianobacterias productoras de oxígeno proliferaron poco antes de esta última glaciación.
La causa más probable de este aumento súbito del nivel de CO2 en la atmósfera fue la evolución de la fotosíntesis. Existen moléculas orgánicas fósiles que prueban la existencia de fotosíntesis unos 500 millones de años antes de la glaciación Makganyene, pero no en cantidad suficiente para aumentar significativamente el nivel de oxígeno de la atmósfera que, por lo que parece, despegó en algún momento entre hace 2.400 y 2.200 millones de años. El estudio de la trayectoria del nivel de oxígeno y su relación con la glaciación “bola de nieve” Makganyene es un área de investigación muy activa.
No hay pruebas de otro episodio de este tipo durante los 1.300 millones de año que siguieron, hasta llegar a las enormes glaciaciones iglú de final del Protocenozoico, de las que hablaremos en otra entrada.
Suscribirse a:
Entradas (Atom)