jueves, 26 de abril de 2012

Las corrientes cálidas del océano causan la mayoría de la pérdida de hielo de la Antártida


Se acaba de publicar un informe de un equipo internacional de científicos dirigido por el British Antarctic Survey (BAS), titulado Antarctic ice-sheet loss driven by basal melting of ice shelves, que ha establecido que las corrientes cálidas del océano son la causa principal de la pérdida de hielo reciente de la Antártida. Se han utilizado nuevas técnicas para diferenciar, por primera vez, entre las dos causas conocidas de la fusión de las capas de hielo: las corrientes cálidas del océano que atacan su parte inferior, y la fusión por aire caliente desde arriba. Este hallazgo es un paso más para ofrecer proyecciones fiables sobre el futuro del nivel del mar.

Las mediciones provienen del satélite ICESat de la NASA (Ice, Cloud and Land Elevation Satellite), corresponden al período 2003 – 2008, y se han utilizado para detectar cambios en el espesor de las placas de hielo a través del tiempo.

Los autores utilizaron 4,5 millones de mediciones realizadas. Han llegado a la conclusión de que de las 54 plataformas de hielo en las que se han realizado mediciones, 20 se derriten debido a las corrientes oceánicas cálidas, la mayoría de las cuales se encuentran en la Antártida Occidental.

En todos los casos, los glaciares continentales que fluyen hacia la costa y que alimentan estas plataformas de hielo se han acelerado, drenando más hielo hacia el océano y contribuyendo a la elevación del nivel del mar.

En la mayoría de lugares en la Antártida, no se puede explicar el adelgazamiento de las placas de hielo a causa de la fusión de la nieve en superficie, por lo que la única explicación es que sea impulsada por las corrientes oceánicas cálidas, que las derriten desde abajo.

Velocidad a la que cambia el espesor del las capas de hielo de la Antártida en el período 2003-2008

Los autores han investigado toda la costa antártica y han encontrado un patrón claro: en todos los casos en que las placas de hielo se están derritiendo por las corrientes oceánicas, los glaciares continentales se están acelerando. Es esta aceleración del glaciar la que es responsable de la mayor parte del aumento de la pérdida de hielo del continente y, como es lógico, esto contribuye a la elevación del nivel del mar.

La distinción entre la pérdida de hielo impulsado por la nieve derretida en la superficie de las placas de hielo y la pérdida de hielo por fusión de la base de las plataformas de hielo no es una tarea trivial. Para ello han utilizado modelos informáticos, que utilizan tanto los datos del clima como la física que rige los cambios de la nieve para observar la forma como las superficies de las placas de hielo van cambiando.

Las placas de hielo normalmente actúan como contrafuertes naturales, frenando la marcha de los glaciares de la Antártida hacia el mar.

Lo que es realmente interesante es lo sensibles que parecen ser estos glaciares. Algunas placas de hielo están adelgazando unos pocos metros al año y, en respuesta, los glaciares drenan miles de millones de toneladas de hielo en el mar. Esto apoya la idea de que las placas de hielo son importantes para controlar la velocidad de los glaciares que los alimentan, controlando también, por tanto, la pérdida de hielo de la Antártida. Esto significa que se puede perder una gran cantidad de hielo en el mar aún sin tener veranos suficientemente cálidos para hacer que la nieve de la cima de los glaciares se derrita, ya que los océanos pueden hacer todo el trabajo desde abajo.

Sin embargo, esto plantea la pregunta de por qué esto sucede precisamente ahora. Los autores creen que está relacionado con cambios en los patrones del viento. Hay estudios que han demostrado que los vientos antárticos han cambiado debido a los cambios climáticos, y que esto ha afectado tanto a la fuerza como a la dirección de las corrientes oceánicas. Como resultado de ello el agua caliente se canaliza por debajo del hielo flotante. Estos estudios y los nuevos resultados sugieren que los glaciares de la Antártida están respondiendo rápidamente a un clima cambiante.

Un panorama diferente se observa en la península oriental de la Antártida (el largo tramo de tierra que apunta hacia América del Sur). Aquí, el adelgazamiento de la placa de hielo encontrado en este estudio puede ser explicado por los vientos cálidos del verano que derriten directamente la nieve en las superficies de las placas de hielo. Ambos patrones, la fusión impulsada por el mar (que es la más generalizada) y la fusión de verano en la Península Antártica, por lo tanto, se pueden atribuir a los patrones cambiantes del viento en la Antártida.

Este estudio muestra muy claramente por qué la capa de hielo de la Antártida está disminuyendo, lo cual es un avance importante. Pero el verdadero significado es que también muestra que la clave para poder predecir cómo va a cambiar en el futuro la capa de hielo está en la comprensión de los océanos. Es decir, que no sólo se deben estudiar los cielos de la Antártida, sino también los océanos circundantes.


lunes, 23 de abril de 2012

Los glaciares del Himalaya se reducen menos rápidamente de lo previsto


Varios cientos de millones de personas en el sudeste de Asia dependen, en mayor o menor grado, de las reservas de agua dulce de los glaciares del Himalaya. En consecuencia, es importante detectar lo antes posible el impacto potencial del cambio climático en los glaciares del Himalaya. Junto con investigadores internacionales, los glaciólogos de la Universidad de Zurich han descubierto que los glaciares del Himalaya están disminuyendo más lentamente de lo que se pensaba previamente. Sin embargo, los científicos ven un potencial de riesgo importante de los arrebatos de los lagos de origen glaciar.


Vista aérea del glaciar Imja y del lago Imja, en el Himalaya, Nepal. El lago apareció en la década de 1960 y ha crecido continuamente desde entonces. El hundimiento de la superficie de la lengua del glaciar, cubierta de escombros, también es claramente perceptible.

Desde que los pronósticos del Grupo Intergubernamental de Expertos sobre el Cambio Climático (IPCC), que preveían la fusión de estos glaciares en 2035-2050 se revelaron equivocados, los glaciares del Himalaya han sido un foco de debate público y científico. Las lagunas en nuestro conocimiento de los glaciares en la región del Himalaya han obstaculizado disponer datos precisos y, por tanto, que se puedan hacer pronósticos fiables. Un equipo internacional de investigadores dirigido por los glaciólogos de la Universidad de Zurich y con la participación de científicos de Ginebra, describe el estado actual del conocimiento de los glaciares en el Himalaya, en un estudio recientemente publicado en Science, titulado The State and Fate of Himalayan Glaciers. Los científicos confirman que los escenarios de contracción de los glaciares del Himalaya publicados en el último informe del IPCC eran muy exagerados.

Inventario de glaciares del Himalaya mostrando las cuatro grandes regiones estudiadas


Las informaciones más actualizadas hasta la fecha, sobre la base de datos de los satélites, revelan que los glaciares en el Himalaya y en el Karakorum tienen una superficie total aproximada de 40.800 kilómetros cuadrados. Aunque esta superficie es alrededor de veinte veces más grande que todos los glaciares de los Alpes europeos, resulta ser el veinte por ciento más pequeño de lo que se suponía anteriormente.

Los autores han tomado en cuenta para su estudio todas las medidas existentes de los cambios de longitud, área y volumen y los balances de masas. Mientras que algunas de las series de medición de los cambios de longitud de los glaciares se remontan a 1840, las medidas de balance de masa glaciar, que reflejan rápidamente la señal climática, son raras. Además, las series de mediciones continuas no se remontan más allá de los diez años. Los autores han registrado disminuciones promedio de 15 a 20 metros y las disminuciones de la superficie de 0,1 a 0,6 por ciento por año en las últimas décadas. Por otra parte, las superficies de los glaciares bajaron en alrededor de 40 centímetros por año. Estos cambios en la longitud y el área detectadas y las pérdidas de volumen corresponden al promedio global. La mayoría de los glaciares del Himalaya están disminuyendo, pero mucho menos rápidamente de lo previsto anteriormente.

Secuencias multitemporales mostrando la reducción de los glaciares del Himalaya
A: Rikha Samba Glacier, Nepal; B: Yala Glacier, Nepal; C: Glacier AX010, Nepal; D: Ganju La Glacier, Bhutan; E: Tsho Rolpa, Nepal, donde se observa el desarrollo de un gran lago glaciar.

Para las regiones del noroeste del Himalaya y en especial para las de la cordillera de Karakorum, los autores han observado un comportamiento de los glaciares muy heterogéneo. Muchos de ellos son dinámicamente inestables y propensos a avances rápidos (los llamados "picos"), que en gran medida se producen con independencia de las condiciones climáticas. Durante la última década, en promedio, incluso se ha detectado un ligero aumento de volumen. Sobre la base de sus análisis, los autores suponen que la retracción de los glaciares no tendrá un impacto importante en el drenaje del agua hacia los grandes ríos como el Indo, el Ganges y el Brahmaputra en las próximas décadas.

A pesar de que los autores dan un visto bueno, al menos parcial, al estado de los glaciares del Himalaya, aconsejan cautela, ya que debido a la contracción prevista de los glaciares, en el medio plazo se puede esperar una mayor variabilidad en el drenaje del agua estacional, que puede llevar a que valles individuales puedan agotarse en temporalmente.

También ven una amenaza muy grave para la población local en los lagos de origen glaciar recién formados o en rápido crecimiento. El diluvio de agua y los residuos de potenciales “arrebatos” de estos lagos podrían tener consecuencias devastadoras para las regiones bajas. Según los autores, es necesario aumentar con urgencia los esfuerzos para seguir de cerca estos lagos, así como también los cambios en los glaciares y en el clima del Himalaya.

domingo, 22 de abril de 2012

¿Dónde estaba escondido el CO2 durante la última edad del hielo?


¿Por qué la atmósfera contenía tan poco dióxido de carbono durante la última Edad de Hielo hace 20.000 años? ¿Por qué subió cuando el clima del planeta se volvió más cálido? Hace unos 20.000 años, durante la última Edad del Hielo, la concentración atmosférica de CO2 fue claramente menor que en el siguiente periodo, en el que hubo un calentamiento. Las mediciones de los testigos de hielo antárticos ya lo mostraron hace dos décadas, cuando se descubrió que esta estrecha relación entre el dióxido de carbono y la temperatura ha existido en los últimos 800.000 años: con bajas concentraciones de CO2 durante las glaciaciones y con valores más altos de CO2 durante los períodos cálidos. Pero quedaban por responder las preguntas sobre donde se ocultaba el dióxido de carbono durante las Edades del Hielo y cómo llegó a la atmósfera cuando éstas terminaron.

El artículo Ventilation of the deep Southern Ocean and deglacial CO2 rise, publicado en el año 2010, afirma que se ha encontrado la posible fuente de un enorme "eructo" de dióxido de carbono que ocurrió hace unos 18.000 años y que ayudó a poner fin a la última edad de hielo.

Estos resultados proporcionan la primera prueba concreta de que el dióxido de carbono se mantuvo bloqueado en las profundidades del océano durante la última edad de hielo, convirtiendo el mar en un depósito "estancado" de carbono, algo que los científicos han sospechado durante mucho tiempo, pero que hasta ahora carecían de los datos para apoyar esta teoría.

Trabajando sobre un testigo de sedimentos marinos recuperados del fondo del Océano Austral entre la Antártida y Sudáfrica, dataron mediante radiocarbono unas conchas provenientes de diminutas criaturas marinas llamadas foraminíferos. Al medir la cantidad de carbono 14 en las conchas de los foraminíferos bentónicos, y al comparar el resultado con la cantidad de C14 en la atmósfera de la época, fueron capaces de calcular el tiempo que el CO2 había estado encerrado en el océano. Mediante la vinculación de su testigo de sedimentos marinos con muestras de hielo de la Antártida, utilizando la señal de temperatura registrada en ambos archivos, también compararon sus resultados directamente con el registro de la variabilidad atmosférica de CO2 de los testigos de hielo del pasado.

Los resultados muestran que durante la última Edad del Hielo, hace unos 20.000 años, el dióxido de carbono disuelto en el agua profunda que circula alrededor de la Antártida se mantuvo bloqueado durante mucho más tiempo que en la actualidad. Si una cantidad suficiente de las profundidades del océano se comportara de la misma manera, se podría explicar cómo los procesos de mezcla en el océano bloquean más dióxido de carbono durante los períodos glaciales.

Debido a que el océano es un depósito de carbono grande y dinámico, desde hace tiempo se sospechaba que los cambios en la circulación oceánica deben haber jugado un papel importante en estos grandes cambios en la concentración del CO2 atmosférico. Además, se supone que el Océano Austral, alrededor de la Antártida, ha sido un importante centro de esta acción, porque aquí es donde el agua profunda puede subir hasta la superficie del mar y, una vez allí, “soltar” su CO2 a la atmósfera.

Se cree que durante las eras glaciales se mantuvo bloqueado más CO2 en las profundidades del océano que en las épocas cálidas, y que impulsos o eructos de CO2 del Océano Austral profundo ayudaron a desencadenar un deshielo global aproximadamente cada 100.000 años. El tamaño de estos impulsos fue más o menos equivalente a la variación de CO2 experimentado desde el inicio de la revolución industrial.

Si esta teoría es correcta, se puede esperar observar grandes transferencias de carbono del océano a la atmósfera al final de cada edad de hielo. Esto podría evidenciarse comparando las concentraciones relativas de radiocarbono (carbono 14) en el océano y la atmósfera. El isótopo carbono 14 se descompone con el tiempo y por lo tanto cuanto más tiempo el carbono haya estado bloqueado en las profundidades del mar, menos carbono 14 contiene.

Además de proporcionar pruebas de la rápida liberación de dióxido de carbono durante la desglaciación, la investigación ilustra cómo la circulación oceánica puede cambiar significativamente en un espacio relativamente corto de tiempo.

La reconstrucción de la historia de la ventilación las aguas profundas a partir de la edad de los foraminíferos se muestra en la figura siguiente. En la curva D observamos que las aguas profundas del sector atlántico del Océano Austral tenían un tiempo de ventilación respecto de las aguas de superficie (B-P) de ~ 1630 años antes del Heinrich Stadial 1 (HS1), hace unos 17.900 años, mientras que este tiempo es actualmente de ~ 600 años. En la curva E vemos que el tiempo de ventilación de las aguas profundas respecto de la atmósfera (B – Atm) fue aumentando hasta llegar a 3.500 años antes del HS1, mientras que este tiempo es, actualmente, de 1.200 años.

Durante el último período glacial y, en particular, en el Último Máximo Glacial, la escala de tiempo de intercambio de carbono entre la atmósfera y el océano Austral profunda por lo tanto, parece haber superado la de las regiones actualmente peor ventiladas de las profundidades del Pacífico Norte. Este aumento en la escala de tiempo de ventilación de las profundidades del mar pudo aumentar la capacidad de secuestro de carbono de las profundidades del océano durante el último período glacial, lo que ayudó a reducir el CO2 atmosférico.

Cambios en la ventilación del agua profunda en el sector atlántico del Océano Austral.
A – CO2 atmosférico
B – flujos de salinidad del mar, que dan una indicación sobre el hielo marino antártico
C – medidas de δ13C atmosférico
D – tiempo de ventilación de las aguas profundas respecto a las aguas de superficie
E – tiempo de ventilación de las aguas profundas respecto de la atmósfera
Eje de abscisas: PB-YD = Preboreal – Dryas reciente; B-A = Bølling-Allerød; HS1 = Heinrich Stadial 1

En el curso de la desglaciación, entre la última Edad del Hielo y el final del Pre-Boreal/Dryas Reciente (PB-YD), el tiempo de ventilación del agua profunda disminuyó gradualmente. Esta tendencia a largo plazo hacia una mejor ventilación del agua profunda se produjo en paralelo con una tendencia general hacia el aumento de CO2 atmosférico (curva A), una reducción gradual de producción de hielo marino antártico (curva B), y, en general, un ∂ 13C del CO2 atmosférico cada vez más negativo (curva C). Este intervalo de tiempo que coincide con un amplio "mínimo" de ∂13C, en los foraminíferos planctónicos del Pacífico Ecuatorial Oriental, que ha sido interpretado como el reflejo de una combinación de aumento de la surgencia en latitudes bajas y el aumento de la nutrientes remineralizados provenientes del Océano Austral. Todos estos registros son coherentes, con un "cambio de modelo" en el intercambio de CO2 entre el interior del océano y la atmósfera durante la última glaciación, dando lugar a un mayor intercambio entre la atmósfera y un depósito de carbono marino que se agotó completamente en ∂ 13C y D14C.

Sin embargo, inspeccionando más de cerca la figura, también podemos ver que las tendencias de CO2, del hielo marino antártico, del ∂13C del CO2 atmosférico, y de la ventilación de aguas profundas no son monótonas. Durante la inversión Bølling-Allerød, el CO2 y el ∂13C del CO2 revirtieron su tendencia creciente, mientras que D14Catm sufrió una pausa en su rápido descenso. Con el fin de explicar por qué se produjeron estos cambios, se identifican tres conjuntos de condiciones:

- Último Periodo Glacial Máximo, máxima extensión del hielo marino antártico, en relación con el carácter excepcional de la edad del agua profunda circumpolar (CDW = circumpolar deep water), edad que es muy estable durante el período, lo que tiene como consecuencia unas bajas emisiones de CO2,

- HS1 y YD, con un retroceso del hielo marino antártico conjuntamente con un agua profunda circumpolar (CDW) relativamente envejecida y un aumento del CO2,

- ACR / Bølling Allerød, el hielo marino antártico es reducido pero en expansión conjuntamente con un agua profunda circumpolar (CDW) muy joven y un CO2 más elevado pero bastante estable.

Ilustración esquemática de los cambios en la circulación del Océano Sur durante la última desglaciación (con el sur a la izquierda)
             A- la circulación moderna
             B- la circulación durante la última edad del hielo
            C- la circulación durante el episodio Heinrich Stadial 1 (HS1)
            D- la circulación durante el episodio Bølling-Allerød

Estos descubrimientos subrayan el hecho de que el océano es un depósito de carbono grande y dinámico. Esto tiene implicaciones para las propuestas para bombear dióxido de carbono hacia las profundidades del mar como una forma de lucha contra el cambio climático, por ejemplo. Este dióxido de carbono finalmente volverá a subir a la superficie, y cuánto tiempo tardaría en hacerlo depende del estado de la circulación de los océanos, como lo demuestra lo sucedido en la última glaciación.

miércoles, 18 de abril de 2012

Las temperaturas globales del primer trimestre del año


Las temperaturas globales del primer trimestre del 2012 han sido relativamente bajas respecto de las de los últimos años.


Los datos GISS (Godard Institute for Space Studies) dan una anomalía de + 0,41 ºC con respecto a la media del período 1951-1980, lo que representa 0,15 ºC menos que el promedio de los primeros trimestres del período 2000-2011. Estos datos están basados en observatorios terrestres.


Los datos UAH (University of Alabama in Huntsville) dan una anomalía de -0,03 ºC con respecto a la media del período 1981-2010, lo que representa 0,17 ºC menos que el promedio de los primeros trimestres del período 2000-2011. Se trata de datos tomados por satélite.

Ambas medidas son coherentes entre si.

Datos GISS
Datos UHS

martes, 17 de abril de 2012

¿Se hunde el barco del CO2 europeo?


Pocos temas tienden a generar tanto debate en Europa como el régimen europeo de Comercio de Emisiones (ETS – Emissions Trading Scheme). No es de extrañar, ya que el ETS es la piedra angular de la ambiciosa política climática de Europa. También es único en el mundo. Cuenta tanto con fervientes seguidores como con detractores que tienen el mismo fervor.

Incluso los partidarios del proyecto, sin embargo, coinciden en que en este momento el ETS no está funcionando del todo bien. Los precios de los derechos de emisión de CO2, que forman el corazón del sistema, son demasiado bajos para impulsar la inversión en tecnologías bajas en carbono. Si no se hace nada, el ETS podría colapsarse por completo, y con él, el buque insignia de los instrumentos europeos de la política climática.

Como resultado, se ha establecido un feroz debate en Bruselas sobre qué hacer acerca del ETS. Este debate ha abierto profundas divisiones, tanto en la Comisión Europea, como entre los Estados miembros y en el seno de la industria. A resultas de esto, los comisarios del Clima y de la Energía de la Comisión están, al menos aparentemente, en desacuerdo. El Reino Unido ha anunciado que va a introducir un límite inferior del precio del carbono emitido, mientras que Polonia desea desmantelar tanto el paquete climático como el energético de la Unión, y las compañías productoras de energía están pidiendo a la Comisión Europea que intervenga e impulse los precios del CO2 tan pronto como sea posible, mientras que la industria intensiva en energía insiste en que no hay que hacer ninguna intervención política.


Aunque parezca extraño, la persona que más habla en los últimos tiempos de la necesidad de solucionar el ETS ha sido comisario europeo de Energía, Günther Oettinger, y no la comisaria del Clima, Connie Hedegaard. En una cena organizada por el Foro Europeo de la Energía en marzo, argumentó que el precio actual de las emisiones de CO2 de 6 € por tonelada es demasiado bajo para cambiar el sistema energético europeo y que hay que hacer algo al respecto. Anunció que en septiembre apoyaría una propuesta de la Comisión a tal efecto, al tiempo que advertía que un precio de los derechos de emisión de más de 20 € por tonelada no sería aceptable para la industria europea en el actual momento económico.

Hay diferentes interpretaciones del repentino entusiasmo de Oettinger por el ETS. Algunos dicen que ha dado instrucciones a su propio gabinete para elaborar una propuesta para llegar a una solución, porque le gustaría solicitar una revisión completa del plan, y no una solución rápida como sería la retirada de una gran cantidad de derechos de emisión, retirada que tiene cada vez más partidarios entre la industria de producción de energía. Una retirada implicaría dejar fuera de circulación una gran cantidad de derechos de emisión que se deberían subastar en el período 2013-20. Por el contrario, una revisión completa requeriría mucho tiempo de procedimientos legales y podría terminar yendo en una dirección completamente diferente, por ejemplo, volver a abrir el debate sobre cómo se asignan los derechos, o sobre la compensación a las industrias intensivas en energía que operan a nivel internacional. Se dice que Oettinger está buscando un nuevo acuerdo que sea mejor para este sector.

Con toda seguridad el ETS será prioritario en la agenda de ministros de Medio Ambiente de la UE cuando se reúnan informalmente la próxima semana en Horsens, Dinamarca, en paralelo con los ministros de Energía. Durante un almuerzo de trabajo, los ministros de Medio Ambiente van a discutir la manera de asegurarse de que el mercado de carbono siga siendo la columna vertebral de la política climática de la UE. Se han programado cinco oradores representando a las empresas para proporcionar ideas: los consejeros delegados de los gigantes energéticos Enel y Eon (en representación de la asociación de las empresas eléctricas de la UE, Eurelectric), de Alstom, en nombre del Grupo de Líderes Empresariales sobre el Cambio Climático, de Shell, del Deutsche Bank y de BusinessEurope. Todos, excepto el último, argumentarán a favor de una retirada de buena parte de los derechos de emisión. En una carta a los diputados a principios de este año, BusinessEurope les pidió que rechazaran esta retirada para promover un debate más amplio sobre el marco de la política general del clima y el futuro a largo plazo del ETS.

La batalla por el futuro del régimen del comercio de emisiones de la UE (ETS) es en realidad una batalla por el futuro de la política climática de la UE. Rara vez los responsables políticos y las empresas ha estado tan profundamente divididos. Tal vez el único punto sobre el que la mayoría de las partes interesadas pueden ponerse de acuerdo es en que hay un problema que necesita solucionarse. El ETS fue creado para reducir las emisiones de gases de efecto invernadero y establecer un precio de referencia para las inversiones bajas en carbono. Es difícil negar que el objetivo principal del régimen de Comercio de Emisiones no se está cumpliendo, objetivo que establece un límite de las emisiones de los sectores energético e industrial en constante disminución que se debería traducir en el año 2020 en una reducción del 21% por debajo de los niveles de 2005. Por cada tonelada de carbono emitido por encima de su límite individual, una empresa debe comprar un derecho de emisión equivalente en el mercado, lo que debería representar una reducción de emisión de una tonelada de carbono en algún otro lugar.

Pero cuando se creó el plan, se pensó que al ir bajando las emisiones aumentarían los precios del carbono emitido por encima del límite fijado a cada empresa, lo que impulsaría las inversiones en procesos bajos en emisiones de CO2. Los políticos de la UE previeron un precio del carbono seis veces mayor de lo que es hoy, cerca de 40 € por tonelada en lugar de los 6 € actuales. Un precio de 6 € por tonelada no es ningún incentivo para invertir en procesos bajos en emisiones de CO2. Las compañías eléctricas también piensan que el precio está muy por debajo de las expectativas y que no proporciona el incentivo adecuado para que las compañías eléctricas hagan las inversiones necesarias para alcanzar los objetivos climáticos. Pero el problema es todavía más grave, ya que el precio ha bajado porque los legisladores han dado enormes subsidios en la forma de derechos de emisión gratuitos.

Cada vez son más los que piensan que el precio de los derechos de emisión es demasiado bajo debido a un exceso de oferta. Esto se atribuye a varios factores. Los últimos estudios académicos sugieren que antes de la recesión ha habido algunos esfuerzos para reducir las emisiones, principalmente la sustitución del carbón por el gas. Sin embargo, las dos principales razones de la sobreoferta son: la recesión (que hizo caer la producción de emisiones) y la superposición del ETS con otras políticas de descarbonización, en particular la directiva de energía renovable de la UE.

No hay duda de que los renovables son necesarias para la descarbonización, pero hay un debate sobre cómo deben estimularse las inversiones en energías renovables: a través del ETS (Eurelectric lo ha venido sosteniendo durante mucho tiempo para poner fin a un tratamiento especial para las energías renovables) o a través de subvenciones a las energías renovables. En realidad, cada nueva instalación de energía renovable reduce la demanda de derechos de admisión y, por tanto, su precio, pero no reduce forzosamente las emisiones de CO2, ya que hay demasiados derechos de emisión. La existencia del objetivo de llegar a un 20 % de energía renovable a la vez que la permanencia del régimen de Comercio de Emisiones ha dado lugar a un aumento de las instalaciones de renovables sin reducir el consumo de combustibles fósiles.

Se calcula que habría de retirar 1.600 millones de permisos de emisión de aquí al 2020 para alcanzar los objetivos de reducción de emisiones de la UE.

Veremos lo que se decide en las próximas reuniones de los ministros de Energía y de Medio Ambiente, pero nada induce a pensar que el problema se vaya a solucionar en el corto plazo. Las diferencias de criterio son demasiado importantes.

European Energy Review

lunes, 16 de abril de 2012

El desequilibrio energético del planeta


Un nuevo estudio de la NASA, Earth's energy imbalance and implications, publicado el pasado diciembre, pone de relieve el hecho de que los gases de efecto invernadero generados por la actividad humana son la fuerza principal que impulsa el calentamiento global, y no los cambios en la actividad solar.

El estudio ofrece un cálculo actualizado del desequilibrio energético de la Tierra, es decir, la diferencia entre la cantidad de energía solar absorbida por la superficie de la Tierra y la cantidad devuelta al espacio en forma de calor. Los cálculos de los autores muestran que, a pesar de la inusualmente baja actividad solar entre 2005 y 2010, el planeta siguió absorbiendo más energía que la que devolvió al espacio.

La radiación solar total que llega a la parte superior de cada metro cuadrado de la atmósfera de la Tierra, por lo general disminuye aproximadamente 0,1 % durante los mínimos cíclicos de la actividad solar, causados por los cambios en el campo magnético del sol. Por lo general, los mínimos solares ocurren aproximadamente cada once años y duran alrededor de un año, pero el mínimo más reciente persistió durante dos años más de lo normal, por lo que es el mínimo más largo registrado durante la era de los satélites.

La cuantificación precisa de la magnitud del desequilibrio energético de la Tierra es fundamental para la ciencia del clima, ya que ofrece una medida directa de su estado. Los cálculos del desequilibrio energético también sirven como base para las proyecciones del cambio climático en el futuro. Si el desequilibrio es positivo (entra más energía entra en el sistema que la que sale) la Tierra se calienta. Si el desequilibrio es negativo, el planeta se enfría.

Este gráfico de la radiación solar muestra que en los últimos años la radiación cayó hasta los niveles más bajos registrados durante la era de los satélites. La reducción resultante en la cantidad de energía solar disponible que afecta el clima de la Tierra ha sido de unos 0,25 vatios por metro cuadrado, menos de la mitad del desequilibrio energético total de la Tierra.

Los autores han llegado a la conclusión de que la Tierra ha absorbido algo más de 0,5 vatios por metro cuadrado de energía solar que la que volvió al espacio durante todo el período de los seis años del estudio. El valor calculado del desequilibrio (0,58 ± 0,15 vatios por metro cuadrado de energía en exceso) equivale a más del doble de la reducción en la cantidad de energía solar suministrada al planeta entre la actividad solar máxima y mínima (0,25 vatios por metro cuadrado).

Estimación de las contribuciones al desequilibrio energético del planeta durante el período 2005-2010

El hecho de que veamos un desequilibrio positivo a pesar de un mínimo solar prolongado no es una sorpresa, teniendo en cuenta lo que ya se sabe sobre el sistema climático, pero vale la pena destacarlo, ya que ofrece una prueba inequívoca de que el sol no es el factor dominante del calentamiento global, resaltan los autores.

De acuerdo con los cálculos realizados por los autores del estudio, los 0,58 vatios por metro cuadrado de desequilibrio implican que los niveles de dióxido de carbono deberían reducirse a aproximadamente 350 partes por millón para restaurar el equilibrio energético. Las últimas mediciones de los niveles de dióxido de carbono son en la actualidad 392 ppm y se espera que la concentración siga aumentando en el futuro.


Forzamientos climáticos desde 1880 utilizados en el estudio citado. Los forzamientos de los gases de efecto invernadero incluyen el ozono y el agua de la troposfera, además de los gases de efecto invernadero clásicos. Los datos pueden descargarse aquí.

Los científicos del clima han ido afinando los cálculos de desequilibrio energético de la Tierra desde hace muchos años, pero esta nueva estimación es una mejora con respecto a los intentos anteriores debido a que los científicos han tenido acceso a mediciones de la temperatura del océano que son mejores que las disponibles en el pasado. Estas mejoras de las medidas del océano se deben a instrumentos de flotación libre que controlan directamente la temperatura, la presión y la salinidad de la capa superior del océano hasta una profundidad de 2.000 metros. Esta red de instrumentos, conocidos colectivamente como Argo, ha crecido espectacularmente en los últimos años desde que se comenzó su implementación hace una década. Hoy en día, más de 3.400 flotadores Argo toman medidas y proporcionan información al público, en su mayoría dentro de las 24 horas siguientes.

El análisis de la información recogida por Argo, junto con otros datos, tanto terrestres como por satélite, muestra la capa superior del océano ha absorbido el 71 por ciento del exceso de energía, y que los océano del hemisferio sur, donde hay pocos instrumentos Argo, ha absorbido el 12 por ciento. La zona abisal del océano, entre unos 3.000 y 6.000 metros de profundidad, absorbe el cinco por ciento, mientras que el hielo absorbe el ocho por ciento de la tierra y el cuatro por ciento.

El cálculo actualizado del balance energético tiene implicaciones importantes para la modelización del clima. Su valor, que es ligeramente inferior a las estimaciones anteriores, sugiere que la mayoría de los modelos climáticos sobreestiman la facilidad con que el calor se mezcla en el océano profundo y subestiman significativamente el efecto de enfriamiento de las pequeñas partículas en suspensión en el aire, llamadas aerosoles, que junto con los gases de efecto invernadero y la radiación solar son factores críticos en los cálculos del desequilibrio energético.

Como los modelos predicen bastante bien los cambios en la temperatura global, si sobreestiman la mezcla de calor en el océano profundo, se deduce que subestiman el efecto refrigerante de los aerosoles, dicen los autores del estudio.

Se cree que los aerosoles (que pueden calentar o enfriar el ambiente en función de su composición y de la forma en que interactúan con las nubes) tienen un efecto neto de enfriamiento. Sin embargo, las estimaciones de su impacto global sobre el clima son bastante inciertas, dado lo difícil que es medir la distribución de las partículas a gran escala. El nuevo estudio sugiere que el efecto de enfriamiento de los aerosoles en general puede ser aproximadamente el doble de lo que sugieren los actuales modelos climáticos, en gran parte porque pocos modelos consideran la manera como las partículas afectan a las nubes. El efecto de los aerosoles estimado en el estudio citado es de -1,6 ± 0,3 vatios por metro cuadrado.

Desgraciadamente, los aerosoles siguen midiéndose de manera deficiente desde el espacio, debido a que el proyecto Gloria, una misión que llevaba un satélite diseñado para medir los aerosoles con un detalle sin precedentes, se perdió a principios de 2011, debido a un error en el lanzamiento. Hace falta tener una comprensión mucho mejor de la distribución global de las propiedades de los aerosoles para perfeccionar los cálculos del desequilibrio energético de la Tierra.

miércoles, 11 de abril de 2012

Perspectivas de la acidificación de los océanos


En un número especial de Oceanography, publicado en diciembre de 2009, Pieter Tans, de la NOAA, presenta un estudio interesante sobre el estado del pH de los océanos del mundo y su evolución prevista hasta el año 2.500, titulado An accounting of the observed increase in oceanic and atmospheric CO2 and an outlook for the future.

Recordaremos que el informe IPCC predice una concentración de CO2 a finales de siglo de entre 550 y 870 ppm, según el escenario de emisiones, y una disminución del pH de los océanos de entre 1,5 y 3,5 unidades de pH. Como consecuencia, se reducirán las tasas de crecimiento del esqueleto de los organismos que secretan calcio, lo que conduce a IPCC a decir que si las emisiones antropogénicas de CO2 no se reducen drásticamente en las próximas décadas, hay muchas posibilidades de que se produzcan impactos directos y profundos en nuestros ecosistemas marinos vivos.

Concentración de CO2 y evolución del pH de los océanos según el informe IPCC 2007

Recordemos las emisiones de los diferentes escenarios del IPCC, que podemos ver en la figura siguiente. En el caso del escenario A2, las emisiones anuales de CO2 pasan de 8 Gt de carbono en 1990 a casi 30 GtC en el año 2100. En este escenario, la concentración de CO2 en la atmósfera pasaría a ser de 820 ppm y el pH de los océanos disminuiría hasta 7,8.

Emisiones de carbono en los diferentes escenarios del IPCC

El estudio citado, en cambio, comienza su análisis señalando que el efecto del CO2 sobre el clima y sobre su propia concentración en la atmósfera, depende principalmente de la cantidad total emitida, no de la tasa de emisiones, y afirma que, por desgracia, los informes del IPCC no han ayudado a la comprensión pública de este hecho mediante la elección, un tanto arbitrariamente, de un horizonte de tiempo más bien corto (100 años es el más comúnmente utilizado) para el forzamiento climático debido al CO2. Así, en lugar de adoptar el punto de vista económico normal (business-as-usual), que, a través del crecimiento perpetuo, asume implícitamente que la tierra dispone de infinitos recursos, el autor del estudio toma otro camino, señalando que la extracción acumulada de carbono de combustibles fósiles hasta hoy ha sido de unas 345 GtC, y, como parece que hay más o menos 640 GtC de reservas probadas, la reserva original total era de unas 1.000 GtC, y a partir de esta cifra procede a sus análisis. Toma como bases un escenario en que la reserva original era de 1.000 GtC y un segundo escenario en que esta reserva era de 1.500 GtC.

La siguiente figura muestra la historia anterior y futura de la utilización de carbono de combustibles fósiles, junto con las concentraciones atmosféricas de CO2 históricas y las proyectadas hasta el año 2500, según sus cálculos. Como puede verse, su análisis indica que los picos de concentración de CO2 se producirán mucho antes de 2100 y serán entre 500 y 600 ppm, en comparación con los 800 ppm del IPCC. Además, al llegar al año 2500, la concentración de CO2 en la atmósfera cae de nuevo hasta cerca de la que tenemos hoy.

Dos escenarios de previsiones de utilización pasada y futura de combustibles fósiles y de la concentración de CO2

Basándose en sus proyecciones más modestas de las futuras concentraciones de CO2 atmosférico, el autor del artículo también encuentra que la disminución del pH de las aguas oceánicas proyectada en el año 2100 (en comparación con la época preindustrial) es de 0,2 a 0,3, a comparar con el valor de 0,3 unidades de pH calculado por el IPCC para el escenario A2, con una recuperación a una reducción de algo más de 0,1 unidades de pH para 2500. Este valor es menor que el rango de valores de pH que son típicos de los océanos de hoy en día (pH = 8,231 en el Océano Ártico a comparar con pH = 8,068 en el Océano Indico Norte, lo que nos da un rango de 0,163).

Cambios en el pH y en el forzamiento debido al CO2 en los dos escenarios de la figura anterior

Es decir que debido al agotamiento de los recursos fósiles, las cosas podrían ser menos malas de lo que predicen los alarmistas del clima, tanto respecto a la concentración de CO2 atmosférico como a la disminución del pH oceánico.

lunes, 9 de abril de 2012

Los ciclos climáticos como causa de guerras


La llegada de El Niño, que cada tres a siete años aumenta las temperaturas y disminuye las precipitaciones, duplica el riesgo de guerras civiles en 90 países tropicales afectados, y puede ayudar a explicar una quinta parte de los conflictos en todo el mundo durante el último medio siglo, dicen los autores. Esto dice el trabajo Civil conflicts are associated with the global climate, publicado en el año 2011. En el primer estudio de este tipo, los investigadores han relacionado el ciclo natural del clima mundial con los incrementos periódicos en las guerras.

En los últimos años, historiadores y climatólogos han hallado pruebas de que las sociedades del pasado sufrieron y llegaron a desaparecer en relación con el calor o la sequía que dañaron la agricultura y sacudieron los gobiernos. La idea que el medio ambiente alimenta la violencia ha cobrado fuerza en la última década, con los libros de autores populares como Jared Diamond, Brian Fagan y Mike Davis. Estudios académicos han elaborado los vínculos entre las sequías y colapsos sociales, como, por ejemplo, el final del Imperio Acadio en el Golfo Pérsico (primera superpotencia del mundo), hace 6.000 años, la caída de la civilización Maya de México entre 800 y 900, los largos ciclos de guerras dinásticas en China, que duraron siglos, y las insurrecciones recientes en el África subsahariana. El año pasado, especialistas en el estudio de los anillos de los árboles publicaron un atlas de 1.000 años de El Niño relacionados con sequías. Los datos de estas sequías coinciden con la caída de la civilización de Angkor de Camboya en torno al año 1400, y la posterior disolución de dinastías en China, Vietnam, Myanmar y Tailandia.

El ciclo conocido como El Niño-Oscilación del Sur, o ENSO, es un ciclo de calentamiento y de enfriamiento periódico del Océano Pacífico tropical que afecta a los patrones del clima de gran parte de África, el Medio Oriente, la India, el sudeste de Asia, Australia y las Américas, donde vive la mitad de la población mundial. Durante la fase fría o La Niña, la lluvia puede ser relativamente abundante en las zonas tropicales. Durante la fase más cálida o El Niño, aumenta la temperatura terrestre y disminuyen las precipitaciones en la mayoría de los lugares afectados. Con la interacción con otros factores tales como el viento y los ciclos de temperatura en los demás océanos, El Niño puede variar enormemente tanto su fuerza como su duración. En su forma más intensa, aporta un calor abrasador y unas sequías que pueden llegar a durar varios años. En latitudes más altas, los efectos se debilitan, desaparecen o se invierten. Las condiciones de La Niña a principios del año 2011 provocaron sequías en el suroeste de EE.UU. y en partes del África oriental.

Los autores del estudio citado rastrearon el ENSO de 1950 a 2004 y lo correlacionaron con inicios de conflictos civiles en los que murieron más de 25 personas en un año determinado. Los datos incluyen 175 países y 234 conflictos, más de la mitad de los cuales causaron cada uno más de 1.000 muertes en el campo de batalla. Para los países cuyo clima está controlado por el fenómeno, se encontraron con que durante La Niña, la posibilidad de iniciar una guerra civil fue un 3 por ciento, mientras que durante El Niño, la probabilidad se duplicó, hasta el 6 por ciento, como se ve en la figura. Los países no afectados por el ciclo se mantuvieron en un 2 por ciento tanto con el Niño como con la Niña. En general, el equipo calculó que El Niño puede haber jugado un papel en un 21 por ciento de las guerras civiles en todo el mundo y en casi el 30 por ciento en los países afectados por El Niño.

En marrón, porcentaje de Riesgo de Conflictos Anuales (ACR) de los países influenciados por el ENSO en función del valor del índice El Niño de mayo a diciembre: con La Niña, ACR = 3 %, con El Niño, ACR = 6 %.
En azul, el mismo porcentaje para los países no influenciados por el Niño, en los que ACR permanece constante a un 2 %.
Las zonas sombreadas representan los intervalos de confianza del 90 %.
El Niño = valores positivos, La Niña = valores negativos

El mal tiempo parece inclinar a los países más pobres hacia el caos con más facilidad. La rica Australia, por ejemplo, está influenciada por el ENSO, pero nunca ha padecido una guerra civil.

En 1982, un poderoso fenómeno de El Niño golpeó la empobrecida sierra del Perú, destruyendo las cosechas. Ese año, los ataques guerrilleros por parte del movimiento revolucionario Sendero Luminoso se convirtieron en una guerra civil a gran escala de más 20 años, que aún chisporrotea en la actualidad.

Las fuerzas del sur de Sudán ya estaban frente a frente con el norte dominante, cuando una intensa guerra estalló en el mismo año de El Niño de 1963. La insurrección fue disminuyendo, pero apareció de nuevo en 1976, otro año de El Niño. Después, en 1983 hubo un gran fenómeno de El Niño y un brote catastrófico de más de 20 años de lucha en el que murieron 2 millones de personas, podría decirse que ha sido el conflicto más sangriento del mundo desde la Segunda Guerra Mundial. Este conflicto acabó en verano del 2011, cuando el sur de Sudán se convirtió en una nación independiente, pero continúan los combates en las zonas fronterizas.

Algunos otros países en los que los conflictos han tendido a estallar durante El Niño incluyen El Salvador, Filipinas y Uganda (1972), Angola, Haití y Myanmar (1991), y el Congo, Eritrea, Indonesia y Ruanda (1997).

Los autores dicen que no pretenden explicar por qué el clima alimenta el conflicto. Pero si un país tiene desigualdad social, la gente es pobre, y hay tensiones subyacentes, parece posible que el clima puede dar el empuje definitivo. Cuando las cosechas son malas, la gente puede decidir empuñar un arma simplemente para ganarse la vida.

martes, 3 de abril de 2012

La verdadera huella del calentamiento global


Las temperaturas globales de los últimos años no aumentan como hicieron en los años anteriores. Un interesante artículo publicado en diciembre 2011, Global temperature evolution 1979–2010, analiza cinco series de medidas de la temperatura global, tres de medidas terrestres (NASA/GISS, NOAA/NCDC y Had CRU) y dos de medidas basadas en sensores de microondas montados en satélites, que miden la temperatura de la baja troposfera (RSS y UAH). Las cinco series son coherentes, y muestran un aumento global de 0,14 a 0,18 ºC/década.


Cuando estos datos se ajustan teniendo en cuenta el impacto estimado de factores conocidos que influyen en las variaciones de temperatura a corto plazo (la oscilación El Niño - MEI, los aerosoles volcánicos - AOD y la variabilidad solar - TSI) desaparece este “parón” del aumento de las temperaturas globales que observamos desde el año 2001. Los años más cálidos corresponden, después de esta corrección, y en las cinco series estudiadas, a los años 2009 y 2010. La temperatura de la baja troposfera responde más a la oscilación del Niño y a los aerosoles volcánicos que las temperaturas medidas en superficie.


Ritmo del calentamiento global (ºC/década) y desfase en meses de la influencia de cada factor. Las cifras entre paréntesis indican los errores standard de las dos últimas cifras.

Según los autores, este análisis confirma la fuerte influencia de estos factores sobre variaciones a corto plazo en la temperatura global. También hacen hincapié en que la temperatura del la baja troposfera se ve afectada por estos factores mucho más fuertemente que la temperatura superficial.

Influencia de los tres factores en la temperatura para las series GISS (azul) y RSS (rojo)

Influencia de cada factor sobre la tendencia decenal de cada serie de medidas

Series ajustadas

Tal vez lo más importante sea que los datos ajustados resultantes muestran claramente que el ritmo del calentamiento global debido a otros factores (lo más probable es que estos sean exclusivamente antropogénicos) ha sido notablemente estable durante los 32 años a partir del año 1979 hasta el año 2010. No se observa ningún tipo de ralentización o aceleración del calentamiento global, más allá de la variabilidad inducida por estos tres factores naturales estudiados. Debido a que los efectos de las erupciones volcánicas y de la oscilación el Niño son a muy corto plazo, y que la variabilidad solar es muy pequeña, no se puede esperar que ninguno de estos factores ejerza una influencia significativa sobre la continuación del calentamiento global en las próximas décadas. La concordancia entre los cinco conjuntos de datos ajustados sugiere que es significativo promediarlos con el fin de establecer un registro del calentamiento del planeta, como se muestra en la figura siguiente. Según los autores, esta sería la verdadera huella del calentamiento global.



Nota: se pueden ver aquí los gráficos, brutos y ajustados, que incluyen el año 2011.

lunes, 2 de abril de 2012

Las ventajas del gas para la economía europea


Algunos pueden argumentar que Europa no debe alentar a los suministros adicionales de gas, ya que podría alterar el impulso a la descarbonización, que es parte de la política de la UE sobre el cambio climático. Este argumento tiene una fuerza considerable. Sin embargo, pasa por alto la difícil situación actual europea que, con una austeridad cada vez mayor de los presupuestos de todos los Estados Miembros, hace que la capacidad fiscal de los estados para financiar otras fuentes de energía renovables sea muy limitada.

Es razonable, por consiguiente, que los gobiernos consideren el uso del gas como una alternativa. El argumento es considerar la sustitución del carbón por gas para la producción de energía como un medio para obtener disminuciones baratas de emisión de CO2 durante la crisis económica actual.

Hay en cuenta que el consumo de lignito en la UE fue, en 2010, de unas 380 millones de toneladas anuales, la de hulla y antracita locales de unos 135 millones y la de hulla y antracita de importación de unos 190 millones. En España, después del agotamiento de las minas de lignito, el consumo fue de 8,4 millones de toneladas de hulla y antracita de producción nacional y de 12,8 millones de hulla y antracita importadas.

En un informe de McKinsey para el Foro de Defensa de Gas (un lobby de la industria europea del gas), publicado el año 2011, se destacan las ventajas de la adopción de una estrategia para pasar de carbón a gas. A pesar de tratarse de un informe para apoyar a un lobby, el resultado del análisis es bastante convincente.

En el informe "Making the Green Journey Work", McKinsey señala el considerable ahorro en costo de capital, así como las ventajas del uso de gas para reducir las emisiones de CO2. Si, por ejemplo el factor de carga promedio de las centrales de ciclo combinado de turbinas de gas existentes en Europa, se incrementara del 45% al 65 o al 70%, sustituyendo a una cantidad equivalente de carbón para la generación de energía eléctrica, la disminución de las emisiones de CO2 en la región sería de 300 millones de toneladas anuales. Esta cantidad representa un tercio del total de las emisiones de las centrales eléctricas que queman carbón y lignito en la UE.

Con el fin de obtener el mismo nivel de disminución de las emisiones de CO2 con energías renovables, se requieren gastos de capital de entre 80 y 120.000 millones de euros. En otras palabras, si se utiliza gas en vez de carbón, la UE puede reducir de un tercio de sus emisiones, sin coste de capital, mientras que si, para obtener el mismo resultado, se despliegan energías renovables, hay que invertir por lo menos 80 mil millones de euros.

Teniendo en cuenta que las centrales de gas son también muy adecuadas como respaldo para la energía eólica y solar, tenemos un argumento convincente de porque la UE debería fomentar el consumo de gas como sustituto del carbón. Una vez que la recesión haya terminado se podrá invertir más en energías renovables.

Otro factor a considerar es la competitividad. La discusión sobre el gas de esquisto en Europa se ha centrado principalmente en la seguridad medioambiental de la explotación. En cambio, de ha hablado poco del impacto económico del gas de esquisto en Estados Unidos. Si bien es cierto que las cuestiones ambientales tienen que ser debidamente tenidas en cuenta, no puede ignorarse el impacto económico.

La producción de gas de esquisto no es sólo muy importante en los Estados Unidos, donde representó el 30% de la producción de gas en 2011, frente a 1% en 2001, sino que también se traduce en precios mucho más bajos. La producción de gas de esquisto ha hecho disminuir los precios de gas en los Estados Unidos hasta por debajo de 3 dólares por MMBtu (1 MMBtu = 1 millón de British Thermal Units ~ 28,3 m3 de gas natural) mientras que en Europa se está pagando a más del triple, a unos 10 dólares. Estos precios mucho más bajos y sostenidos están teniendo un impacto económico multiplicador en la economía americana. La explotación y utilización del gas de esquisto está haciendo revivir la industria manufacturera americana, lo que mejora la competitividad de la industria de los Estados Unidos.

Hipótesis de la evolución de precios del petróleo, carbón, gas y derechos de emisión de CO2. Hasta 2030 se han tomado los indicados en IEA WEO 2009. A partir de esta fecha se ha considerado que los precios no varían en términos reales. Para el gas se consideran dos hipótesis: la evolución prevista si se sigue como ahora, y la de un precio menor si se aumenta el consumo, se diversifican las procedencias y se explota el gas de esquisto local.

En particular, en la industria química, donde el gas se utiliza tanto como materia prima como combustible, los precios bajos del gas están dando a los Estados Unidos una ventaja competitiva sustancial. De hecho, hemos de preguntarnos si empresas químicas europeas como BASF y AKZO podrán sobrevivir con el actual precio del gas y del petróleo en Europa.

Para empeorar las cosas, en el resto del mundo donde haya importantes recursos de gas de esquisto, los países van a copiar a los Estados Unidos, con China en primer lugar. Europa se enfrenta a una pérdida significativa, tanto de su ventaja competitiva como de una posible desindustrialización, frente a algunos de sus principales socios comerciales. La competitividad es por lo tanto, un argumento de peso para el desarrollo de una estrategia de producción de un gas barato.

De manera que, tanto por razones económicas como por razones ambientales, tiene sentido que la UE impulse políticas para alcanzar un mercado de gas más importante, diversificando el mercado, aumentando la competencia entre proveedores e impulsando la producción propia de gas de esquisto. El envite es importante, y merece la pena que haya una discusión abierta y pública para lograr el mayor consenso posible.