Páginas vistas en total

miércoles, 30 de mayo de 2018

Asesinos de ballenas

Ballena franca boreal (Balaena mysticetus). Foto.
El difunto Sir Peter Scott, uno de los conservacionistas más famosos del mundo, dijo una vez: «Mucha gente considera a las ballenas como un símbolo. Si no podemos salvar a las ballenas, comenzaremos a preguntarnos si podremos salvar alguna cosa, incluidos nosotros mismos». A fines de la década de 1980, cuando estaba claro que las poblaciones de ballenas de todo el mundo estaban disminuyendo aceleradamente como resultado de la caza despiadada durante siglos, Scott estuvo totalmente involucrado en el movimiento que llevó a la Comisión Ballenera Internacional a dictar una moratoria global de la caza comercial de ballenas.
Durante siglos, las ballenas fueron objeto de cacerías indiscriminadas para extraer de ellas diversas sustancias. Entre ellas la grasa, de la que se extrae un aceite que tuvo gran valor económico por su uso múltiple en jabonería, curtido de cueros, fabricación de pinturas, lubricantes de precisión para microscopía y relojería, margarinas, etc. Las barbas, que se comercializaban bajo el nombre de "ballenas", servían para dar rigidez a prendas de vestir (como lo corsés), para fabricar fustas, calzadores o paraguas. Los cachalotes, que no son verdaderas ballenas, proporcionaban otra materia prima: el "ámbar gris", empleado como fijador de perfumes, o el "esperma de ballena" (que ni es esperma ni es de ballena), sustancia oleosa usada para fabricar velas que se extrae de los cachalotes. El aumento del nivel de vida, de la población y la necesidad de iluminación urbana en hogares y ciudades generó una industria floreciente de balleneros por todo el mundo que aprovechaban la grasa de la ballena como combustible para farolas, quinqués y velas.
El declive en el uso de aceite de ballena comenzó con el desarrollo del queroseno a partir del carbón en 1846 que llevó al reemplazo de los aceites de ballenas en la mayoría de aplicaciones no alimentarias. En 1851 se descubrió petróleo en Pennsylvania; su producción masiva hizo que casi inmediatamente sustituyera al aceite de ballena como combustible de iluminación, porque debido a la sobreexplotación de las poblaciones de cetáceos, la escasez de oferta frente a la fuerte demanda había hecho que se dispararan los precios de los productos derivados de ballenas y cachalotes. El petróleo salvó la vida de centenares de miles de ballenas.
Los historiadores coinciden en que fueron los vascos quienes por el año 1050 fundaron la industria ballenera. Hasta la aparición del cañón arponero, diseñado en 1864, la caza se hacía con arpones manuales, razón por la cual las más buscadas eran las ballenas francas, unos animales muy lentos y que eran los únicos cetáceos que cuando morían se mantenían a flote y podían ser remolcados con relativa facilidad hasta puerto. Además, eran muy codiciadas por su gran rendimiento de aceite y por sus largas barbas. Todas estas razones le valieron el nombre de "Right Whale", que significa "Ballena franca o correcta" (correcta para ser cazada). Según Du Pasquier, en sólo veinte años, entre 1820 y 1840, fueron cazadas más de 76.330 ballenas francas en el Hemisferio Sur. En la actualidad, la población mundial no parece superar los 6.000 individuos.
Ballena minske antártica. Foto
A partir de 1864 se inicia la etapa moderna de la captura de ballenas, porque el recién inventado cañón, que lanzaba arpones explosivos desde la proa de una pequeña y rápida embarcación hizo posible la captura de ballenas más veloces, al tiempo que la inyección de aire en el cuerpo del animal muerto permitió cazar todo tipo de especies. Algunas ballenas fueron cazadas tan intensamente que algunas especies (como la ballena azul, la yubarta o la ballena franca) estuvieron a punto de extinguirse. Como ejemplo bastan algunas cifras. Hacia 1930, existía una población estimada de 300.000 ballenas azules y hoy sólo quedan entre 8.000 o 9.000. En 1940 se contaban unas 40.000 yubartas y hoy existen menos de 10.000.
En 1921 se creó en Noruega una Oficina de Estadísticas Balleneras Internacionales con la intención de registrar las capturas. Entre 1930 y 1937 existían 47 barcos factorías con más de 200 embarcaciones auxiliares que capturaron 38.000 ballenas. Durante las Conferencias Internacionales de 1937-1938 y de 1944-45 se anunció por primera vez la necesidad de proteger a los individuos jóvenes e inmaduros. Se determinó que las ballenas francas eran las que mayor protección necesitaban, se consideró que la yubarta estaba en riesgo de extinción total, y se decidió que había que limitar las actividades de los buques factorías.
El proceso legal internacional para la protección de los grandes cetáceos comenzó en 1946, cuando entró en vigor la Convención Internacional para la Regulación de la Caza de Ballenas (ICRW), un tratado destinado a «proporcionar una adecuada conservación de las poblaciones de ballenas y hacer así posible el desarrollo controlado de la industria ballenera». Esta convención alentó la creación de la Comisión Ballenera Internacional (CBI). La Convención fue firmada por 15 países el 2 de diciembre de 1946 en Washington y entró en vigor el 10 de diciembre de 1948.
Un ballenero japonés carga dos ballenas minske, una madre y su ballenato. Foto
Hay que tener en cuenta que como la CBI está formada desde su inicio por los estados que se dedican a la caza, su objetivo no fue proteger de la extinción a las ballenas, sino lograr un acuerdo a fin de no hundir por sobreexplotación a la propia industria. Aunque la CBI debía conseguir la máxima utilización sostenible de las poblaciones de ballenas, la industria ballenera mostró su incapacidad para regular su propia actividad y no pudo impedir que continuara la depredación. El número total de ballenas capturadas entre 1959 y 1964 fue de 403.490 y el de cachalotes, durante el mismo período, de 228.328. En 1960 y 1974 hubo sendos picos de caza, con más de 40.000 especies de ballena y 29.000 de cachalotes cada año. En 1980 ecologistas y balleneros coincidieron en que había que detener la matanza de los grandes cetáceos, pero por motivos opuestos. Los ecologistas querían prohibir la caza definitivamente mientras que los balleneros querían imponer una moratoria por un tiempo, el necesario para la recuperación de las poblaciones.
En 1982 la ICRW acordó una moratoria sobre la caza comercial de ballenas, que no entraría en vigor hasta 1986. Pero hecha la ley, hecha la trampa: algunos países (Japón, Noruega, Corea del Sur e Islandia) siguieron la matanza. Japón lo hizo amparándose en el Artículo VIII de la Convención, que permite la caza de ballenas con fines científicos. Es decir, trataron de enmascarar su despiadada matanza disfrazándola de ciencia. Dijeron que las flotas balleneras estaban llevando a cabo "investigaciones", sin importarles ni que, una vez cazadas, la carne acabara en los mercados, ni que la comunidad científica internacional no encontrara ningún atisbo de ciencia en lo que hacían los balleneros nipones. Desde entonces se calcula que 14.000 cetáceos desaparecieron de las aguas que solían frecuentar. También existe otra cuota autorizada denominada de "subsistencia", otorgada a pueblos como los esquimales o los del norte de Siberia, que se alimentan con la carne de ballenas y que por su técnica de caza no representan una amenaza.
Factoría ballenera en las Georgias, sobre 1920. Foto
Desde la promulgación de la moratoria, la pregunta fue qué hacer cuando algunos países simplemente no cumplen con una decisión colectiva acordada por las partes en una convención internacional. ¿Qué hacer cuando un país continúa matando a cientos de ballenas cada año e incluso lo hace en el Santuario del Océano Austral que fue específicamente diseñado para proteger a esos animales? Australia dio el primer paso.
El 31 de mayo de 2010 Australia inició un caso legal en la Corte Internacional de Justicia (CIJ) contra el programa de "caza científica de ballenas" que Japón llevaba a cabo en la Antártida, en el Santuario Australiano de Ballenas. En 2014 la CIJ dictaminó que el programa antártico de caza de ballenas de Japón era ilegal. Sin embargo, en lugar de cancelar el programa, Japón retiró su reconocimiento de la CIJ como árbitro de las disputas balleneras y reanudó la caza en 2015.
Según un informe que acaba de hacer público la ICRW, balleneros japoneses mataron a 333 ballenas rorcuales minke australes (Balaenoptera bonaerensis) en el océano Antártico el pasado verano. De ellas, 122 eran hembras preñadas y 114 ballenatos. Los animales, pertenecientes a una espcie en peligro de extinción, fueron cazados con arpones-bomba, despiezados in situ, congelados en los buques-factorías y luego enviados a Japón donde los han comercializado. El supuesto estudio científico consistió en tomar datos de la edad, el tamaño y el sexo (para lo que bastaría con un examen visual sin necesidad de captura) y en un examen del contenido estomacal que, esta vez sí, requiere capturar al animal.
Noruegos e islandeses cazan una especie que no corre peligro de extinción y nunca han puesto la pantalla científica para tapar sus cacerías comerciales. Noruega denunció los tratados de la CBI y reanudó la captura de ballenas en 1993. Durante los últimos 20 años, el número de ejemplares capturados por la flota noruega ha ido disminuyendo y ha sido siempre inferior a la cuota autorizada por el Gobierno. El año pasado el Ministerio de Pesca estableció una cuota de 999 ballenas, pero los pescadores solo capturaron en total 438 ejemplares. La flota pesquera de Noruega tendrá en 2018 licencia para capturar hasta 1.278 ballenas, una cuota que supera en un 28% la concedida el año pasado.
Como Islandia, el gobierno de Noruega argumenta derechos históricos y culturales para desvincularse de las decisiones de la CBI, apoyando de forma abierta no solo las capturas de ballenas para consumos locales y artes de pesca tradicionales, sino también para ayudar a su gran flota pesquera. En su defensa, Noruega también argumenta que sus cuotas de capturas se centran en especies de ballenas sobre las que se conocen datos suficientes para asegurar que no se amenaza su supervivencia. Por ejemplo, según datos gubernamentales, en las aguas territoriales de Noruega viven unos 100.000 ejemplares del rorcual aliblanco o ballena Minke común (Balaenoptera acutorostrata). Por lo demás, el sector ballenero sigue perdiendo peso en Noruega, en parte debido a la mayor conciencia social a favor de los cetáceos, pero también por la reducción del mercado internacional. Mientras que en 1950 había en Noruega unos 350 buques balleneros, en 2017 el número había caído hasta once. 
Todo lo contrario sucede con Japón. Según The Sydney Morning Herald, Japón planea capturar 4.000 ballenas más en los próximos 12 años. Además, los japoneses se han ofrecido a comprar la carne de las ballenas capturadas por los noruegos al precio 100 dólares el kilo, lo que da una idea del boyante negocio comercial de los nipones. Un negocio realmente costoso para la biodiversidad del planeta. © Manuel Peinado Lorca. @mpeinadolorca.

martes, 29 de mayo de 2018

¿Qué demonios es el infinito?


El infinito ha desconcertado a la humanidad desde la antigüedad. Hay que ser consciente de que no se trata de un número concreto, sino más bien una idea; algo que existe solo como abstracción. Infinito no puede ser un número concreto, por ejemplo, x, porque podemos, por la lógica de la suma, agregar 1 a x y crear un nuevo infinito. Después podríamos sumar otra unidad y crear un infinito más grande. Incluso podríamos agregar infinito al infinito para crear quizás el infinito de todos los infinitos, pero, hecho eso, podríamos agregar a este infinito otra unidad y ... vuelta a empezar.
El universo microscópico no es diferente. Lo opuesto al infinito se llama infinitesimal, y su carácter es igualmente extraño. A diferencia de los números enteros, los números reales no son rígidos. Su naturaleza fragmentada nos permite encontrar y crear números infinitos entre dos números cualquiera. Un número se puede combinar tantas veces como se pueda dividir. Puede haber un centenar de números entre 0 y 1, desde 0,01 a 0,99, o incluso millones, porque solo hay que agregar ceros después de la coma decimal, es decir, basta dividirlo cada vez más y más para crear números nuevos. Entonces, aunque 0,00000000000000001 parece infinitesimal, uno puede dividirlo por 10 para crear un nuevo infinitesimal: 0,000000000000000001.
Así que, como sucede con el infinito, el infinitesimal existe solo como abstracción, pero su incertidumbre resulta muy desconcertante para matemáticos y físicos. Hablemos de los errores infinitesimales.
El lenguaje matemático subyace en nuestras ideas sobre los fenómenos físicos, por lo que una inconsistencia en Matemáticas se traduce en una inconsistencia en Física, en nuestro conocimiento de la naturaleza, de la realidad. La inconsistencia surge de la incertidumbre del valor de infinitesimal, que se ha utilizado para derivar muchas fórmulas cruciales. De hecho, toda una rama de las matemáticas se basa en lo infinitesimal, sin la cual el progreso en física habría sido extraordinariamente lento.
Figura 1. Página del libro de Kepler Nova stereometria doliorum vinariorum en la que calcula el área de un círculo mediante triángulos. La flecha roja es mía. 
Veamos el caso del área de un círculo. Kepler escribió Nova stereometria doliorum vinariorum (Nueva geometría sólida de los barriles de vino) en 1615. Este libro es un trabajo sistemático sobre el cálculo de áreas y volúmenes usando técnicas infinitesimales. Kepler comienza su libro con el problema de determinar el área de un círculo (Figura 1). Considera el círculo como un polígono regular con un número infinito de lados, y su área formada por triángulos infinitesimales. Básicamente, pues, Kepler calculó el área de un círculo dividiéndolo en triángulos. El área del círculo, por lo tanto, sería la suma de las áreas de cada uno de los triángulos.
Pero observe en la Figura 2 que un círculo se puede dividir en cuatro triángulos mediante dos diámetros, pero los lados de estos triángulos no se ajustan a las curvas exactamente y excluyen algún espacio, por lo que el área calculada es errónea.
Figura 2: Área del círculo descompuesto en triángulos.
Para reducir el error, podemos dibujar más diámetros para crear más triángulos de lados más cortos. Sin embargo, aunque el error se reduce sigue siendo finito. Entonces, dividimos el círculo en más y más triángulos hasta que no quede espacio libre. Sin embargo, para eliminar este error por completo, debemos dividirlo en un número infinito de triángulos. Bien, como una línea puede interpretarse como parte de un círculo enorme, podemos decir que nuestro círculo está compuesto por líneas infinitas, que se aproximan por las bases infinitesimales de nuestros infinitos triángulos.
En su explicación, Kepler escribió que «La circunferencia tiene tantas partes como puntos, cada parte forma la base de un triángulo isósceles con vértice en el centro de la circunferencia. Entonces el círculo está formado por infinitos triángulos pequeños, cada uno con su base en la circunferencia y cuya altura es igual al radio del círculo. Sustituyendo estos triángulos por un único triángulo con la circunferencia como base, el área del círculo se puede expresar en términos de la circunferencia y el radio».
En definitiva, para entendernos, que la secuencia de triángulos recuerda vagamente a un abanico chino. Todos los triángulos ocupan un área igual, pero podemos convertir el abanico en un gran triángulo distribuyendo o estirando esa área. Los perímetros han cambiado, pero el área total sigue siendo la misma. Como el vértice de ese triángulo es el centro del círculo, su altura es la longitud del abanico (es decir, el radio del círculo) y la base la circunferencia del círculo. El área es la base por altura dividida por dos, es decir, ½ veces r por 2πr o πr². (Figuras 3 y 4)
Figura 3. Cálculo del área del círculo.
Esta es, por supuesto, la respuesta correcta, pero el resultado sigue siendo erróneo. Las bases deben ser verdaderamente infinitesimales, de lo que resulta que, aunque Kepler dibuje triángulos verdaderamente estrechos, sabemos que podría haber dibujado más. En el momento en que deje de dibujar triángulos, dejará espacios que, aunque sean realmente muy pequeños, siguen siendo finitos y el cálculo del área del círculo es ligeramente errónea. Si bien esto pueda incomodar a un matemático, la mayoría "ignora" tales diferencias porque, como hemos visto, los resultados obtenidos no son incorrectos.
Figura 4. Zoom del área del borde del círculo.
Como su propio nombre indica, el Cálculo Infinitesimal, inventado o descubierto por Leibniz y Newton independientemente, también se basa en infinitesimales. Esa rama de las matemáticas se ocupa del cambio mediante curvas. Por ejemplo, cuando integramos una función, básicamente calculamos el área bajo la curva que dibuja. Sin embargo, como hacemos al calcular el área de un círculo, básicamente lo calculamos aproximando la curva con rectángulos infinitamente delgados. Cuanto más delgados sean los rectángulos, menor será el error.
La Figura 5 presenta el diagrama del área de la curva. El área de un rectángulo es el producto de su longitud, el valor en el eje Y en ese punto de la curva, por su anchura, la unidad infinitesimal que llamamos 'dx'. Calculamos el área de cada rectángulo y los sumamos para determinar el área bajo la curva (Figura 5). Esto es muy útil en Física. Por ejemplo, el área bajo la curva de velocidad de un cuerpo nos da el valor de su desplazamiento, pero, si es así ¿el resultado no debería ser erróneo, como ocurre con el área del círculo?
Figura 5. Diagrama del área de una curva.
Este problema irresoluble desconcertó a los matemáticos durante los dos siglos que siguieron a la invención del cálculo hasta que se precisó el concepto de límites. Los límites estaban implícitos en el trabajo de Newton y Leibniz, pero fueron modificados y redefinidos más tarde, a principios de 1800. Las nuevas ideas resultaron ser matemáticamente rigurosas y consistentes. Hace más de cuarenta y cinco años que estudié Cálculo Infinitesimal en el curso Selectivo con el que me estrené en la universidad, así que me hago cargo de mi ignorancia, por lo que solo me queda decir que sus detalles están más allá del alcance de este artículo, aunque debo decir que los límites permitieron finalmente a los matemáticos deshacerse de los infinitesimales para siempre.
De lo que todavía no nos hemos librado es de lo absurdo que es el infinito. © Manuel Peinado Lorca. @mpeinadolorca.

lunes, 28 de mayo de 2018

Treinta y uno de mayo: la Batalla de Jutlandia



Fuente
La Batalla de Jutlandia, un gran combate naval que tuvo lugar en el Mar del Norte entre el 31 de mayo y el 1 de junio de 1916, fue la única confrontación directa a gran escala entre las dos flotas más potentes de la Primera Guerra Mundial.

El 31 de mayo de 1916, la Armada Real Británica (ARB) y la Flota de Alta Mar de la Marina Imperial Alemana (FAM) se enfrentaron en el Mar del Norte, en la península de Jutlandia, frente a la costa de Dinamarca, en la mayor batalla naval de la Gran Guerra. El combate, conocido como la Batalla de Jutlandia, en la que participaron más de cien mil hombres y 250 barcos, duró aproximadamente doce horas. Cuando terminó el 1 de junio, el parte de bajas recogía más de 8.000 marineros muertos en ambos bandos.

Antes de la batalla, los británicos habían impuesto su dominio naval en el Mar del Norte y bloqueado Alemania. Dado que la ARB era la más fuerte del mundo, el vicealmirante alemán Reinhard Scheer, comandante en jefe de la FAM, decidió luchar contra la flota británica por partes en el mar del Norte hasta que pudiera reducirla lo suficiente como para derrotar lo que quedara de ella en una gran batalla final.

Para conseguirlo, los alemanes idearon un plan en el que la escuadra de exploración del contraalmirante Franz von Hipper, compuesta por cinco modernos cruceros de guerra, serviría de cebo para atraer a la Flota británica de Cruceros de Guerra al mando del vicealmirante Sir David Beatty hacia el grueso de la flota alemana, con el fin de destruirla. Cuando los barcos de Beatty estuvieran encelados y no pudieran reaccionar, el vicealmirante Scheer aparecería con la FAM y destruiría los cruceros y los barcos de apoyo de Beatty.

Fuente
La inteligencia británica supo que la escuadra de von Hipper se estaba haciendo a la mar. Esto concedió al Almirante Sir John Jellicoe, comandante de la ARB, el tiempo necesario para enviar los buques que todavía no habían zarpado (un total de 151 navíos de combate) a reunirse con los cruceros de guerra de Beatty para que, unidos, se enfrentaran con los alemanes. A pesar de la eficacia de los servicios británicos de espionaje, su información fue en parte malinterpretada, de forma que el Almirantazgo creía que solo se encontrarían con la escuadra de Hipper, ignorando que toda la FAM (99 navíos) estaba también navegando cerca de las aguas de Jutlandia.

La batalla comenzó la tarde del 31 de mayo después de una escaramuza fortuita entre los buques de Beatty y Hipper, que permitió a este último atraer a Beatty hacia el sur, directamente hacia la FAM, tal y como estaba previsto. Cuando Beatty se dio cuenta de que sus barcos se dirigían directamente hacia el grueso de la FAM, cambió el rumbo en el último momento y huyó en busca de la Gran Flota, atrayendo a los alemanes hacia la flota de Jellicoe.

Finalmente, las dos flotas mayores del Imperio Alemán y el Reino Unido de Gran Bretaña e Irlanda (unas 250 naves en total) acabaron viéndose las caras en una dura batalla entre la media tarde y la caída de la noche, a las 20:30. Como los alemanes ignoraban que la flota de Jellicoe estaba en el mar, este pudo colocar sus naves en lo que en el argot marino se conoce como “en T”, es decir, colocar sus barcos en ángulo recto con los barcos alemanes que se aproximaban, lo que otorgaba a los británicos una posición de ventaja. Comenzó el grueso de una batalla feroz que continuó hasta que los alemanes acabaron por retirarse lanzando torpedos a su paso para evitar que la flota británica los persiguiera.

Las pérdidas británicas sumaron 6.094 muertos y catorce barcos hundidos, mientras que las pérdidas alemanas fueron 2.551 muertos y once barcos. Como los británicos habían perdido más barcos y más hombres, cuando los alemanes llegaron a puerto se declararon vencedores. Los británicos opinaban otra cosa. Proclamaron lo que muchos historiadores consideran una victoria estratégica, ya que se mantuvo el status quo: la flota británica todavía controlaba el Mar del Norte y pudo continuar con el bloqueo de Alemania. 


Atrapada en la ratonera del Mar del Norte, la Marina Imperial Alemana reorganizó sus esfuerzos y recursos hacia una guerra submarina sin restricciones. Alemania tenía 105 submarinos listos para entrar en acción el 1 de febrero de 1917. Además, la industria alemana tenía aún capacidad de suministrar otros 120 submarinos para reemplazar a los hundidos. Al principio, la campaña fue un éxito rotundo: entre febrero y marzo se hundieron al mes cerca de 500.000 toneladas, 860.000 en abril, mes en el que hubo tantas pérdidas de barcos que las reservas de trigo del Reino Unido se redujeron a una duración máxima de seis semanas. En mayo, las pérdidas aliadas fueron de 600.000 toneladas y en junio de 700.000; en todos estos meses Alemania sólo había perdido nueve sumergibles. 

Un esfuerzo que resultaría inútil. Al empezar esta nueva guerra submarina el 3 de febrero de 1917, el presidente estadounidense, Wilson, rompió relaciones con el Imperio Alemán y declaró la guerra el 6 de abril de ese mismo año. Dos años después, el 11 de noviembre de 1918, la guerra se dio por concluida. © Manuel Peinado Lorca @mpeinadolorca.

sábado, 26 de mayo de 2018

Deuda, PIB y Tasa de Retorno Energético: la imposible cuadratura del círculo

Gráfica 1. Fuente

A pesar de las buenas expectativas de crecimiento y de la satisfactoria evolución económica de Europa, lo cierto es que la economía global atraviesa por un momento que los economistas describen como vulnerable. Las tensiones geopolíticas, el ascenso insólito del proteccionismo y la subida del petróleo presionan intensamente sobre el flanco débil de la deuda.
El pasado mes de abril el Fondo Monetario Internacional (FMI) lanzó una nueva e inquietante advertencia sobre el crecimiento de la deuda mundial. Ese aumento, favorecido por los bajos tipos de interés, constituye una debilidad grave de la economía global que puede interpretarse como un riesgo elevado de que se aproxime una nueva crisis financiera.
Mientras que los analistas económicos y los medios financieros se autoengañan e intentan vendernos la moto de que generar deuda es una simple e inevitable consecuencia del bussines as usual, del hacer negocios, nos estamos ahogando en un maremoto de trampas: la economía global (estados, empresas y familias) acumula un volumen de deuda de 237 billones de dólares. Esta cantidad constituye en sí misma una amenaza de inestabilidad, sobre todo en el caso de que los estados no dispongan de programas razonables para reducirla. Y no solo son riesgos financieros. Con un volumen de deuda así, cualquier aceleración en el ritmo de subida de tipos de interés tendría consecuencias nefastas para el equilibrio económico global y desde luego facilitaría una nueva crisis económica de magnitudes desconocidas.
Por supuesto que un hundimiento en toda regla de la economía global puede que no ocurra este año ni el siguiente, pero a medida que pasa el tiempo, la situación continúa deteriorándose de manera exponencial. Por lo tanto, la fiesta de los precios altos de acciones, bonos y bienes raíces continuará, pero llegará un momento en que décadas de deudas crecientes y de apalancamientos favorecidos por los bajos tipos, griparán el motor de la economía una vez por todas.
Algo que ni los analistas financieros, ni los gobiernos, ni los bancos centrales, ni el FMI tienen en cuenta es la energía. El economista típico hoy en día mira los mercados globales de la misma manera que un niño que está esperando que el ratoncito Pérez le cambie un diente por un billete de cinco euros. Los economistas convencionales simplemente miran las fuerzas del mercado, los porcentajes y los valores en una hoja de cálculo. Cuando la actividad económica comienza a disminuir, intentan encontrar la causa y remediarla con una solución. La mayoría de las veces, las soluciones pasan por imprimir más dinero, aumentando la deuda, cambiando las tasas de interés o los porcentajes de impuestos. Y hasta ahí llegan.
En la hoja de ruta de los economistas no figura la energía. Para el economista típico, la energía siempre estará ahí y si hay algún problema futuro con la oferta, entonces, por supuesto, el precio resolverá el problema. Como en la universidad los economistas no reciben formación, ni siquiera somera, de Física, toda la profesión es una farsa completa cuya ignorancia que explica los estrepitosos fallos de sus previsiones.
Desgraciadamente, ni los premios Nobel de Economía ni los alumnos más ilustrados de las mejores escuelas de negocios logran comprender la importancia de la Termodinámica. En cambio, solo se les enseña cómo la oferta y la demanda de bienes y servicios influyen en los precios. Aunque las fuerzas de la oferta y la demanda afectan el precio, solo lo hacen en un corto período de tiempo. Sin embargo, el factor principal que determina el precio (para la mayoría de los bienes, servicios, productos básicos, metales y energía) es el coste de la producción. La oferta y la demanda solo aumentan el precio por encima o lo empujan por debajo de la línea del coste total de producción.
Veamos el caso de la economía estadounidense que, es con diferencia, la mayor del mundo. En estos momentos, la deuda de Estados Unidos asciende a 18 billones de dólares, lo que significa que, en números redondos, cada estadounidense adeuda 57.000 dólares. Como puede verse en la Gráfica 2, la deuda del país (por dólar de crecimiento del PIB) se dispara como un misil.
Los días de emitir un dólar deuda para obtener uno o dos de crecimiento económico se han terminado. Muchos podrán creer que esto procede de una gran conspiración de las élites para controlar a las masas. Sin embargo, es más una función de la tasa de retorno energética (TRE), es decir, de la disminución de la energía obtenida por la inversión, y de la termodinámica del agotamiento del petróleo. Como el coste de producir petróleo es energéticamente cada vez más caro, la solución es la de los manuales de Economía: emitir más deuda para cubrir los costes.
Gráfica 1. Incremento de la deuda de Estados Unidos por cada dólar de incremento de su PIB.
El gráfico anterior se muestra la relación entre la deuda total de los Estados Unidos (pública y privada) comparada con el PIB nacional. La deuda de todos los sectores se muestra en azul, mientras que el PIB está en marrón. Notarán que la deuda total y el PBI de 1950 a 1970 se mantuvieron bastante a la par. Después de 1970 la deuda aumentó más que el PIB. Eso se debió a dos razones principales: a que el país alcanzó su pico de producción de petróleo convencional de 1970, y a que la TRE del petróleo cayó en picado a partir de ese año.
Para contrarrestar la caída en la producción de petróleo y el descenso en la TRE, la economía de los Estados Unidos se vio obligada a sumar más deuda por cada dólar de crecimiento del PIB. En la década de 1970, la deuda se incrementaba una media de 1,5 dólares por cada dólar de crecimiento del PIB, un endeudamiento que se incrementó a tres dólares por dólar de crecimiento del PIB en la década de 1980. La cosa no había hecho más que empezar. La escalada de la deuda despegó a marchas forzadas después de 2000.
Según los datos publicados por el FRED, el Banco de la Reserva Federal con sede en San Luis, el PIB estadounidense aumentó desde 10 billones en 2000 a 19,7 billones a finales de 2017. En el mismo periodo, la deuda total (todos los sectores públicos y privados) aumentó desde 27,2 billones a unos asombrosos 68,6 billones. Por lo tanto, la deuda total de Estados Unidos aumentó 41 billones frente a aproximadamente 10 billones de crecimiento del PIB. Eso significa un incremento de cuatro dólares de deuda por cada dólar de crecimiento del PIB.
Pero no perdamos de vista el pago de los intereses anuales. A una tasa de interés del 2%, el pago de intereses de esos 68 billones de deuda son aproximadamente 1,4 billones. Se me escapa el cálculo de cuál es la tasa de interés promedio sobre 68,6 billones de deuda y pasivos, pero si la tasa de interés promedio aumentara al 5%, entonces el gasto de interés anual se elevaría a 3,4 billones. Como se suele decir, un billón por aquí y otro por allá, ... suma y sigue.
Desgraciadamente, Estados Unidos no tendrá en el futuro energía barata disponible para pagar esa deuda. Por lo tanto, a medida que la deuda estalle, también lo hará el PIB. Además, si tuviéramos que ajustar el PIB por el crédito y la deuda adicionales, sería muchísimo más bajo que su valor actual. Pero, por supuesto, las cifras del PIB son calculadas por los mismos economistas a quienes se les enseña a ignorar la energía en sus estudios de mercado en la universidad.
Gráfica 3. Evolución (1970-2017) del incremento de la deuda en comparación con el aumento del PIB mundial.
Según el Instituto de Finanzas Internacionales, la deuda global alcanzó un nuevo récord de 237 billones en 2017, un aumento de 21 billones con respecto al año anterior. Ahora, compare eso con el crecimiento del PIB mundial de 3,9 billones en 2017 (75,4 billones en 2016 a 79,3 el año pasado). Si dividimos los 21 billones de nueva deuda global por 3,9 billones de crecimiento global del PIB, resultarán 5,4 billones adicionales por cada dólar de crecimiento del PIB global (Gráfica 3).
Sin embargo, el gasto de interés anual sobre la deuda global de 237 billones tiene que ser un infierno de mucho cuidado. Una vez más, no tengo ni idea de cuál es la tasa de interés promedio de esa deuda, pero incluso si asumimos un conservador 2%, es decir, 4,7 billones, ¿cómo podría el mundo pagar 4,7 billones de intereses si el aumento en el PIB global fue de tan solo 4 billones el año pasado?
Si la deuda global está aumentando, también lo hará el gasto por intereses para pagar la creciente cantidad de deuda. Cuando el pago de la deuda compite con el crecimiento del PIB mundial, entonces tenemos un problema grave. Y con el impacto de la disminución de la TRE y la termodinámica del agotamiento del petróleo, el crecimiento global del PIB probablemente comenzará a estancarse en los próximos años.
Algunos analistas del mercado de metales preciosos dicen que si se permitiera que el sistema bancario diese en quiebra (ya que, de hecho, lo está), después del dolor, la economía podría crecer otra vez. Pero eso nunca sucederá. ¿Por qué? Porque esos analistas cometen el mismo error que los generalistas entrenados en la universidad: están analizando y pronosticando el futuro de los mercados sin considerar la energía.
Lamentablemente, cuando la deuda masiva finalmente estalle, reducirá los valores de la mayoría de las acciones, bonos y bienes raíces. Esto no es una cuestión de "si", es una cuestión de "cuándo". Y a juzgar por cómo evoluciona la deuda en relación con el PIB, parece que el cuándo se nos viene encima. © Manuel Peinado Lorca. @mpeinadolorca.

miércoles, 23 de mayo de 2018

Zaplana, élites extractivas y regeneracionismo español


La detención de Eduardo Zaplana ha sido la crónica de arresto anunciado. Una vez más, parece que se comprueba lo que han dichos algunos humoristas: que en la boda de la hija de Aznar los únicos honrados eran los camareros. En cualquier caso, la inmediata entrada en el calabozo (de momento), su más que presumible ingreso en prisión preventiva (a corto plazo) y definitiva (a largo), me recuerdan algunas lecturas.
Hay tres clases de libros: los que hay que consultar una vez, los que merecen una lectura en la vida y los que hay que tener. Por qué fracasan los países de los politólogos bostonianos Daron Acemoglu y James A. Robinson (Deusto 2012) pertenece a la última categoría. Es de esos que deben ser atesorados en la biblioteca para revisar y leer una y otra vez, y para seguir su rastro en algunos libros que se han ocupado del caso de la corrupción política española.
En España parecen estar repitiéndose los fundamentos políticos del Regeneracionismo de finales del XIX y principios del XX. Por resumir, el desarrollo de aquel Regeneracionismo finisecular fue una consecuencia directa de la crisis del sistema político fundado por Cánovas en la Restauración: la alternancia de partidos, que había proporcionado al país una estabilidad ilusoria que se sostenía sobre gran corrupción política que ocultaba la miseria del pueblo, el desigual reparto geográfico de una tardía revolución industrial, el caciquismo, el pucherazo electoral y el triunfo de una oligarquía económica y política que, una vez adueñada prácticamente de todo el suelo productivo del campo español, había creado la mano de obra barata en una extensa clase de jornaleros hambrientos.
El papel de esa oligarquía es lo que Acemoglu y Robinson teorizan en su teoría de las “élites extractivas”. El enunciado de la teoría es muy simple. La clase política no sólo se constituye en un grupo de interés particular, como la banca, por poner un ejemplo, sino que ha dado un paso más, consolidándose como una élite extractiva, que se caracteriza por tener un sistema de captura de rentas que permite, sin crear riqueza nueva, detraer rentas de la mayoría de la población en beneficio propio.
Recuperando el espíritu regeneracionista y aplicando tácitamente o claramente esa teoría, algunos autores han emulado a Joaquín Costa o a Lucas Mallada y han escrito textos de notorio pesimismo y ácida crítica hacia un marco social e institucional que entienden funesto para el desarrollo del país. Así, hemos podido leer Corrupción y política. Los costes de la democracia, de Javier Pradera (2014), El dilema de España. Ser más productivos para vivir mejor, de Luis Garicano (Atalaya, 2014), Qué hacer con España. Del capitalismo castizo a la refundación de un país, de César Molinas (Imago Mundi, 2013), La urna rota. La crisis política e institucional del modelo español, del colectivo Politikon (Debate, 2014), o España estancada. Por qué somos poco eficientes, de Carlos Sebastián (Galaxia Gutemberg, 2016). De esos textos hemos podido deducir que el origen esencial del «mal» de España no genético, ni está basado en factores culturales atávicos, sino en el erróneo diseño de una gran parte de nuestras instituciones políticas, económicas y sociales. El neoinstitucionalismo económico, otro término tomado de Por qué fracasan los países, ha sido el principal referente teórico que ha dado fundamento a estas críticas.
En las primeras páginas del tercer (y esencial) bloque de su libro, César Molinas realiza un repaso histórico sobre la evolución del capitalismo en España y la influencia del entorno geográfico y de la propia historia en la configuración de un mercado no competitivo en nuestro país, más pendiente de las dádivas del poder que de la elección del consumidor. Este repaso histórico marcado por ese “capitalismo castizo”, estilo palco del Bernabéu, conduce a la hipótesis (que no teoría, como él la llama) de Molinas sobre la clase política española. A excepción del paréntesis histórico que representó la transición liderada por una generación de auténticos políticos con vocación de servicio público, Molinas concluye que desde entonces la “cosa pública” ha sido colonizada por una nueva clase de políticos, que, como los del pasado pre regeneracionista, sólo buscan en la Administración fuentes de renta personales. De este modo, el autor defiende que la democracia española ha acabado capturada por un cartel de políticos que sólo buscan la maximización de sus beneficios personales. Para ello, los responsables públicos utilizan criterios discrecionales con el único fin de apropiarse de las rentas producidas, cuyo colofón es el aumento insostenible de la deuda.
Como resultado de ese comportamiento de la clase política, la crisis del país sería como la Santísima Trinidad, “una y trina”. En primer lugar, España estaría sufriendo una crisis de deuda acumulada por las actividades lucrativas generadas por los políticos locales. En segundo lugar, el país sufre una crisis político-institucional fruto de la actuación de esta clase política que habría pervertido a las propias instituciones. Y consecuencia de todo ello, estaríamos atravesando también una crisis moral derivada de la actuación de los políticos y de la corrupción que asola el ejercicio del poder. El diagnóstico es meridiano: ante tales desatinos, la crisis múltiple que atraviesa el país sólo se superará sustituyendo a esta clase política por otra totalmente nueva, sin los vicios de la actual y con las bondades de aquélla, que construyó la transición.
Sin olvidar que la explicación casual centrada en una clase política explotadora resulta demasiado simple cuando el resto del país vivía también en la gloria, y no sólo económica como explicita Antonio Muñoz Molina en su Todo lo que era sólido (Seix Barral, 2013), no se puede, en ningún caso, minimizar la responsabilidad de los agentes políticos en la crisis del sistema para repartirla entre todos nosotros de modo que no haya culpables, no se puede olvidar que, durante la actual crisis de la que no acabamos de salir por más que Rajoy haga lo que el Barón de Münchhausen para salir de la ciénaga, fueron los financieros quienes canalizaron la liquidez hacia las burbujas sectoriales sin valorar los evidentes riesgos, y los empresarios e inversores los que construyeron autopistas o instalaron huertos solares y, en algunos casos, tal como la justicia está tratando de desentrañar, bajo acuerdos ilegales. Todo ello con el beneplácito de trabajadores cuyos salarios crecían más que el ritmo de productividad, mientras miles de jóvenes abandonaban los estudios por un buen salario en los sectores ligados a la burbuja. Sin duda, a quien más responsabilidad tiene, más se le debe exigir, pero condensar en exclusiva una crítica a los políticos de la relajación moral que protagonizó nuestra pequeña historia durante más de una década resulta demasiado simplificador.
Por todo ello, cualquier comparación de nuestras élites políticas con las clases extractivas de Acemoglu y compañía no habla mal de nuestros políticos, sino de los españoles, porque a diferencia de los países analizados por los profesores bostonianos (en su mayoría dictaduras tercermundistas), en España los ciudadanos se retratan en las urnas. Por ello, la teoría de Molinas, siendo sugerente ante el alicorto perfil profesional de nuestros políticos, es apenas una hipótesis que no logra contrastar porque ni explica cómo esa clase ha alcanzado el poder y sobre todo cómo lo mantiene sin recurrir a la coacción del Estado.
En todo caso, de confirmarse las imputaciones, el recién estrenado presidiario, Eduardo Zaplana, ex de casi todo en política, es el arquetipo del político inmerso en la corrupción. Porque corrupción es abuso de poder para beneficio privado, directo o indirecto. Cuando a una persona se le otorga poder para que lo use en beneficio del grupo que se lo cede de buena fe y, traicionando la confianza, lo utiliza para beneficiarse directa o indirectamente, estamos ante un caso de corrupción.
Pero no puedo terminar sin insistir en que fijarse solamente en la corrupción perseguible penalmente brinda una imagen distorsionada del problema. En los países más desarrollados económicamente, la corrupción más preocupante es la denominada corrupción legal. Aquella consistente en la captura de ciertas políticas públicas o, al menos, de decisiones fundamentales en el marco de dichas políticas por poderosos grupos de interés. Como ha recordado Manuel Villoria en La corrupción en España (2016), «la captura puede realizarse a través del estratégico aterrizaje en puestos importantes del Gobierno, en órganos regulatorios o en comités asesores clave; también mediante el reclutamiento de políticos bien relacionados y poderosos para su incorporación a consejos de administración bien remunerados; o mediante la presión mediática, dado el control de grandes grupos multimedia. Más aún, la captura opera en cascada: si se consigue la captura en la Unión Europea, luego ya las capturas nacionales son más sencillas, y así sucesivamente».
Sea cual sea su modalidad, la constante presencia en los medios de escándalos de corrupción está teniendo un impacto terrible sobre el grado de satisfacción con el funcionamiento de la democracia y la confianza en las instituciones representativas que está llevando a algunos a buscar soluciones peligrosas que traen a la mente la “mentalidad sumarísima” (al estilo “esto yo lo soluciono en 24 horas”) contra la que nos alertó Rafael Sánchez-Ferlosio.  © Manuel Peinado Lorca. @mpeinadolorca.

domingo, 20 de mayo de 2018

Malas noticias: los CFC atacan de nuevo

El agujero de ozono sobre la Antártida se redujo a su mínima extensión en septiembre de 2017. Aquí, en esta vista en falso color del ozono total promediado mensualmente, el azul y el morado indican las áreas con menor ozono, mientras que los amarillos y rojos significan mayores niveles. Foto: Centro de Vuelo Espacial Goddard de la NASA.

En noviembre de 2017 nos las prometíamos muy felices cuando supimos que el agujero en la capa protectora de ozono que se forma sobre la Antártida cada septiembre era el más pequeño visto desde 1988, según la NASA y la NOAA. No hay mal que por bien no venga, pensamos: las temperaturas más altas en la Antártida ese año redujeron el agujero en la capa de ozono a mínimos.
En 1985, los científicos detectaron por primera vez el agujero en dicha capa y se dieron cuenta de que estaba siendo causado por el cloro y el bromo liberados por los clorofluorocarbonos (CFC), compuestos utilizados como refrigerantes. En 1987, el Protocolo de Montreal inició la eliminación de estos productos químicos.
El Protocolo fue diseñado para proteger la capa de ozono estratosférico mediante la reducción en la atmósfera de las sustancias que la destruyen, como los clorofluorocarbonos (CFC). La reducción en la concentración atmosférica de triclorofluorometano (CFC-11) era la segunda contribución más grande a la disminución en la concentración atmosférica total de cloro que destruye la capa de ozono. No obstante, el CFC-11 todavía contribuye con una cuarta parte de todo el cloro que llega a la estratosfera, por lo que la recuperación de la capa de ozono estratosférico depende de una disminución sostenida de las concentraciones de CFC-11.
El agujero en la capa protectora de ozono de la Tierra que se forma sobre la Antártida cada septiembre fue el más pequeño visto desde 1988, según la NASA y la NOAA. Foto: Centro de Vuelo Espacial Goddard de la NASA.
En un artículo publicado el pasado 16 de mayo en Nature, los investigadores demuestran que la tasa de disminución de las concentraciones atmosféricas de CFC-11 observadas fue constante entre 2002 y 2012, para luego disminuir aproximadamente un 50% después de 2012. La desaceleración observada en la disminución de la concentración de CFC-11 fue simultánea en los hemisferios norte y sur. Pero los análisis recién publicados también sugieren un aumento en las emisiones de CFC-11 de 13 ± 5 gigagramos por año desde 2012, a pesar de que su producción oficial es cercana a cero desde 2006. Las simulaciones de modelos tridimensionales confirman el aumento en las emisiones de CFC-11, pero indican que el aumento detectado puede haber sido hasta un 50% mayor como resultado de los cambios en los procesos dinámicos estratosféricos. Por último, concluyen los investigadores, el aumento en la emisión de CFC-11 no parece estar relacionado con la producción pasada, lo que sugiere una nueva producción no declarada, lo que es inconsistente con el acuerdo del Protocolo de Montreal para eliminar la producción mundial de CFC en 2010.
De momento nadie tiene ni idea de cuál es la nueva fuente, porque no tiene mucho sentido que alguien decida expulsar CFC otra vez habida cuenta de que existen numerosas alternativas baratas a los CFC que funcionan igual de bien. Como explicó el Washington Post en un informe detallado sobre el tema, la producción mundial de CFC ha sido prácticamente nula desde que fueron prohibidos en el Protocolo de Montreal de 1987. En general, los CFC atmosféricos seguía disminuyendo y la capa de ozono seguía recuperándose. Pero la nueva y desconocida fuente ha ralentizado significativamente ese proceso y los científicos encuentran la situación completamente desconcertante.
Los CFC son moléculas formadas por átomos de carbono unidos a átomos de cloro y flúor, elementos halógenos que hacen que la molécula sea volátil pero particularmente poco reactiva. Los productos químicos volátiles, es decir, los que se evaporan fácilmente, son importantes en dispositivos de formación de espuma tales como extintores de incendios y en los que enfrían el aire, como los frigoríficos y los aparatos de aire acondicionado.
Los refrigerantes originales eran el amoníaco o el gas butano. El primero es muy tóxico y el segundo muy inflamable, así que cuando aparecieron los CFC parecían una panacea. Los CFC eran especiales porque no eran inflamables ni lo suficientemente reactivos como para ser tóxicos. La industria los usó a destajo, hasta que se descubrió que, en la atmósfera alta, se estaban descomponiendo liberando cloro. Todo cloro liberado estaba destrozando la capa de ozono, rompiendo los enlaces químicos de la molécula que protege la superficie de la Tierra de la radiación ultravioleta.
Reemplazar a los CFC fue todo un desafío. Algunas alternativas resultaron ser demasiado reactivas, y causaban cánceres y otros problemas médicos. No acababa de encontrarse una sola clase de moléculas que sirvieran para cubrir todas las necesidades que cubrían los CFC. Pero con el tiempo la situación cambió y hoy existen montones de alternativas a los CFC, de forma similar a como antes más de un CFC.
Y, sobre todo, para lo que aquí nos trae, es que esas alternativas cumplían su función perfectamente. Eso, junto a las penas que se imponen por el uso de los CFC, hacen que el descubrimiento de una nueva fuente misteriosa para uno de esos químicos, el CFC-11, sea particularmente confuso. Los dos principales usos del CFC-11 son la fabricación de extintores y de frigoríficos, que se han estado fabricando sin problemas usando las nuevas alternativas.
Si es así, ¿por qué alguien comenzaría a usar CFC otra vez? Esa es una pregunta difícil de contestar. Lo inmediato es pensar en el beneficio a corto plazo. Podría imaginarse que alguien tenía un stock importante de CFC almacenado antes del Protocolo de Montreal, que hasta ahora no había usado. Es factible que algún fabricante desaprensivo, una vez pasado el tiempo y disminuida la presión de los controles, comenzara a utilizar sus existencias para reducir precios. Esa hipótesis, que haría las delicias de algún conspiranoico, se enfrenta con un problema de cantidad.
La gran cantidad de CFC involucrados durante varios años, unos 13 millones de kilos, representaría un arsenal tan absolutamente masivo como irrazonable, que invita a pensar en otras fuentes. Según algunos investigadores, la fuente más probable serían las formaciones de hielo natural. El hielo del mundo se está derritiendo y al derretirse puede liberar químicos atrapados. Plausible, pero resulta muy complicado explicar por qué el hielo ha atrapado selectivamente CFC-11 y no el resto de CFC.
Eso deja la extraña posibilidad de que alguien haya vuelto a las andadas y esté fabricando y usando CFC-11 otra vez. Esa fábrica de CFC sería difícil de rastrear. Si dispusieran de una muestra grande y poco mezclada, los químicos podrían analizar el CFC y encontrar en un periquete las huellas que conduzcan a su origen. Pero con la sustancia suelta y mezclada en la atmósfera, la tarea de tomar muestras sería extremadamente difícil de por sí.
No obstante, la habilidad de los químicos analíticos ha dado sobradas muestras de su eficacia, así que detectar el origen parece una cuestión de tiempo, esperemos que de poco tiempo. De momento, sin embargo, la situación es extraordinariamente misteriosa. © Manuel Peinado Lorca. @mpeinadolorca.