Vistas de página en total

sábado, 30 de marzo de 2024

El canto de las ballenas

 



Los mamíferos emiten sonidos cuando el flujo de aire hace que los pliegues de tejido emparejados en su laringe oscilen. Sin embargo, en las ballenas barbadas este flujo de aire toma un camino original, lo que les permite emitir sonidos de una manera previamente desconocida.

Además de por su enorme tamaño, las ballenas barbadas azules (Balaenoptera musculus) y jorobadas (Megaptera novaeangliae) son conocidas por su capacidad para cantar bajo el agua. Los cantos son producidos por un órgano situado en la laringe, aunque hasta este año no se ha conocido del todo la base anatómica del mecanismo que genera el sonido.

La laringe de los mamíferos es una estructura en forma de válvula situada al comienzo de la tráquea. Está diseñada para proteger las vías respiratorias de incursiones accidentales de alimentos, regular las presiones intratorácicas/abdominales y generar sonidos. Hasta ahora, se pensaba que las ballenas producían sonido gracias a unos pliegues laríngeos a los que el impulso del flujo de aire hacía vibrar. Pero en las ballenas barbadas a esos pliegues se superpone un cojín de material graso que aumenta la compresión del aire exhalado y hace que el pliegue vibre y genere sonido.



El canto de las ballenas barbadas nos ha fascinado desde que pudimos oírlo por primera vez gracias a las primeras grabaciones magnetofónicas subacuáticas. Pero durante mucho tiempo los navegantes estaban subyugados cuando escuchaban sonidos espeluznantes debajo de la cubierta que reverberaban a través del casco. Estas inquietantes melodías se atribuían a fantasmas, criaturas marinas míticas o simplemente a la imaginación de marineros borrachos. Por lo demás, se consideraba que el mar era un mundo silencioso.

Rorcual aliblanco, enano o Minke común (Balaenoptera acutorostrata)


Hasta la invención de los hidrófonos no se pudieron documentar los sonidos submarinos. Los primeros hidrófonos se utilizaron para localizar icebergs después de que el Titanic se hundiera en 1912. Los hidrófonos fueron modificados durante la Primera Guerra Mundial para detectar submarinos. Durante la Segunda Guerra Mundial y la Guerra Fría, se utilizaron estos dispositivos para rastrear los movimientos de los submarinos. Pero además del sonido propio de hélices y motores, en esas grabaciones también se podían escuchar sonidos naturales submarinos. Esas bandas sonoras fueron secretos militares hasta que los biólogos marinos tuvieron acceso y descubrieron que muchos de los sonidos eran producidos por ballenas.

Desde que se conocieron en la década de 1970, los científicos han intentado descubrir el método que utilizan los cetáceos para producir sonido. Las publicaciones anteriores a la década de 1960 describen la anatomía de las ballenas utilizando especímenes diseccionados después de que los animales quedaran varados en una playa o depositados en estaciones balleneras comerciales. Esos estudios incluían dibujos de la laringe de la ballena, pero no la asociaban a la producción de sonidos (que se desconocían) ni identificaron sus estructuras internas como cuerdas vocales. Se consideraba que las ballenas no tenían la capacidad de emitir sonidos y se decía que las ballenas carecían de cuerdas vocales.

Pero los estudios anatómicos han descubierto ahora que una estructura en forma de U en la laringe de la ballena es equivalente a las cuerdas vocales emparejadas y sus cartílagos de soporte de un mamífero terrestre. Se llama pliegue en U porque se asemeja a la esa letra cuando se observa desde arriba.

Las ballenas barbadas heredaron esta anatomía laríngea de los ancestros terrestres de Moby Dick, que se modificó durante el proceso de evolución hasta convertirse en una estructura original de los mamíferos marinos. A diferencia de las cuerdas vocales típicas de otros mamíferos, el pliegue en U de las ballenas está girado 90º hasta situarse en paralelo a la tráquea, con un espacio entre los "brazos" del pliegue en U que conduce a un saco de aire laríngeo.

Figura 1. Un método sorprendente para la generación de sonidos en ballenas. Las ballenas barbadas azules  y jorobadas usan la laringe para cantar.

Durante la respiración, el aire entra a través de los orificios y viaja por las fosas nasales hasta la laringe, la tráquea y los pulmones. Durante el canto, el aire fluye desde los pulmones hasta la laringe, donde pasa por debajo de un cojín de grasa y a través de un espacio rodeado por el pliegue en U para entrar en el saco de aire laríngeo. Cuando el saco de aire laríngeo se contrae, el aire se recicla de nuevo a los pulmones para su uso en la siguiente vocalización.

El modelo convencional de producción de sonido en la laringe implica vibración de pliegue a pliegue. El aire (flecha azul en la letra b de la Figura 1) pasa por debajo del cojín de grasa y hacia abajo a través del estrecho espacio entre los brazos del pliegue en U, generando vibraciones en las superficies internas opuestas del pliegue en U. Este modelo refleja el mecanismo de vocalización de los mamíferos terrestres, en el que las cuerdas vocales opuestas se mueven por el flujo de aire para generar sonido.

El nuevo análisis sugiere que el sonido se produce a través de un mecanismo diferente por la vibración de pliegues a grasa Fig. 1 c). Los autores proponen que el flujo de aire en el estrecho espacio entre cada brazo plegable en U y el cojín de grasa genera vibraciones en las superficies superiores de los pliegues que miran hacia el cojín de grasa. Sugieren que la mayoría de las ballenas barbadas usan solo este método de vibración de pliegues y grasa para producir sonido, aunque las ballenas jorobadas y de Groenlandia (Balaena mysticetus) podrían usar métodos de vibración de pliegue a pliegue y pliegues y grasa.

Mysticetos y Odontocetos son dos de los clados existentes de cetáceos


Aunque siguen existiendo algunas similitudes entre las laringes de las ballenas y las de los mamíferos terrestres, la fuente del canto de las ballenas y el mecanismo que utilizan para emitir sonidos son difíciles de identificar. Debido al gran tamaño de las ballenas barbadas, la anatomía y la función de sus estructuras vocales no pueden investigarse en cautiverio ni examinarse utilizando métodos de visualización modernos, como la endoscopia, o técnicas de imagen (incluida la tomografía computarizada o la resonancia magnética). 


Los cetáceo pequeños, como los delfines, que pueden estudiarse más fácilmente en cautividad, son modelos poco adecuados porque vocalizan en una frecuencia diferente a la de las ballenas barbadas y usan estructuras nasales en lugar de pliegues.

También queda por resolver una segunda cuestión. Las grabaciones de ballenas barbadas indican que una sola ballena puede emitir al menos dos sonidos diferentes simultáneamente. Esto es desconcertante. ¿Cómo pueden las ballenas hacer eso con un solo órgano vocal?


viernes, 29 de marzo de 2024

UNA DESALINIZADORA (CASI) AUTOSOSTENIBLE


El 97% del agua de la Tierra se encuentra en el mar y contiene sal. Ante la creciente escasez de agua en el mundo, la desalinización se promociona hace tiempo como una forma de obtener agua dulce de los océanos del mundo.

España cuenta con 765 plantas desalinizadoras que producen alrededor de 1.800 hm³ de agua anuales (Madrid ciudad, por citar un ejemplo, consumió en 2022 198 hm³), lo que sitúa al país ya en el cuarto del mundo en cuanto a capacidad total instalada. Este volumen de producción representa cerca del 6% de la demanda total (32.000 hm³). No obstante, de acuerdo con los datos del Ministerio de Transición Ecológica y Reto Demográfico, se calcula que el cambio climático ha causado una pérdida en la disponibilidad de agua de 1.300 hectómetros cúbicos anuales desde 1980.

Este dato es un reflejo de la situación en la que se encuentran los recursos hídricos, que resultarán insuficientes a medio plazo para los usos que requiere nuestro desarrollo socioeconómico. El reciente estudio sobre el modelo de gestión del agua en España sitúa a nuestro país como el tercero de la UE con mayor estrés hídrico en términos de agua dulce extraída respecto de los recursos renovables. 

El panorama no resulta halagüeño: otro informe, elaborado por la Comisión Europea y publicado en 2020, corrobora que casi la mitad de la población española (22 millones de habitantes) reside en regiones con estrés hídrico, calculando que siete millones más se sumarán a esta cifra en 2100 de cumplirse el peor escenario de calentamiento climático; esto es, un aumento de 3 °C en la temperatura media.

Para compensar esta situación, la desalación del agua de mar se postula como la solución para incrementar la disponibilidad del recurso y cubrir las demandas existentes y futuras. Pero la tecnología de ósmosis inversa existente requiere una conexión a la red eléctrica principal. La obtención de energía de este modo es cara y crea una demanda adicional de energía derivada de los combustibles fósiles. Por lo tanto, es necesario desarrollar sistemas de desalinización que capten energía de fuentes verdes separadas de la red eléctrica principal.

¿Qué es la ósmosis inversa?

La ósmosis es un fenómeno natural. Se trata de uno de los procesos más importantes de la naturaleza. Es un proceso por el que una solución salina más débil (concentración más baja de sal) tenderá a migrar a una solución salina más concentrada. Dos ejemplos de ósmosis son la absorción de agua por las raíces de las plantas y la de nuestros riñones cuando absorben agua de la sangre.

Si tengo un recipiente lleno de agua con baja concentración de sal y otro lleno de agua con alta concentración salina y ambos están separados por una membrana semipermeable, el agua menos concentradal comenzaría a migrar hacia el recipiente con mayor concentración de sal.

Una membrana semipermeable es una membrana que permite que pasen unas moléculas, pero no otras. Un ejemplo sencillo es una puerta mosquitera. Permite que pasen las moléculas de aire, pero no llos insectos ni nada más grande que los orificios de la malla. Otro ejemplo son las capas Gore-tex, que contienen una película de plástico extremadamente delgada en la que se han perforado miles de millones de pequeños poros. Los poros son lo suficientemente grandes como para dejar pasar el vapor de agua, pero lo bastante pequeños como para evitar que pase el agua líquida.



El proceso de ósmosis inversa consiste en forzar el paso de agua en sentido contrario, es decir, de la dilución más concentrada a la más diluida. Mientras que la ósmosis se produce naturalmente sin necesidad de aportar energía, para revertir el proceso es necesario aplicar energía a la solución más salina para “empujar” el agua a través de la membrana aplicando una presión que sea mayor que la presión osmótica natural. 



La tecnología de ósmosis inversa disponible hasta ahora en plantas desalinizadoras requiere una conexión a la red eléctrica principal. La obtención de esa energía es cara y crea una demanda adicional de energía derivada de los combustibles fósiles. Por lo tanto, es necesario desarrollar sistemas de desalinización que capten energía de fuentes verdes separadas de la red eléctrica principal.

En respuesta a este reto, los participantes en el proyecto W2O, desarrollado en Estados Unidos con financiación parcial de la UE, han desarrollado un método para desalinizar agua mediante un sistema innovador que utiliza un convertidor de que se beneficia de la energía de las olas. El convertidor, anclado en el fondo del mar, oscila con el movimiento de las olas, proporcionando una energía que procesa grandes volúmenes de agua dulce a partir de una fuente de energía renovable constante e inagotable.

Energía de las olas

Las olas marinas son un recurso energético poderoso, accesible a un alto porcentaje de la población mundial y, por lo tanto, ideal para aplicaciones de desalinización por ósmosis inversa. Con esta energía, los costes de desalinizar pueden reducirse drásticamente.

Las olas se generan cuando el viento pasa sobre la superficie del mar y transfiere energía del viento para crear "vibraciones" en forma de olas que pueden viajar largas distancias sin interrupción. Por lo tanto, las condiciones del viento a miles de kilómetros de distancia producirán condiciones de olas locales varios días después, lo que mejora en gran medida la previsibilidad de los recursos en comparación con la energía eólica y solar.

Los números del mapa corresponden a una medida del número de kilovatios de energía de las olas por metro lineal de frente de onda. W2O puede funcionar eficazmente en regímenes de olas superiores a 10 kW/m.


Para el observador casual, las olas parecen “protuberancias” que suben y bajan en la superficie del mar, pero, en realidad, están formadas por partículas de agua en movimiento orbital que crean energía principalmente en modos de “empuje” y “oleaje”. La nueva tecnología extrae esa energía, llamada undimotriz, de las olas a través de sus WEC que capturan el movimiento horizontal de las olas para generar energía hidráulica.

La siguiente ilustración muestra cómo el componente de "oleaje" del océano puede transferir energía a una aleta que, a su vez, impulsa una bomba que crea energía hidráulica potencialmente utilizable de muchas maneras, incluidas la desalinización, la producción de agua y la generación de electricidad.



Impacto medioambiental

W2O es una alternativa rentable a los sistemas de desalinización impulsados por gasoil que actualmente se utilizan ampliamente en todo el mundo. El sistema reduce las emisiones de dióxido de carbono y los costes y riesgos asociados con el abastecimiento, el transporte, el almacenamiento y la manipulación del combustible. Cinco plantas W2O de 4.000 m³/día eliminan 40.900 tn/año de dióxido de carbono, el equivalente a retirar de la circulación 7.100 coches.

En cualquier caso, hay un problema añadido: la desalinización devuelve al mar salmuera a mayor temperatura que el agua que ingresa al proceso, lo que es un problema ambiental para la zona en donde se instala la planta. Si el agua se refrigera hasta alcanzar la del mar, habrá un consumo añadido de energía.

En cuanto a la salmuera, que altera el equilibrio salino perjudicando la flora y fauna marina, la clave está en aprovechar el proceso para generar subproductos útiles como el cloro y el sodio que son muy utilizados para fabricar productos clorados; también se podría fabricar sal de mesa e incluso sodio para la nueva generación de baterías para almacenamiento de energía.

Impacto social

1.100 millones de personas (1 de cada 6 en todo el mundo) carecen de acceso a agua potable y 2,6 millones de personas, principalmente niños, mueren cada año a causa de enfermedades relacionadas con el agua. Cinco plantas W2O de 4.000 m³/día pueden satisfacer las necesidades mínimas diarias de agua exigidas por la ONU para 240.000.

jueves, 28 de marzo de 2024

La hipótesis de la abuela y la menopausia de las ballenas

 


La menopausia, es decir, la aparición de un período prolongado de vida después de que se termina la capacidad de tener descendencia, es una característica rara que comparten solo un puñado de especies y, aunque pueda resultar curioso, la mayoría de ellas son cetáceos.

¿Cómo y por qué varias especies de ballenas experimentan la menopausia? Además de contestar a esas preguntas, indagar en ese fenómeno podría arrojar alguna luz sobre por qué evolucionó la menopausia en los humanos.

La menopausia es, desde una perspectiva evolutiva y en apariencia, una anomalía. De hecho, es un fenómeno muy poco frecuente en el mundo animal. En casi todas las especies las hembras se mantienen fértiles a lo largo de toda su vida. Nuestra especie forma parte de un pequeño grupo de mamíferos en los que la capacidad reproductiva se deteriora de forma acelerada con relación al declive orgánico general.

Además de la especie humana, el grupo lo forman cinco especies de odontocetos, es decir, de ballenas dentadas (las que se alimentan de peces, mariscos y mamíferos marinos, a diferencia de las barbadas o mysticetos, que se alimentan de plancton), cuyas hembras pueden vivir décadas después de cesar de ovular y, por lo tanto, de poder procrear. Son las orcas (Orcinus orca), las falsas orcas (Pseudorca crassidens), los calderones tropicales (Globicephala macrorhynchus), las belugas (Delphinapterus leucas) y los narvales (Monodon monoceros). Muchos otros odontocetos, incluidos los delfines (familia Delphinidae) y las marsopas (familia Phocoenidae), son capaces de tener crías hasta que les llega la muerte.

Al comparar las características (Fig. 1) de las especies de ballenas dentadas que la experimentan y no la experimentan, caben dos hipótesis acerca de por qué evolucionó la menopausia. Una es que permite a las hembras posmenopáusicas ayudar a sus parientes más jóvenes; la otra es que, al reducir el número de bocas a las que alimentar, tener menos descendientes limita la competencia.

Reproducción y solapamientos generacionales en especies de ballenas con y sin menopausia.

Observe la gráfica. Si se comparan los datos de esperanza de vida (barra azul) y el período de reproducción de las hembras (barra roja) se comprueba que, mientras que la esperanza de vida reproductiva es similar, independientemente de si se produce o no la menopausia, las especies cuyas hembras son menopáusicas suelen vivir más tiempo que las que no lo son, lo que significa que la superposición intergeneracional es más prolongada en las primeras.

Gracias a ello, las hembras de más edad de las especies que tienen menopausia pueden ayudar a los miembros de la familia durante el período de superposición generacional, al tiempo que al restringir el tiempo de superposición reproductiva reduce la competencia intergeneracional por los recursos.

La evolución de la menopausia es un enigma biológico. Una suposición intuitiva es que reproducirse hasta el final de una vida debería significar un mayor éxito reproductivo (más genes que se transmiten a las generaciones futuras) que interrumpir la reproducción muchos años antes de la muerte.

La verdadera naturaleza del narval tardó tiempo en conocerse. Esta imagen reproduce un grabado de Archibald Thornburn para la obra Mamíferos Británicos, de 1920.


El supuesto es simplista, porque la transmisión de genes a las generaciones futuras no es sólo generar descendencia; también se trata de producir descendencia en términos de nietos, bisnietos, etc. Invertir en hijos y nietos para asegurarse de que unos y otros sobrevivan hasta la edad adulta y produzcan más descendencia por ellos mismos puede ser una estrategia mejor que continuar produciendo descendencia propia.

El gran biólogo y evolucionista norteamericano George C Williams propuso en 1957 la hipótesis de la abuela, que sostiene básicamente que la menopausia podría ser, en realidad, una adaptación. Desde el punto de vista evolutivo, teorizó que podría resultar más conveniente para las mujeres dedicar sus esfuerzos a apoyar a sus descendientes que tener ellas mismas una progenie mayor. Conforme envejecemos aumenta la probabilidad de morir, por lo que, si una mujer tiene descendencia a una edad avanzada, no resultaría improbable que sus últimos hijos no pudieran sobrevivir al morir ella. En tal caso, el esfuerzo que esa mujer hubiese dedicado a esos últimos hijos habría resultado baldío, pues sus genes no habrían podido replicarse y ser transmitidos a las siguientes generaciones a través de esos últimos descendientes.

Por otro lado, que en una población haya individuos que no se reproducen carece de sentido desde un punto de vista evolutivo, pues esos individuos consumen unos recursos que podrían utilizar otros en beneficio de su propia progenie. Por estas razones, Williams propuso que las mujeres de mayor edad contribuyen de una forma más efectiva a transmitir sus genes a las generaciones posteriores dedicando sus esfuerzos a los descendientes que ya forman parte del grupo, o sea, a sus nietos, en vez de hacerlo a sus hijos que a una edad avanzada pudieran llegar a tener ellas mismas.

Este planteamiento sostiene, pues, que a medida que las madres envejecen, los costes de reproducción aumentan y la energía dedicada a esas actividades se gastaría mejor en ayudar a su descendencia en sus esfuerzos reproductivos. Por tanto, sugiere que al redirigir su energía a la de sus descendientes, las abuelas pueden aumentar la garantía de la supervivencia de sus genes a través de las generaciones más jóvenes.

Una hipótesis alternativa, aunque no excluyente, es que la menopausia evolucionó para reducir la competencia por los recursos entre generaciones. Las especies que experimentan la menopausia tienden a tener una larga esperanza de vida y a vivir en grupos que contienen varias generaciones. Aunque la vida en grupo tiene muchos beneficios, exige tener que compartir recursos limitados. A veces, continuar produciendo descendientes que compitan con los nietos por los recursos puede traer como consecuencia menos descendientes que si se renunciara a la reproducción. Por lo tanto, se ha propuesto que tanto la cooperación como la competencia entre las hembras posmenopáusicas y sus parientes más jóvenes explican la evolución de la menopausia.

En conclusión, la evolución de la menopausia en las ballenas y los humanos puede considerarse un ejemplo de evolución convergente, una situación en la que presiones similares de la selección natural conducen a la evolución de la misma característica en especies notablemente diferentes.

Pero en realidad sabemos muy poco sobre la menopausia en los seres humanos. Estamos limitados en los análisis que podemos hacer para explorar la evolución de la menopausia en nuestra propia especie, dado que el análisis comparativo entre los primates no ha sido posible debido a la opinión establecida de que otros primates no experimentan la menopausia. Al menos eso se pensaba hasta el año pasado, cuando se publicó un artículo que demostraba una larga esperanza de vida posreproductiva para las hembras en una población de chimpancés.

En humanos, la evidencia directa de ayuda entre generaciones proporciona un apoyo limitado a las hipótesis sobre la evolución de la menopausia. Existen muchas otras hipótesis para explicarla. Una es que se trata simplemente de un artefacto de la disminución de la mortalidad que ha extendido la esperanza de vida en general, mientras que la esperanza de vida reproductiva se ha mantenido igual.

martes, 26 de marzo de 2024

¿Por qué el domingo de Resurrección de 2019 no fue el 24 de marzo?

 


Un amable lector de mi artículo del pasado 19 de marzo, José GL, me escribe para contarme que “lleva desde 2019 devanándose los sesos” acerca de por qué ese año la Semana Santa no comenzó en marzo como en estricta aplicación de los calendarios lunar y solar le correspondería.  

En 2019, el equinoccio de primavera fue el 20 de marzo y la luna llena lució el día siguiente. Tal y como escribí en aquel artículo, en aplicación de lo aprobado en Nicea, «el Domingo de Resurrección sería el primer domingo posterior a la primera luna llena que siguiera al equinoccio primaveral». En puridad, no es de extrañar que José GL esté a la cuarta pregunta, porque ese año el siguiente domingo al equinoccio de primavera y al siguiente plenilunio fue el 24.

Un párrafo más abajo, yo escribí que «si el plenilunio fuera el 20 de marzo, como el equinoccio está litúrgicamente fijado el día siguiente, habría que esperar un ciclo lunar completo de 28 días, con la inevitable consecuencia de que la primera luna llena de primavera sería el 18 de abril». Por eso mismo, el domingo de Resurrección de 2019 fue precisamente el 21 de abril.

Como quizás debí aclarar un poco más eso de que el “equinoccio está litúrgicamente fijado el día siguiente” [del 20 de marzo], lo hago ahora.

Los equinoccios solar y litúrgico no coinciden

La fecha de celebración del aniversario de la Resurreción de Jesús, es decir la Pascua, generó gran controversia en los primeros años del cristianismo. Las autoridades eclesiásticas no se ponían de acuerdo en el Computus paschalis (para abreviar 'el Cómputo').

Para establecer un poco de orden, el Concilio de Arlés (año 314) obligó a todos los cristianos a celebrar la Pascua en la misma fecha, otorgándole al Papa la potestad de fijarla. Como aún quedaron parroquias 'díscolas' que celebraban la Pascua a su bola, en el Concilio de Nicea de 325 el asunto se abordó de nuevo y se establecieron algunas condiciones, como fijarla en domingo y que nunca coincidiera con la Pascua de los judíos, para evitar confusiones.

A pesar de todo, las discrepancias continuaron, sobre todo porque por aquel entonces la Iglesia de Roma y la Iglesia de Alejandría no se ponían de acuerdo en los cálculos astronómicos. Un par de siglos después, el monje bizantino Dionisio el Exiguo que, a pesar de su sobrenombre iba sobrado en matemáticas, tuvo el enorme mérito de convencer a todo el mundo para que el día de la Resurrección cumpliera las siguientes condiciones:

  • Siempre tiene que caer en domingo porque, según los Evangelios, domingo era el día en que resucitó Jesús.
  • Se eligirí el domingo siguiente al primer plenilunio del equinoccio de primavera en el hemisferio Norte.
  • Para evitar confusiones, porque el equinoccio de primavera no es siempre el mismo día, el astuto Dionisio fijó la fecha del 21 de marzo como 'equinoccio eclesiástico'. No coincide con la llegada exacta de la primavera, pero así, a piñón fijo, hay menos confusiones.
  • Si la luna llena cae en domingo, la Pascua se celebraría el domingo siguiente para evitar coincidir con la Pascua judía (la muerte de Cristo tuvo lugar el día de la Pascua judía).

Teniendo en cuenta su dependencia de la luna llena, el domingo de Resurrección no puede, por tanto, ser ni después del 25 de abril ni antes del 22 de marzo.

Ahí lo dejo. El del retrato de arriba es Dionisio el Exiguo, según dicen.

Tanatobioma, o de cómo los microbios te acompañan desde la cuna hasta la tumba

 




Nuestro cuerpo alberga una comunidad compleja de billones de microorganismos que son importantes para nuestra salud mientras estamos vivos. Además de cumplir muchas otras funciones esenciales, nuestros simbiontes microbianos nos ayudan a digerir los alimentos, producen vitaminas esenciales y nos protegen de infecciones. A su vez, los microbios, que se concentran principalmente en el intestino, viven en un ambiente cálido y relativamente estable con un suministro constante de alimentos.

Pero ¿qué pasa con todos estos aliados simbióticos cuando nos encaminamos al valle de Josafat? Cabría pensar que nuestros microbios mueren con nosotros, porque una vez que el cuerpo se descompone y son expulsados al medio ambiente serán incapaces de sobrevivir en un mundo extraño y hostil. No es así: una reciente investigación ha presentado múltiples evidencias de que nuestros microbios no solo continúan viviendo después de visitar a Caronte, sino que continúan desempeñando un papel importante en el reciclaje que permite que nuestro microbioma pueda incorporarse a una nueva vida.

Vida microbiana después de la muerte.

Cuando mueres, tu corazón deja de hacer circular la sangre que ha transportado oxígeno por todo tu cuerpo. Las células privadas de oxígeno comienzan a digerirse a sí mismas en un proceso de autodestrucción llamado autolisis. Las enzimas de esas células, que normalmente digieren carbohidratos, proteínas y grasas para obtener energía o para crecer de forma controlada, comienzan a trabajar en las membranas, las proteínas, el ADN y otros componentes que forman las células.

Los productos de esta descomposición celular son un alimento excelente para las bacterias simbióticas, y sin un sistema inmunológico que las mantenga bajo control y un suministro constante de alimentos desde el sistema digestivo, recurren a esta nueva fuente de nutrición. Literalmente es un banquete para ellas. Un banquete sin oxígeno, es decir, en las condiciones anaerobias propias de toda fermentación.

Lo que hasta entontes era tu microbioma, pasa a ser un tanatobioma. Las bacterias intestinales, especialmente la especies de Clostridium, unas bacterias anaerobias que los microbiólogos conocen bien porque están implicadas en infecciones potencialmente mortales, se propagan a través de los órganos y los digieren de adentro hacia afuera en el proceso de putrefacción. Sin oxígeno dentro del cuerpo, las bacterias anaeróbicas dependen de procesos de producción de energía que no requieren oxígeno y dejan un desagradable olor producido por los gases propios de toda fermentación.



Desde un punto de vista evolutivo, tiene sentido que nuestros microbios hayan desarrollado formas de adaptarse a un cuerpo sin vida. Como las ratas en un barco que se hunde, nuestras bacterias tendrán que abandonar a su huésped y sobrevivir en el mundo el tiempo suficiente como para encontrar un nuevo huésped al que colonizar. Aprovechar el carbono y los nutrientes de nuestro cuerpo les permite multiplicarse. Una población más grande significa una mayor probabilidad de que al menos unos pocos sobrevivan en un entorno más duro y aumenten las probabilidades de encontrar un nuevo cuerpo.

Una invasión microbiana

Si un cuerpo yace sepultado en el suelo, a medida que se descompone sus microbios se incorporan a la tierra junto con un caldo de fluidos en descomposición. Cuando lo hacen, están entrando en un entorno completamente extraño y hostil para ellos en el que tendrán que competir con una comunidad microbiana completamente nueva propia del suelo, el llamado edafobioma.

Nuestros microbios están adaptados al ambiente cálido y estable de nuestro cuerpo, donde reciben un suministro constante de alimento. Por el contrario, el suelo es un lugar particularmente duro para vivir: es un entorno muy variable con gradientes químicos y físicos pronunciados y grandes oscilaciones de temperatura, humedad y nutrientes. Además, el suelo ya alberga una comunidad microbiana excepcionalmente diversa, llena de descomponedores que están bien adaptados a ese entorno y presumiblemente derrotarán a cualquier recién llegado.

Por eso, es fácil suponer que nuestros microbios morirán una vez que salgan de nuestro cuerpo. Sin embargo, algunas investigaciones han demostrado que las huellas de ADN de los microbios asociados a un huésped pueden detectarse durante meses o años en el suelo debajo de un cuerpo en descomposición tanto en la superficie del suelo como en tumbas después de que los tejidos blandos del cuerpo se hayan descompuesto.

La cuestión es saber si estos microbios todavía están vivos y activos o si simplemente permanecen en estado latente esperando al próximo huésped. La publicación que hemos mencionado sugiere que nuestros microbios no solo viven en el suelo, sino que también cooperan con los microbios del edafobioma para ayudar a descomponer nuestros restos.

En el laboratorio, esas investigaciones demuestran que la mezcla de suelo y fluidos en descomposición llenos de los microbios asociados a un cadáver aumenta las tasas de descomposición por encima de las que son habituales en las comunidades del suelo por sí solas.

Los microbios asociados al cadáver también mejoran el ciclo del nitrógeno. El nitrógeno es un nutriente esencial para la vida, pero en su mayor parte está atrapado en forma de gas atmosférico que los organismos no pueden utilizar directamente. Los organismos descomponedores desempeñan un papel fundamental al reciclar formas orgánicas de nitrógeno, como las proteínas, en formas inorgánicas, como el amonio y el nitrato, que los microbios y las plantas pueden utilizar.

Los hallazgos recientes sugieren que nuestros microbios probablemente estén desempeñando un papel en este proceso de reciclaje al convertir grandes moléculas que contienen nitrógeno, como proteínas y ácidos nucleicos, en amonio, que los microbios nitrificantes del suelo convertirán en nitrato.

Una nueva generación de vida

El reciclaje de nutrientes de la materia orgánica muerta es un proceso central en todos los ecosistemas. En los ecosistemas terrestres, la descomposición de animales muertos alimenta la biodiversidad y es un vínculo importante en las redes tróficas.

Los animales vivos son un cuello de botella para los ciclos de carbono y nutrientes de un ecosistema. A lo largo de su vida acumulan lentamente nutrientes y carbono de grandes áreas y cuando mueren los depositan todos en un lugar pequeño y localizado. Un animal muerto puede sustentar toda una red alimentaria emergente de microbios, fauna del suelo y artrópodos que viven gracias a su cadáver.

Los insectos y animales carroñeros ayudan a redistribuir aún más los nutrientes en el ecosistema. Los microbios descomponedores convierten los grupos concentrados de moléculas orgánicas ricas en nutrientes de nuestro cuerpo en formas más pequeñas y biodisponibles que otros organismos pueden utilizar para sustentar nueva vida. Es frecuente observar plantas floreciendo cerca de un animal en descomposición; ese “criar malvas” es la evidencia visible de que los nutrientes corporales se están reciclando como un abono orgánico que se reincorpora al ecosistema.

Que nuestros propios microbios desempeñen un papel importante en este ciclo es una forma microscópica de continuar vivos después de la muerte sin apelar a lo que nadie ha visto: el alma.

domingo, 24 de marzo de 2024

Vitamina C, cereales y lobotomías

 


Hace unas semanas escribí sobre la vitamina D. Animado por el número de lectores que se han tomado la molestia en leerlo, vuelvo al ataque con otra letra.

Las funciones metabólicas de la vitamina C son tantas y tan beneficiosas que no dispongo de espacio para enumerarlas. La mayoría de los mamíferos sintetizan de forma natural en el hígado la vitamina C, o vitamina antiescorbútica. Para los primates, las cobayas y algunos murciélagos, que carecemos del mecanismo para su síntesis, debe ser ingerida con la dieta, lo que conseguimos comiendo verduras y frutas.

¿Puede la vitamina C curar el resfriado común? La creencia popular es que puede curarlo. Sin embargo, no hay evidencia científica sólida que sostenga tal cosa. La idea de que puede curar los resfriados proviene de la misma fuente de la que proceden las aplicaciones terapéuticas de los cereales y las lobotomías: la eminencia.

Linus Pauling y el poder de la eminencia

El norteamericano Linus Pauling fue un químico eminente y una de las pocas personas que ganó dos veces el premio Nobel. Fue uno de los primeros químicos cuánticos y recibió el premio Nobel de Química en 1954 por su enorme contribución al conocimiento de los enlaces químicos. Publicó la increíble cantidad de 1.200 artículos y libros, incluido un libro de texto sobre enlaces químicos utilizado por estudiantes de todo el mundo. En 1962 recibió el premio Nobel de la Paz por su campaña contra las pruebas nucleares terrestres y en 1969 el premio Lenin de la Paz por su activismo en defensa de los Derechos Humanos.

Hasta ahí todo bien. El que lo traiga a colación en un artículo sobre la vitamina C me sirve de introducción a la diferencia entre la ciencia basada en eminencias y la ciencia basada en evidencias. Las opiniones o consejos que provienen de un científico o médico con una reputación establecida y a menudo estelar, pero que carecen de evidencia, están “basados en eminencias”. Contrastan con la ciencia “basada en evidencias”, es decir, la respaldada por estudios adecuados. En el caso de cuestiones de salud, lo ideal es que sean ensayos aleatorios controlados con placebo.

Todos y cada uno de los descubrimientos y todos y cada uno de los artículos científicos que publicó Pauling estaban basados en la aplicación estricta del método científico, es decir, en evidencias empíricas que cualquier otro científico cualificado podía repetir para ratificarlas o refutarlas.

Curiosamente, ese eminente científico que había publicado cientos de artículos revisados por pares en las principales revistas científicas del mundo, publicó en 1970 un libro, La vitamina C y el resfriado común, en el que afirmaba que el resfriado común se puede curar a base de ingerir vitamina C. Escribió que él mismo predicaba con el ejemplo, pues tomaba varios gramos al día para prevenir los resfriados.

Increíblemente, Pauling, científico respetabilísimo, no ofrecía ninguna evidencia que sostuviera tal cosa salvo su propia experiencia personal y la de su esposa. Pero como Pauling era aclamado como uno de los científicos más importantes del mundo, la prensa aplaudió entusiasmada la historia de la vitamina C y los suplementos de la vitamina volaron de los estantes. Poco después, los laboratorios farmacéuticos de todo el mundo añadieron a sus fármacos el marchamo “Contiene vitamina C”. La evidencia había sido superada por la eminencia.

Aunque el desvío de Pauling hacia los consejos de salud basados en la eminencia pueda resultarnos sorprendente, el hecho es que hasta el siglo XX, cuando comenzaron a surgir los ensayos clínicos, desde la época de Hipócrates la medicina se basaba esencialmente en la eminencia, como probaron, entre otros muchos vendehumos, los doctores Kellogg y Freeman.

Corn flakes y chorros de agua: los remedios absurdos de John Kellogg

John Harvey Kellogg, ¡sí el Kellogg de los cereales!, alcanzó fama universal afirmando que curaba diversas enfermedades con dietas vegetarianas, ejercicio, baños y yogur. Era un excelente comunicador que se hizo famoso entreteniendo a los pacientes de su balneario en Battle Creek, Michigan, con un “experimento” que consistía en arrojar un chuletón y un plátano a un chimpancé.



El simio ignoraba el bistec y se zampaba el plátano en un santiamén, lo que servía para que Kellogg proclamara a la audiencia que incluso esa criatura primitiva sabía que la carne no es buena como alimento. Kellogg creía que comer carne era “sexualmente inflamatorio” y sostenía que las personas que comían beicon en el desayuno estaban condenadas a masturbarse, una actividad que las llevaría a la pudrición del cerebro y a la locura.

Según Kellogg, los copos de maíz, sus corn flakes, eran el alimento antiafrodisíaco del desayuno. En Rational Hydrotherapy, un libro de más de mil páginas que publicó en 1900 y vendió como churros, afirmaba sin evidencia alguna que todas las enfermedades conocidas podían curarse mediante la aplicación de agua fría, caliente o tibia.

Sin encomendarse a dios ni al diablo, describió cómo los chorros de agua dirigidos a diversas partes del cuerpo eran curativos y que las plantas de los pies están conectadas por nervios con los intestinos, los genitales y el cerebro. No había pruebas de nada de esto, claro está, pero Kellogg, al que hoy llamaríamos gurú o influencer, era un médico destacado cuyas afirmaciones, por insensatas que fueran, no eran cuestionadas.

Walter Freeman, el “doctor picahielos”

Los tratamientos de Kellogg eran pan comido comparados con los de Walter Freeman, el “doctor picahielos”, un ejemplo dramático de lo que les ocurre a los pacientes que ponen su fe en la eminencia en lugar de en la evidencia.

Freeman se graduó en la Facultad de Medicina de la Universidad de Pensilvania y posteriormente obtuvo un doctorado en Neuropatología. Llegó a creer que las enfermedades mentales se podían tratar quirúrgicamente e inventó la “lobotomía transorbital”, un procedimiento que implicaba penetrar el cerebro con un instrumento parecido a un picahielos a través de la cuenca del ojo para cortar la conexión de los lóbulos frontales con el hipotálamo.

Para Freeman la nueva técnica era tan simple y sencilla de explicar que en veinte minutos podía enseñar a cualquier tonto a llevar a cabo una lobotomía, incluso a un psiquiatra, especialidad médica que un neurólogo organicista como Freeman tenía en muy baja estima.

Convencido de su éxito, Freeman hizo que le fabricaran el macabro Lobotomovil, una furgoneta en cuya parte posterior se adaptó un quirófano con el que recorrió Estados Unidos dedicado a lobotomizar a casi tres mil quinientas personas. Primero se la aplicó a esquizofrénicos severos, luego amplió el rango a otras enfermedades psiquiátricas, a las depresiones, las obsesiones, la agresividad y la homosexualidad, hasta llegar a las "personas normales", vendiéndolo como "rejuvenecedor de la personalidad" e incluyéndolo, también, como tratamiento del retardo mental ligero por problemas en el parto.

Izquierda: dibujo del libro de Freeman Psicocirugía en el tratamiento de los trastornos mentales y el dolor intratable, muestra su instrumento de lobotomía transorbital inspirado en un picahielos. Derecha: Freeman, “el mayor defensor y pionero de la lobotomía en el mundo”, practicando una lobotomía.


Freeman administraba dos o tres choques eléctricos rápidamente, para dejar inconsciente al paciente. Inmediatamente, le introducía un picahielo bajo el párpado y utilizaba un mazo para darle un golpe seco con el que atravesaba la órbita para acceder a los lóbulos frontales por la vía lacrimal.

Hábil, lo que se dice hábil, sí lo era. Demostró que podía realizar, en el Lobotomovil, más de una docena de lobotomías en una tarde. Eso explica que en 1953 eran ya 20.000 los estadounidenses que tenían destruidos para siempre sus lóbulos frontales gracias a las técnicas de Freeman y sus seguidores. Afortunadamente, en la década de los años 50 apareció la química, que empezó a ser un recurso para los neurólogos y pronto desplazó a la psicocirugía, pero fueron también los primeros años de la epidemia de adicción a los opioides que sufre hoy Estados Unidos.

La eminencia de Freeman se debió en gran parte a haber lobotomizado a Rosemary Kennedy, hermana del futuro presidente. Su padre, el mafioso Joseph P. Kennedy, consideró que los erráticos cambios de humor, las dificultades de aprendizaje y el comportamiento agresivo de Rosemary, que había nacido en un parto complicado, no eran apropiados para un Kennedy. Freeman la lobotomizó. Pasó el resto de sus sesenta años de vida sin poder caminar ni hablar correctamente, con incontinencia absoluta y la edad mental de una niña de dos años.

Desde 1936 en adelante se realizaron decenas de miles de lobotomías en Estados Unidos y Freeman continuó operando durante décadas. El inventor de la lobotomía, el neurólogo portugués Egas Moniz, recibió el Premio Nobel de Medicina en 1949. Los principales centros médicos de Estados Unidos (Harvard, Yale, Columbia y la Universidad de Pensilvania) realizaron regularmente variaciones de la operación básica hasta bien entrado la década de 1950.

Freeman no tenía pruebas de que el procedimiento fuera un tratamiento eficaz para las enfermedades mentales, pero increíblemente y gracias a su labia, a su autopromoción y al aplauso de los medios, logró realizar cientos de lobotomías antes de que se le prohibiera realizar el procedimiento debido a la alarmante tasa de complicaciones.

Hoy hay toda una nueva tropa de médicos cuya eminencia se debe más a su exposición en los medios y a la publicidad engañosa que a sus logros científicos. Mira a tu alrededor y seguro que se te ocurre algún doctor convertido en megainfluencer que utiliza continuamente su fatua “eminencia” para poner palos en la rueda del lento pero seguro carro de la evidencia.

Cuídate de ellos y toma vitamina C si te peta, que nunca está de más siempre que no superes la dosis médica recomendada, unos 100 mg diarios, que se incorporan a nuestro organismo en cualquier dieta equilibrada que contenga frutas y verduras. Lo demás es vicio, inane, pero vicio.

miércoles, 20 de marzo de 2024

La década malva: William Henry Perkin y la pasión por los colores

 


La mauveína o malveína (del inglés ‘mauveine’, malva), también conocida como púrpura de Perkin, malva o anilina morada, fue el primer colorante químico orgánico sintético. Por pura serendipia, un estudiante adolescente descubrió el primer tinte orgánico sintético de la historia, el del color malva. Fue un error rentable que demostró las enormes posibilidades de la química, una ciencia que a mediados del siglo XIX acababa de nacer y apenas tenía aplicaciones.

Con 15 años, William Henry Perkin (1838-1907), el menor de los siete hijos de George Perkin, un acomodado ebanista londinense, ingresó en el Real Colegio de Química. Con 17, era alumno del ilustre August Wilhelm von Hofmann, por entones empeñado en sintetizar quinina, un componente de la medicina contra la malaria, muy demandado en las colonias. En la Semana Santa de 1856, mientras Holfmann estaba de viaje visitando a su familia, Perkin probó una idea suya y oxidó la anilina para intentar obtener quinina.

Después de que uno de sus ensayos no produjera más que una zurrapa rojiza, procedió a limpiar el vaso de precipitados con alcohol. Entonces ocurrió algo sorprendente. Cuando el alcohol se combinó con el sedimento herrumbroso, se convirtió en un líquido purpúreo deslumbrante y hermoso. Perkin se dio cuenta de que había descubierto accidentalmente el primer tinte sintético, la anilina morada o malveína, también conocida en su honor como malva de Perkin.

La producción de la mayoría de los tintes era por entonces muy costosa y su destino estaba limitado a teñir los ropajes de los más ricos entre los ricos. El añil, por ejemplo, se obtenía del índigo, una planta subtropical de nombre evocador, Indigofera tinctoria, que era uno de los principales cultivos comerciales de la economía esclavista del sur profundo estadounidense.

En ese momento, el valor en peso del índigo era mayor que el del oro. Desde la Edad de Bronce, el púrpura de Tiro, tan raro y valioso que siempre se consideró el color imperial, se producía laboriosamente a partir de las excreciones de ciertos tipos de moluscos del género Murex. De la cochinilla, Dactylopius coccus, un insecto que parasita las pencas de las chumberas de cuya savia se nutre a través de un estilete bucal, se obtenía el ácido carmínico o cármico del que se produce laboriosamente el colorante natural carmín.

En comparación, el tinte que descubrió Perkin podía producirse a partir del alquitrán de carbón, abundantemente disponible y barato en la Gran Bretaña industrial. Y mientras que los tintes naturales tendían a desvanecerse rápidamente, las creaciones sintéticas de Perkin mantenían su color lavado tras lavado.

Perkin (segundo por la derecha) y sus colegas de la empresa de colorantes Perkin & Sons, probablemente tomada junto a su fábrica de Greenford Green, 1870. Los colegas de Perkin en la foto ison su hermano Thomas Dix Perkin (segundo por la izquierda), Stocks (detrás a la izquierda), Robert Williamson (centro) y James Thomas Brown (extremo derecho).


En cuanto Perkin estuvo listo para registrar una patente y lanzar un negocio de fabricación de tintes, el negocio comenzó a funcionar viento en popa. Con la moda de las faldas abombadas en auge, se necesitaba más tela que nunca para los vestidos de las mujeres y los colores a la moda estaban muy solicitados. El descubrimiento llegó en el momento adecuado. En medio de la Revolución industrial, Perkin revolucionó las industrias textiles y de tintes para crear una nueva industria: la química.

En la Exposición Real de 1862, la reina Victoria le dio su sello de aprobación cuando apareció con un vestido de seda teñido de mauveína. Se hizo tan popular que se le denominó "sarampión malva". El color malva se convirtió en parte de la cultura victoriana y realmente estuvo a la altura de la moda entre 1856 y 1866. Incluso hoy en día, el color púrpura del malva sigue siendo una imagen popular de este período, gracias en buena medida, también a los famosos sellos malvas de seis peniques.


En pocos años, los colores que habían sido escandalosamente caros se volvieron asequibles para casi todas las personas. Perkin se convirtió en un hombre rico. Pero no cesó con su pasión por los tintes. Durante su carrera, inventó tintes sintéticos de muchos otros colores. Sus descubrimientos fueron mucho más allá de transformar el mundo de la moda. 

El malva de Perkin no solo supuso una revolución en la industria de los tintes, sino también en la medicina. Sus trabajos con tintes artificiales fueron fundamentales para que Walther Flemming pudiera colorear las células y estudiar los cromosomas al microscopio. También ayudaron a que el premio Nobel de Medicina de 1905 Robert Koch descubriera el bacilo responsable de la tuberculosis tras teñir el esputo de un paciente. Es más, el desarrollo de los colorantes sintéticos de Perkin fue crucial para los estudios de Paul Ehrlich, premio Nobel de Medicina en 1908 y pionero en la investigación sobre quimioterapia.

Cuando falleció en 1907 a los 69 años, era un científico consumado y muy reconocido. La Medalla Perkin, el mayor honor en la industria química de Estados Unidos, se otorga cada año al químico que ha realizado la mayor contribución a la aplicación práctica de la química.

martes, 19 de marzo de 2024

Una Semana Santa muy temprana

 


Como este año el Domingo de Resurrección coincide con el 31 de marzo, la Semana Santa será la sexta más temprana de los dos últimos siglos. Solo se le anticiparon los domingos de Ramos de 1818 (15 de marzo), 1913 y 2008 (16 de marzo), 1997 (23 de marzo) y 2016 (20 de marzo).

Al estar regulada por el calendario judío que se guía por la Luna, Semana Santa es una fiesta que varía de un año a otro en relación con el calendario oficial. Como aplicamos el calendario litúrgico católico al escolar, la Semana Santa de 2011 fue la más tardía de las posibles y, como consecuencia, el segundo trimestre escolar fue el más largo de la historia. Los impacientes deberán esperar hasta el 24 de abril de 2095 para que los católicos celebren la resurrección de Cristo.

Por el contrario, este año el Domingo de Resurrección será el 31 de marzo y como consecuencia el segundo trimestre escolar será uno de los más breves de la historia. Otros más cortos están a la vuelta de la esquina: en 2027 y 2032 el Domingo de Resurrección será el 28 de marzo, tan solo tres fechas antes del que se conmemorará este año.

El calendario juliano y las celebraciones cristianas

Para los romanos, el equivalente a las actuales fiestas navideñas eran las Saturnales, que empezaban el 17 de diciembre y duraban siete días en honor al dios de la semilla y del vino, Saturno. Los días centrales de la semana festiva, cuando se organizaban los fastos mayores, las fiestas del Dies Natalis Solis Invicti (Días del Nacimiento del Invencible Dios Sol), se situaban alrededor del solsticio de invierno, el 21 de diciembre, cuando se produce la noche más larga del año, tras la cual el Sol comienza a “vencer” a las tinieblas en progresiva retirada, un día en el que las diferentes civilizaciones celebraban la mayor fiesta del año: la del nacimiento de su respectivo dios, fuera este Zeus, Amón, Mitra, Saturno o Jesús.

Esos días suponían la culminación de las Saturnales en las que se relajaban las costumbres en ambiente de carnaval. A partir del siglo IV, legalizado el cristianismo, se empezó a considerar la celebración de la Navidad (nativitas), el nacimiento del Sol Cristo, en estas fechas. Superponiendo las fiestas se suprimían las fiestas paganas sin prohibirlas. En estas labores los rectores cristianos siempre han sido maestros.

Aunque en ninguna parte de la Biblia se cita la fecha exacta del nacimiento de Jesús, la fiesta de Navidad fue decretada el año 354 por el papa Liberio cuando el emperador Constantino permitió el cristianismo en el Imperio romano, porque fijándola en las viejas Saturnalias no se distorsionaba el calendario a que estaba acostumbrada la administración imperial ni se cambiaban las fechas de los grandes fastos romanos.

La reputada natividad del dios cristiano debía coincidir necesariamente con las fiestas del Sol Invicto, alrededor del solsticio de invierno. Aferrándose a una tradición judía que establecía que todos los profetas nacían y morían el mismo día, los primeros cristianos, que creían a pies juntillas que Jesús murió exactamente un 25 de marzo, fijaron el 25 de diciembre, el último de los fastos paganos, como su fecha de nacimiento.

Cristo pasó a ser el verdadero Sol Invicto. Tan prendidos estaban de la equivalencia solar que, abandonando el tradicional sabbath judío, el nuevo día de descanso para los cristianos sería el día siguiente, al que llamaron Dies Solis, el Día del Sol, denominación que se ha conservado en el Sunday anglosajón.

¿Cuándo se designó el Domingo de Resurrección?

Veinticinco años antes de que Liberio fijara el día de Navidad, en el concilio de Nicea (325 d.C.) se había establecido la fecha de la Pascua, que en las primeras comunidades cristianas se hacía coincidir con la Pascua hebrea. Fijar bien esta fecha en el calendario romano oficial, el juliano, era una cuestión capital porque en ese punto el Nuevo Testamento es muy explícito: Jesús acudió a Jerusalén para celebrar la Pésaj o Pascua judía y es en esas fechas cuando transcurre su pasión, muerte y resurrección, que tuvo lugar el «día siguiente al sabbath de la Pésaj».

Aunque la Pésaj conmemora supuestamente los siete días de la huida de Egipto, en realidad se corresponde con una fiesta varias veces milenaria en la que todas las culturas mediterráneas celebraban el equinoccio de primavera (20-21 de marzo), haciéndola coincidir alrededor de la primera luna llena posterior a ese equinoccio. A partir de Nicea el Domingo de Resurrección sería el primer domingo posterior a la primera luna llena que siguiera al equinoccio primaveral. Para marcar diferencias con los judíos, también decidieron que los años en que coincidiera con la Pésaj, el Domingo de Resurrección se debía trasladar al siguiente domingo del calendario.

Usando el algoritmo Computus, desarrollado en el siglo XIX por el matemático alemán Gauss, se delimitan con relativa facilidad las fechas posibles para fijar el Domingo de Resurrección, que puede caer entre dos extremos. El más temprano de los posibles sería el 22 de marzo (como ocurrió en 1818, cuando Fernando VII imponía el absolutismo), y ocurriría cuando el 21 fuera sábado con plenilunio.

Inversamente, si el plenilunio fuera el 20 de marzo, como el equinoccio está litúrgicamente fijado el día siguiente, habría que esperar un ciclo lunar completo de 28 días, con la inevitable consecuencia de que la primera luna llena de primavera sería el 18 de abril. Si este día cayese en domingo, la fecha de la Resurrección tendría que desplazarse una semana entera para que no coincidiera con la Pascua judía, de modo que ese domingo sería el más tardío de los posibles: el 25 de abril. En 2011 cayó en 24, pero a efectos de las vacaciones escolares dio exactamente lo mismo: ese trimestre fue el más largo de la historia y, de seguir aferrados al calendario litúrgico, lo será también en el futuro.

Antes de la de este año, ha habido otras cinco más tempraneras, una de ellas en 2008, en la que se vivió el Domingo de Pascua el 23 de marzo, como ya había sucedido en 1913. Y más tempranera aún fue la de 1818, cuando coincidió con el 22 de marzo, lo que volverá a repetirse en 2285. La siguiente más tempranera será en 2035, cuando coincidirá con el 25 de marzo.

En el lado contrario, las que más tarde han caído, tenemos una cercana, en 2011 que coincidió con el 24 de abril, al igual que en 1859. Y todavía hay dos más lejanas, la que se celebró en 1943 y la de 2038, que coincidirá con el 25 de abril.

Como el Domingo de Resurrección es la piedra angular del calendario litúrgico, las demás celebraciones lo toman como referencia: cuarenta días antes es miércoles de Ceniza, fecha de comienzo de la Cuaresma. Después del Domingo de Resurrección vienen la Ascensión (40 días después), Pentecostés (50 días), y Corpus Christi (jueves siguiente a Pentecostés).