sábado, 24 de febrero de 2024

Cómo se inventaron los años bisiestos

 


Los años bisiestos sirven para mantener el calendario de doce meses ajustado con el movimiento de traslación de la Tierra alrededor del Sol.

A partir de los tres años desarrollamos una memoria consciente que nos permite fijar la atención y asimilar muchas cosas que recordaremos para siempre. Quizás por eso se nos quedó grabado aquello que nos enseñaron en el parvulario de que la Tierra tarda 365 días en dar una vuelta completa alrededor del Sol, aunque en realidad ese viaje dure alrededor de 365 días y cuarto.

Después de cuatro años, ese cuarto de horas de más suman un día entero. Para ajustar el calendario, cada año bisiesto añadimos un día al mes de febrero, que pasa a tener 29 días en lugar de los 28 habituales. La historia de ese ajuste cuatrienal se remonta a la antigua Roma, cuando la gente organizaba su vida alrededor de un año de 355 días porque aquel calendario romano ancestral se basaba en los ciclos y fases de la Luna.

Como es sabido, la Luna tarda el mismo tiempo en dar una vuelta sobre sí misma (por eso mantiene siempre una cara oculta) que en cumplir una fase completa, es decir, los 27 días, 7 horas y 43 minutos que se toma para dar una vuelta completa alrededor de la Tierra, la llamada revolución sideral, una medida exacta si se considera el giro respecto al fondo estelar.

Pero como la Tierra gira alrededor del Sol al mismo tiempo, la Luna tarda un poco más en mostrarnos la misma fase. La revolución sinódica, es decir, el intervalo de tiempo que transcurre entre dos fases lunares iguales y visibles desde un mismo punto de la Tierra es de 29 días, 12 horas y 44 minutos. A este período se le llama mes sinódico, que, multiplicado por doce meses, da un año lunar de 354,3672 días.

Los romanos se dieron cuenta de que su calendario ancestral no estaba sincronizado con las estaciones. Para ponerse al día con los días faltantes y alinear el calendario romano original de 355 días con los 365 del año solar, cada dos años decidieron insertar en el almanaque un mes adicional al que llamaron Insertoris o Mercedonius.

Como el ajuste no acababa de funcionar, en el año 45 a. C. el emperador Julio César impuso un calendario solar inspirado, por no decir plagiado, en otro desarrollado en Egipto. Cada cuatro años, febrero recibía un día adicional para mantener el calendario alineado con el viaje de la Tierra alrededor del Sol. En honor a Julio César, ese calendario todavía se conoce como juliano.

Guía esquemática del cielo nocturno. Los antiguos egipcios eran astrónomos concienzudos. Esta sección del techo de la tumba de Senenmut, un funcionario de la corte suprema de Egipto, se dibujó alrededor de 1479-1458 a. C. Muestra constelaciones, dioses protectores y 24 ruedas segmentadas para las horas del día y los meses del año. Foto: NebMaatRa/Wikimedia , CC BY.

Pero ese no fue el último cambio. Con el paso del tiempo, los astrónomos fueron afinando y se percataron de que el viaje de la Tierra no duraba exactamente 365,25 días: en realidad, duraba 365,24219 días, que son aproximadamente once minutos menos. Por tanto, agregar un día entero cada cuatro años era en realidad una corrección un poco mayor que la estrictamente necesaria.

Así siguieron las cosas hasta que los desfases acumulados por el calendario juliano durante más de quince siglos provocaron tal desajuste en el inicio de la Pascua de Resurrección, la “Pasche celebratione”, la principal celebración cristiana, que se hizo necesario corregirlo para ajustarse al dogma católico y establecer el año litúrgico.

Con tal motivo, el papa Gregorio XIII convocó la Comisión del Calendario que debía proponer uno exacto y con vocación de constituirse en universal. La cincuentena de sesudos astrónomos acabó por redactar un Compendium correctionis calendarita pasche celebratione, una corrección inspirada en las Tablas alfonsíes, redactadas en el siglo XIII por iniciativa del monarca Alfonso X de Castilla, a su vez casi calcadas de las Tablas toledanas elaboradas por astrónomos árabes dos siglos antes. En el Compendium, al que muy bien se hubiera podido llamar refrito, el año solar aparecía con un valor de 365 días, 5 horas, 49 minutos y 16 segundos.

Esa medición, ampliamente difundida en Europa durante el siglo XVI, fue aceptada en 1580 como correcta por la Comisión del Calendario. Finalmente, los cambios para el nuevo almanaque quedaron recogidos en la bula Inter Gravissimas promulgada por Gregorio XIII en febrero de 1582, aunque su aplicación se pospuso prudentemente a octubre de ese año. Ese calendario es el actualmente utilizado de manera oficial en casi todo el mundo, incluida China, a pesar de que los chinos sigan usando su milenario calendario tradicional con fines exclusivamente festivos.

Retrato de Gregorio XIII por Bartolomeo Passerotti c. 1536. Fuente

Por no dar una puntada sin hilo, en la bula papal se hizo un pequeño ajuste. Seguiría habiendo un año bisiesto cada cuatro años, excepto en los años “siglo” (años divisibles por 100, como 1700 o 2100) a menos que también fueran divisibles por 400. Puede sonar un poco enigmático, pero este ajuste hizo que el calendario fuera aún más preciso y, a partir de ese momento, se conoció como calendario gregoriano.

Otros calendarios de todo el mundo tienen sus propias formas de contabilizar el tiempo. El calendario hebreo, que está regulado tanto por la Luna como por el Sol, es un gran rompecabezas con un ciclo de 19 años. De vez en cuando, agrega un mes bisiesto para garantizar que las celebraciones especiales se realicen en el momento adecuado a las normas de la Torá.

El calendario islámico es aún más peculiar. Sigue las fases de la Luna y no añade días extra. Dado que un año lunar tiene sólo unos 355 días de duración, las fechas clave del calendario islámico se adelantan entre 10 y 11 días cada año sobre el calendario solar. Por ejemplo, el Ramadán, el mes islámico de ayuno, cae en el noveno mes del calendario islámico. En 2024, tendrá lugar del 11 de marzo al 9 de abril, por lo que coincidirá en parte con la Semana Santa; en 2025, del 1 al 29 de marzo; y en 2026 se celebrará del 18 de febrero al 19 de marzo. En 2011, cayó en pleno mes de agosto, por lo que a las exigencias del ayuno se unieron las penalidades del calor.

La Astronomía nació como una forma de darle sentido a nuestra vida diaria, vinculando los acontecimientos que nos rodean con los fenómenos celestes. El concepto de años bisiestos es un ejemplo de cómo, desde muy antiguo, los humanos pusieron orden en condiciones que parecían caóticas.

El trabajo de los astrónomos es apasionante y también extremadamente humillante: muestra constantemente que, en el gran esquema del tiempo universal, nuestras vidas ocupan apenas un segundo en la vasta extensión del espacio y el tiempo incluso en los años bisiestos, cuando añadimos un día más.

Unas herramientas simples, poco sofisticadas pero efectivas, nacidas de ideas creativas de los antiguos astrónomos, proporcionaron los primeros indicios para comprender la naturaleza que nos rodea. Algunos sistemas antiguos persisten hoy en día, revelando la esencia eterna de nuestra búsqueda por comprender la naturaleza, una búsqueda secular que, desgraciadamente, está llevando a su extinción

Y es que cuando el hombre, olvidando el sello indeleble de su ínfimo origen, pasó de vivir en la naturaleza a vivir de la naturaleza, inició la historia interminable de su propia condena como especie. 

lunes, 19 de febrero de 2024

Arroz con carne

 

Cuenco de arroz con carne.Los granos de arroz con células animales integradas pueden ser un atajo hacia un sistema alimentario sostenible.Foto cortesía de la Universidad Yonsei


Solo un puñado de científicos investigaba hace unos años el potencial de la carne hecha en laboratorio. La primera hamburguesa de carne cultivada del mundo, que según los informes costó alrededor de un cuarto de millón de euros, fue hecha por Mark Post, de la Universidad de Maastricht, que se la zampó en una conferencia de prensa en 2013. Sigue vivo.

Los investigadores están seguros de que si logran que las células musculares cultivadas crezcan, la carne  carne cultivada en laboratorio se podrá incluir en el menú. Estos productos están ahora mucho más cerca del mercado: más de 150 empresas de todo el mundo están trabajando en carne cultivada (desde carne picada hasta filetes, pollo, cerdo y pescado), leche o productos relacionados con la "agricultura" celular.

Las autoridades estadounidenses de seguridad alimentaria aprobaron en junio de 2023 la comercialización de la carne cultivada en laboratorio, convirtiendo al país en el segundo en el mundo (después de Singapur) en autorizar el consumo humano de este alimento semiartificial. Se espera que al menos un producto esté disponible en un restaurante estadounidense este año, incluso si inicialmente se haya vendido con pérdidas. Se están construyendo plantas de producción y la inversión ha alcanzado los 2.780 millones de dólares, según un informe de esta industria innovadora.

A medida que aumenta la actividad comercial, los biotecnólogos se afanan en la mejora del cultivo celular y en perfeccionar otras fases del proceso. Tampoco cesan los esfuerzos de sus defensores, que dicen que la carne cultivada reducirá los impactos negativos del insaciable apetito que la humanidad siente por la carne y mitigará los efectos perversos que la ganadería intensiva, en especial la vacuna y la porcina, provoca en el equilibrio ecológico de la Tierra y en el agravamiento del cambio climático, porque no hay que olvidar que la ganadería utiliza grandes cantidades de suelo y representamás del 14% de las emisiones mundiales de gases de efecto invernadero.

Cada año mueren en el mundo 80.000 millones de animales para darnos de comer  y un informe conjunto de las Naciones Unidas y la Organización para la Cooperación y el Desarrollo Económico predice que, gracias al creciente aumento del nivel de vida, en 2031 la demanda mundial de carne habrá aumentado en un 15%

Así las cosas, uno de los desafíos más importantes a las que se enfrenta el futuro de la humanidad es encontrar fuentes alternativas de proteínas o hacer que la producción ganadera convencional sea más eficiente. Esa necesidad ha estimulado en los últimos años muchos proyectos de carne cultivada, que van desde filetes de salmón hasta productos similares a la carne picada. Hasta el año pasado, sólo Estados Unidos y Singapur habían aprobado la venta de carne cultivada en laboratorio.

El último proyecto de esta tendencia imparable acaba de presentarse: un grupo de investigadores surcoreanos acaba de publicar los resultados de una investigación en la que el arroz se ha utilizado como medio de cultivo para el crecimiento de células musculares y grasas de carne de bovino, lo que ha resultado en una combinación comestible de arroz y carne con un sorprendente sabor a nuez (dicen quienes la han catado), que se puede cocinar de la misma manera que el arroz normal.

Los investigadores han utilizado métodos de fabricación similares a los de otros productos cárnicos obtenidos cultivando células animales en laboratorio. Usar arroz como base de cultivo supone añadirle valor nutritivo al cereal, porque el arroz con carne tiene un contenido de grasas y proteínas ligeramente mayor que el arroz normal.

Los granos de arroz, sembrados con células bovinas  colocados en el medio de crecimiento. Cortesía de la Universidad Yonvei


Es más que probable que los consumidores habituales prefieran los sabrosos platos tradicionales elaborados con arroz (sí, esos en los que estás pensando), pero los investigadores surcoreanos esperan que su arroz con carne se incorpore a la dieta de colectivos con difícil acceso a la carne, para alimentar a las tropas y para reducir el impacto ambiental de la cría de ganado para carne.

El equipo de investigadores surcoreanos intentó cultivar células de carne bovina directamente en las oquedades porosas de un grano de arroz, pero las células no se adaptaron bien a la textura superficial del grano. En cambio, barnizarel arroz con una capa de gelatina de pescado y transglutaminasa microbiana, un aditivo alimentario ampliamente utilizado, mejoraba la unión y el crecimiento de las células. Después de empapar los granos de arroz crudos con la mezcla de gelatina y aditivos, el equipo sembró en ellos células musculares (miocitos) y grasas (adipocitos) de carne y de bovino.



Luego, las células permanecieron en el medio de cultivo durante aproximadamente una semana y ¡voilá!: después del período de cultivo, el arroz cárnico respondió al hervido con vapor como lo haría otro arroz cualquiera

El contenido nutricional es diferente, pero muy poco. Una ración de 100 gramos de arroz cárnico contiene 0,01 gramos más de grasa y 0,31 gramos más de proteína, una mejora del 7% y el 9% respectivamente en comparación con un arroz convencional. Según el estudio, es esencialmente lo mismo que comer 100 gramos de arroz con un gramo de carne, lo que se debe a que el contenido de células de carne es bajo porque tan solo forman un barniz sobre el arroz.

Los investigadores sostienen que el contenido nutricional podría mejorarse aumentando el número de células bovinas en los granos de arroz. Es posible que se logre, pero hay un problema en la respuesta de las células animales: aunque las células musculares crecen con relativa facilidad, las células grasas no crecen tan bien como aquellas.

Lo que si cuadra perfectamente son los costes. Cualquier producto que aspire a venderse bien debe mantener un precio asequible, sobre todo si se pretende destinarlo a colectivos de ingresos bajos. El equipo estima que un kilo de su arroz tal como se elabora ahora costaría unos 2,07 euros, un precio muy interesante si se compara con el arroz convencional (algo menos de dos euros) y mucho menos que la carne picada de bovino, que ronda los diez euros el kilo siendo optimista. 

Si la producción puede ampliarse y mantenerse asequible, el arroz híbrido podría ser una fuente de nutrición más barata y eficaz que las hamburguesas y los filetes de carne cultivada en laboratorio. Por el momento, el arroz cárnico abre un camino más en la búsqueda de alimentos alternativos, una senda en la que los alimentos híbridos formados a partir de la combinación de ingredientes vegetales y animales tienen un enorme potencial para convertirse en alimentos razonables en el futuro. ©Manuel Peinado Lorca. @mpeinadolorca.

domingo, 18 de febrero de 2024

El chocolate ni mata ni cura, pero engorda

 


Circulan una serie de mitos sobre alimentos que, aunque se venden como saludables, responden a intereses que nada tienen que ver con el bienestar del cuerpo. Me refiero, por ejemplo, a la falsa creencia repetida hasta la saciedad de que una copa de vino al día es saludable, algo para nada cierto como puso de relieve un estudio de la Sociedad Americana de Oncología Clínica que en España no se ha difundido lo que se debiera, en que se concluía que el consumo de alcohol, incluyendo el "moderado", está relacionado con «un mayor riesgo de padecer varios cánceres importantes, incluidos los de mama, colon, esófago y de cabeza y cuello».

Entre este grupo de ideas erróneas ampliamente difundidas hay que destacar otra: que tomar un par de onzas de chocolate después de comer o como merienda es positivo para la salud. La que sigue es una breve disquisición sobre las supuestas propiedades benéficas del chocolate, un producto industrial que, publicitado por la industria apoyándose en las tendencias actuales a consumir todo lo que pasa por “saludable”, ha pasado en los últimos años de ser una golosina y un postre delicioso para presentarse como un ejemplo de alimento que encierra un sinfín de propiedades a cuál más beneficiosa para la salud.  

Como esta narración no tiene vocación de mantener secreto alguno, empezaré por desvelar la respuesta: el chocolate no es bueno para la salud. Que se haga pasar por un producto nutritivamente beneficioso se debe a la ganancia de pescadores (léase la industria) que faena en unas aguas deliberadamente revueltas en las que se hace pasar un grasiento y extraordinariamente azucarado producto industrial (el chocolate) por otro natural (el cacao).

Si vamos a hablar sobre la ciencia del chocolate, lo primero que debo decir es esencial. El chocolate que comes no es el chocolate que bromatólogos y nutricionistas utilizan en sus investigaciones, al menos en la mayoría de los casos. En la investigación se suele utilizar extracto puro de semilla de cacao cuya composición es radicalmente diferente a chocolates comerciales y bombones, cuyo contenido en azúcares añadidos supera por lo general el 50%. Así que los bombones de precio exorbitante que regalaste el día de San Valentín porque no tuviste la previsión de comprarlos cuando estaba en oferta, son muy diferentes.

¿Qué es el cacao y qué es el chocolate?

En otro artículo escribí sobre el cacaotero Theobroma cacao, un árbol que produce unas bayas ovaladas que los cultivadores llaman “mazorcas”, cuyo interior encierra de 30 a 50 semillas envueltas en una pulpa blanquecina muy amarga y astringente. La principal utilidad de las semillas es la producción de polvo y manteca de cacao, ambos utilizados fundamentalmente para la producción de chocolate.

Mazorca y flores de Theobroma cacao


Dos de cada tres de los seis millones de toneladas de semillas que se producen cada año en el mundo se utilizan para fabricar chocolate a través de un proceso complejo que describí en ese mismo artículo al que me remito ahora.

El cacao sin un tratamiento industrial posterior, el cacao natural, es ligeramente ácido (pH 5-6) de color rojizo y sabor algo astringente. El bloque de manteca de cacao, el componente más valioso del chocolate puro, se compone en la mayoría de casos de cacao puro y manteca de cacao que la industria mezclará generosamente con azúcares diversos para endulzar el sabor amargo natural de las manteca. Para fabricar las variedades de chocolate a la leche se añade leche en polvo.

Punto primero: hablar de cacao no es lo mismo que hablar de chocolate, de la misma forma que hablar de cebada no es lo mismo que hablar de güisqui, ni hablar de petróleo bruto es lo mismo que hablar de gasolina refinada.

Unas investigaciones muy refinadas

El extracto de la semilla de cacao ha sido un objetivo intrigante para la investigación porque contiene una gran cantidad de moléculas como los flavonoides de propiedades antioxidantes y los alcaloides teobromina y cafeína, que podrían tener posibles beneficios médicos. El chocolate que se vende en las tiendas, por el contrario, está cargado de grasa y azúcar para que tenga buen sabor. Sin esos aditivos, sería bastante amargo y desagradable para la mayoría de los consumidores. Pero esa adición artificial destruye en gran medida cualquier supuesto antioxidante saludable que pudiera haber estado presente en la semilla original.

Se suele argumentar que el chocolate negro, que contiene una mayor proporción de cacao es más saludable. Relativamente habría que añadir: aunque contiene menos azúcar, todavía contiene una cantidad significativa (más del 50%) que, como ocurre con la ingesta excesiva de cualquier chocolate, conducirá invariablemente a un aumento de peso.



Hay estudios que han analizado poblacionalmente el consumo de chocolate. El estudio danés sobre Dieta, Cáncer y Salud, el estudio de los efectos de la cafeína sobre la salud en mujeres estadounidenses y otro análisis publicado en la revista cardiológica de referencia, el American Journal of Cardiology, investigaron los hábitos alimentarios para comprobar si el consumo de chocolate estaba relacionado con una reducción de una arritmia específica, la fibrilación auricular.

Este tipo de estudios siempre son problemáticos porque dependen de que las personas recuerden con precisión su consumo habitual de alimentos. Pero incluso si se aceptan al pie de la letra, no han dado resultados concluyentes. Sólo los dos primeros sugirieron cierto beneficio, aunque mínimo. El tercero no lo hizo.

Estudios como estos basados en la observación suelen generar resultados contradictorios debido a las diferencias entre los grupos de personas y al eterno problema de la mala memoria. Los ensayos aleatorios suelen ser mejores y más fiables. Hay bastantes ensayos de análisis de la tensión arterial en los que se compara un producto de cacao rico en flavonoides con un placebo o un cacao en polvo sin flavonoides.

Una revisión de 35 de esos ensayos demostró que los productos de cacao ricos en flavonoides redujeron la presión arterial, pero en menos de dos puntos. Es poco probable que reducir la presión arterial de 128 a 126 produzca muchos beneficios si se considera la cantidad de grasa y azúcar que se consumen a cambio.

Se suponía que la verdadera prueba de los beneficios terapéuticos del chocolate vendría del estudio COSMOS, un gran análisis aleatorio que evaluó resultados tanto cardiovasculares como cognitivos relacionados con el Alzheimer y la demencia senil. El análisis lo financió la multinacional chocolatera Mars, la cual, como es obvio, estaba interesada en unos buenos resultados. Para conseguirlo, nada mejor que en los análisis no se utilizara chocolate comercial, sino extractos puros de cacao. A pesar de eso, COSMOS se publicitó cómo la investigación más seria realizada jamás.

Cuando la revista clínica de la Alzheimer Association publicó en 2022 los resultados de COSMOS, el extracto de cacao no mejoró los resultados cardiovasculares ni las puntuaciones de memoria en ninguna de las pruebas cognitivas. Si eso se logró usando extractos de cacao puro, no me negarán que es dudoso que comer chocolate comercial hubiera generado mejores resultados.

La publicación de COSMOS no generó muchos titulares, entre otras cosas porque Mars se encargó de no darles publicidad. Tuvo una mayor difusión un estudio absurdo que relacionaba el consumo de chocolate con los premios Nobel y venía a concluir que cuanto más chocolate comieras más probabilidades tenías de conseguir un Nobel.

No faltan estudios favorables, aunque están patrocinados por empresas chocolateras. Durante los últimos treinta años, empresas como Nestlé, Mars, Barry Callebaut y Hershey's (los mayores productores de chocolate del mundo) han invertido millones de dólares en estudios científicos y subvenciones para financiar investigaciones que apoyen las bondades del cacao.

En resumen, sin necesidad de devanarse los sesos, por sesgadas que sean y a pesar de intentar presentarlas con la mejor de las caras, las pruebas existentes están muy lejos de demostrar que comer chocolate sea saludable para el corazón, bueno para el cerebro ni que aporte beneficio terapéutico alguno.

Eso no quiere decir que no puedas comer chocolate. Puedes y probablemente lo harás cuando tengas algo que celebrar. Lo que no debes hacer es engañarte pensando que es saludable. Eso sí, engordar, engorda. ©Manuel Peinado Lorca. @mpeinadolorca.

domingo, 11 de febrero de 2024

Las algas, Chernobyl y el primer alimento funcional del mundo

 


Europa ardía. América ardía. La irrupción de Napoleón en los campos de batalla europeos unida a los movimientos independentistas americanos, hizo que a principios del siglo XIX la producción de nitrato de potasio (salitre), un componente esencial de la pólvora, fuera una industria en auge.

Una industria en auge, pero en absoluto innovadora. El salitre, la sustancia vital pero misteriosa que anhelaban los gobiernos, era un tesoro inestimable. La seguridad nacional dependía del control de este material orgánico, que tenía propiedades a la vez místicas y minerales. Derivado del suelo enriquecido con estiércol y orina, proporcionaba el corazón o "madre" de la pólvora, sin la cual no se podía disparar ningún mosquete o cañón.

Conseguirlo implicaba conocimientos alquímicos y una tecnología primitiva que, finalmente, conduciría al dominio del mundo. En 1561, Isabel I de Inglaterra, en guerra con Felipe II, no pudo importar el salitre (del que Inglaterra no tenía producción propia), y tuvo que pagar 300 libras de oro al capitán alemán Gerrard Honrik por un manual para fabricarlo.

Cuando todavía los grandes salitreros de Bolivia o de Chile eran un recurso tan infinito como desconocido, en Europa los agentes gubernamentales, los odiados "salitreros", invadían terrenos privados, rebuscaban en granjas y en cuevas donde el guano de los murciélagos se había acumulado durante milenios, para obtener un suministro insuficiente que obligaba a ponerse en manos de comerciantes extranjeros.

Con el tiempo, las enormes importaciones de salitre de Suramérica para los españoles y de la India para Gran Bretaña aliviaron la presión social y, en el siglo XVIII, posicionaron a Gran Bretaña como potencia imperial global; los gobiernos de los Estados Unidos revolucionarios y de la Francia del antiguo régimen, por otro lado, se vieron obligados a encontrar fuentes alternativas de esta preciada sustancia.

Una típica salitrería (Alemania, circa 1580) con depósitos de lixiviación (C) llenos de materias vegetales en descomposición mezcladas con excrementos. Un trabajador recoge el nitro eflorescente de los depósitos de lixiviación para pasarlo luego a ser concentrado por ebullición en las calderas de la factoría (A). Fuente.


El nitrato de potasio se aislaba de las cenizas que quedaban después de quemar algas, un proceso complicado. Un día de 1811, el tanque de algas de la fábrica de salitre del descubridor de la morfina, el químico francés Bernard Courtois, necesitaba una limpieza a fondo y decidió que el ácido sulfúrico era el producto químico adecuado para dejarlo como una patena. A los pocos minutos, un atónito Courtois vio cómo su salitrería se llenaba de vapores violetas que luego se depositaban en las superficies y formaban cristales. No lo sabía, pero había descubierto el yodo, el halógeno que, más tarde, el gran fisicoquímico francés Gay Lussac identificó como un nuevo elemento al que llamó “yodo”, del griego que significa violeta.

Las algas son una fuente del ion yoduro (I), que en el afortunado accidente de Courtois fue oxidado a yodo por el ácido sulfúrico. Saberlo, llamó la atención de Jean Francois Coindet, un médico suizo que estaba familiarizado con el uso tradicional de las cenizas de esponja de mar para tratar la hinchazón en el cuello causada por el agrandamiento de la glándula tiroides conocida como "bocio".

¿Podría ser, se preguntó Coindet, que las esponjas también contuvieran yoduro y que este fuera el principio activo? Él no era químico, pero continuó tratando con éxito a sus pacientes de bocio con yodo, aunque sin entender por qué funcionaba. Finalmente, en 1896, el primer químico en fabricar PVC, el farmacéutico alemán Eugene Baumann, descubrió que el yodo se concentraba en la glándula tiroides y especuló con que el agrandamiento de la glándula se debía a su frenético intento de secuestrar la mayor cantidad de yodo posible cuando el suministro era deficiente. 

Falleció sin saber que su especulación era tan cierta como que la Tierra es redonda. La tiroides requiere yodo para incorporarlo a la estructura molecular de las hormonas que produce, entre otras la tiroxina, la hormona del crecimiento que hace que los tejidos se desarrollen en las formas y proporciones adecuadas.

Cuando se supo, adquirió pleno significado un hecho bien conocido: las personas que viven cerca del mar rara vez padecen bocio. El fondo marino contiene sales de yoduro solubles que pasan al agua y se concentran en las plantas y animales que finalmente consumimos. El yoduro del océano también se infiltra en los suelos litorales y desde allí pasa a los cultivos.

En el interior hay menos yodo, razón por la cual hasta principios del siglo XX el Medio Oeste estadounidense era conocido como el “Cinturón del Bocio”, una funesta denominación que hoy sigue aplicándose a las regiones del Himalaya donde la falta de yodo causa estragos. Los cultivos y los animales que se alimentaban de sus pastos contenían muy poco yodo.

Mujeres nepalíes afectadas por el bocio en el "Cinturón del bocio" del Himalaya. Fuente.


El papel fisiológico del yodo se identificó claramente en 1914 cuando el bioquímico estadounidense Edward Calvin Kendall aisló la hormona tiroidea y se demostró que contenía yodo. En 1924, para solucionar el problema de la baja ingesta de yodo, Michigan comenzó a experimentar añadiendo yoduro de sodio a la sal, y el resto, como suele decirse, es historia. La sal yodada se convertiría en nuestro primer “alimento funcional”.

La conexión del yodo con la tiroides también interesó al doctor Saul Hertz, cuya investigación se centró en la enfermedad de Graves, una afección en la que la glándula tiroides se vuelve hiperactiva y produce demasiada hormona. Dado que la tiroides concentra yodo, Hertz se preguntó si la administración de pequeñas cantidades de yodo radiactivo podría destruir parcialmente la tiroides y reducir su actividad.

En 1946 demostró que el isótopo radiactivo del yodo, el yodo-131, era un tratamiento eficaz para el hipertiroidismo que hasta hoy sigue siendo la terapia estándar para la enfermedad de Graves. La terapia con yodo radiactivo también se utiliza en casos de cáncer de tiroides. Las células cancerosas que se multiplican rápidamente pueden destruirse mediante radiación.

Pero la radiación es un arma de doble filo. Los rayos gamma y las partículas beta emitidas por el yodo-131 también pueden alterar la estructura del ADN y provocar cáncer. Esta es una preocupación importante en cualquier accidente en una central nuclear, ya que el yoduro radiactivo es uno de los productos del proceso de fisión del uranio utilizado para generar electricidad.



Si el yodo-131 se libera accidentalmente puede inhalarse o ingerirse a través de las plantas, los productos lácteos o la carne contaminados. Una forma de prevenir la acumulación de yoduro radiactivo en la tiroides es saturar la glándula con el isótopo no radiactivo del yodo. Por ese motivo se distribuyen pastillas de yoduro de potasio a las personas que viven en las proximidades de las centrales nucleares. En caso de accidente, se les aconsejaría tomar una dosis adecuada (130 mg al día para un adulto, la mitad para un niño) hasta que el riesgo haya pasado.

Los peligros de la exposición al yoduro radiactivo, especialmente en los niños, quedaron dramáticamente demostrados en 1986 en Ucrania después del accidente de Chernobyl. En las zonas afectadas por la columna radiactiva, en apenas cuatro años hubo un enorme aumento de cáncer de tiroides en niños. Polonia, donde se distribuyeron inmediatamente tabletas de yoduro de potasio a unos 11 millones de niños y 7 millones de adultos después del accidente, constituyó un notable contraste con la situación de Ucrania. Prácticamente no se observó ningún aumento en el cáncer de tiroides, lo que demuestra claramente el efecto protector del yoduro de potasio.

De las algas oceánicas a Chernobyl, un hilo conductor entre la vida y la muerte.

sábado, 10 de febrero de 2024

El misógino club de los once solteros



En el París de 1851, un grupo de jóvenes solteros, entre ellos el célebre escritor Julio Verne, fundaron un club exclusivo para hombres: "Los once solteros". El Café de la Regence se convirtió en su refugio, un espacio donde la literatura, la política y otros temas cobraban vida bajo la sombra de una regla inquebrantable: las mujeres no eran bienvenidas.

Aunque la lista completa de miembros permanece en el misterio, algunos nombres ilustres se asocian al club. Figuras como Théophile Gautier, poeta y novelista; Charles Monselet, escritor y crítico; y Gustave Flaubert, autor de la aclamada "Madame Bovary", formaron parte de este círculo elitista.

Las actividades del club giraban en torno a debates apasionados sobre diversos temas. La literatura ocupaba un lugar central, con recitales de poemas, análisis de obras y ácidas críticas a autores. La política también se debatía con fervor, discutiendo ideas y analizando los acontecimientos de la época. La ciencia, con sus fascinantes descubrimientos y las especulaciones sobre el futuro, completaba el menú intelectual del club.

Sin embargo, una sombra oscurecía las actividades del club: la misoginia. Una profunda aversión hacia las mujeres permeaba las ideas de sus miembros, quienes las consideraban inferiores a los hombres y las excluían del ámbito intelectual y artístico.

El club "Los Once sin mujer" se convierte, así, en un reflejo de la sociedad decimonónica, donde las mujeres eran relegadas a un segundo plano. Si bien su influencia en la historia no fue significativa, este club nos recuerda la misoginia que imperaba en el siglo XIX, un pasado que nos invita a reflexionar y luchar por una sociedad más justa e igualitaria.

jueves, 8 de febrero de 2024

En busca del tomate perdido

 


Al final, en el fondo de todo, está la química. La vida es, en esencia pura química: un ensamblaje de moléculas a las que les ponemos nombre: ADN, vitaminas, glutamatos, antibióticos y probióticos... Cómo se ensamblan esos componentes esenciales para articular un organismo, cualquier organismo, una minúscula bacteria o una gigantesca ballena, está escrito en un libro de instrucciones al que llamamos código genético.

Texturas, aromas y sabores, un conjunto de características a las que llamamos organolépticas, son, cómo no, también moléculas químicas cuya producción orgánica está regulada por el código genético. Para rastrear las bases genéticas de sus cualidades organolépticas, un equipo de investigadores de la Universidad de Florida ha analizado 398 variedades distintas de tomates. Sus conclusiones fueron que, mientras el equilibrio aroma-sabor de frutas como el plátano y la fresa dependen de un solo compuesto volátil (o de muy pocos), «el tomate necesita unos 25 compuestos distintos para construir su inconfundible identidad organoléptica».

Eso son docenas de aminoácidos, azúcares y compuestos volátiles bien equilibrados. Un equilibrio químico que, cuando se buscaba mejorar comercialmente colores, tamaños y durabilidades, se convertía en algo muy difícil de mantener. De hecho, los tomates, y no solo los tomates, se han convertido en una perfección estética sin alma: es un lugar común decir que, pese a su bonito y homogéneo aspecto, los tomates ya no saben a tomate. Eso es, precisamente, lo que respaldan los investigadores de la Universidad de Florida: las variedades comerciales solo tienen ya 13 de los 25 compuestos volátiles que le dan aroma al tomate.

Siguiendo una tradición de siglos, España y Francia vuelven a estar enfrentadas. El motivo esta vez son los tomates. Nada nuevo, hay mucho dinero en el tomate y hay muchos países detrás de él. España no habría sido durante años uno de los grandes exportadores de tomates del mundo, ni habría conquistado todos los mercados europeos sin una calidad y unos estándares extremadamente elevados.

Los agricultores españoles han logrado la excelencia en la producción de las tres principales tipologías de tomates más vendidas en los mercados internacionales: bola, saladette y cocktail. En esas tipologías, las variedades españolas siguen sobresaliendo en color, tamaño y durabilidad en las cadenas de distribución. El problema no es ese.

El problema es que España ha puesto en el mercado justo lo que querían los distribuidores: tomates hermosos, de buen tamaño y resistentes al manejo desde la recogida en el campo a la exposición en los comercios minoristas. Y lo hemos hecho a buen precio. Es decir, hemos puesto en circulación los mejores tomates comerciales posibles. El problema es que esos tomates no saben a tomate.

Las que sí saben a tomate son otras variedades y cultivares menos productivas pero que sí saben a lo que deben saber. Frente a esas variedades de hermosa y uniforme vistosidad, productividad y resistencia al transporte y al almacenaje, hay otro tipo de tomates: lo que en inglés se denomina heirloom (de “herencia” o “tradición familiar”), un cajón de sastre que abarca centenares de variedades locales o comarcales, de escasa circulación, cuyo proceso de cultivo ha permitido que mantengan un sabor-olor bien equilibrado.

No es un milagro. Hablamos de tomates menos productivos (la planta puede asegurar mayor cantidad de azúcares en cada fruto) y que, al ser poco resistentes temporalmente a la logística del transporte y el almacenaje, están obligados a circular en cadenas de distribución más cortas que le permiten una mayor maduración en mata. Es decir, las limitaciones técnicas juegan en contra de su comercialización, pero a favor de su aroma y su sabor.

En España abundan los tomates de esas características: el tomate rosa de Barbastro, el feo de Tudela, el Montgrí de Girona, el corazón de buey, el mutxamel de Alicante, los monfortes gallegos, los avoa, los de la sierra de la Culebra, el Valldemossa mallorquín y un largo etcétera.

Nadie puede morder un tomate negro segureño bien madurado sin decir lo que dijo el otro día Pedro Sánchez: “el tomate español es imbatible”. Cuestión bien diferente es que los grandes distribuidores hayan impuesto las insípidas variedades comerciales. Esa batalla la estamos perdiendo: en 2022 y por primera vez en la historia, el tomate marroquí vendió más que el español. Y no un poco: vendió un 21,3% más. Poco a poco, los europeos han empezado a sustituir los tomates españoles por los provenientes del otro lado del Estrecho.

La ventaja regulatoria de pertenecer a la UE se está derrumbando y lo que empezamos a ver es un gigante agropecuario con pies de barro. Para seguir siendo una referencia internacional en el sector tendremos que poner en marcha una de las transformaciones agrarias más importantes de la historia; la cuestión es si aprovechamos nuestra ventaja competitiva para liderar esos cambios o nos enfrascamos en una guerra internacional que no podemos ganar. ©Manuel Peinado Lorca.