Vistas de página en total

domingo, 15 de febrero de 2026

EL VENENO DE LA SELVA QUE LLEGÓ A SIBERIA

 

Epipedobates tricolor. Dominio público a través de Wikipedia

Hay historias que parecen concebidas por un novelista británico con debilidad por los detalles improbables. Un opositor ruso muere en una prisión ártica y, meses después, algunos gobiernos europeos sostienen que en su organismo apareció una toxina procedente de una pequeña rana tropical sudamericana. No un agente nervioso de laboratorio con nombre impronunciable y pedigrí de Guerra Fría, sino una molécula descubierta en la piel brillante de un anfibio ecuatoriano. El protagonista humano es Alexéi Navalni; la sustancia, la epibatidina; el escenario final, una colonia penal en el hielo siberiano. Si la geografía tuviera sentido del humor, probablemente habría intentado algo menos exagerado.

Navalni ya había sobrevivido en 2020 a un envenenamiento con un agente del grupo Novichok, en un capítulo que parecía pertenecer al manual clásico del espionaje químico. Esta vez, sin embargo, la acusación difundida por varios gobiernos europeos introduce un elemento más desconcertante: la detección de epibatidina en análisis toxicológicos posteriores a su muerte. Su viuda, Yulia Navalnaya, ha respaldado públicamente estas conclusiones y pedido una investigación internacional exhaustiva. Rusia rechaza las acusaciones. La diplomacia se tensa. Y, mientras tanto, conviene mirar con calma a la auténtica protagonista microscópica.

La epibatidina fue aislada en 1992 a partir de la piel de la Epipedobates tricolor, una rana pequeña, de colores vivos, que habita en Ecuador. Su descubrimiento se produjo en el marco de investigaciones impulsadas por los National Institutes of Health, en los cuales los científicos llevaban tiempo examinando las secreciones cutáneas de las ranas venenosas neotropicales. Estas especies, popularmente conocidas como ranas dardo, habían intrigado a la comunidad científica por una razón sencilla: las comunidades indígenas del Chocó y otras regiones amazónicas impregnaban con su veneno las puntas de las cerbatanas. Si algo puede derribar a un mono a decenas de metros, probablemente tenga interés farmacológico.

Y lo tenía. La epibatidina resultó ser un analgésico extraordinariamente potente. En modelos animales, superaba con creces a la morfina —hasta doscientas veces más potente en ciertos ensayos— y lo hacía sin actuar sobre los receptores opioides clásicos. En plena preocupación por la dependencia asociada a los opiáceos, aquello sonaba a revolución terapéutica. Un analgésico no opioide, potente y potencialmente libre de adicción. Las revistas científicas se animaron. Los laboratorios empezaron a diseñar análogos. Durante un tiempo, la pequeña rana ecuatoriana parecía destinada a aliviar el dolor humano a escala planetaria.

La euforia duró poco. La epibatidina no sólo era potente; era peligrosamente indiscriminada. Su mecanismo de acción explica tanto su atractivo como su letalidad. La molécula se une con gran afinidad a los receptores nicotínicos de acetilcolina, que están distribuidos por todo el sistema nervioso central y periférico, en la unión neuromuscular y en el sistema nervioso autónomo. Dicho sin rodeos: actúa sobre interruptores eléctricos fundamentales para el control del movimiento, la respiración y el ritmo cardíaco.

Al unirse a estos receptores, la epibatidina los activa de manera intensa y prolongada. La primera fase puede incluir hipertensión, taquicardia, sudoración, náuseas y vómitos. Luego sobreviene el caos: convulsiones, parálisis muscular, arritmias graves, depresión respiratoria. La línea que separa la analgesia experimental del colapso fisiológico es extremadamente fina. Hablamos de microgramos. No miligramos, no gotas visibles: microgramos. La diferencia entre una dosis “interesante” y una dosis potencialmente mortal puede ser mínima. No existe un antídoto específico. El tratamiento, si se llega a tiempo, consiste en ventilación mecánica, control de arritmias y soporte vital intensivo.

Este perfil toxicológico hizo que la epibatidina, pese a su brillo científico inicial, quedara descartada como fármaco. Se desarrollaron derivados menos tóxicos, pero ninguno alcanzó el equilibrio deseado entre eficacia y seguridad. La molécula original pasó a ocupar un lugar curioso en los manuales: ejemplo perfecto de cómo la naturaleza puede producir compuestos de enorme potencia que resultan, para el uso humano, demasiado peligrosos.

E. tricolor comparada con una moneda de medio euro. Wikipedia.

Aquí es donde la biología se cruza con la política. Las ranas venenosas no fabrican necesariamente estos alcaloides desde cero. En muchos casos, los acumulan a partir de su dieta, especialmente de ciertos insectos. En cautividad, al cambiar su alimentación, pierden buena parte de su toxicidad. Son, en cierto modo, intermediarias químicas de la selva. Que una molécula asociada a este delicado equilibrio ecológico aparezca en un caso de presunto envenenamiento político resulta, como mínimo, simbólicamente perturbador.

Desde el punto de vista técnico, la epibatidina puede sintetizarse en laboratorio; no es necesario capturar ranas en la Amazonía. Pero no es un compuesto industrial de uso común ni forma parte de los arsenales químicos clásicos. Su detección en un organismo humano sería, en principio, extraordinaria. No es algo que se encuentre por accidente en el agua potable ni en un medicamento mal etiquetado. Su mera presencia obliga a formular preguntas.

En mi blog he escrito en alguna ocasión sobre estas ranas y sobre la mezcla casi literaria de inocencia cromática y potencia letal que encarnan. Son pequeñas, brillantes, casi decorativas. Parecen diseñadas por un ilustrador infantil con predilección por los colores saturados. Y, sin embargo, su piel puede albergar sustancias capaces de alterar de forma radical la fisiología humana. En el siglo XIX, algunos ilusionistas europeos incluían ranas en sus espectáculos, tragándolas ante el público como demostración de audacia. Con especies locales no había mayor peligro. Con una rana dardo sudamericana, el número habría adquirido un dramatismo involuntario.

Una rana que cabe en la palma de la mano, una molécula que pesa microgramos, un laboratorio en Maryland que celebra un hallazgo prometedor, y décadas después un debate diplomático entre potencias europeas. La biología rara vez se limita a los márgenes exóticos de los documentales; a veces irrumpe en los titulares internacionales.

Más allá de sus implicaciones políticas y jurídicas, el caso de Navalni nos recuerda también la doble cara de la investigación biomédica. La exploración de la biodiversidad ha proporcionado antibióticos, antitumorales y analgésicos. Pero ese mismo arsenal químico natural puede convertirse en herramienta de daño si se desvía de su contexto original. La selva no distingue entre farmacología y toxicología; esa distinción la imponemos nosotros.

Que el veneno de una rana ecuatoriana termine vinculado a una muerte en el Ártico ruso es, en términos geográficos, una enorme ironía. Del calor húmedo de los bosques tropicales al frío extremo de una colonia penal. De los insectos que alimentan a un anfibio diminuto a los laboratorios capaces de sintetizar su alcaloide. El trayecto es improbable, pero no imposible.

Al final, la historia encierra una lección inquietante. La naturaleza no produce sustancias “malvadas”; produce moléculas eficaces. Somos nosotros quienes decidimos cómo utilizarlas. La epibatidina nació como promesa analgésica, fue descartada por su peligrosidad y hoy reaparece en un contexto que mezcla ciencia, diplomacia y tragedia. Y todo ello gracias a una rana de colores brillantes que, en su entorno natural, sólo pretendía evitar que alguien la mordiera.

La próxima vez que vea una fotografía de una rana tropical y piense que es poco más que un adorno viviente, recuerde que en su piel puede esconderse una química capaz de detener un corazón humano. Y que, en ocasiones, la distancia entre la selva y la política internacional es mucho más corta de lo que imaginamos.

TRUMP Y EL NEGACIONISMO DEL CAMBIO CLIMÁTICO

 

Trump es conocido por despreciar el cambio climático y relegarlo a la categoría de cuento chino, y nunca mejor dicho: en 2012 tuiteó que era un concepto creado por China para dañar la competitividad de las empresas estadounidenses. Esta idea está totalmente en línea con la trayectoria de décadas de negacionismo organizado que, perfectamente engrasado con petrodólares, ha actuado de ariete de cualquier atisbo de política climática, en ocasiones con estimable éxito. 

La diferencia es que si hasta hace poco las grandes empresas de combustibles fósiles sostenían con fondos tramas negacionistas que en su nombre intentaban influir a la clase política, ahora los negacionistas han tomado literalmente la Casa Blanca y forman parte de la nueva clase dirigente estadounidense.

Con una declaración de barra de bar en la que dijo que todo lo relacionado con el cambio climático es “una gran estafa”, el pasado 12 de febrero Donald Trump anunció la revocación del llamado “dictamen de peligro” de 2009, la declaración científica que había servido durante más de una década como fundamento jurídico para regular las emisiones de gases de efecto invernadero en Estados Unidos.

Al hacerlo, Estados Unidos ha revocado un hallazgo científico que durante mucho tiempo ha sido la base central de sus acciones para regular las emisiones de gases de efecto invernadero y combatir el cambio climático. La decisión del jueves es la medida más agresiva del presidente Donald Trump para revertir las regulaciones ambientales desde el inicio de su segundo mandato.

Con esa decisión no solo se altera una política concreta, sino que se cuestiona el uso de una ley ambiental de 1970 como instrumento central de la política climática federal. Para comprender el alcance del movimiento conviene retroceder medio siglo y reconstruir la arquitectura institucional que lo hizo posible.

Impulsado tanto por la evidencia científica como por episodios simbólicos de degradación ambiental, el debate ambiental estadounidense adquirió intensidad en los años sesenta. La publicación en 1962 de Primavera silenciosa por Rachel Carson contribuyó decisivamente a sensibilizar a la opinión pública frente al uso indiscriminado de pesticidas. A ello se sumaron desastres visibles, como el derrame de crudo desde una plataforma petrolífera anclada frente a la costa de California o el incendio del río Cuyahoga en Ohio, cuyo cauce, saturado de residuos industriales, llegó a arder. Las primeras imágenes de la Tierra vistas desde el espacio reforzaron la percepción de fragilidad ecológica en un contexto de rápido crecimiento industrial.

En este clima, el presidente Richard Nixon presentó en 1970 un ambicioso programa ambiental y promovió la reorganización de competencias federales dispersas en materia de contaminación. El resultado fue la creación de la primera Agencia de Protección Ambiental (EPA) del mundo, concebida como un organismo capaz de centralizar investigación, vigilancia y regulación. Ese mismo año se reformó en profundidad la Clean Air Act, la Ley de Aire Limpio (LAL), aprobada inicialmente en 1963 con un alcance limitado y cooperativo, para convertirla en una ley de carácter obligatorio y técnicamente exigente. Desde entonces, la LAL constituye la autoridad normativa y la EPA su órgano ejecutor.

La ley estableció un sistema federal basado en estándares nacionales de calidad del aire, definidos a partir de criterios de salud pública. El modelo se diseñó para afrontar problemas concretos y localizados: el smog urbano, la lluvia ácida y las emisiones industriales tóxicas. El “smog clásico” al que respondía la legislación incluía contaminantes como el dióxido de azufre, los óxidos de nitrógeno, las partículas en suspensión o el plomo, sustancias directamente nocivas para la salud y visibles en el deterioro atmosférico de grandes ciudades como Los Ángeles o Cleveland. Se trataba de contaminantes de efectos inmediatos y territoriales, cuya reducción podía medirse en términos relativamente directos.

Un elemento decisivo de la reforma de 1970 fue la definición amplia que hizo el Congreso de “contaminante del aire”, considerado literalmente como «cualquier agente físico, químico o biológico emitido al aire». El Congreso no pensaba entonces en el dióxido de carbono ni en el calentamiento global, un fenómeno desconocido por entonces en el debate político. Sin embargo, la amplitud de la definición dejó abierta la posibilidad de interpretar la ley de manera evolutiva. Esa ambigüedad semántica es la que décadas más tarde permitió conectar una norma concebida para combatir el smog con la regulación del cambio climático.

El punto de inflexión jurídico se produjo en 2007 con la sentencia del Tribunal Supremo en el caso Massachusetts vs. EPA. El estado de Massachusetts y otros demandantes sostenían que la EPA se negaba a regular las emisiones de CO₂ de los vehículos, pese a que la LAL incluía una definición lo suficientemente amplia como para abarcar ese gas. La cuestión central era doble: si el CO₂ podía considerarse un “contaminante del aire” y si la agencia tenía discrecionalidad para no actuar.

Por una mayoría ajustada (5 a 4), el Tribunal concluyó que los gases de efecto invernadero encajan en la definición legal y que la EPA debía basar su decisión en criterios científicos sobre el riesgo para la salud o el bienestar público, no en consideraciones políticas generales. La sentencia no creó una ley climática nueva, pero abrió la puerta a utilizar la LAL como fundamento de la regulación de emisiones de gases de efecto invernadero.

En cumplimiento de ese mandato, la EPA emitió en diciembre de 2009 el denominado “dictamen de peligro”, en el que se declaraba que seis gases de efecto invernadero —entre ellos el CO₂, el metano y el óxido nitroso— amenazaban la salud pública. Ese pronunciamiento científico-administrativo se convirtió en la piedra angular de la política climática federal, pues desde ese momento habilitó a la EPA para imponer estándares de emisión a vehículos, centrales eléctricas y otras fuentes relevantes en aplicación de la LAL. En términos jurídicos, el dictamen funcionaba como condición previa indispensable: si los gases son peligrosos en el sentido de la ley, la agencia está obligada a regularlos.

La revocación anunciada el 12 de febrero afecta precisamente a ese presupuesto. Al anular el dictamen de 2009, la administración Trump elimina la base científica y legal que sustentaba la regulación federal de las emisiones de gases de efecto invernadero. En el plano inmediato, la medida incide en las normas aplicables a vehículos y motores, pues estas dependían directamente de la constatación formal de peligro y ahora quedan desreguladas.

A medio plazo, la decisión debilita también el fundamento de las reglas dirigidas a centrales eléctricas, instalaciones industriales y al sector del petróleo y el gas, aunque la situación concreta dependerá de la interacción con otras disposiciones regulatorias y del resultado de los previsibles litigios.

Desde el punto de vista institucional, la controversia remite a una cuestión más amplia: hasta qué punto puede una ley ambiental de 1970, diseñada para afrontar contaminación local y tóxica, servir como instrumento para gestionar un fenómeno global, acumulativo y sistémico como el cambio climático.

La tensión no es meramente técnica, sino conceptual. Para algunos, la definición amplia de “contaminante” revela una voluntad legislativa de dotar a la norma de flexibilidad suficiente para adaptarse a problemas nuevos. Para otros, utilizarla para rediseñar el sistema energético nacional supone extender la ley más allá de lo que el Congreso previó, por lo que cualquier transformación estructural debería apoyarse en una legislación climática específica y explícita.

Es previsible que la revocación del dictamen desencadene una intensa batalla judicial. Diversos estados y organizaciones ambientalistas han anunciado ya su intención de impugnar la medida, alegando que ignora la evidencia científica y contradice la interpretación consolidada por el Tribunal Supremo. En ese contexto, el conflicto trasciende la política ambiental concreta y se inscribe en un debate más amplio sobre el alcance del poder de las agencias administrativas y la relación entre Congreso, Ejecutivo y tribunales.

En definitiva, la decisión del 12 de febrero no puede entenderse como un ajuste regulatorio aislado. Supone reabrir una discusión que se remonta a la década de 1970 y que conecta la lucha contra el smog urbano con la gobernanza del clima global. La LAL nació para limpiar el aire de las ciudades; medio siglo después, su interpretación define en buena medida la capacidad del Estado federal para intervenir frente al cambio climático.

En ese cruce entre historia legislativa, doctrina judicial y política contemporánea se sitúa hoy el núcleo del debate estadounidense.

BREVE RELATO DE LA LARGA HISTORIA DE LA TESTOSTERONA

 

En 1889, setenta y un años después de la publicación de Frankenstein, cuando la palabra “testosterona” todavía no existía y la endocrinología era poco más que una intuición con bigote victoriano, la revista médica The Lancet dedicó tres páginas a una historia que podría haber incitado a Mary Shelley a tomar notas si aún hubiera estado viva y que hoy habría terminado en TikTok con música épica y subtítulos fluorescentes.

El protagonista era Charles-Édouard Brown-Séquard, un fisiólogo respetable, miembro de sociedades científicas ilustres, descubridor de reflejos medulares y, a la sazón, un señor de 72 años que empezaba a notar que el cuerpo ya no obedecía con la diligencia de antaño.

Brown-Séquard estaba cansado. Débil. Un poco marchito. Y como buen científico del siglo XIX —una categoría humana que combinaba genialidad, temeridad y una relación muy relajada con la experimentación ética— decidió que el problema no era el paso del tiempo sino una carencia química. Si los jóvenes estaban llenos de vigor, ese vigor debía residir en algún fluido concreto. Y si residía en algún sitio, era razonable suponer que estuviera en los testículos.

Lo que vino después fue, en esencia, un batido. Nuestro fisiólogo trituró testículos de perro y de cobaya, los mezcló con agua, los filtró con un entusiasmo que uno imagina muy serio, y se inyectó el resultado. Acto seguido anunció al mundo que se sentía mejor. Más fuerte. Más despierto. Con mayor energía física y mental. Incluso —y aquí la cosa adquiría un brillo particular— con renovado ímpetu sexual.

La prensa se lo pasó en grande. La comunidad médica, no tanto. Aunque muchos se burlaron de aquel caballero que se inoculaba jugo testicular como quien se toma un tónico de zarzaparrilla, lo cierto es que Brown-Séquard había puesto el dedo en algo importante. Intuía que las glándulas internas secretaban sustancias capaces de modificar el organismo. No sabía aún cómo se llamaban, pero había olido la pista. La endocrinología, que hoy nos parece tan sobria y de bata impecable, nació en parte de ese gesto entre heroico y ligeramente disparatado.

En sus escritos, Brown-Séquard dejó caer una observación deliciosa. Afirmaba que los hombres que se abstienen del sexo y del “placer personal” entran en un estado de excitación que les proporciona una gran, aunque anormal, actividad física y mental. Traducido al castellano moderno: pensaba que no masturbarse generaba una especie de energía acumulada que el cuerpo podía redirigir hacia hazañas intelectuales o físicas. Es una idea tan victoriana que casi huele a biblioteca con cortinas pesadas, pero tiene su encanto. Para él, el semen no era solo una sustancia reproductiva; era, en cierto modo, una batería portátil de vigor.

Naturalmente, no tenía razón. Pero tampoco estaba completamente equivocado en el sentido amplio: de hecho, existen sustancias químicas que influyen de manera poderosa en el ánimo, la energía, la masa muscular y el deseo. Solo que no funcionan como un depósito que uno llena o vacía disciplinadamente.

La testosterona es una hormona que desempeña diversas funciones en el cuerpo. En el hombre adulto, casi toda la testosterona se produce en los testículos bajo el control de una hormona producida en el cerebro, y una pequeña cantidad se produce a partir de un precursor extraído de las glándulas suprarrenales, ubicadas sobre los riñones. La testosterona es una de las muchas moléculas que ayudan a regular la activación de los genes para producir proteínas, y desempeña un papel importante en la libido, la virilización, la musculatura, la densidad ósea y el estado de ánimo. Sin embargo, a medida que envejecemos, nuestros niveles de testosterona disminuyen lentamente.

La testosterona es la principal hormona androgénica, puesto que confiere la mayoría de los caracteres masculinos. No obstante, hay producción de testosterona tanto en el cuerpo del hombre como en el de la mujer. En el caso de los varones, la mayor parte de la testosterona se forma en los testículos y una menor cantidad en las glándulas suprarrenales. En cuanto a las mujeres, la testosterona se produce en los ovarios y una pequeña cantidad también en las glándulas suprarrenales. Su función en hombres y mujeres es diferente.

La testosterona como molécula no sería aislada hasta 1935. Cuando por fin se identificó, purificó y sintetizó, el entusiasmo encontró una base tangible. Ya no hacía falta recurrir a triturados animales; bastaba con una ampolla precisa, una dosis calculada, una aguja estéril. La hormona masculina —porque así se la empezó a llamar con una simplificación que la biología tolera con paciencia— podía administrarse de manera controlada.

Y aquí es donde la historia se vuelve peligrosamente moderna. Durante décadas, la testosterona se utilizó para situaciones claras: hombres con hipogonadismo verdadero, es decir, testículos que no producían suficiente hormona por daño primario o por fallos en la hipófisis; adolescentes con retrasos puberales, y algunos casos concretos de anemia. Indicaciones específicas, diagnósticos concretos. Pero a medida que avanzaba el siglo XXI, la narrativa empezó a ensancharse.

Apareció la “T baja”. Un concepto con la eficacia comercial de un eslogan bien afinado. ¿Cansado? ¿Con menos deseo que a los 25? ¿Algo irritable? ¿Te cuesta ganar músculo, aunque mires con intensidad las mancuernas? Tal vez tu problema tenga dos letras. Y lo mejor de todo: tiene solución inyectable.

Se popularizó incluso el término “andropausia”, como si los hombres atravesaran una versión masculina de la menopausia femenina. El paralelismo es tentador, pero biológicamente tramposo. En las mujeres, la menopausia implica una caída abrupta y universal de estrógenos. En los hombres, la testosterona desciende lentamente, aproximadamente un uno por ciento anual a partir de cierta edad. No hay un apagón hormonal repentino. Hay, más bien, un atardecer gradual.

Además, la testosterona es una hormona con hábitos caprichosos. Fluctúa a lo largo del día —más alta por la mañana—, baja con el sobrepeso, se altera con el mal sueño, el estrés crónico, la apnea nocturna o la depresión. Es decir, muchos de los síntomas que atribuimos a la “T baja” pueden ser causa y consecuencia de estilos de vida poco saludables. Y medir una cifra aislada no convierte automáticamente el cansancio en enfermedad endocrina.

Eso no significa que el déficit real no exista. Existe. Y cuando está bien documentado —con análisis repetidos, síntomas consistentes y evaluación médica adecuada— el tratamiento puede mejorar calidad de vida, densidad ósea, masa muscular y función sexual. Pero también tiene efectos secundarios: puede aumentar el hematocrito hasta niveles incómodos, suprimir la producción endógena, afectar a la fertilidad y plantea interrogantes todavía debatidos sobre el riesgo cardiovascular en ciertos perfiles.

En otras palabras: no es el elixir mágico que Brown-Séquard soñó, pero tampoco es una superstición victoriana. Lo fascinante es que, más de un siglo después, seguimos atrapados en la misma pulsión. La idea de que el declive es una deficiencia química corregible. Que el envejecimiento es un problema técnico con solución farmacológica. Que la masculinidad —concepto ya de por sí resbaladizo— puede medirse en nanogramos por decilitro.

Hay algo profundamente humano en esa esperanza. El anciano fisiólogo que se inyecta extracto testicular no es tan distinto del ejecutivo contemporáneo que acude a una clínica de terapia hormonal porque se siente apagado. Ambos buscan recuperar una versión anterior de sí mismos. Ambos quieren creer que la energía no se pierde, solo se agota un depósito.

La diferencia es que ahora sabemos más. Sabemos que el cuerpo es un sistema de equilibrios delicados. Que añadir hormona exógena puede mejorar síntomas en ciertos casos y complicarlos en otros. Que el contexto —peso, sueño, ejercicio, salud mental— importa tanto como la cifra en un análisis. Y que la promesa de juventud perpetua ha sido siempre una industria floreciente.

Quizá la lección más útil de Brown-Séquard no sea su batido improbable, sino su audacia. Se atrevió a plantear que dentro de nosotros circulan mensajeros invisibles que gobiernan nuestra energía y nuestro ánimo. Acertó en la intuición, falló en la receta. La medicina moderna ha afinado la receta, pero todavía lucha contra la expectativa desmesurada.

La testosterona no es una metáfora del carácter ni un certificado de virilidad. Es una hormona con funciones precisas y límites claros. Puede ser terapia cuando hay déficit demostrado. Puede ser innecesaria —incluso perjudicial— cuando se usa para perseguir una versión idealizada del pasado.

Y sin embargo, cada vez que alguien habla de “T baja” con un suspiro resignado, resuena, muy al fondo, el eco de aquel laboratorio decimonónico. El anciano científico, la jeringa, el extracto filtrado con fe. La esperanza de que el tiempo sea una ecuación química soluble.

Tal vez no lo sea. Pero la tentación de creerlo sigue siendo extraordinariamente potente.

CHOCOLATE AL ALBA: UNA TAZA ANTES DE LA BATALLA

 

El amanecer apenas se adivinaba sobre la llanura helada cuando el ayudante de campo removió el líquido espeso con la punta ennegrecida de su cuchara. La escarcha crujía bajo las botas y el aliento se volvía humo antes de disolverse en la bruma. A unos metros, envuelto en su capote gris, Napoleón Bonaparte observaba en silencio cómo la noche se retiraba del campamento. No era hombre de grandes desayunos, pero aceptó la taza sin ceremonia. El chocolate, oscuro y azucarado, desprendía un vapor denso que olía a cacao tostado y azúcar quemado. En aquellas marchas donde el pan se endurecía en las mochilas y la carne salada exigía dientes y paciencia, aquella bebida espesa no era un capricho: era energía inmediata, grasa concentrada y un leve estímulo que despejaba la mente de los oficiales antes del combate.

Horas después, cuando las columnas comenzaron a moverse hacia lo que terminaría siendo la Batalla de Austerlitz, nadie habría señalado el cacao como pieza del engranaje militar. Sin embargo, en la guerra de comienzos del siglo XIX la logística pesaba tanto como la estrategia. El chocolate viajaba en bloques compactos de pasta de cacao y azúcar: ocupaba poco espacio, resistía el transporte y podía transformarse en bebida caliente con rapidez. Desde su llegada a Europa a través del comercio atlántico, había pasado de exotismo cortesano a tónico medicinal y alimento energético. En un ejército que vivía de la velocidad y la resistencia, una taza humeante al alba no ganaba batallas, pero ayudaba a sostenerlas.

Si se abandona la escena y se descompone aquella taza en términos de laboratorio, el chocolate revela la lógica de su utilidad. La pasta sólida era, en esencia, una ración hipercalórica concentrada. El cacao contiene entre un 50 y un 55% de grasa —principalmente manteca de cacao— y aporta en torno a 500–600 kilocalorías por cada 100 gramos, según la proporción de azúcar añadida. A ello se suman hidratos de carbono de absorción relativamente rápida y pequeñas cantidades de proteínas. En contextos de frío intenso y gasto metabólico elevado, esa combinación resultaba ideal: energía densa, relativamente estable y fácil de transportar.

Además, el cacao contiene metilxantinas —sobre todo teobromina y, en menor medida, cafeína— con un efecto estimulante suave pero sostenido. No provoca la sacudida nerviosa del café, pero sí una sensación de alerta prolongada. Hoy sabemos que la teobromina actúa como vasodilatador leve y estimulante del sistema nervioso central. En el siglo XVIII no se hablaba ese lenguaje químico, pero sí se reconocían sus efectos. Tratadistas como Antonio Lavedán, en su Tratado de los usos, abusos, propiedades y virtudes del tabaco, café, té y chocolate (1796), describían el chocolate como alimento “nutritivo y restaurador”, recomendable para fatigados y convalecientes. Médicos ilustrados franceses lo consideraban capaz de “fortificar el estómago” y sostener las fuerzas sin sobrecargar la digestión. No era mera retórica gastronómica: era una observación empírica de su poder reconstituyente.

Así, lo que parecía un gesto íntimo —una taza caliente al amanecer— formaba parte de un sistema más amplio de intuiciones médicas y soluciones logísticas. El chocolate no sustituyó al pan ni salvó al ejército en la retirada de 1812, pero encarnaba una idea moderna: la energía del soldado era un recurso estratégico. No es casual que, en la misma época, los boticarios vendieran preparados de cacao como reconstituyentes para la fatiga, la melancolía o las dolencias pulmonares. La frontera entre alimento y medicina era difusa, y el chocolate habitaba cómodamente en ese territorio.

Con el paso del tiempo, aquel brebaje espeso evolucionó hacia algo distinto. A comienzos del siglo XIX, el químico neerlandés Coenraad Johannes van Houten desarrolló la prensa de cacao, que separaba la manteca de los sólidos y permitía obtener un polvo más manejable y menos amargo mediante el llamado “proceso holandés”. El cacao dejaba de ser solo pasta para convertirse en ingrediente industrial. Poco después, Joseph Fry dio el siguiente paso crucial en 1847 cuando logró mezclar sólidos de cacao, manteca y azúcar hasta obtener una masa moldeable: nacía la tableta moderna. El chocolate dejaba de beberse exclusivamente para empezar a masticarse.

El perfeccionamiento continuó en Suiza. Daniel Peter incorporó leche en polvo y abrió la puerta al chocolate con leche. En 1879, Rodolphe Lindt, otro chocolatero suizo, inventó la máquina de conchado que removía la mezcla de chocolate antes de verterla en moldes hasta que desaparecía toda la granulosidad del cacao en polvo. Esto daba como resultado un chocolate extremadamente suave.

Milton Hershey revolucionó entonces la industria chocolatera perfeccionando y produciendo chocolate asequible, transformando la barra de chocolate de un artículo de lujo a un producto básico popular. Para producir el volumen de chocolate necesario, construyó una fábrica en Pensilvania y fundó a su alrededor un pueblo para los trabajadores, llamado con cierta altivez "Hershey". En 1905, su fábrica comenzó a producir "barras Hershey" a las que dos años más tarde se unirían los famosos besos de Hershey, todos envueltos a mano en aquel entonces.

Cuando estalló la Segunda Guerra Mundial, el chocolate volvió a convertirse en asunto estratégico. En 1937, el ejército estadounidense encargó a Hershey una barra de emergencia que aportara unas 600 calorías, pesara unos 113 gramos y resistiera el calor tropical. Tenía que ser nutritiva y, deliberadamente, poco apetitosa para evitar su consumo prematuro. Así nació la ración D, densa, difícil de morder y más funcional que deliciosa. Años después se desarrolló la “Tropical Bar”, algo más sabrosa. Pero fueron otros productos, como los M&M’s —dulces recubiertos que “se derriten en la boca, no en la mano”— los que conquistaron definitivamente a los soldados.

Desde entonces, la química alimentaria ha buscado fórmulas de chocolate termoestable sin sacrificar textura y sabor. Sustituciones parciales de manteca de cacao por grasas vegetales de mayor punto de fusión, uso de emulsionantes y agentes estructurantes: la ciencia ha refinado lo que en tiempos de Napoleón Bonaparte era intuición práctica. Sin embargo, el equilibrio perfecto entre estabilidad y placer sigue siendo delicado. Una barra diseñada para sobrevivir al desierto rara vez compite, en sedosidad, con una elaborada según la tradición suiza.

Curiosamente, la apuesta más duradera del emperador en materia alimentaria no fue el chocolate, sino el apoyo al método de conservación desarrollado por Nicolas Appert. En 1795, el gobierno francés ofreció un premio por un sistema eficaz para preservar alimentos; Appert respondió con el sellado hermético y la cocción en recipientes cerrados, antecedente del enlatado moderno. Si el chocolate proporcionaba energía inmediata, la conservación garantizaba seguridad a largo plazo. Ambas soluciones apuntaban en la misma dirección: comprender que, en la guerra moderna, la victoria dependía tanto del estómago como del cañón. El ejército de Napoleón marchó sin preocuparse por la comida en mal estado en el estómago.

De la taza humeante al alba a la barra de emergencia en el bolsillo, el chocolate ha acompañado a los ejércitos durante más de dos siglos. Cambiaron las técnicas, los envases y los procesos industriales, pero la lógica de fondo permanece. Allí donde el esfuerzo humano exige resistencia, concentración y calorías concentradas, el cacao —amargo o azucarado, bebido o mordido— ha ofrecido algo más que consuelo: una forma compacta de energía lista para convertirse, en el momento preciso, en fuerza.

sábado, 14 de febrero de 2026

EL HUEVO: MANUAL DE INSTRUCCIONES PARA FABRICAR UN MILAGRO

 

Hay objetos que uno da por descontados hasta que decide mirarlos con la sospecha adecuada. El mando a distancia, por ejemplo. El botón de un ascensor. Y, por supuesto, el huevo. El huevo vive en nuestras cocinas con la humildad de un funcionario eficaz: siempre está ahí, nunca presume, rara vez falla. Pero si lo examinamos con la atención que solemos reservar a los cohetes espaciales o a los puentes colgantes, descubrimos que estamos ante una de las hazañas más extraordinarias de la ingeniería natural.

Un huevo es, en esencia, un sistema autónomo diseñado para fabricar un ave completa sin ayuda externa. No necesita supermercado, ni fontanero, ni plan de contingencia. Todo lo que va a ser ese animal —plumas, huesos, ojos con mirada inquisitiva— está contenido en una cápsula que cabe en la palma de la mano. Y lo hace sin cables.

La primera maravilla es la forma. El huevo no es redondo, ni ovalado en sentido escolar. Es ovoide, que es como decir “casi simétrico, pero con intención”. Tiene un extremo romo y otro ligeramente puntiagudo. Esta asimetría no es un capricho artístico de la gallina; es una solución estructural brillante. La forma ovoide distribuye las tensiones de manera tan eficiente que el huevo puede soportar una presión sorprendente si se le comprime por los extremos. Es, básicamente, una cúpula portátil. Los arquitectos tardaron milenios en comprender lo que la evolución resolvió sin planos.

La cáscara es otro acto de genialidad. Está hecha principalmente de carbonato cálcico, que suena a cosa aburrida de laboratorio, pero organizado en una microarquitectura cristalina que combina rigidez y fragilidad en proporciones exquisitas. Es lo bastante fuerte para proteger al embrión de los golpes razonables, pero lo bastante quebradiza para que el polluelo pueda romperla cuando llegue el momento. Diseñar algo que sea resistente cuando conviene y frágil cuando toca es una proeza que haría sudar a cualquier ingeniero de materiales.

Y, por si fuera poco, la cáscara no es una muralla cerrada. Está perforada por miles de microporos invisibles que permiten el intercambio de gases. El embrión respira a través de esa pared calcárea como quien abre discretamente una ventana. Pero los poros son lo bastante pequeños para impedir que la mayoría de los invasores microscópicos entren sin invitación. Es un equilibrio tan delicado que uno sospecha que, si la gallina tuviera que rellenar un formulario para justificarlo, se perdería en la segunda línea.

Debajo de la cáscara encontramos dos membranas finas y elásticas que cumplen funciones que van desde la amortiguación hasta la defensa antimicrobiana. Entre ellas se forma una pequeña cámara de aire en el extremo más ancho. Ese bolsillo, que parece insignificante cuando rompemos un huevo para una tortilla, es el primer pulmón provisional del futuro pollito. Antes de salir al mundo, perfora esa cámara y practica su respiración. Es difícil no sentir un respeto solemne por un sistema que incluye su propio simulador de emergencia.

La clara —esa sustancia transparente que muchos niños miran con desconfianza— es un prodigio químico. Está compuesta en su mayoría por agua, pero enriquecida con proteínas que cumplen tareas muy específicas. Algunas son antibacterianas; otras regulan la disponibilidad de hierro para que los microbios no prosperen. Es un caldo nutritivo, sí, pero también un laboratorio defensivo. Además, su viscosidad mantiene la yema centrada gracias a unos cordones retorcidos llamados chalazas, que funcionan como cables tensores. La yema queda suspendida en el centro del huevo como un astronauta en gravedad cero, protegida de impactos y sacudidas.

La yema, por su parte, es una central energética compacta. Contiene lípidos de alta densidad calórica, proteínas estructurales y vitaminas en proporciones que permitirán construir, célula a célula, un organismo completo. Si uno hiciera una lista de todo lo necesario para fabricar un pájaro —sistemas nervioso, digestivo, esquelético, plumaje, etcétera— y luego intentara empaquetarlo en un espacio tan reducido, probablemente acabaría llorando sobre una hoja de cálculo. El huevo, en cambio, lo hace con serenidad milenaria.

Lo que más asombra es la eficiencia. La gallina fabrica la cáscara en menos de un día, movilizando calcio con precisión fisiológica. No hay derroche. No hay exceso ornamental. Cada gramo tiene una función. Desde la perspectiva de la ingeniería sostenible, el huevo es un manifiesto: mínimo material, máxima utilidad. Ni siquiera necesita manual de reciclaje; la cáscara puede volver al suelo como fuente de minerales.

Y entonces llega el momento culminante, que es el de la fractura programada. Tras semanas de desarrollo silencioso, el embrión secreta enzimas que debilitan la cáscara desde dentro. Aparece un pequeño apéndice temporal, el “diente de huevo”, con el que empieza a golpear la pared calcárea. El sistema que durante días fue fortaleza se convierte en puerta. Es una demolición controlada de precisión exquisita. Los ingenieros humanos sueñan con materiales que cambien sus propiedades según la necesidad; el huevo lo hace como quien cambia de sombrero.

Si uno se detiene a pensarlo, el huevo resolvió hace cientos de millones de años un problema formidable: cómo permitir que un vertebrado se desarrollara fuera del agua sin deshidratarse, sin asfixiarse y sin ser devorado en la primera noche. La solución fue este pequeño contenedor autosuficiente. Gracias a él, los reptiles y luego las aves conquistaron la tierra firme con una libertad que los peces jamás conocerán.

Lo más divertido es que convivimos con esta maravilla sin inmutarnos. Lo cascamos contra el borde de un cuenco con la indiferencia de quien rompe un sobre. Pero cada vez que lo hacemos estamos asistiendo al final de una obra maestra de microarquitectura. Estamos contemplando la ruina de una bóveda cerámica perfectamente calculada, el derrame de un sistema bioquímico finamente ajustado.

Quizá eso sea lo más bryssoniano del asunto: que la grandeza se esconda en lo ordinario. No hace falta viajar a la Antártida ni asomarse a un acelerador de partículas para sentir asombro científico. Basta con abrir la nevera y sostener un huevo a contraluz. Allí, en esa silueta blanca, se encuentra comprimida una lección de física de materiales, de química de proteínas, de fisiología respiratoria y de logística evolutiva.

El huevo no presume. No tiene departamento de marketing. Pero si la naturaleza repartiera premios a la mejor solución de ingeniería integral, el huevo subiría al escenario con la modestia de quien sabe que no necesita discurso. Y nosotros, desde la cocina, quizá deberíamos aplaudir un poco antes de batirlo.

viernes, 13 de febrero de 2026

POR QUÉ RESPIRAMOS Y NO SALIMOS ARDIENDO

 

Los principales gases de la atmósfera terrestre son nitrógeno (78%), oxígeno (21%), argón (0,9%) y dióxido de carbono (0,04%). De todos ellos, el oxígeno es un oxidante (como su propio nombre indica), lo que significa que permite que otras cosas ardan. De los otros tres, ninguno arde. Afortunadamente, ninguno de ellos es inflamable. Si el aire fuera rico en un gas realmente inflamable —como el hidrógeno o el metano— la historia del planeta sería bastante más espectacular (y probablemente muy corta).

Y si ningunos es inflamable, ¿por qué hay incendios? Porque el aire contiene oxígeno, y eso es justo lo necesario para que un combustible (madera, gasolina, gas natural) pueda reaccionar rápidamente y liberar energía en forma de llama. Sin oxígeno, no hay fuego. Pero con solo oxígeno, tampoco. Y ahora vamos a lo que vamos.

El principal componente de cualquier ser humano, el que ocupa el 61% del espacio disponible, es el oxígeno. Parecer un tanto contrario a la intuición que estemos compuestos casi en dos terceras partes de un gas inodoro. La razón de que no seamos livianos e hinchables como un globo es que el oxígeno está en su mayor parte combinado con hidrógeno (que representa otro 10 % de nosotros) para formar agua; y el agua, como sabrá cualquiera que alguna vez haya intentado mover una piscina infantil o simplemente caminar con la ropa empapada, resulta muy pesada.

¿De dónde sale todo oxígeno que llena nuestro cuerpo? De la respiración. En la respiración, las cifras resultan asombrosas, de hecho, fantásticas. En silencio y con ritmo, despiertos o dormidos, como el que no quiere la cosa, todos los días inspiramos y espiramos unas 20 000 veces, procesando constantemente alrededor de 12 500 litros de aire, dependiendo de nuestra complexión y nuestro nivel de actividad. Esto equivale a unos 7,3 millones de respiraciones anuales, o 550 millones más o menos en el transcurso de toda una vida, y cada vez que respiramos exhalamos unos 25 000 trillones de moléculas de oxígeno.

En términos porcentuales, resulta que cada bocanada de aire que entra en nuestros pulmones contiene aproximadamente un 21% de oxígeno, el mismo elemento que convierte una tea en una antorcha, una chispa en un incendio forestal y una barbacoa mal vigilada en un episodio traumático del verano. Y, sin embargo, aquí estamos: caminando, leyendo, bostezando y pagando impuestos sin salir ardiendo espontáneamente. Lo cual, pensándolo bien, es un alivio.

La pregunta es evidente: si el oxígeno es el gran cómplice del fuego, ¿por qué no salimos ardiendo al respirar? ¿Qué impide que cada inspiración sea una especie de ruleta rusa térmica? Para responder hay que desmontar una confusión muy común: el oxígeno no es el pirómano de la historia. Es más bien el amigo que sostiene la puerta abierta.

El fuego, como los malos planes, necesita tres cosas para prosperar. Los bomberos lo llaman el triángulo del fuego: oxígeno, combustible y calor. Falta uno solo de esos elementos y el incendio se viene abajo como un castillo de naipes mojados. El oxígeno, por tanto, no basta. Es imprescindible, sí, pero inútil sin compañía. Y aquí empieza nuestra salvación.

Empecemos por el combustible. Uno podría pensar que el cuerpo humano, lleno de grasas, proteínas y otros materiales orgánicos de nombre inquietantemente inflamable, es un candidato ideal para la combustión. Pero no lo es. Principalmente porque —como he apuntado más arriba— somos, en esencia, bolsas ambulantes de agua. Entre un 60 y un 70% de nuestro cuerpo es agua, una sustancia famosa por muchas cosas —apagar fuegos, arruinar meriendas campestres, rebajar la leche, aguar el güisqui— pero no por arder. El agua actúa como un formidable inhibidor: absorbe calor, enfría tejidos y hace que cualquier intento de combustión sea tan frustrante como tratar de encender una fogata con sopa.

Luego está el detalle crucial del calor. Para que algo arda necesita alcanzar su temperatura de ignición, es decir, el punto en el que sus moléculas empiezan a reaccionar violentamente con el oxígeno. La madera necesita varios cientos de grados. La gasolina, menos, pero aun así muchos más de los 36,5 °C que marca un termómetro humano en un buen día. El aire que respiramos entra a temperatura ambiente y sale ligeramente calentado, pero jamás se acerca remotamente a los niveles necesarios para iniciar un incendio. Si nuestro interior alcanzara esas temperaturas, el problema no sería arder, sino sobrevivir siquiera unos segundos.

Hasta aquí, bien. Pero aún queda el punto más interesante y el que realmente marca la diferencia entre una persona viva y una antorcha con opiniones políticas: la respiración no es combustión. Aunque se parezcan en los libros de química, en la práctica son procesos muy distintos.

Cuando el oxígeno llega a nuestras células no se dedica a reaccionar de forma descontrolada, como hace en un incendio. En lugar de eso, participa en una exquisita coreografía bioquímica llamada respiración celular. Todo ocurre dentro de estructuras diminutas llamadas mitocondrias, que son, por decirlo de algún modo, centrales eléctricas microscópicas con un estricto código de seguridad. Allí, el oxígeno ayuda a extraer energía de los alimentos paso a paso, reacción a reacción, con la paciencia de un contable suizo.

Las mitocondrias son orgánulos que se encuentran en todas las células eucariotas en las que cumplen una función muy importante: mediante la respiración, transforman la energía en formas utilizables para impulsar reacciones celulares. Esto dicho en otras palabras, es que forman ATP (la “gasolina celular”) a partir de otras moléculas como son los ácidos grasos y los azúcares o hidratos de carbono.

La clave está en la lentitud. En un fuego, la energía se libera de golpe: calor, luz, caos. En el cuerpo humano, la energía se libera a cuentagotas, en cantidades tan pequeñas que pueden ser aprovechadas para mover un músculo, transmitir un impulso nervioso o mantener caliente el café interno que llamamos metabolismo. Si esa misma energía se liberase de una sola vez, como en una llama, nos cocinaríamos desde dentro antes de tener tiempo de decir “esto no parece saludable”.

Una buena analogía es comparar la combustión con quemar una casa para calentarse, y la respiración celular con encender cuidadosamente una estufa y regularla con un termostato. Ambas usan la misma fuente de energía, pero una es claramente preferible si se desea conservar el inmueble y la vida.

También ayuda recordar que el oxígeno que respiramos no es especialmente agresivo. La atmósfera terrestre lleva unos 2 400 millones de años con niveles de oxígeno relativamente altos, y si este gas tuviera tendencia a provocar incendios espontáneos, el planeta habría sido durante eones una especie de barbacoa cósmica. El hecho de que los bosques necesiten un rayo, una cerilla o un descuido humano para arder debería tranquilizarnos bastante.

Curiosamente, cuando el oxígeno sí se vuelve peligroso es cuando hay demasiado. En ambientes enriquecidos con oxígeno —quirófanos, laboratorios, estaciones espaciales— materiales normalmente inofensivos pueden arder con entusiasmo suicida. En esas condiciones, una chispa minúscula puede provocar un desastre. Pero incluso entonces, el cuerpo humano no se incendia por respirar: el problema es el entorno, no los pulmones.

Así que podemos respirar tranquilos salvo, claro está, si no nos llega una notificación de Hacienda. Cada inspiración no es un acto de valentía inconsciente, sino una colaboración cuidadosamente regulada entre química y biología. El oxígeno entra, hace su trabajo con disciplina y se va discretamente convertido en agua y dióxido de carbono, sin montar un espectáculo pirotécnico.

En resumen: no ardemos porque no somos una maldita hoguera. Nos falta el calor, nos sobra el agua y, sobre todo, tenemos un sistema exquisitamente diseñado para domar al oxígeno y obligarlo a comportarse. El verdadero milagro no es que no nos incendiemos, sino que este proceso funcione millones de veces al día, en silencio, sin que tengamos que pensar en ello.

Lo inquietante no es respirar oxígeno. Lo inquietante sería no hacerlo.

miércoles, 11 de febrero de 2026

VÓRTICE POLAR Y TREN DE BORRASCAS: POR QUÉ EL ÁRTICO ESTÁ INFLUYENDO EN LAS LLUVIAS EN ESPAÑA

 

En meteorología hay pocas expresiones tan sugerentes como “tren de borrascas”. Evoca puntualidad ferroviaria, orden, casi disciplina atmosférica. Pero lo que estamos viendo este invierno no tiene nada de apacible: una sucesión de sistemas profundos cruzando la Península, dejando lluvias persistentes, ríos crecidos y paraguas en fatiga crónica. Y, en medio del parte del tiempo, aparece un invitado aparentemente lejano: el vórtice polar. La pregunta es inevitable. ¿De verdad lo que ocurre sobre el Polo Norte puede estar influyendo en que en España no deje de llover?

España vive una de esas temporadas en que las borrascas no vienen solas, sino en cadena. No es un episodio aislado. Es un patrón. Las bajas presiones atlánticas encuentran una autopista abierta hacia la Península y la recorren una tras otra. Para entender por qué, hay que levantar la vista muy por encima de las nubes.

El vórtice polar ártico no es una tormenta gigantesca, ni un ciclón permanente. Es una vasta banda de vientos del oeste que se forma cada invierno en la estratosfera, entre 16 y 48 kilómetros de altura, sobre el Polo Norte. Allí arriba, encierra el aire más frío del hemisferio. Cuanto más rápido gira, más aislado queda ese aire helado. Cuando el vórtice es fuerte y compacto, el frío permanece confinado en el Ártico. El sistema es estable.

Figura 1. Imagen de los cambios experimentados por el vórtice polar de enero tomada por un satélite de la NASA. Observa en la barra de abajo que las temperaturas más frías (por debajo de 0 ºC) corresponden a los colores que van del blanco al azul intenso. Las más cálidas aparecen de colores ocres.

Conviene no confundirlo con la corriente en chorro. El jet stream circula mucho más abajo, en la troposfera, entre 8 y 14 kilómetros sobre la superficie. Es la gran autopista de vientos rápidos que separa el aire polar del aire templado. Y es la que guía las borrascas. El vórtice vive arriba. El chorro, más abajo. Pero están conectados.

Si el vórtice está fuerte, el chorro tiende a ser más recto y rápido. Circula de oeste a este con menos ondulaciones. Las borrascas siguen trayectorias más septentrionales. España puede quedar al margen. En cambio, cuando el vórtice se debilita, la historia cambia.

Ese debilitamiento no ocurre por capricho. Grandes ondulaciones atmosféricas, llamadas ondas planetarias, pueden ascender desde la troposfera hasta la estratosfera y perturbar el vórtice. Si el empujón es intenso, el sistema se deforma, se desplaza o incluso se divide. En los casos más llamativos se produce un calentamiento súbito estratosférico: en pocos días, la temperatura en la estratosfera polar aumenta de forma abrupta. El vórtice pierde fuerza. Empieza a tambalearse.

Los efectos no se notan de inmediato en superficie. Pueden tardar días o semanas. Pero cuando la perturbación desciende hacia capas más bajas, la corriente en chorro suele volverse más sinuosa. Aparecen grandes meandros, profundas vaguadas y dorsales persistentes. Bajo esas vaguadas, el aire frío se desplaza hacia latitudes medias. Y las borrascas encuentran nuevas rutas.

Figura 2. Cuando el vórtice polar ártico es especialmente intenso y estable (globo de la izquierda), impulsa la corriente en chorro polar, en la troposfera, a desplazarse hacia el norte. El aire polar más frío permanece en el Ártico. Cuando el vórtice se debilita, se desplaza o se divide (globo de la derecha), la corriente en chorro polar suele ondularse considerablemente formando meandros, que permiten que el aire cálido inunde el Ártico y que el aire polar descienda hacia las latitudes medias. Gráfico de NOAA Climate.gov, adaptado del original de NOAA.gov.

Eso es lo que ha sucedido este invierno. Tras un episodio de calentamiento súbito estratosférico en enero, el vórtice se debilitó y se desplazó. El chorro adoptó un trazado más ondulado. En ese nuevo dibujo atmosférico, la península ibérica quedó en la senda de las bajas presiones atlánticas.

No es que el vórtice “mande” una borrasca concreta hacia España. No funciona como un mando a distancia. Lo que hace es modificar la configuración general de la circulación atmosférica. Cambia el tablero. Y en ese tablero inclinado, las borrascas tienden a descender de latitud.

Cuando una vaguada del chorro se instala cerca de la península, el flujo húmedo del Atlántico tiene vía libre. Las bajas presiones se suceden. La inestabilidad se prolonga. Así nace el llamado tren de borrascas: no como un fenómeno aislado, sino como la consecuencia de un patrón atmosférico favorable a su repetición.

La relación entre el vórtice polar y las lluvias en España es, por tanto, indirecta pero poderosa. Vórtice fuerte, chorro más recto, borrascas al norte. Vórtice alterado, chorro ondulado, borrascas más al sur. Lo que ocurre a treinta kilómetros de altura puede terminar influyendo en algo tan cotidiano como decidir si hoy toca paraguas.

La siguiente pregunta es inevitable: ¿estos episodios serán más frecuentes en el futuro?

Aquí la respuesta exige prudencia. Sabemos que el Ártico se está calentando más rápido que la media global, un fenómeno conocido como amplificación ártica. Al reducirse el contraste térmico entre el ecuador y el polo, algunos investigadores sostienen que la corriente en chorro podría debilitarse y ondularse con mayor facilidad. Un chorro más ondulado favorecería bloqueos persistentes y episodios extremos en latitudes medias.

Sin embargo, los modelos climáticos no muestran una señal inequívoca. Algunos estudios apuntan a que los calentamientos súbitos estratosféricos podrían volverse algo más frecuentes. Otros no encuentran cambios significativos. La estratosfera es compleja. Y la variabilidad natural —oscilaciones como la Oscilación del Atlántico Norte o fenómenos como El Niño y La Niña— sigue desempeñando un papel importante.

Donde sí hay mayor consenso es en otro aspecto: en un clima más cálido, los impactos pueden intensificarse. Un aire más templado contiene más vapor de agua. Un océano más cálido aporta más energía a las borrascas. Aunque no aumente la frecuencia de las perturbaciones del vórtice, las lluvias asociadas a determinados patrones podrían ser más abundantes o persistentes.

El debate científico no enfrenta creencias, sino mecanismos. ¿Está la amplificación ártica alterando de forma sistemática la dinámica del chorro? ¿O seguimos observando sobre todo la variabilidad natural de un sistema caótico? La respuesta definitiva aún no está cerrada.

Mientras tanto, el resultado es tangible. El vórtice se debilita. El chorro se ondula. Las borrascas descienden de latitud. Y España se moja. El Polo Norte puede parecer remoto, pero cuando su equilibrio atmosférico se altera, el eco llega hasta nuestras calles, convertido en lluvia constante y cielos grises.

La atmósfera no es un dominó que cae en línea recta. Es una red de conexiones invisibles. Y a veces basta un pequeño desequilibrio en el Ártico para que, semanas después, tengamos que volver a buscar el paraguas.

EL AZÚCAR, UN VILLANO TAN DAÑINO COMO EL TABACO

 

Hubo un tiempo en que el azúcar era un lujo casi exótico. En la España de la posguerra, las cartillas de racionamiento mantenían a raya los dulces y un caramelo podía tener el valor simbólico de un anillo de compromiso. Cuando en 1952 desaparecieron las restricciones, el país se lanzó a la repostería con el entusiasmo de quien ha pasado años mirando escaparates. El consumo se duplicó en poco tiempo.

Décadas más tarde, la ciencia empezó a mirar atrás. Aquellos niños —los que crecieron soñando con pasteles y los que nacimos poco después, ya entre montañas de chuches— se convirtieron sin saberlo en participantes de un experimento nutricional a escala continental. Un estudio publicado en Nature analizó a los británicos que, por pura circunstancia histórica, habían pasado sus primeros mil días de vida —desde el embarazo hasta los dos años— bajo estrictas restricciones de azúcar tras la Segunda Guerra Mundial. Resultado: un 14% menos de insuficiencia cardiaca en la edad adulta. No es una cifra pequeña. Es la diferencia entre una vida con marcapasos y otra con paseos tranquilos.

Antes, Science ya había revelado que esos mismos niños presentaban, décadas después, un 35% menos de diabetes tipo 2 y un 20% menos de hipertensión. El British Medical Journal añadió datos cardiovasculares: menos infartos, menos ictus. Otros equipos han observado beneficios en hígado graso y enfermedades respiratorias. En otras palabras: lo que comiste antes de aprender a hablar puede estar negociando hoy con tu cardiólogo.

De dulce capricho a problema global

La Organización Mundial de la Salud (OMS) ha decidido tratar el azúcar con la misma severidad retórica que antes reservaba al tabaco. En 2025 lanzó la iniciativa “3 by 35”, proponiendo gravar con impuestos contundentes el tabaco, el alcohol y las bebidas azucaradas para evitar millones de muertes prematuras.

En Europa, el sistema Nutriscore endureció su algoritmo contra el azúcar añadido. En Estados Unidos, las nuevas guías dietéticas 2026–2030 desaconsejan por primera vez cualquier cantidad de azúcar añadido en menores de diez años. La ofensiva política es clara: el dulce ha dejado de ser inocente.

Y el problema es que está en todas partes. El adulto europeo medio consume entre 90 y 100 gramos diarios de azúcares totales. De ellos, unos 35–45 gramos son azúcares libres o añadidos. Traducido a cucharaditas: entre ocho y once cada día. La OMS recomienda idealmente no superar los 25 gramos. Es decir, la mayoría vamos un par de cucharadas por delante de lo prudente.

En Estados Unidos la cifra es aún mayor; en Alemania y Países Bajos ronda los cien gramos diarios; España se queda algo por debajo (76 g/día de azúcares totales), pero no tanto como para tirar cohetes. Somos golosos discretos.

El azúcar invisible

Reducir las ingestas sería más fácil si el azúcar no practicara el arte del camuflaje. Se esconde bajo más de sesenta alias: dextrosa, maltosa, jarabe de maíz, concentrado de zumo de fruta, néctar de agave, melaza…. Si un fabricante reparte el dulzor en cuatro nombres distintos, ninguno aparece en primer lugar en la etiqueta.

El consumidor lee “harina de trigo” y se siente a salvo. Mientras tanto, el azúcar camuflado sonríe desde el tercer, cuarto y quinto puesto. Está en el pan de molde, en las salsas de tomate, en embutidos, en aliños, en sopas instantáneas. Es el polizón con más éxito de la industria alimentaria.

Fuentes de fructosa

Glucosa y fructosa: primos desiguales

Conviene aclarar un detalle bioquímico. El azúcar de mesa, la sacarosa, está formado por glucosa y fructosa a partes iguales. La glucosa es el combustible universal de nuestras células. El cerebro la adora. Nuestro cuerpo sabe fabricarla a partir de casi cualquier carbohidrato. Es, por decirlo así, el combustible estándar del organismo.

La fructosa, en cambio, es otra historia. No es esencial. Durante la mayor parte de nuestra evolución la obteníamos en pequeñas cantidades de la fruta o de la miel. El hígado es quien debe procesarla, y lo hace con un entusiasmo parecido al que muestra frente al alcohol: puede manejarla, sí, pero ni indefinidamente ni en exceso.

Cuando la industria añade azúcar a todo —desde yogures hasta kétchup— está añadiendo también fructosa innecesaria en cantidades que ninguno de nuestros ancestros cazadores-recolectores habría imaginado.

La vieja batalla científica

Que el azúcar no fuera tan inocente se sospechaba desde hace medio siglo. En el Londres de los años setenta, el nutricionista John Yudkin publicó Pure, White and Deadly: How Sugar Is Killing Us and What We Can Do to Stop It (Puro, blanco y mortal. Cómo el azúcar nos está matando y qué podemos hacer para detenerlo), un libro en el que señalaba al azúcar como motor de obesidad, diabetes y enfermedad cardiaca. Mientras tanto, al otro lado del Atlántico, Ancel Keys defendía que las grasas saturadas eran el gran enemigo, apoyándose en su influyente Estudio de los Siete Países.

Keys ganó la batalla mediática. Las guías dietéticas estadounidenses de 1980 recomendaron reducir la grasa. La industria respondió con entusiasmo creativo: si quitamos grasa, añadamos azúcar para que el yogur no sepa a cartón mojado. Así nacieron los productos “low fat” rebosantes de fructosa enmascarada en jarabe de maíz.

Años después se supo que el lobby azucarero había financiado informes que minimizaban los riesgos del azúcar y desviaban la atención hacia las grasas. Yudkin quedó relegado durante décadas. La historia tiene algo de tragedia griega, con azúcar en vez de coro.

Hoy el consenso científico es bastante claro: un consumo elevado de azúcares añadidos contribuye de forma significativa a obesidad, diabetes tipo 2, hígado graso no alcohólico y enfermedad cardiovascular. No es el único factor —la vida moderna ofrece un generoso menú de sedentarismo y exceso calórico—, pero es uno de los más consistentes.

Calorías que no llenan

Las bebidas azucaradas son el ejemplo más contundente. Un refresco aporta una cantidad formidable de azúcar sin producir saciedad. El cuerpo no registra esas calorías líquidas como comida real. En 2020 se atribuyeron globalmente millones de casos nuevos de diabetes y enfermedad cardiovascular al consumo de estas bebidas.

Estudios recientes indican además que el azúcar líquido es más dañino que el sólido. Un zumo de naranja, despojado de la fibra de la fruta entera, se comporta metabólicamente más como un refresco que como una naranja. Sin fibra que frene la absorción, la glucosa irrumpe en sangre como una ola que obliga al páncreas a responder con descargas repetidas de insulina. Con el tiempo, el sistema se vuelve menos sensible. Es lo que llamamos resistencia a la insulina, antesala de la diabetes.

Hay indicios también de que el exceso de azúcar promueve procesos inflamatorios y altera la respuesta inmunitaria. Algunos especialistas recomiendan moderarlo en enfermedades como psoriasis o trastornos intestinales crónicos. No es una panacea inversa, pero tampoco un actor neutral.

¿Podríamos vivir sin azúcar añadido?

La respuesta rotunda es sí. Durante la mayor parte de la historia humana, el azúcar refinado era un lujo escaso. Nuestro organismo no necesita azúcar añadido para funcionar. Necesita energía, que puede obtener de carbohidratos complejos, proteínas o incluso grasas.

El problema es cultural y económico. El azúcar es barato, mejora el sabor, prolonga la vida útil de los productos y genera fidelidad gustativa desde edades tempranas. Es un aliado formidable para la industria. Pero los datos del “experimento del racionamiento” con el que comencé este artículo nos recuerdan algo casi herético en tiempos de pastelitos fluorescentes: menos azúcar en los primeros años de vida se asocia con menos enfermedad décadas después. No es una teoría conspirativa ni una moda pasajera. Es epidemiología con paciencia histórica.

domingo, 8 de febrero de 2026

EL INCONSISTENTE PLEITO DEL POLLO ASADO

 

En Estados Unidos hay demandas que parecen escritas por guionistas con demasiado tiempo libre. En el famoso caso Pearson v. Chung, también conocido como el caso de los "pantalones de cincuenta y cuatro millones de dólares ", un caso civil de 2007 decidido en el Tribunal Superior del Distrito de Columbia en el que Roy Pearson, entonces juez de derecho administrativo , demandó a su establecimiento de limpieza en seco por cincuenta y cuatro millones millones de dólares en daños y perjuicios después de que la tintorería supuestamente hubiera perdido sus pantalones, lo que —según su propietario— le causó graves daños en su autoestima y en su vida vida profesional. Pearson perdió el caso y la posterior apelación.

Y también existió el litigio Stambovsky v. Ackley, en el que un comprador demandó porque la casa que había adquirido venía, según la dueña anterior, con fantasmas incorporados. El tribunal no entró en cuestiones paranormales, pero sí en algo más jurídico: si la vivienda había sido públicamente anunciada como encantada, no cabía alegar engaño.

Ese es el paisaje cultural en el que prosperan pleitos que, vistos desde fuera, suenan extravagantes pero que casi siempre giran en torno a algo concreto: la distancia entre lo que el consumidor cree estar comprando y lo que realmente compra. El último episodio tiene como protagonista al pollo asado de supermercado y a dos ingredientes —fosfatos y carragenina— señalados como supuestos “conservantes tóxicos”. Sin embargo, cuando uno abandona el folclore judicial y entra en el terreno de la química y la fisiología, la discusión cambia de foco: ni los fosfatos ni la carragenina son conservantes, ni son tóxicos en las cantidades autorizadas.

Dos mujeres en California han demandado a la cadena de supermercados Costco (unas 640 tiendas en Estados Unidos) alegando que su famoso pollo asado, etiquetado como “sin conservantes”, contiene fosfato de sodio y carragenina. Según la demanda, eso constituiría publicidad engañosa. Pero conviene empezar por lo básico: los conservantes son sustancias añadidas para inhibir el crecimiento de bacterias, mohos u hongos y prolongar la vida útil del alimento. Entre ellos se encuentran benzoatos, sorbatos, propionatos, nitritos, nitratos o sulfitos. Los fosfatos y la carragenina no desempeñan esa función antimicrobiana. No son, pues, conservantes.

De hecho, resulta curioso que la palabra “conservante” se haya convertido casi en sinónimo de veneno. Los conservantes no se añaden por capricho, sino para prevenir intoxicaciones alimentarias. Microorganismos como Salmonella, Listeria, Campylobacter, E. coli o Clostridium perfringens no son invenciones retóricas, sino causas muy reales de enfermedades. La seguridad alimentaria moderna se basa precisamente en equilibrar riesgos y beneficios.

¿Para qué se emplean entonces los fosfatos en el pollo asado? La respuesta es tecnológica, no conspirativa. Tras el sacrificio del animal, las proteínas musculares se contraen y expulsan agua. Los fosfatos estabilizan la red proteica, elevan ligeramente el pH y favorecen la retención de agua. El resultado es una carne más jugosa, con menor pérdida de peso durante la cocción y textura más tierna. No hay nada misterioso en ello.

Además, el fosfato no es una sustancia ajena al organismo. Es esencial para la vida. Participa en la formación de huesos y dientes, en la regulación del equilibrio ácido-base y en procesos celulares fundamentales. Las moléculas que sostienen nuestra existencia —ADN, ARN y ATP— contienen grupos fosfato. Sin ellos, no habría transmisión de información genética ni producción de energía.

Lo obtenemos de forma natural en carnes, lácteos, legumbres, frutos secos y cereales integrales. Es cierto que el fosfato añadido como aditivo se absorbe con mayor eficiencia que el fosfato natural ligado a proteínas o fitatos vegetales. Pero incluso una ración generosa de pollo asado que aporte 300 o 400 miligramos no supone un riesgo para personas con función renal normal. Los riñones regulan con notable eficacia la concentración de fosfato en sangre, eliminando el exceso por la orina.

La hiperfosfatemia —niveles elevados en sangre— es un problema real, pero se observa casi exclusivamente en pacientes con enfermedad renal crónica. En estos casos sí es necesario controlar la ingesta. Para la población general, el fosfato dietético no representa un peligro en el contexto de una alimentación equilibrada.

La carragenina, el segundo ingrediente cuestionado, es un polisacárido (es decir, una cadena de azúcares) extraído de algas rojas. Se utiliza como agente gelificante y estabilizante por su capacidad para retener agua y mejorar la textura. Su uso en alimentos tiene décadas de historia, aunque la tradición no sustituye a la evidencia científica. La seguridad de la carragenina alimentaria ha sido evaluada repetidamente por agencias reguladoras internacionales.

Desde el punto de vista fisiológico, la carragenina apenas se digiere en el intestino delgado. Se comporta de manera similar a una fibra dietética y llega en gran parte intacta al colon, donde puede ser parcialmente fermentada por la microbiota. No actúa como conservante ni como agente antimicrobiano.

¿De dónde surge entonces la acusación de que provoca inflamación o cáncer? De una confusión recurrente entre la carragenina alimentaria y los llamados poligeenanos. Los poligeenanos son fragmentos de bajo peso molecular obtenidos por degradación ácida de la carragenina en condiciones de laboratorio muy agresivas. Algunos de estos compuestos, administrados en altas dosis a animales de experimentación, han inducido inflamación intestinal y tumores. Pero los poligeenanos no están autorizados como aditivos y no son equivalentes a la carragenina alimentaria.

Lo fundamental es que la carragenina ingerida no se transforma en poligeenanos en el aparato digestivo humano en condiciones normales. La degradación que produce esos fragmentos ocurre bajo circunstancias experimentales específicas que no reproducen el entorno fisiológico. Confundir ambos compuestos es mezclar dos sustancias distintas bajo un mismo nombre.

Si hay un componente del pollo asado que merece atención nutricional, no es exótico ni químicamente complejo. Es el sodio. Una porción de un cuarto de kilo puede contener alrededor de mil miligramos, una cantidad significativa si se considera que muchas guías recomiendan no superar los 1 500–2 300 miligramos diarios. El exceso de sodio se asocia con hipertensión arterial y mayor riesgo cardiovascular, un problema de salud pública ampliamente documentado.

Retirar la piel puede reducir ligeramente la ingesta de sodio y también disminuir la exposición a compuestos formados durante el tostado intenso. Pero el debate relevante no está en los fosfatos ni en la carragenina, sino en la carga total de sal dentro de una dieta ya de por sí rica en alimentos procesados.

La demanda contra Costco probablemente se resolverá en el terreno de la semántica regulatoria: qué se entiende exactamente por “conservante” y si la etiqueta puede inducir a error. Desde el punto de vista toxicológico, la acusación carece de fundamento sólido. Ni el fosfato de sodio ni la carragenina cumplen la función de conservar el alimento evitando el crecimiento microbiano, ni representan un riesgo para la población general en las cantidades empleadas.

En última instancia, el episodio ilustra una tendencia contemporánea: el uso del lenguaje de la toxicología sin atender a la dosis, al contexto y a la evidencia acumulada. Se demonizan nombres químicos que suenan extraños mientras se ignoran factores dietéticos con impacto probado. Y así, entre etiquetas difíciles de leer, influencers ignorantes y alarmistas y demandas llamativas, el verdadero problema —la ingesta excesiva de sodio— queda relegado a un discreto segundo plano.