Vistas de página en total

domingo, 22 de febrero de 2026

BREVE (Y ANTIPEGAJOSA) HISTORIA DEL TEFLÓN

 

En el invierno de 1938, en un laboratorio de la planta de DuPont en Deepwater, Nueva Jersey, un joven químico llamado Roy J. Plunkett se topó con uno de esos accidentes que hacen historia. No explotó nada. No hubo humaredas espectaculares, ni heridos ni siquiera matraces rotos. Solo un cilindro que, sencillamente, se negó a obedecer.

Plunkett trabajaba con gases refrigerantes. Había almacenado tetrafluoroetileno (TFE) en bombonas de acero a presión. Cuando fue a abrir una, el gas no salía. El cilindro, sin embargo, seguía pesando lo mismo. Algo había dentro. Lo cortaron. Y allí estaba: un polvo blanco, ceroso, resbaladizo. El gas se había polimerizado espontáneamente y había formado una sustancia nueva. Sin saberlo, acababan de descubrir el politetrafluoroetileno (PTFE), que más tarde se comercializaría como Teflon.

El teflón es, sencillamente; el nombre comercial de un polímero sintético compuesto por largas cadenas de carbono rodeadas de átomos de flúor cuya fórmula es (C2F4)n. Esa estructura —carbono blindado por flúor— es la clave de todo. El enlace carbono-flúor es uno de los más fuertes de la química orgánica. El resultado es un material extraordinariamente estable, inerte y con un coeficiente de fricción bajísimo. Traducido a lenguaje doméstico: casi nada reacciona con él y casi nada se le pega.

El PTFE resiste temperaturas elevadas sin degradarse fácilmente, soporta ácidos y bases que corroerían otros materiales y ofrece una superficie tan poco adherente que el agua forma gotas perfectas y la masa de una tortilla se desliza como si tuviera vida propia. En términos industriales, eso significaba juntas, sellos, válvulas y recubrimientos capaces de sobrevivir a entornos químicos agresivos. En términos culinarios, significaba el sueño de cualquier cocinero con prisas.

Al principio, el hallazgo no tenía nada que ver con las sartenes. Durante la Segunda Guerra Mundial, el PTFE resultó útil en proyectos altamente confidenciales porque era resistente a sustancias extremadamente corrosivas. Su capacidad para soportar condiciones duras lo convirtió en un material estratégico.

Tras la guerra, el reto fue domesticarlo. El PTFE no es un plástico cualquiera: no se funde y fluye como otros polímeros comunes. Procesarlo exigía nuevas técnicas de sinterización y prensado. La sinterización es un proceso industrial en el que polvos sólidos se compactan y se calientan sin llegar a fundirse completamente, de modo que sus partículas se unen entre sí formando una pieza sólida y resistente. En otras palabras: se “cocinan” polvos hasta que se sueldan microscópicamente, pero sin convertirse en líquido. Además, adherirlo a superficies metálicas no era sencillo. ¿Cómo fijar algo que, por definición, no quiere pegarse a nada?

La respuesta llegó con ingenio industrial: rugosidad controlada, tratamientos superficiales y métodos que permitían anclar mecánicamente el recubrimiento al metal antes de calentarlo. Poco a poco, el material salió del ámbito estrictamente técnico y empezó a buscar aplicaciones más cercanas al consumidor.

La idea de usar PTFE en utensilios culinarios no surgió de inmediato. Durante años, el material fue demasiado caro y complejo de fabricar para imaginarlo en una cocina doméstica. Pero a mediados del siglo XX, con el auge del consumo y la fascinación por los “materiales del futuro”, todo parecía posible.

La leyenda culinaria suele señalar a un ingeniero francés, Marc Grégoire, que experimentó recubriendo con PTFE aparejos de pesca para evitar que los hilos se enredaran. Su esposa, con la lógica aplastante de quien fríe huevos cada mañana, sugirió probarlo en una sartén. Y funcionó.

A finales de los años cincuenta, empezaron a comercializarse las primeras sartenes antiadherentes. El argumento era irresistible: cocinar sin que los alimentos se pegaran y limpiarlos en segundos. En una época enamorada de la modernidad, el teflón encarnaba el ideal doméstico de eficiencia y progreso. Nada de rascar fondos quemados. Nada de mantequilla extra para evitar desastres.

Las campañas publicitarias de la época mostraban huevos deslizándose como patinadores artísticos. La cocina, de repente, parecía un laboratorio amable donde la química trabajaba a favor del desayuno.

¿Por qué no se pega nada? La magia —si se me permite la palabra— reside en la superficie del PTFE. Los átomos de flúor que envuelven la cadena de carbono generan una especie de escudo químico. Esa cubierta reduce enormemente la energía superficial del material. En términos prácticos, otras sustancias no “encuentran agarre” molecular suficiente para adherirse con fuerza.

Además, el coeficiente de fricción del PTFE es extremadamente bajo. De ahí que también se use en aplicaciones tan dispares como rodamientos, recubrimientos industriales, aislamiento de cables o componentes aeroespaciales. El mismo principio que evita que una tortilla se agarre al fondo ayuda a que ciertas piezas mecánicas se deslicen con suavidad.

Con el paso de las décadas, el teflón dejó de ser simplemente el plástico prodigioso del futuro para convertirse en objeto de debate. La fabricación histórica de PTFE utilizó compuestos como el ácido perfluorooctanoico (PFOA), hoy muy cuestionado por su persistencia ambiental y posibles efectos en la salud. Las regulaciones internacionales han impulsado la eliminación progresiva de estas sustancias en muchos procesos productivos.

Conviene distinguir: el PTFE sólido y correctamente utilizado en utensilios de cocina es químicamente estable a temperaturas normales de cocción. Sin embargo, si se sobrecalienta de forma extrema (muy por encima de las temperaturas habituales de uso), puede degradarse y liberar humos irritantes. Como casi todo en la cocina —incluido el aceite—, exige sentido común.

La historia del teflón es, en ese sentido, la historia de muchos avances del siglo XX: entusiasmo, expansión global, revisión crítica y adaptación normativa. Reducir el teflón a las sartenes sería injusto. El PTFE se convirtió en un material clave en la industria química, médica y tecnológica. Se utiliza en injertos vasculares, recubrimientos de cables, sellos industriales y componentes electrónicos. Incluso en arquitectura ha encontrado espacio en membranas ligeras y resistentes.

Y, sin embargo, su imagen pública sigue asociada al gesto cotidiano de voltear una tortilla sin drama. Tal vez porque ahí se manifiesta con claridad su cualidad más fascinante: la negativa rotunda a interactuar con otros materiales.

Lo que hace especialmente atractiva la historia del teflón es su origen casual. Plunkett no buscaba un material antiadherente. Buscaba un refrigerante. Pero la ciencia tiene esa costumbre de recompensar la curiosidad. Si alguien hubiera descartado el cilindro como defectuoso y lo hubiera tirado sin más, la historia sería distinta.

El polvo blanco hallado en 1938 no parecía gran cosa. No brillaba. No olía. No prometía revolucionar la cocina. Sin embargo, encerraba una estructura molecular extraordinaria. A veces, el progreso no llega con estruendo, sino con silencio y una báscula que indica que el peso no ha cambiado.

El recorrido del teflón —del laboratorio químico a la cocina familiar— resume buena parte del siglo XX: investigación básica, aplicación industrial, expansión comercial y posterior escrutinio ambiental. Es el trayecto típico de muchos materiales modernos, pero pocos han tenido una presencia tan cotidiana.

Hoy damos por sentado que un huevo puede deslizarse sin resistencia. Olvidamos que durante milenios la humanidad cocinó raspando y fregando. El teflón, con su carácter químicamente huraño, transformó esa rutina. Y todo empezó con un cilindro que no quiso abrirse como debía.

Quizá esa sea la moraleja: cuando algo no funciona según lo previsto, conviene mirar dentro antes de descartarlo. Puede que allí, en forma de polvo blanco aparentemente anodino, esté esperando el próximo material que cambie nuestra vida doméstica.

LA TRASTIENDA GEOQUÍMICA DEL CURLING

 

Las Olimpiadas de Invierno han sido una excelente ocasión para relajarse y meditar. Si quieres hacerlo, olvídate de saltos, trineos (o cómo se llamen) y esquí de fondo. Siéntate, relájate y contempla una partida de curling. Mucho mejor que el yoga y casi tan bueno como soportar un aburrido partido de criquet.

El curling es uno de esos deportes que, vistos por primera vez, provocan una mezcla de desconcierto y fascinación. Sobre una pista de hielo perfectamente pulida, varios jugadores deslizan unas pesadas piedras de granito mientras otros dos compañeros barren con frenesí delante de ellas. El objetivo no es la velocidad ni el choque espectacular, sino la precisión milimétrica y la estrategia paciente. Es, en esencia, una partida de ajedrez sobre hielo.

Se juega entre dos equipos de cuatro jugadores cada uno. La superficie es una pista rectangular de hielo de unos 45 metros de largo. En cada extremo hay una diana circular llamada “casa”, formada por anillos concéntricos pintados sobre el hielo. El centro de esa diana se denomina “botón” y es el punto más valioso.

Cada equipo dispone de ocho piedras por “end” (equivalente a una entrada o manga), lo que significa que en cada parcial se lanzan 16 piedras en total, alternando los turnos. Las piedras, de unos veinte kilos, están hechas tradicionalmente de granito escocés y llevan una empuñadura de color para distinguir a cada equipo.

El jugador que lanza la piedra se impulsa desde una posición baja, deslizándose con un pie mientras mantiene el otro extendido hacia atrás, y suelta la piedra con un ligero giro. Ese giro hace que la piedra describa una trayectoria curva —de ahí el nombre curling, “rizar”— debido a la interacción entre la base de la piedra y el hielo.

Aquí entra en juego el barrido. Dos compañeros, armados con escobas especiales, frotan frenéticamente el hielo delante de la piedra mientras avanza. Al barrer, calientan ligeramente la superficie y reducen la fricción, lo que permite que la piedra recorra mayor distancia y modifique sutilmente su trayectoria. No es un gesto decorativo: puede decidir una partida.

El objetivo es dejar las propias piedras lo más cerca posible del botón al final del end. Solo puntúa el equipo que tiene la piedra más cercana al centro, y recibe un punto por cada piedra mejor situada que la más próxima del rival. Una partida oficial suele constar de diez ends, aunque en competiciones más cortas pueden ser ocho.

El curling exige precisión técnica, coordinación de equipo y una notable capacidad estratégica. No se trata solo de colocar piedras en la casa; también se pueden bloquear trayectorias rivales con “guards” (piedras de protección), eliminar piedras contrarias mediante golpes (“take-outs”) o preparar jugadas de varios movimientos por adelantado. El capitán del equipo, el “skip”, dirige la estrategia y señala el punto exacto al que debe lanzarse cada piedra.

En cuanto a su historia, el curling tiene raíces profundas en Escocia. Existen registros del siglo XVI que mencionan juegos sobre lagos helados en invierno, y se han hallado piedras antiguas con fechas grabadas de 1511. El deporte se organizó formalmente en el siglo XIX, cuando se fundaron los primeros clubes y se establecieron reglas comunes.

Desde Escocia se extendió a Canadá, donde encontró un terreno ideal en los largos inviernos y se convirtió en una auténtica pasión nacional. Hoy es uno de los deportes más practicados en el país. El curling fue incluido en los Juegos Olímpicos de Invierno de manera oficial en 1998, aunque ya había aparecido como deporte de exhibición décadas antes.

Lo que empezó como un pasatiempo invernal en estanques helados se ha transformado en un deporte olímpico de precisión y estrategia. Y, pese a su apariencia tranquila, cada piedra que se desliza sobre el hielo puede contener una batalla silenciosa de cálculo y nervios.

Como puedes imaginar, hay mucha física involucrada en el curling: velocidades de rotación, ángulos, transferencia de momento, análisis de fricción, etcétera. Pero también hay mucha química en juego.

Los uniformes están hechos de licra; los bordes de las láminas de curling están hechos de espuma de alta densidad para que se mantengan relativamente secos; y los zapatos deslizantes suelen tener suela de teflón, por la misma razón que las sartenes. Pero hay aún más química en juego en el hielo, y en las piedras, especialmente.

Este deporte se practica sobre hielo mantenido a una temperatura ideal de -5 °C mediante redes de tuberías que bombean salmuera o anticongelante justo debajo de la superficie. Para mantener el hielo en condiciones óptimas, los técnicos controlan la temperatura, la humedad e incluso la calidad del aire mediante sensores integrados.

El agua que se congela para formar la lámina no es solo agua del grifo. Se filtra cuidadosamente para eliminar impurezas y, si es necesario, se equilibra su pH. Cuanto mayor sea la cantidad de sólidos disueltos totales en el agua, más blando será el hielo. En el curling, los fabricantes de hielo profesionales buscan hielo de 0 a 10 partes por millón (ppm) para producir hielo muy duro con muy poca fricción. El hockey y el patinaje de velocidad buscan hielo un poco más blando, y el patinaje artístico, el más blando, con 120-150 ppm.

En cuanto a las piedras para curling, quizás ya sepas que toda la roca utilizada en su elaboración proviene de solo dos lugares: la cantera de granito Trefor, en el norte de Gales, y Ailsa Craig, una isla al oeste de Escocia continental. De este duopolio provienen solo cuatro tipos de piedra: Blue Hone y Common Green de la isla escocesa, y Blue Trefor y Red Trefor de la cantera galesa.


El Blue Hone se considera ideal para la banda de rodadura (la parte inferior de la piedra de curling que se desliza sobre el hielo) porque se astilla menos. Sin embargo, no es un buen material para la banda de impacto (la parte de la piedra que impacta con otras piedras) porque es propenso a astillarse en forma de medialuna.

La investigación sobre por qué las piedras funcionaban así identificó que todo se reduce principalmente al tamaño del grano mineral en las rocas. El Blue Hone tiene granos más pequeños, que son prácticamente del mismo tamaño, lo que hace que sea menos probable que el hielo los arranque que los granos grandes, y el agujero resultante es más pequeño si lo hace. Además, es una roca relativamente no porosa, lo que ayuda a prevenir la formación de grietas por el hielo en muescas microscópicas.

Las bandas de impacto se fabrican mejor con los otros tres tipos de piedra. Tienen una distribución más amplia del tamaño del grano mineral, lo que ayuda a evitar las astillas en forma de medialuna.

Aunque casi siempre se les llama granito, las rocas que se convierten en piedras para curling no son, en sentido estricto, granito, sino granitoides. La clasificación de las rocas ígneas intrusivas como el granito y sus derivados se basa en la abundancia de minerales específicos. En el caso de las rocas químicamente similares a los granitos (granitoides), la clasificación se basa en la abundancia de cuarzo, feldespato alcalino y feldespato plagioclasa. Con base a esa clasificación, las rocas de Ailsa Craig se pueden clasificar como feldespato alcalino cuarzo sienita, tréfor azul = cuarzo monzogabro y tréfor rojo = granito/granodiorita».

A más de 600 dólares cada una, es lógico que se haya dedicado mucha investigación al perfeccionamiento de las piedras de curling. Pero como Ailsa Craig es ahora un santuario de vida silvestre, es posible que se necesiten fuentes alternativas de granitoides con composiciones lo más similares posible. Los especialistas esperan que se encuentren en Nueva Escocia.

sábado, 21 de febrero de 2026

EL ACEITE QUE NO NECESITA QUE LO “ARREGLEN”

 

Hay algo profundamente sospechoso en una aceituna. A simple vista parece una uva que ha tenido un mal día. No sonríe, no huele a promesa tropical ni cruje como una manzana virtuosa. Y, sin embargo, si uno la trata con la debida cortesía —ni demasiada violencia, ni demasiado calor, ni ningún laboratorio entrometido— se transforma en uno de los líquidos más venerados del planeta: el aceite de oliva virgen extra.

Cómo se extrae el aceite de oliva virgen extra

El proceso, comparado con casi cualquier industria aceitera moderna en la que siempre interviene la manipulación química, tiene algo de milagro doméstico. Lo resumo en cuatro fases:

1. Recolección. Las aceitunas se recogen del árbol —idealmente sin que toquen el suelo— y se llevan al molino de la almazara con bastante prisa. La fruta empieza a oxidarse en cuanto se desprende de la rama, y el tiempo, en este negocio, no es oro: es acidez.

2. Limpieza y molturación. Se lavan y se trituran enteras. Hueso incluido. El resultado es una pasta espesa, verde y fragante que huele a campo recién aplastado. Antes se hacía con muelas de piedra; hoy lo habitual es un molino metálico más higiénico y eficaz.

3. Batido (malaxación). Aquí sucede algo crucial. La pasta se bate lentamente durante unos 20–40 minutos para que las microgotas de aceite se unan entre sí. Todo esto ocurre a temperaturas moderadas. Para que el aceite pueda llamarse virgen extra, la extracción debe ser en frío —legalmente, por debajo de unos 27 °C—. Nada de hervores, nada de aditivos, nada de tratamientos retorcidos.

4. Separación. Mediante prensas tradicionales o, más comúnmente, centrifugadoras modernas (los famosos “decanters”), se separan tres cosas: el aceite, el agua vegetal y el orujo (la parte sólida).

Y ya está.

No hay hexano. No hay sosa cáustica. No hay neutralización, ni decoloración, ni desodorización.

Una prensa tradicional de almazara

Si el aceite sale defectuoso —porque la aceituna estaba dañada, fermentada o recogida tarde— no se “arregla”. Simplemente no puede venderse como virgen extra. El sistema es cruel pero honesto: la calidad depende del fruto y del cuidado, no de la química posterior.

El aceite de oliva virgen extra es, en esencia, zumo de fruta. Un zumo graso, ciertamente, pero zumo, al fin y al cabo. Los aceites de semillas son otra cosa. Lo explicaré con los procesos necesarios para preparar el aceite de girasol.

El girasol: una semilla que necesita “arreglos”

Las semillas de girasol no son una fruta carnosa que ofrezca su aceite con generosidad dadivosa. Son pequeñas cápsulas secas, diseñadas por la naturaleza para resistir inviernos, pájaros y pésimas decisiones humanas. Para obtener su aceite, el proceso suele ser más industrial:

1. Limpieza y descascarillado. Se eliminan impurezas y cáscaras. La semilla interior, la pipa, contiene la grasa.

2. Triturado y prensado. Las semillas se aplastan para liberar parte del aceite. Pero aquí viene el problema: el prensado mecánico no extrae todo. Siempre queda una fracción apreciable atrapada en la torta sólida.

3. Extracción con disolvente (hexano). Para recuperar ese aceite restante, se utiliza habitualmente hexano, un disolvente derivado del petróleo. El hexano disuelve la grasa con eficacia admirable. Después se evapora por calentamiento y se recupera para reutilizarlo. El aceite final debe cumplir límites estrictos de residuos; en condiciones normales, el consumidor no bebe hexano. Pero el aceite crudo resultante tiene un inconveniente: huele fuerte, contiene pigmentos, ceras, fosfolípidos y ácidos grasos libres. Es decir, es honesto… pero poco atractivo. Hay que refinarlo.

4. Refinado. Aquí empieza la parte que suena a clase de química aplicada:

Neutralización con sosa cáustica (NaOH): elimina ácidos grasos libres formando jabones que luego se separan.

Lavado y ajuste mineral: a veces con ácido fosfórico o cítrico.

Decoloración: mediante tierras de blanqueo o carbón activado.

Desodorización: vapor a alta temperatura (a menudo 180–240 °C) bajo vacío para eliminar olores.

Después de todo eso, el aceite es claro, neutro, estable y perfectamente utilizable para freír una croqueta sin que la cocina huela a pradera fermentada.

¿Por qué el aceite de oliva no necesita ese “arreglo”?

Porque juega con ventaja biológica. La aceituna está compuesta en un 15–25 % de aceite listo para salir. Es un tejido carnoso cuya función natural es atraer animales dispersores. El aceite está relativamente accesible.

La semilla de girasol, en cambio, almacena su grasa como reserva energética compacta para el embrión. Está protegida, encapsulada y químicamente acompañada de compuestos que, aunque no son venenosos, sí afectan al sabor y la estabilidad.

Además, el aceite de oliva virgen extra tiene una composición notablemente rica en polifenoles antioxidantes, tocoferoles (vitamina E) y compuestos aromáticos naturales. Estos compuestos le dan sabor, estabilidad y fama cardiosaludable. Pero son delicados: el refinado intenso los eliminaría. En el aceite de oliva virgen extra, la estrategia es preservar. En el de girasol refinado, la estrategia es purificar.

Temperaturas y dignidad térmica

Una de las diferencias más repetidas en debates culinarios es la del calor.

El aceite de oliva virgen extra se extrae en frío.

El aceite de girasol refinado puede someterse a temperaturas altas durante la desodorización.

Esto no convierte automáticamente a uno en santo y al otro en villano. Son procesos distintos para materias primas distintas. El calor en el refinado no busca “cocinar” el aceite para que sea comestible. Busca eliminar compuestos volátiles indeseabless. Y se hace bajo vacío para minimizar oxidaciones. El resultado es un aceite más neutro, más estable en frituras prolongadas y con menos personalidad aromática. Un actor secundario fiable.

Dos filosofías líquidas

Si uno quisiera exagerar —y la exageración es un deporte respetable— podría decir que el aceite de oliva virgen extra es como un vino joven embotellado directamente del viñedo, mientras que el aceite de girasol refinado es más bien un producto de ingeniería culinaria: eficiente, consistente, discreto.

Uno depende del agricultor. El otro depende del ingeniero. Ambos son legales. Ambos son seguros. Ambos cumplen normativas alimentarias estrictas.

La diferencia no está en que uno sea “natural” y el otro “químico”. Todo es química. La diferencia está en cuánta intervención posterior necesita la materia prima para volverse agradable y estable.

Epílogo en la cocina

Si vierte aceite de oliva virgen extra sobre una tostada, notará amargor, picor, aromas verdes. Eso son polifenoles saludando. Si usa aceite de girasol refinado para freír, notará algo más sutil: casi nada. Y esa es precisamente su virtud y su castigo.

Uno cuenta una historia. El otro hace el trabajo sin interrumpir la conversación.

Y tal vez esa sea la lección más útil: no todos los alimentos que pasan por procesos industriales son sospechosos, ni todos los que presumen de rusticidad son superiores en cualquier contexto.

La aceituna tuvo la amabilidad de ofrecernos su aceite sin exigir laboratorio. El girasol necesitó ayuda técnica para que lo apreciáramos. Y nosotros, criaturas agradecidas y algo melodramáticas, hemos decidido convertir esa diferencia en una batalla filosófica cuando, en realidad, es simplemente botánica aplicada con distintos grados de intervención humana.

Al final, la tostada no suele quejarse.

miércoles, 18 de febrero de 2026

LAS SERPIENTES ANTES DEL FUEGO: EL PRÓLOGO OLVIDADO DE LA TRAGEDIA DE SAINT-PIERRE

 

Bienvenidos a Saint-Pierre, Martinica. Año 1902. El ron corre por las destilerías, los cafés imitan a París y el Monte Pelée vigila desde el norte con esa elegancia distraída de los volcanes dormidos. La ciudad presume de ser el “París del Caribe”. Tiene teatro, comercio, periódicos, política. Tiene, sobre todo, confianza. Y entonces empiezan a bajar las serpientes.

Antes del fuego, bajaron las serpientes. Es una frase que suena a profecía bíblica, pero ocurrió en 1902, en Saint-Pierre, la capital cultural y económica de Martinica. La ciudad se hacía llamar el París del Caribe. Tenía teatro, comercio, cafés y una vida urbana orgullosa de sí misma. Sobre ella se alzaba el Monte Pelée, una presencia casi decorativa en el horizonte. Una montaña elegante, cubierta de vegetación, con un pasado volcánico demasiado lejano para inquietar a nadie. Y sin embargo, cuando el volcán empezó a despertar, quienes primero lo comprendieron no fueron los científicos ni los políticos, sino los animales.

A comienzos de mayo la montaña emitía ceniza y gases. El suelo vibraba con pequeños temblores. Hubo un flujo de lodo que destruyó una fábrica azucarera y mató a varias decenas de personas. La señal estaba ahí, pero no encajaba en el imaginario colectivo del desastre. No había ríos de lava descendiendo con solemnidad clásica, como en las ilustraciones del Vesubio. No había un espectáculo claro que justificara el pánico. Había humo, rumores y cierta incomodidad en el aire. Y luego estaban las serpientes.

La especie en cuestión, la fer-de-lance de Martinica, vivía en las laderas boscosas del Pelée. Sensibles a los cambios térmicos y químicos, comenzaron a descender cuando el suelo se calentó y los gases volcánicos alteraron su hábitat. No fue un acto de clarividencia, sino de fisiología. El entorno se volvió inhabitable y la única dirección posible era cuesta abajo. En pocos días, los barrios periféricos de Saint-Pierre registraron una invasión insólita. Se hablaría después de miles de serpientes; las cifras reales son difíciles de precisar, pero hubo decenas de mordeduras y alrededor de cincuenta muertes. Para los habitantes de la ciudad, aquello debió de ser profundamente inquietante: abrir la puerta y encontrar reptiles venenosos en la calle, como si la montaña estuviera expulsando algo que ya no podía contener.

Bothrops lanceolatus,  la víbora fer-de-lance de Martinica,

La imagen es poderosa porque parece un aviso simbólico: primero la plaga, luego el fuego. Pero lo que ocurrió no pertenece al registro de lo sobrenatural. Fue un fenómeno físico y biológico. El volcán liberaba dióxido de azufre y dióxido de carbono; el suelo se calentaba; la microfauna se desplazaba. Las serpientes reaccionaban a cambios que el cuerpo humano no percibe sin instrumentos. Mientras en los despachos se discutía la conveniencia de evacuar o no la ciudad —con elecciones próximas y una economía que no quería detenerse—, la montaña ya estaba reconfigurando su entorno de forma tangible.

A las 7:52 de la mañana, del 8 de mayo de 1902, tres días antes de que se celebraban las elecciones, el Monte Pelée liberó una nube piroclástica. No fue una colada de lava lenta y visible, sino una avalancha de gas sobrecalentado, ceniza y fragmentos de roca que descendió a cientos de kilómetros por hora y a temperaturas cercanas a los mil grados. En menos de dos minutos, Saint-Pierre dejó de existir. Murieron cerca de treinta mil personas. La ciudad que había discutido si debía preocuparse fue borrada antes de terminar el desayuno.

Lo que siguió transformó la ciencia. Hasta entonces, la vulcanología europea estaba moldeada por el modelo del Vesubio: explosiones, ceniza, lava. Pelée obligó a reconocer otra forma de violencia geológica. El geólogo Alfred Lacroix acuñó el término nuée ardente para describir aquella corriente ardiente que no era humo ligero ni roca líquida, sino una masa densa y devastadora que se comportaba como un fluido turbulento pegado al suelo. La noción de flujo piroclástico —hoy central en la evaluación del riesgo volcánico— nació de esa catástrofe. La ciencia avanzó porque fracasó antes.

En retrospectiva, resulta difícil no ver en las serpientes una metáfora incómoda. No eran oráculos, pero sí indicadores. Respondían a variaciones físicas que anticipaban un cambio mayor. Su huida no fue una predicción consciente del desastre final; fue la consecuencia directa de un sistema que ya estaba desestabilizado. La tragedia de Saint-Pierre ilustra algo que a menudo olvidamos: los desastres no comienzan con el estruendo final, sino con alteraciones sutiles en el equilibrio de un entorno.

Desde entonces, la relación entre comportamiento animal y fenómenos geológicos ha fascinado a investigadores y cronistas. Hay informes de ganado inquieto antes de terremotos, de aves que alteran sus rutas migratorias, de peces que abandonan ciertas zonas costeras. La evidencia científica es prudente: los animales no “predicen” el futuro en un sentido místico. Pero viven más cerca de los parámetros físicos del mundo. Detectan vibraciones de baja frecuencia, cambios en la composición del aire, variaciones térmicas mínimas. Lo que para nosotros es invisible hasta que se vuelve catastrófico, para ellos puede ser una molestia inmediata.

En 1902 no existían redes de sensores ni sistemas sofisticados de monitoreo volcánico. Existían, en cambio, serpientes que abandonaban la montaña. La ciudad pudo interpretarlo como un episodio molesto, una anomalía desagradable que requería control sanitario. Era más fácil pensar en una plaga que en un sistema volcánico reorganizándose bajo tierra. Más fácil discutir sobre orden público que replantear la seguridad de toda una urbe.

Cuando la nube ardiente descendió, las serpientes ya no estaban allí. Habían huido días antes, guiadas por una lógica elemental: sobrevivir. La ciudad, en cambio, permaneció. La ironía no es que los animales supieran más que los humanos, sino que estaban más atentos a su entorno inmediato. La biología reaccionó con rapidez; la política y la cultura, no.

La historia de Saint-Pierre suele contarse como una tragedia volcánica o como un ejemplo de negligencia administrativa. Ambas lecturas son válidas. Pero también es la historia de una desconexión entre sociedad y entorno. En un mundo que empezaba a confiar cada vez más en su capacidad técnica y en su estabilidad institucional, la naturaleza recordó que sus señales no siempre adoptan la forma que esperamos. A veces no es una columna de lava visible, sino un cambio en el comportamiento de criaturas que viven a ras del suelo.

Antes del fuego, bajaron las serpientes. No como advertencia divina, sino como consecuencia física de un sistema que estaba cambiando. La ciudad no las escuchó porque no sabía cómo traducir ese lenguaje. Y tal vez esa sea la lección más duradera: el desastre no siempre llega sin aviso. A veces se anuncia en formas que preferimos interpretar como anécdotas, molestias o exageraciones. Solo después, cuando la ceniza se enfría, comprendemos que eran los primeros síntomas de algo mucho mayor.

CARICATURA DE LA DIGESTIÓN

 

La imagen representa, de forma caricaturesca, el proceso completo de la digestión humana, desde que el alimento entra en la boca hasta que los residuos se eliminan, mostrando los órganos implicados y las sustancias químicas que intervienen en cada etapa.

Resumo lo que significa cada paso en orden:

1. Ingestión: boca y saliva

El proceso comienza en la boca.

Los dientes trituran el alimento (digestión mecánica).

La saliva contiene enzimas como la amilasa salival, que empieza a descomponer los carbohidratos.

Se forma el bolo alimenticio, que es empujado hacia el esófago.

2. Transporte: esófago

El bolo alimenticio desciende por el esófago gracias a movimientos musculares llamados peristaltismo. Aquí no ocurre digestión química importante; solo transporte hacia el estómago.

3. Digestión gástrica: estómago

En el estómago ocurre una fase clave. Se libera ácido clorhídrico, que:

Mata microorganismos.

Activa enzimas.

Actúa la pepsina, que comienza la digestión de las proteínas.

El alimento se mezcla y se transforma en una sustancia semilíquida llamada quimo.

4. Digestión química avanzada: intestino delgado

En el intestino delgado ocurre la mayor parte de la digestión y absorción. Intervienen:

Bilis (producida por el hígado y almacenada en la vesícula biliar): emulsiona las grasas (las fragmenta en gotas pequeñas).

Enzimas del páncreas (como la tripsina): continúan la digestión de proteínas. Descomponen grasas y carbohidratos.

En esta fase las moléculas grandes se convierten en:

Aminoácidos

Glucosa

Ácidos grasos

Vitaminas

5. Absorción de nutrientes

En el intestino delgado, a través de las vellosidades intestinales:

Los nutrientes pasan al sistema circulatorio.

La sangre los transporta a todas las células del cuerpo para obtener energía y construir tejidos.

6. Intestino grueso (colon)

Lo que no se digirió pasa al intestino grueso. Aquí ocurre:

Reabsorción de agua y vitaminas.

Acción de bacterias intestinales que fermentan residuos.

Formación de las heces.

Se mencionan partes como:

Colon transverso

Colon descendente

7. Eliminación y excreción

Finalmente:

Las heces se almacenan en el recto y se expulsan.

Los riñones filtran la sangre para eliminar desechos líquidos, produciendo orina.

En resumen

Es una representación simplificada pero bastante completa del sistema digestivo humano y su coordinación con el sistema circulatorio y el sistema excretor. La imagen representa:

Ingestión

Digestión mecánica

Digestión química

Absorción de nutrientes

Recuperación de agua

Eliminación de residuos


domingo, 15 de febrero de 2026

EL VENENO DE LA SELVA QUE LLEGÓ A SIBERIA

 

Epipedobates tricolor. Dominio público a través de Wikipedia

Hay historias que parecen concebidas por un novelista británico con debilidad por los detalles improbables. Un opositor ruso muere en una prisión ártica y, meses después, algunos gobiernos europeos sostienen que en su organismo apareció una toxina procedente de una pequeña rana tropical sudamericana. No un agente nervioso de laboratorio con nombre impronunciable y pedigrí de Guerra Fría, sino una molécula descubierta en la piel brillante de un anfibio ecuatoriano. El protagonista humano es Alexéi Navalni; la sustancia, la epibatidina; el escenario final, una colonia penal en el hielo siberiano. Si la geografía tuviera sentido del humor, probablemente habría intentado algo menos exagerado.

Navalni ya había sobrevivido en 2020 a un envenenamiento con un agente del grupo Novichok, en un capítulo que parecía pertenecer al manual clásico del espionaje químico. Esta vez, sin embargo, la acusación difundida por varios gobiernos europeos introduce un elemento más desconcertante: la detección de epibatidina en análisis toxicológicos posteriores a su muerte. Su viuda, Yulia Navalnaya, ha respaldado públicamente estas conclusiones y pedido una investigación internacional exhaustiva. Rusia rechaza las acusaciones. La diplomacia se tensa. Y, mientras tanto, conviene mirar con calma a la auténtica protagonista microscópica.

La epibatidina fue aislada en 1992 a partir de la piel de la Epipedobates tricolor, una rana pequeña, de colores vivos, que habita en Ecuador. Su descubrimiento se produjo en el marco de investigaciones impulsadas por los National Institutes of Health, en los cuales los científicos llevaban tiempo examinando las secreciones cutáneas de las ranas venenosas neotropicales. Estas especies, popularmente conocidas como ranas dardo, habían intrigado a la comunidad científica por una razón sencilla: las comunidades indígenas del Chocó y otras regiones amazónicas impregnaban con su veneno las puntas de las cerbatanas. Si algo puede derribar a un mono a decenas de metros, probablemente tenga interés farmacológico.

Y lo tenía. La epibatidina resultó ser un analgésico extraordinariamente potente. En modelos animales, superaba con creces a la morfina —hasta doscientas veces más potente en ciertos ensayos— y lo hacía sin actuar sobre los receptores opioides clásicos. En plena preocupación por la dependencia asociada a los opiáceos, aquello sonaba a revolución terapéutica. Un analgésico no opioide, potente y potencialmente libre de adicción. Las revistas científicas se animaron. Los laboratorios empezaron a diseñar análogos. Durante un tiempo, la pequeña rana ecuatoriana parecía destinada a aliviar el dolor humano a escala planetaria.

La euforia duró poco. La epibatidina no sólo era potente; era peligrosamente indiscriminada. Su mecanismo de acción explica tanto su atractivo como su letalidad. La molécula se une con gran afinidad a los receptores nicotínicos de acetilcolina, que están distribuidos por todo el sistema nervioso central y periférico, en la unión neuromuscular y en el sistema nervioso autónomo. Dicho sin rodeos: actúa sobre interruptores eléctricos fundamentales para el control del movimiento, la respiración y el ritmo cardíaco.

Al unirse a estos receptores, la epibatidina los activa de manera intensa y prolongada. La primera fase puede incluir hipertensión, taquicardia, sudoración, náuseas y vómitos. Luego sobreviene el caos: convulsiones, parálisis muscular, arritmias graves, depresión respiratoria. La línea que separa la analgesia experimental del colapso fisiológico es extremadamente fina. Hablamos de microgramos. No miligramos, no gotas visibles: microgramos. La diferencia entre una dosis “interesante” y una dosis potencialmente mortal puede ser mínima. No existe un antídoto específico. El tratamiento, si se llega a tiempo, consiste en ventilación mecánica, control de arritmias y soporte vital intensivo.

Este perfil toxicológico hizo que la epibatidina, pese a su brillo científico inicial, quedara descartada como fármaco. Se desarrollaron derivados menos tóxicos, pero ninguno alcanzó el equilibrio deseado entre eficacia y seguridad. La molécula original pasó a ocupar un lugar curioso en los manuales: ejemplo perfecto de cómo la naturaleza puede producir compuestos de enorme potencia que resultan, para el uso humano, demasiado peligrosos.

E. tricolor comparada con una moneda de medio euro. Wikipedia.

Aquí es donde la biología se cruza con la política. Las ranas venenosas no fabrican necesariamente estos alcaloides desde cero. En muchos casos, los acumulan a partir de su dieta, especialmente de ciertos insectos. En cautividad, al cambiar su alimentación, pierden buena parte de su toxicidad. Son, en cierto modo, intermediarias químicas de la selva. Que una molécula asociada a este delicado equilibrio ecológico aparezca en un caso de presunto envenenamiento político resulta, como mínimo, simbólicamente perturbador.

Desde el punto de vista técnico, la epibatidina puede sintetizarse en laboratorio; no es necesario capturar ranas en la Amazonía. Pero no es un compuesto industrial de uso común ni forma parte de los arsenales químicos clásicos. Su detección en un organismo humano sería, en principio, extraordinaria. No es algo que se encuentre por accidente en el agua potable ni en un medicamento mal etiquetado. Su mera presencia obliga a formular preguntas.

En mi blog he escrito en alguna ocasión sobre estas ranas y sobre la mezcla casi literaria de inocencia cromática y potencia letal que encarnan. Son pequeñas, brillantes, casi decorativas. Parecen diseñadas por un ilustrador infantil con predilección por los colores saturados. Y, sin embargo, su piel puede albergar sustancias capaces de alterar de forma radical la fisiología humana. En el siglo XIX, algunos ilusionistas europeos incluían ranas en sus espectáculos, tragándolas ante el público como demostración de audacia. Con especies locales no había mayor peligro. Con una rana dardo sudamericana, el número habría adquirido un dramatismo involuntario.

Una rana que cabe en la palma de la mano, una molécula que pesa microgramos, un laboratorio en Maryland que celebra un hallazgo prometedor, y décadas después un debate diplomático entre potencias europeas. La biología rara vez se limita a los márgenes exóticos de los documentales; a veces irrumpe en los titulares internacionales.

Más allá de sus implicaciones políticas y jurídicas, el caso de Navalni nos recuerda también la doble cara de la investigación biomédica. La exploración de la biodiversidad ha proporcionado antibióticos, antitumorales y analgésicos. Pero ese mismo arsenal químico natural puede convertirse en herramienta de daño si se desvía de su contexto original. La selva no distingue entre farmacología y toxicología; esa distinción la imponemos nosotros.

Que el veneno de una rana ecuatoriana termine vinculado a una muerte en el Ártico ruso es, en términos geográficos, una enorme ironía. Del calor húmedo de los bosques tropicales al frío extremo de una colonia penal. De los insectos que alimentan a un anfibio diminuto a los laboratorios capaces de sintetizar su alcaloide. El trayecto es improbable, pero no imposible.

Al final, la historia encierra una lección inquietante. La naturaleza no produce sustancias “malvadas”; produce moléculas eficaces. Somos nosotros quienes decidimos cómo utilizarlas. La epibatidina nació como promesa analgésica, fue descartada por su peligrosidad y hoy reaparece en un contexto que mezcla ciencia, diplomacia y tragedia. Y todo ello gracias a una rana de colores brillantes que, en su entorno natural, sólo pretendía evitar que alguien la mordiera.

La próxima vez que vea una fotografía de una rana tropical y piense que es poco más que un adorno viviente, recuerde que en su piel puede esconderse una química capaz de detener un corazón humano. Y que, en ocasiones, la distancia entre la selva y la política internacional es mucho más corta de lo que imaginamos.

TRUMP Y EL NEGACIONISMO DEL CAMBIO CLIMÁTICO

 

Trump es conocido por despreciar el cambio climático y relegarlo a la categoría de cuento chino, y nunca mejor dicho: en 2012 tuiteó que era un concepto creado por China para dañar la competitividad de las empresas estadounidenses. Esta idea está totalmente en línea con la trayectoria de décadas de negacionismo organizado que, perfectamente engrasado con petrodólares, ha actuado de ariete de cualquier atisbo de política climática, en ocasiones con estimable éxito. 

La diferencia es que si hasta hace poco las grandes empresas de combustibles fósiles sostenían con fondos tramas negacionistas que en su nombre intentaban influir a la clase política, ahora los negacionistas han tomado literalmente la Casa Blanca y forman parte de la nueva clase dirigente estadounidense.

Con una declaración de barra de bar en la que dijo que todo lo relacionado con el cambio climático es “una gran estafa”, el pasado 12 de febrero Donald Trump anunció la revocación del llamado “dictamen de peligro” de 2009, la declaración científica que había servido durante más de una década como fundamento jurídico para regular las emisiones de gases de efecto invernadero en Estados Unidos.

Al hacerlo, Estados Unidos ha revocado un hallazgo científico que durante mucho tiempo ha sido la base central de sus acciones para regular las emisiones de gases de efecto invernadero y combatir el cambio climático. La decisión del jueves es la medida más agresiva del presidente Donald Trump para revertir las regulaciones ambientales desde el inicio de su segundo mandato.

Con esa decisión no solo se altera una política concreta, sino que se cuestiona el uso de una ley ambiental de 1970 como instrumento central de la política climática federal. Para comprender el alcance del movimiento conviene retroceder medio siglo y reconstruir la arquitectura institucional que lo hizo posible.

Impulsado tanto por la evidencia científica como por episodios simbólicos de degradación ambiental, el debate ambiental estadounidense adquirió intensidad en los años sesenta. La publicación en 1962 de Primavera silenciosa por Rachel Carson contribuyó decisivamente a sensibilizar a la opinión pública frente al uso indiscriminado de pesticidas. A ello se sumaron desastres visibles, como el derrame de crudo desde una plataforma petrolífera anclada frente a la costa de California o el incendio del río Cuyahoga en Ohio, cuyo cauce, saturado de residuos industriales, llegó a arder. Las primeras imágenes de la Tierra vistas desde el espacio reforzaron la percepción de fragilidad ecológica en un contexto de rápido crecimiento industrial.

En este clima, el presidente Richard Nixon presentó en 1970 un ambicioso programa ambiental y promovió la reorganización de competencias federales dispersas en materia de contaminación. El resultado fue la creación de la primera Agencia de Protección Ambiental (EPA) del mundo, concebida como un organismo capaz de centralizar investigación, vigilancia y regulación. Ese mismo año se reformó en profundidad la Clean Air Act, la Ley de Aire Limpio (LAL), aprobada inicialmente en 1963 con un alcance limitado y cooperativo, para convertirla en una ley de carácter obligatorio y técnicamente exigente. Desde entonces, la LAL constituye la autoridad normativa y la EPA su órgano ejecutor.

La ley estableció un sistema federal basado en estándares nacionales de calidad del aire, definidos a partir de criterios de salud pública. El modelo se diseñó para afrontar problemas concretos y localizados: el smog urbano, la lluvia ácida y las emisiones industriales tóxicas. El “smog clásico” al que respondía la legislación incluía contaminantes como el dióxido de azufre, los óxidos de nitrógeno, las partículas en suspensión o el plomo, sustancias directamente nocivas para la salud y visibles en el deterioro atmosférico de grandes ciudades como Los Ángeles o Cleveland. Se trataba de contaminantes de efectos inmediatos y territoriales, cuya reducción podía medirse en términos relativamente directos.

Un elemento decisivo de la reforma de 1970 fue la definición amplia que hizo el Congreso de “contaminante del aire”, considerado literalmente como «cualquier agente físico, químico o biológico emitido al aire». El Congreso no pensaba entonces en el dióxido de carbono ni en el calentamiento global, un fenómeno desconocido por entonces en el debate político. Sin embargo, la amplitud de la definición dejó abierta la posibilidad de interpretar la ley de manera evolutiva. Esa ambigüedad semántica es la que décadas más tarde permitió conectar una norma concebida para combatir el smog con la regulación del cambio climático.

El punto de inflexión jurídico se produjo en 2007 con la sentencia del Tribunal Supremo en el caso Massachusetts vs. EPA. El estado de Massachusetts y otros demandantes sostenían que la EPA se negaba a regular las emisiones de CO₂ de los vehículos, pese a que la LAL incluía una definición lo suficientemente amplia como para abarcar ese gas. La cuestión central era doble: si el CO₂ podía considerarse un “contaminante del aire” y si la agencia tenía discrecionalidad para no actuar.

Por una mayoría ajustada (5 a 4), el Tribunal concluyó que los gases de efecto invernadero encajan en la definición legal y que la EPA debía basar su decisión en criterios científicos sobre el riesgo para la salud o el bienestar público, no en consideraciones políticas generales. La sentencia no creó una ley climática nueva, pero abrió la puerta a utilizar la LAL como fundamento de la regulación de emisiones de gases de efecto invernadero.

En cumplimiento de ese mandato, la EPA emitió en diciembre de 2009 el denominado “dictamen de peligro”, en el que se declaraba que seis gases de efecto invernadero —entre ellos el CO₂, el metano y el óxido nitroso— amenazaban la salud pública. Ese pronunciamiento científico-administrativo se convirtió en la piedra angular de la política climática federal, pues desde ese momento habilitó a la EPA para imponer estándares de emisión a vehículos, centrales eléctricas y otras fuentes relevantes en aplicación de la LAL. En términos jurídicos, el dictamen funcionaba como condición previa indispensable: si los gases son peligrosos en el sentido de la ley, la agencia está obligada a regularlos.

La revocación anunciada el 12 de febrero afecta precisamente a ese presupuesto. Al anular el dictamen de 2009, la administración Trump elimina la base científica y legal que sustentaba la regulación federal de las emisiones de gases de efecto invernadero. En el plano inmediato, la medida incide en las normas aplicables a vehículos y motores, pues estas dependían directamente de la constatación formal de peligro y ahora quedan desreguladas.

A medio plazo, la decisión debilita también el fundamento de las reglas dirigidas a centrales eléctricas, instalaciones industriales y al sector del petróleo y el gas, aunque la situación concreta dependerá de la interacción con otras disposiciones regulatorias y del resultado de los previsibles litigios.

Desde el punto de vista institucional, la controversia remite a una cuestión más amplia: hasta qué punto puede una ley ambiental de 1970, diseñada para afrontar contaminación local y tóxica, servir como instrumento para gestionar un fenómeno global, acumulativo y sistémico como el cambio climático.

La tensión no es meramente técnica, sino conceptual. Para algunos, la definición amplia de “contaminante” revela una voluntad legislativa de dotar a la norma de flexibilidad suficiente para adaptarse a problemas nuevos. Para otros, utilizarla para rediseñar el sistema energético nacional supone extender la ley más allá de lo que el Congreso previó, por lo que cualquier transformación estructural debería apoyarse en una legislación climática específica y explícita.

Es previsible que la revocación del dictamen desencadene una intensa batalla judicial. Diversos estados y organizaciones ambientalistas han anunciado ya su intención de impugnar la medida, alegando que ignora la evidencia científica y contradice la interpretación consolidada por el Tribunal Supremo. En ese contexto, el conflicto trasciende la política ambiental concreta y se inscribe en un debate más amplio sobre el alcance del poder de las agencias administrativas y la relación entre Congreso, Ejecutivo y tribunales.

En definitiva, la decisión del 12 de febrero no puede entenderse como un ajuste regulatorio aislado. Supone reabrir una discusión que se remonta a la década de 1970 y que conecta la lucha contra el smog urbano con la gobernanza del clima global. La LAL nació para limpiar el aire de las ciudades; medio siglo después, su interpretación define en buena medida la capacidad del Estado federal para intervenir frente al cambio climático.

En ese cruce entre historia legislativa, doctrina judicial y política contemporánea se sitúa hoy el núcleo del debate estadounidense.