Vistas de página en total

viernes, 30 de enero de 2026

LOS CABALLEROS DEL CÍRCULO DORADO Y LA OBSESIÓN IMPERIALISTA DE ESTADOS UNIDOS POR CUBA

 Cuando la obsesión imperialista de Estados Unidos por Cuba tomó forma de hermandad secreta.


El pasado 29 de enero, el presidente de Estados Unidos, Donald Trump, declaró una “emergencia nacional” respecto a Cuba y firmó una orden ejecutiva que permitirá imponer aranceles a bienes de países que suministren petróleo a la isla. Trump argumenta que las políticas del gobierno cubano representan una amenaza para la seguridad nacional estadounidense y promete castigar a terceros países que ayuden a La Habana con crudo.

Cuando se piensa en las grandes historias de ambición imperial del siglo XIX, no suele aparecer en los libros de texto un grupo misterioso, exuberante y profundamente polémico: los Caballeros del Círculo Dorado. Sin embargo, su historia —entre la conspiración, la aventura y la política racial— es una de las claves olvidadas para entender cómo parte de la élite estadounidense concebía a Cuba no como un vecino, sino como una pieza predestinada del destino expansionista.

Hacia mediados de la década de 1850, en una América inquieta por la expansión territorial y atormentada por el creciente conflicto entre estados esclavistas y libres, surgió un grupo que combinaba la retórica secreta de una sociedad fraternal con la ambición política de un movimiento expansionista: los Caballeros del Círculo Dorado. Esta hermandad —reflejo de una órbita intelectual y política que reivindicaba el supremacismo sureño— imaginó un “círculo dorado” que se extendía desde el Golfo de México hasta el corazón del Caribe, incluyendo México, Centroamérica y, de manera especial, una Cuba libre de España, pero alineada con la Unión estadounidense esclavista.

Para sus miembros, Cuba no era simplemente un territorio para conquistar; era la pieza que podría inclinar la balanza del poder en Washington, garantizando una hegemonía sureña y esclavista que resistiera las presiones abolicionistas del Norte.

El imaginario de los Caballeros del Círculo Dorado estaba lejos de ser una simple fantasía. Su estructura se inspiraba en sociedades secretas como los masones, con grados de iniciación y rituales, pero con una agenda explícitamente política: crear un imperio regional sometido a los intereses de los estados esclavistas del Sur.

Cuba, con sus fértiles tierras azucareras, su posición estratégica en el Caribe y su cercanía a las costas de Florida se convirtió en el gran objeto de deseo. Sus planes no eran discretos: contemplaban la invasión, “liberación” de España y posterior incorporación a los Estados Unidos como uno o varios estados esclavistas. Lo que para algunos historiadores parecía un fantasioso sueño conspirativo, para muchos sureños fue —en aquel momento— una idea plausible, incluso una ambición deseable. Y aunque no contaban con apoyo oficial del gobierno, sí influenciaron el discurso expansionista y la idea de que Cuba estaba destinada a caer bajo la sombra estadounidense.

Color verde oscuro: nuevos territorios que los miembros del Círculo Dorado planeaban incorporar a Estados Unidos.

Aunque pintorescos en su organización interna, es importante distinguir entre actos simbólicos y maniobras con consecuencias reales. Los Caballeros del Círculo Dorado no lanzaron invasiones de gran escala por su cuenta. Pero sí fueron un caldo de cultivo para filibusteros y aventureros que organizaron expediciones armadas hacia Cuba, como las de Narciso López. Estas acciones, aunque no tuvieron éxito, ocuparon espacios políticos y mediáticos en Estados Unidos y alimentaron la percepción de que Cuba era “objetivo legítimo” de una expansión.

Más aún, la existencia de grupos como este contribuyó a un clima político en el que anexionar territorios ultramarinos se debatía abiertamente, y donde la retórica racista y imperialista se fusionaba con la política pública. Los Caballeros del Círculo Dorado alcanzaron su punto máximo justo antes del estallido de la Guerra Civil estadounidense. La lucha entre Norte y Sur redirigió la atención política y militar hacia cuestiones internas, haciendo que las ambiciones caribeñas quedaran en un segundo plano. Tras la derrota confederada, el grupo se desintegró y sus planes quedaron como una anécdota oscura en la historia expansionista del país.

Hoy, con la política estadounidense de nuevo bajo los focos por sus recientes medidas contra Cuba —incluyendo aranceles a países que suministran petróleo a la isla y la declaración de emergencia nacional por parte de Donald Trump—, recordar a los Caballeros del Círculo Dorado es más que una curiosidad histórica. Es entender que la relación entre Estados Unidos y Cuba ha estado marcada por la ambición, la injerencia y la creencia persistente de que la isla debía integrarse en la órbita estadounidense, ya fuera por la fuerza, la diplomacia o el poder económico.

La historia de este grupo revela que las raíces del anexionismo no fueron solo oficiales, sino también culturales y colectivas, arraigadas en imaginarios políticos que perduran más allá de su tiempo.

EL FASCISMO COMO PROCESO Y LA POLÍTICA ESTADOUNIDENSE ACTUAL

 

El auge del autoritarismo no es patrimonio de los márgenes del sistema democrático ni de países supuestamente “atrasados”. A la luz del análisis del historiador Robert O. Paxton, Estados Unidos muestra síntomas reconocibles de degradación democrática. No como ruptura súbita, sino como proceso. Y eso debería preocuparnos a todos.

En su ensayo Anatomía del fascismo (Capitán Swing), Paxton, historiador estadounidense especializado en el fascismo europeo del siglo XX, decidió desmontar ese ruido con un análisis que se ha vuelto canónico. Su propuesta era dejar de preguntar quién es fascista y empezar a observar qué comportamientos lo son. Ni ideologías cerradas, ni símbolos, ni estéticas reconocibles. Lo que importa son las prácticas. Aplicar ese marco a los Estados Unidos actuales no conduce a una etiqueta definitiva, pero sí a un diagnóstico inquietante.

Paxton parte de una intuición simple: el fascismo no cae de repente desde el cielo. Avanza por etapas y se adapta al terreno. No irrumpe con tanques; entra con discursos de decadencia. En Estados Unidos, ese discurso lleva tiempo instalado. «Nos han robado el país», «ya no somos respetados», «antes éramos grandes». El lema trumpista Make America Great Again no es un programa económico: es una emocionalidad política. Sugiere una pérdida, una humillación y una promesa de restitución. Para Paxton, ese es el primer ingrediente.

La obsesión con el declive no necesita datos; necesita sensaciones. Estados Unidos sigue siendo la mayor potencia del planeta, pero una parte considerable de sus ciudadanos se siente derrotada. No por el PIB, sino por la cultura. Por la demografía. Por el lenguaje. Cuando la política se convierte en terapia del agravio, el terreno queda abonado.

El siguiente paso, según Paxton, es la identificación del enemigo interno. El fascismo no prospera sin culpables cercanos. En Estados Unidos, el repertorio es amplio y móvil: inmigrantes, periodistas, jueces, burócratas, universidades, minorías, feministas. El enemigo cambia, pero la estructura permanece. La política deja de ser una discusión sobre intereses para convertirse en una batalla moral. El adversario ya no se equivoca: traiciona. No gobierna mal: conspira.

Ese desplazamiento tiene efectos prácticos. Deshumaniza. Simplifica. Permite justificar lo injustificable. Paxton subraya que el fascismo necesita un “nosotros” imaginado, puro y homogéneo, frente a un “ellos” contaminante. No importa que ese “nosotros” sea una ficción: importa que se sienta real.

Llega entonces el momento clave: la relación con la democracia. El fascismo, escribe Paxton, no desprecia la democracia en abstracto. La usa mientras sirve y la desacredita cuando estorba. En Estados Unidos, la erosión de la confianza electoral no es un accidente retórico; es una estrategia. Si solo una victoria propia es legítima, la derrota se convierte en fraude por definición. La ley pasa a ser un obstáculo, no un marco compartido.

Leído con las herramientas de Paxton —no con el dramatismo de la consigna—, el asalto del Capitolio el 6 de enero de 2021 deja de ser una anomalía grotesca y pasa a encajar como un síntoma. No hubo golpe militar ni plan elaborado; hubo una movilización emocional contra una legalidad percibida como ilegítima. El fascismo, advierte Paxton, suele avanzar por vías legales hasta que decide que la ley sobra. Ese umbral no se cruza de golpe; se desgasta.

Otro elemento central es la normalización de la violencia. El fascismo no necesita violencia constante; le basta con justificarla. Minimizarla. Presentarla como reacción comprensible. Cuando la violencia “de los nuestros” se relativiza y la del adversario se exagera, el listón moral se desplaza. En Estados Unidos, la retórica armada, la indulgencia con las milicias que asaltaron el Capitolio y la normalización de prácticas estatales de violencia extrajudicial presentadas como defensa del orden encajan con lo que Paxton llamaba violencia redentora: no criminal, sino purificadora. Al comportamiento de los paramilitares trumpistas del ICE me remito.

Pero el punto más inquietante del análisis de Paxton no está en las masas, sino en las élites. El fascismo no llega solo. Necesita la colaboración, la resignación o el cálculo de quienes creen poder domesticarlo. Empresarios que priorizan beneficios. Políticos que miran a otro lado. Medios que amplifican por interés o miedo. Paxton fue tajante: el fascismo avanza cuando las élites creen que pueden usarlo como herramienta. Nunca lo consiguen.

En Estados Unidos, esa connivencia no es total ni homogénea, pero existe. Sectores del Partido Republicano toleran comportamientos que antes habrían sido inaceptables. Se justifica lo injustificable por disciplina, cálculo o temor al votante. Es una alianza incómoda, exactamente como la describía Paxton. Para la izquierda, esta lección es especialmente incómoda: el autoritarismo no siempre llega desde fuera del sistema, sino a menudo con la complicidad de quienes creen poder administrarlo.

¿Significa todo esto que Estados Unidos es un régimen fascista? Según sus etapas, el país muestra rasgos claros de las primeras fases: creación de un movimiento de masas, relato de declive, deslegitimación del adversario, desgaste de las reglas y coqueteo con la violencia. El acceso pleno al poder y la radicalización final no son inevitables, pero tampoco imposibles.

Aquí conviene introducir un matiz decisivo. Estados Unidos no es la Italia de Mussolini ni la Alemania de Weimar. Tiene instituciones robustas, federalismo, tribunales, prensa plural y una sociedad civil resistente. Pero Paxton insistía en que el fascismo se adapta al terreno. No copia modelos; los reescribe. En Estados Unidos no necesita abolir la Constitución; puede vaciarla. No necesita cerrar periódicos; puede desacreditarlos. No necesita un partido único; le basta con colonizar uno.

La gran aportación de Paxton es obligarnos a abandonar la comodidad del «eso aquí no puede pasar». El fascismo, escribió, no llega prometiendo dictaduras, sino restauraciones. No se presenta como ruptura, sino como salvación. Cuando una democracia empieza a aceptar que el poder debe imponerse a la ley para “salvar” a la nación, el problema ya no es semántico.

Paxton insistía en algo aún más inquietante: las democracias no suelen morir por exceso de enemigos, sino por exceso de excusas. Excusas para ignorar normas, para relativizar abusos, para aceptar que “esta vez” el fin justifica los medios. El fascismo no entra cuando la democracia es derrotada, sino cuando empieza a explicarse por qué ya no puede permitirse ser democrática del todo.

Estados Unidos sigue siendo una democracia. Pero, a la luz de Paxton, es una democracia bajo estrés. El espejo no devuelve una imagen definitiva, sino una pregunta. Y las preguntas, en política, suelen ser más peligrosas que las respuestas.

Por lo demás, conviene recordar que el fascismo no llega hasta nosotros como una brisa suave, sino más bien como un vendaval, porque como señala Hervé Le Tellier en su nueva novela ensayística, El nombre en el muro (Seix Barral), apenas nueve semanas separaron el ascenso a la Cancillería de Hitler de las primeras medidas antisemitas. Los fascismos avanzan más rápido que cualquier democracia.

domingo, 25 de enero de 2026

ANDROCYMBIUM: LA COPITA MASCULINA DE LOS BOTÁNICOS

 

Los nombres científicos, cuando están bien escogidos, funcionan como pequeñas cápsulas de conocimiento. Androcymbium es uno de esos casos en los que la etimología no es un adorno, sino una descripción casi anatómica disfrazada de griego clásico.

El término procede de dos raíces griegas: andros, “hombre” o “varón”, y kymbíon, “copita”, “vaso pequeño”, algo cóncavo que contiene. El resultado —literalmente, la copita del macho— alude a la disposición de los órganos reproductores masculinos, los estambres, alojados dentro de una estructura floral que recuerda a un pequeño cuenco protector. Es una imagen precisa y muy propia de la botánica ilustrada del siglo XVIII, cuando el latín y el griego se usaban como herramientas conceptuales.

Desde el punto de vista botánico, Androcymbium es un género de plantas geófitas, es decir, de plantas que pasan buena parte de su vida escondidas bajo tierra gracias a órganos de reserva como bulbos o tubérculos. Esa estrategia les permite sobrevivir a veranos abrasadores o inviernos secos y reaparecer cuando las condiciones son favorables.

Las plantas del género suelen ser bajas, compactas y pegadas al suelo. Sus hojas, generalmente basales, forman una roseta que abraza el sustrato. Las flores, a menudo solitarias, no se elevan sobre largos tallos: emergen casi a ras de tierra, como si no quisieran llamar demasiado la atención. Y, sin embargo, al mirarlas de cerca, revelan una arquitectura floral compleja, con tépalos (pétalos y sépalos indistinguibles) que envuelven con cuidado el aparato reproductor.

Androcymbium pertenece a la familia Colchicaceae, un grupo de plantas que combina elegancia floral con una bioquímica nada inocente. Muchas especies de esta familia producen alcaloides tóxicos, el más famoso de los cuales es la colchicina, una sustancia que interfiere con la división celular y ha sido tanto veneno como medicamento.

El género se distribuye principalmente por el sur de África y la cuenca mediterránea, dos regiones separadas pero unidas por climas estacionales y suelos donde sobrevivir bajo tierra es una ventaja evolutiva clara.

Androcymbium europaeum es una rareza ibérica. Es la única especie europea del género y, por tanto, una rareza botánica que sobrevive en algunos enclaves del litoral mediterráneo occidental, incluidos puntos muy concretos del sureste de la península ibérica.

Es una planta discreta hasta la invisibilidad. Florece en invierno o a comienzos de la primavera, cuando el paisaje aún parece dormido. Sus flores, blanquecinas o ligeramente verdosas, se abren casi a ras de suelo, protegidas del viento y del frío, como si la planta desconfiara del mundo exterior. No busca polinizadores vistosos ni exhibiciones llamativas: apuesta por la eficiencia y el bajo perfil.

Su presencia suele pasar desapercibida, pero es un indicador de hábitats bien conservados, asociados a suelos arenosos o pedregosos poco alterados. Precisamente por eso, A. europaeum ha sufrido el retroceso de los espacios costeros naturales y hoy se considera una especie de interés para la conservación.

En el fondo, su nombre le viene como anillo al dedo: una pequeña “copita” botánica, modesta y cerrada sobre sí misma, que guarda en silencio una larga historia evolutiva y lingüística. Una planta que no grita, pero que, si uno se agacha lo suficiente, tiene mucho que contar.

jueves, 22 de enero de 2026

CÓMO GROENLANDIA ACABÓ SIENDO DANESA (Y POR QUÉ TRUMP NO ENTENDIÓ NADA)

 

Ricard Ferrandiz: El capitán Trueno y Sigrid se casan.

Groenlandia me ha llamado desde que era niño y leía los tebeos del Capitán Trueno. Me fascinaba la bella y elegante Sigrid, la amada del Capitán, que no era una princesa ornamental sino reina de Thule, un reino del norte remoto y helado donde los hombres hablaban poco, cumplían su palabra y no parecían especialmente interesados en conquistar el mundo. Como suele ocurrir con los mitos infantiles bien asentados, un día quise saber más. Así que recurrí a la enciclopedia Espasa, ese Google en papel que exigía bíceps y paciencia, y busqué Thule. Descubrí entonces que no era solo un escenario de tebeo, sino también un lugar real o casi real: el asentamiento más septentrional del mundo conocido, situado al norte de Groenlandia, allí donde los mapas empiezan a pedir disculpas.

Mi imaginación quedó atrapada para siempre en ese punto del planeta. Y más aún cuando tropecé con la historia de Erik el Rojo, el vikingo que tuvo la brillante idea de llamar Greenland (Tierra Verde) a uno de los mayores pedazos de hielo del hemisferio norte. Lo hizo para atraer colonos y funcionó. Aquello me pareció prodigioso: cambiar la realidad con una palabra. Años después comprendí que esa habilidad —rebautizar el mundo para hacerlo más vendible— no se perdió con los vikingos, sino que ha tenido una larga y próspera descendencia.

Por eso, cuando Donald Trump afirmó en televisión que el hecho de que un barco danés llegara a Groenlandia hace quinientos años no da derecho a poseer la isla, sentí una mezcla de déjà vu y alarma histórica. La frase tiene esa cualidad tan suya de sonar razonable durante tres segundos y luego desplomarse como una silla plegable mal abierta. Porque, con el mismo argumento, cabría preguntarse qué derecho tienen los anglosajones a poseer Estados Unidos, si llegaron a las costas de Nueva Inglaterra hace prácticamente el mismo tiempo, armados de Biblias, escopetas y una extraordinaria fe en que Dios siempre estaba de su lado… inmobiliario.

El problema de ese razonamiento es que no desmonta solo a Dinamarca: haría saltar por los aires medio planeta. América entera, Australia, buena parte de África y Asia quedarían en suspenso jurídico, como si la historia internacional funcionara con tiques de aparcamiento que caducan a los cinco siglos. Pero Trump no hablaba de coherencia histórica; hablaba de propiedad, una palabra muy peligrosa cuando se aplica a territorios, pueblos y milenios.

Para empezar, conviene corregir el dato. Los primeros europeos que llegaron a Groenlandia no eran daneses. Eran noruegos, y llegaron hacia el año 985 empujados por el destierro, la violencia interpersonal y una notable resistencia al frío. Erik el Rojo, nacido en Noruega, fue expulsado primero de su país y luego de Islandia, antes de decidir que siempre quedaba un oeste más lejano al que huir.

Los asentamientos que fundó en Groenlandia fueron colonias noruegas: dependían políticamente del rey de Noruega, pagaban diezmos a la Iglesia noruega y mantenían lazos constantes con Islandia. Dinamarca no pintaba absolutamente nada en ese momento. Groenlandia formaba parte del mundo atlántico noruego, ese arco de islas y costas donde los vikingos sobrevivían más por tozudez que por comodidad.

Otros tipos fascinantes los vikingos, unos tipos fortachones a los que no importaba lucir una hermosa cornamenta. Parte del malentendido moderno procede de imaginar a los vikingos como una franquicia homogénea del tipo Starbucks: todos iguales, todos daneses, todos astados como mihuras, todos con el mismo mapa mental. En realidad, hubo tres grandes áreas vikingas, con rutas y destinos bien distintos.

Los vikingos noruegos miraron al Atlántico: Irlanda, Escocia, Islandia, Groenlandia y, finalmente, América del Norte. Colonizaron islas y costas donde el viento no perdonaba. Los vikingos daneses miraron al sur y al oeste: Inglaterra, Francia, el mar del Norte. Gobernaron, cobraron impuestos y dejaron una huella política duradera. Los vikingos suecos, los varegos, miraron al este: ríos interminables, comercio con Bizancio y el mundo islámico.

Groenlandia pertenece sin discusión al mundo noruego, no al danés. Así que el famoso “barco danés” de Trump no solo llega tarde: llega al sitio equivocado.

Los colonos nórdicos sobrevivieron en Groenlandia durante varios siglos. Luego, desaparecieron. Probablemente por una combinación letal de enfriamiento climático, aislamiento, falta de recursos y mala suerte. Europa miró hacia otro lado y Groenlandia quedó, durante generaciones, como un territorio inuit, habitado por los antepasados de los actuales Kalaallit, expertos en hielo, caza marina y supervivencia extrema.

Y aquí es donde Groenlandia empieza a estropear los discursos coloniales clásicos. No hubo una conquista continua ni una expansión imparable. Hubo llegada, retirada y olvido. Algo muy poco compatible con las narrativas épicas. Dinamarca entró en escena no por exploración heroica, sino por herencia política. En 1380, Noruega y Dinamarca quedaron unidas bajo un mismo monarca. Más tarde se sumó Suecia en la Unión de Kalmar, uno de esos inventos políticos medievales que sobre el papel parecían una gran idea y en la práctica funcionaron como una mesa coja: se mantenía en pie, pero nadie se atrevía a apoyar demasiado peso.

La arquitecta de la Unión fue Margarita I, reina de Dinamarca y una de las figuras políticas más impresionantes de la Europa medieval. Su objetivo era simple y muy sensato: frenar el poder de la Liga Hanseática y de los principados alemanes, que se estaban quedando con el comercio del Báltico como quien se queda con las mejores mesas del restaurante. Unir Escandinavia significaba controlar rutas comerciales, recursos y defensa común, al menos en teoría.

Así que, entre 1397 y 1523, Dinamarca, Noruega y Suecia estuvieron reunidas bajo un mismo monarca. No era un Estado unificado, sino tres reinos distintos con un solo rey. Cada uno conservaba sus leyes, su nobleza y sus problemas, lo cual garantizaba que los problemas se multiplicaran. Groenlandia, como colonia noruega, quedó incluida automáticamente en esa Unión.

En 1523, Gustavo Vasa lideró la ruptura definitiva. Suecia se separó, creó su propio Estado moderno y dejó a Dinamarca y Noruega unidas un par de siglos más. La Unión se disolvió, pero sus efectos duraron siglos: explica rivalidades, guerras posteriores y, sobre todo, por qué Dinamarca heredó territorios noruegos como Groenlandia, Islandia y las Feroe.

Cuando en 1814 Dinamarca perdió Noruega tras las guerras napoleónicas, conservó Groenlandia, Islandia y las Feroe. No por capricho, sino por tratados internacionales. A partir de entonces, Groenlandia fue danesa por continuidad legal, no por desembarco reciente ni por entusiasmo imperial.

Durante los siglos XVIII y XIX, Dinamarca recolonizó Groenlandia de forma lenta, administrativa y relativamente silenciosa. Fue colonia, luego provincia, y finalmente territorio autónomo. Hoy, Groenlandia gobierna casi todos sus asuntos internos y mantiene un debate abierto sobre su independencia futura.

No es un botín olvidado esperando comprador. Es una sociedad viva, con lengua propia, instituciones propias y memoria histórica. Algo que no encaja bien en el pensamiento inmobiliario aplicado a la geopolítica.

Cuando Trump reduce Groenlandia a “un barco danés hace quinientos años”, no solo yerra el dato —ni era danés, ni hace quinientos años—, sino que convierte mil años de historia en una caricatura televisiva. Es la misma lógica que permitiría cuestionar cualquier frontera que no haya sido dibujada esta misma mañana con rotulador permanente.

La ironía final es que Estados Unidos, el país desde el que se pronuncian estas frases, es uno de los ejemplos más claros de continuidad colonial: llegada europea, desplazamiento indígena, construcción estatal y legitimación posterior. No es una acusación moral; es un hecho histórico. Y precisamente por eso resulta tan llamativo que el argumento se use contra Groenlandia, un territorio donde el proceso fue más torpe, más discontinuo y, en algunos aspectos, menos brutal.

Como Thule en los tebeos del Capitán Trueno, Groenlandia sigue estando en el borde del mapa mental de muchos. Pero convendría recordar que, en ese borde, la historia no se deja resumir sin pelear. Y que, a veces, el hielo conserva mejor la memoria que la televisión.

domingo, 18 de enero de 2026

NO, INTERNET NO NACIÓ EN UN CUARTEL

 

Durante años se ha repetido una frase que suena tranquilizadora, casi reconfortante: tenemos Internet gracias a la investigación militar. Es una frase ordenada, jerárquica, con un aroma a despacho bien iluminado y decisiones firmes adoptadas entre estrellas y galones. Sugiere que alguien, en algún momento, supo exactamente lo que estaba haciendo y que el resultado es este caos organizado que usamos a diario para trabajar, discutir y ver vídeos de gatos.

El problema es que no es verdad. O, para ser más precisos, no es exactamente verdad. Internet no es un invento militar, aunque durante un tiempo fuera pagado por militares. Y esa diferencia, que parece menor, lo explica casi todo.

La historia suele empezar en ARPANET, una red creada a finales de los años sesenta por una agencia del Departamento de Defensa de Estados Unidos llamada ARPA, luego DARPA. A partir de ahí, el relato se simplifica peligrosamente: Defensa financia una red, por tanto, la red es militar. Pero esa lógica es como decir que las autopistas son inventos bélicos porque el Estado las paga. La financiación explica el contexto; no define el propósito.

ARPANET no se diseñó para dirigir guerras ni para resistir ataques nucleares, pese a lo mucho que se repite esa idea. De hecho, nadie en el proyecto estaba especialmente preocupado por las bombas atómicas. El problema que intentaban resolver era mucho más pedestre: los ordenadores eran enormes, carísimos y estaban infrautilizados. Las universidades y centros de investigación tenían máquinas potentes que solo podían usar unos pocos investigadores locales. La idea de conectarlas para compartir recursos parecía sensata, casi doméstica. Nada heroico. Nada estratégico. Simplemente práctico.

Mapa lógico de la ARPANET tal como existía en abril de 1971. Ilustra la estructura de la red, mostrando los nodos interconectados y los ordenadores anfitriones conectados a ellos. La red estaba compuesta por 15 Procesadores de Mensajes de Interfaz (IMP). Entre las instituciones clave conectadas se encontraban La Universidad de California Los Ángeles (UCLA), la Universidad de Stanford en California, el Instituto Tecnológico de Massachussets (MIT), la Universidad de Harvard y la RAND Corporation, un grupo estadounidense creado originalmente para asesorar a las Fuerzas Aéreas tras la Segunda Guerra Mundial. Varios ordenadores estaban conectados a los IMP, como el PDP-10, el IBM 1800 y el ILLIAC IV. El mapa muestra la etapa inicial de la red que más tarde se convertiría en la base del internet moderno. Fuente.

Quienes construyeron ARPANET no fueron generales ni estrategas, sino ingenieros, matemáticos e informáticos civiles, muchos de ellos universitarios con barba, gafas gruesas y una paciencia infinita para discutir protocolos. Los militares ponían el dinero, sí, pero no diseñaban la red ni dictaban su funcionamiento. De hecho, uno de los grandes aciertos del proyecto fue que los responsables políticos no entendían del todo qué se estaba haciendo. Eso permitió algo rarísimo en la administración pública: que los técnicos trabajaran con bastante libertad.

El correo electrónico, por ejemplo, no fue una orden ni una necesidad militar. Surgió porque era útil. Alguien escribió un programa para mandar mensajes entre ordenadores y, de repente, la red empezó a usarse más para comunicarse que para compartir capacidad de cálculo. Nadie lo había previsto. Nadie lo había autorizado formalmente. Simplemente funcionaba.

Lo mismo ocurrió con la arquitectura descentralizada de la red. No fue una genialidad estratégica pensada para sobrevivir a una guerra nuclear, sino una solución elegante a un problema técnico: qué hacer cuando un nodo falla. La respuesta fue repartir la inteligencia de la red y evitar puntos únicos de colapso. Una decisión técnica que luego adquirió un aura casi filosófica.

Hasta aquí, todo podría haber quedado en una curiosidad académica bien financiada. De hecho, si ARPANET hubiera sido un proyecto militar al uso, eso es exactamente lo que habría pasado. Habría sido cerrada, clasificada, limitada a unos pocos usuarios autorizados. No habría salido jamás de Estados Unidos y probablemente nadie fuera del Pentágono habría oído hablar de ella.

Pero ocurrió algo poco habitual. Los protocolos que hacían funcionar la red se hicieron públicos. Cuando en los años setenta y ochenta se desarrollaron TCP/IP, nadie los patentó, nadie los convirtió en un estándar propietario y nadie exigió licencias. Cualquiera podía usarlos. Cualquiera podía implementarlos. Cualquiera podía mejorarlos. Fue una decisión técnica que tuvo consecuencias políticas enormes.

Aquí aparece la pregunta clave: ¿por qué Estados Unidos permitió eso? ¿Por qué soltó el control? La respuesta corta es que no lo hizo por altruismo, sino por una combinación de pragmatismo, confianza institucional y un contexto histórico muy específico.

En primer lugar, porque el objetivo original ya estaba cumplido. ARPANET había servido para conectar centros de investigación y demostrar que el sistema funcionaba. Desde el punto de vista militar, el interés era limitado. No era un arma, no daba ventaja inmediata y no encajaba bien en la lógica de secreto que rige el mundo de la defensa.

En segundo lugar, porque el sistema académico estadounidense era —y sigue siendo— extraordinariamente influyente. Las universidades tenían peso, prestigio y capacidad de presión. Internet creció en un ecosistema donde compartir conocimiento era un valor central. Convertir la red en un coto cerrado habría sido ir contra la cultura que la había hecho posible.

En tercer lugar, porque Estados Unidos confiaba en su ventaja estructural. Liberar los protocolos no se percibía como una amenaza, sino como una oportunidad. Si el mundo iba a conectarse, mejor que lo hiciera usando estándares diseñados en universidades estadounidenses, con empresas estadounidenses listas para aprovecharlos. Y eso fue exactamente lo que ocurrió.

A finales de los años ochenta, el interés militar en la red se había evaporado casi por completo. ARPANET se apagó en 1990 sin ceremonias. Internet, en cambio, estaba a punto de empezar de verdad. Las universidades se conectaban entre sí, las empresas comenzaban a experimentar y la red dejaba de ser un experimento para convertirse en infraestructura.

El empujón definitivo llegó desde un lugar inesperado: el CERN, en Suiza. Allí, un físico británico propuso una forma sencilla de enlazar documentos usando hipertexto. No lo hizo para conquistar mercados ni para transformar el mundo, sino para que los científicos compartieran información sin volverse locos. Lo llamó World Wide Web y, en un gesto que hoy parece casi subversivo, lo liberó al dominio público.

La web no tiene absolutamente nada de militar. Es, si acaso, un invento burocrático: nació para organizar papeles. Pero era simple, gratuita y útil. Tres cualidades que suelen ser letales para cualquier sistema alternativo. A partir de ahí, Internet se convirtió en lo que conocemos: una red global, civil, caótica, comercial y profundamente humana.

El mito del Internet militar persiste porque simplifica una historia compleja y encaja bien con la narrativa de la Guerra Fría. También porque confunde financiación con autoría y porque da una falsa sensación de control. Es reconfortante pensar que alguien diseñó todo esto. La realidad es más inquietante: Internet no fue diseñado. Emergió.

Decir que tenemos Internet gracias a la investigación militar es como decir que tenemos la medicina moderna gracias a las guerras. Hay algo de verdad: dinero, urgencia, contexto. Pero lo decisivo no es la guerra, sino los médicos, los hospitales y la ética profesional. Con Internet ocurre lo mismo. Lo importante no fue el uniforme, sino la bata.

La formulación más honesta sería esta: Internet nació de investigación pública financiada en parte por el ámbito militar, pero fue concebida, desarrollada y expandida por científicos civiles y universidades, y se convirtió en lo que es gracias a su apertura, no a su origen.

O, dicho de forma menos elegante pero más clara: Internet no es un invento militar. Es un invento civil que tuvo la suerte —y la rareza histórica— de que quien pagaba supo cuándo apartarse y dejarlo crecer.

Eso, visto con perspectiva, puede que sea el verdadero milagro tecnológico del siglo XX.

VIAJAR EN EL TIEMPO, SEGÚN EL RELOJ

 

«El pasado es obstinado». La frase aparece en 22/11/63, la extraordinaria novela de Stephen King en la que un hombre intenta corregir una fecha concreta —la del asesinato de Kennedy— y descubre que el tiempo no acepta correcciones sin presentar una factura detallada. Cada intento de ajuste provoca un desorden mayor que el anterior. El tiempo, viene a decir King, es como un gato. Hace lo que quiere y se ofende si lo tocas.

En cierto modo, el viaje en el tiempo sí existe. Basta con tomar un avión de Lisboa a Ankara o a Moscú para desplazarse tres horas en el reloj. No cambia tu edad, ni tu carácter, ni tu cuenta bancaria, pero confunde lo suficiente como para que durante unos minutos no sepas si tienes hambre, sueño o ambas cosas a la vez.

Durante la mayor parte de la historia humana, esta clase de confusión no existía. Nadie necesitaba saber qué hora era en otra ciudad. Bastaba con mirar al cielo y aceptar que el mediodía llegaba cuando el sol decidía ponerse en lo alto. Era un sistema primitivo, sí, pero tenía una gran ventaja: funcionaba.

Hasta el siglo XIX, cada ciudad vivía en su propio presente. La hora era local, subjetiva y bastante flexible. Si el reloj de la plaza decía una cosa y el sol otra, se le daba la razón al sol. Y si alguien llegaba tarde, siempre podía culpar a la sombra de la torre.

El problema apareció con el ferrocarril, una invención extraordinaria que, además de transportar personas y mercancías, introdujo un concepto inquietante: la puntualidad compartida. De repente, no bastaba con salir “más o menos” a una hora. Había que salir exactamente a la misma hora que figuraba en un papel impreso. Eso fue el principio del fin.

Durante un tiempo se intentó convivir con el caos. En Estados Unidos, por ejemplo, llegaron a coexistir más de trescientas horas locales distintas. Algunas estaciones tenían varios relojes, cada uno marcando la hora correcta para una línea distinta. Era como un museo del tiempo, pero con trenes. Los viajeros aprendieron a vivir con ello. Perdían trenes, discutían con revisores y llegaban tarde a destinos que aún no sabían exactamente en qué hora vivían.

Este método de cronometraje se vio cuestionado en 1853 cuando, en Nueva Inglaterra, dos trenes que se dirigían uno hacia el otro, en la misma vía, colisionaron. Podría haberse evitado si los conductores hubieran tenido la misma hora en sus relojes. El desastre provocó la muerte de catorce pasajeros y diecisiete heridos, lo que puso de relieve los peligros de no contar con una hora ferroviaria estandarizada. Pero estandarizar la hora en los ferrocarriles norteamericanos resultó ser mucho más difícil de lo previsto, por lo que la idea estuvo prácticamente paralizada drente más de veinte años.

En 1878, Sir Sandford Fleming, ingeniero ferroviario canadiense, tuvo una idea revolucionaria. Inspirado por un error en un horario de trenes, cuando una confusión entre AM y PM le hizo perder su tren, Fleming ideó la creación de un reloj de veinticuatro horas (hora militar). Tras esta propuesta, Fleming concibió la idea de implementar otras tantas zonas horarias en todo el mundo. Las zonas horarias, según Fleming, tendrían cada una quince grados de longitud de ancho; en pocas palabras, una hora de ancho. 

El cálculo que ahora parece pan comido es que la Tierra gira 360° en un día, lo que, dividido entre veinticuatro se obtienen 15° y, ¡por lo tanto, zonas horarias iguales! Aunque inicialmente se enfrentaron a cierta resistencia, en 1883, las compañías ferroviarias de Estados Unidos decidieron operar en cuatro zonas horarias, y poco después, el resto del mundo siguió su ejemplo.

En 1884, se celebró en Washington la Conferencia Internacional del Meridiano, una reunión en la que representantes de varios países discutieron algo aparentemente sencillo: dónde empieza el mundo. Ganó Greenwich. No porque fuera el mejor sitio, sino porque los británicos ya lo usaban y tenían barcos en todas partes. Francia votó en contra, y durante décadas siguió usando su propio meridiano en París, porque el orgullo nacional también tiene huso horario.

Así como el Ecuador divide la Tierra en los hemisferios norte y sur, el meridiano de Greenwich divide la Tierra en los hemisferios este y oeste. Básicamente:

La latitud 0º es el Ecuador y sus líneas corren horizontalmente.

La longitud 0º es el meridiano de Greenwich y sus líneas corren verticalmente.

El Meridiano de Greenwich es importante porque sirve como punto de referencia para los mecanismos de medición del tiempo del mundo tal como los conocemos. El GMT (Tiempo Medio de Greenwich) es la base del sistema de husos horarios estándar.

Aunque sobre el papel, los husos horarios son elegantes franjas verticales limpias, ordenadas, casi racionales, en la realidad son una pesadilla cartográfica. Se doblan, se estiran y hacen curvas imposibles para no molestar a países, provincias, islas, intereses económicos o señores muy serios con bigote que un día dijeron “aquí no”.

Y es que, si bien la idea de Fleming de crear veinticuatro husos horarios perfectamente uniformes era lógica y parecía tener un amplio apoyo en su momento, no se mantuvo plenamente vigente por mucho tiempo. Si bien técnicamente existen veinticuatro husos horarios estándar, hoy en día existen entre treintaiocho y cuarenta reconocidos en todo el mundo. Esta discrepancia se debe en gran medida a que los países no siguen diferencias horarias de una hora completa con respecto al GMT, como India y Nepal, que operan en GMT+5:30 y GMT+5:45 respectivamente.

En el caso de la India, y de manera similar en China, la decisión de mantener una única zona horaria nacional fue impulsada por el liderazgo político con la intención de unificar el país bajo una hora estándar. La zona horaria de la India tiene también raíces históricas en el dominio colonial británico.

España vive en el mismo huso que Alemania, pese a que el sol insiste en comportarse como si estuviéramos en el de Portugal. Aunque hay quien sostiene que Franco cambió nuestro huso para adaptarlo al de los alemanes, nadie recuerda bien por qué ocurrió, pero como cambiarlo implicaría reuniones, informes y opiniones, se ha decidido que lo mejor es seguir tal y como estamos.

Rusia, cansada de cambiar el reloj dos veces al año, decidió dejar de hacerlo. Turquía hizo lo mismo. Otros países lo estudian, lo debaten, lo votan, lo posponen y vuelven a estudiarlo. El resultado es que el mapa horario europeo parece diseñado por alguien que empezó con entusiasmo y terminó con sueño.

Mientras que, siguiendo la lógica de Fleming, los científicos que viven en la Antártida simplemente usan el GMT, el continente se dividiría en veinticuatro pequeñas zonas horarias. ¡Qué manera de pasar la Nochevieja, celebrando el Año Nuevo a cada hora, todo el día! ¡Eso sí que es una fiesta!

Y es que nada de esto tiene que ver con el tiempo real. Los relojes no miden el tiempo: miden decisiones humanas. Decisiones políticas, económicas y sociales que aceptamos porque la alternativa —que cada uno viva al sol que más le caliente— sería aún más caótica.

Por eso viajar en avión produce esa sensación infantil de haber ganado o perdido horas sin merecerlo. No has hecho nada heroico. No estás en el mundo imaginario de detrás del espejo. Simplemente has cruzado una línea imaginaria que alguien dibujó hace más de un siglo para que los trenes no colisionaran.

Como advertía Stephen King, el tiempo no acepta bien las correcciones. Cada ajuste genera pequeñas molestias: jet lag, reuniones a horas absurdas, informativos que no coinciden, videollamadas en las que alguien bosteza siempre. Nada grave, pero todo constante.

La pregunta inevitable es por qué seguimos tocando el reloj, por qué continuamos modificando la hora si nadie parece estar satisfecho. La respuesta es decepcionante: porque ya estamos demasiado metidos en el lío. El sistema funciona lo suficiente como para que cambiarlo resulte aún más complicado que soportarlo.

El tiempo moderno es una infraestructura invisible. Como el alcantarillado o el wifi, solo pensamos en él cuando falla. Y cuando falla, suele hacerlo de madrugada, un domingo, con el reloj del microondas parpadeando y la vaga sensación de que alguien nos ha robado una hora de vida sin pedir permiso.

No hemos inventado la máquina del tiempo. Pero hemos creado algo quizá más inquietante: un sistema global que permite desplazarse por el tiempo administrativo con solo cruzar una frontera.

Y eso, para una especie que durante milenios se conformó con mirar al cielo y decir “más o menos ahora”, es un logro notable. O una advertencia. Depende de la hora a la que lo leas.

sábado, 17 de enero de 2026

EL ORIGEN ESTADOUNIDENSE DEL CAOS IRANÍ

El golpe de Estado de 1953 en Irán no fue un episodio aislado, sino el inicio de una cadena de decisiones que todavía hoy condicionan la política iraní y la de la Casa Blanca de Donald Trump.

Foto de Amnistía Internacional

No hay duda de que el caos que Irán vive estas semanas hunde sus raíces en un golpe de Estado que acabó con la incipiente democracia surgida de las elecciones libres celebradas en 1951. Desde entonces, los iraníes viven atrapados en una inestabilidad política y en una crisis económica que sigue llenando las calles de manifestantes abatidos a disparos por las fuerzas de seguridad.

En 1950, sin que nadie pareciera advertirlo del todo, Washington tomó una decisión que cambiaría la política internacional para siempre. La Guerra Fría estaba en marcha y los servicios de inteligencia estadounidenses habían señalado un punto rojo en el mapa: Irán. No tanto por lo que era, sino por dónde estaba.

Irán tenía petróleo. Mucho. Pero, sobre todo, tenía vecinos. Al norte, la Unión Soviética. Al oeste, Turquía e Irak. Al sur, Arabia Saudí y el Golfo Pérsico. Al este, Afganistán y Pakistán. Desde Teherán se podía vigilar media región, se controlaba el estrecho de Ormuz, la gran arteria petrolera del mundo por donde pasan el 30% del comercio global de petróleo y el 20% de gas natural licuado que Irán lleva años amenazando con bloquear, y, llegado el caso, proyectar fuerza sobre Israel, Líbano, Jordania o Siria. En geopolítica, eso no es un país: es una tentación.

Esa condición de territorio codiciado no era nueva. Irán —la antigua Persia— llevaba siglos acostumbrado a sobrevivir entre imperios. Fue un Estado que ya estaba organizado en el siglo VI antes de nuestra era, cuando Ciro el Grande fundó el Imperio aqueménida. Desde entonces, con conquistas, invasiones y dominaciones parciales, la idea de un Estado persa nunca desapareció del todo.

Alejandro Magno pasó por allí en el siglo IV antes de nuestra era. Los árabes musulmanes llegaron en el siglo VII. Los mongoles gobernaron entre los siglos XIII y XIV. Nadie “liberó” Irán de los mongoles: simplemente se diluyeron, se iranizaron y dejaron paso a nuevas dinastías locales. En Persia, incluso los conquistadores acaban pareciendo de la casa.

La reconstrucción de un Estado iraní fuerte y reconocible llegó en 1501, cuando Ismail I fundó la dinastía safávida. Unificó el territorio, expulsó rivales e impuso el chiismo duodecimano como religión oficial. Fue una decisión política más que espiritual, pero funcionó: dotó al país de una identidad propia frente a sus vecinos suníes.

Cuatro siglos después, en diciembre de 1925, el Parlamento iraní depuso a la debilitada dinastía kayar y proclamó sha a Reza Shah Pahlavi. No fue una revolución popular, sino una operación desde arriba. Reza Khan, un oficial cosaco, había dado un golpe de Estado en 1921 y desde el cargo de primer ministro fue acumulando poder mientras el último sha quedaba reducido a mero comparsa.

Con Reza Shah comenzó la construcción del Irán moderno: centralización, secularización, infraestructuras, debilitamiento del clero y de las élites tribales. Todo ello bajo un régimen autoritario, pero con ambición nacional. En 1935, incluso cambió el nombre del país: Persia pasó a llamarse oficialmente Irán.

La soberanía duró poco. En 1941, en plena Segunda Guerra Mundial, británicos y soviéticos ocuparon el país, forzaron la abdicación de Reza Shah y sentaron en el trono a su hijo, Mohammad Reza Pahlavi. El mensaje era claro: Irán era un corredor estratégico, no un Estado soberano.

Ese contexto abrió un breve paréntesis de libertad. El Parlamento recuperó peso, los partidos proliferaron, la prensa respiró. Y de ahí emergió Mohammad Mossadegh: aristócrata, nacionalista, legalista hasta la obsesión y enormemente popular. En 1951 fue nombrado primer ministro tras unas elecciones parlamentarias que el sha no promovió, pero tampoco pudo frenar.

Mossadegh había prometido algo sencillo y explosivo: que el petróleo iraní beneficiara a los iraníes. Nacionalizó los activos petrolíferos y, con ello, encendió todas las alarmas en Londres y Washington. El Reino Unido protestó. Estados Unidos calculó.

El presidente Eisenhower descartó una invasión directa. Irán estaba demasiado cerca de la URSS y nadie quería provocar una guerra nuclear. Pero la CIA tenía otra idea. Se llamaba Kermit Roosevelt, era nieto del antiguo presidente Theodore Roosevelt, y llegó a Teherán con maletas llenas de dólares.

Con ese dinero contrató matones, financió disturbios, sobornó funcionarios, compró voluntades y fabricó la sensación de que Mossadegh era un líder incapaz y detestado. En 1953 fue derrocado. Pasó por la cárcel y terminó el resto de su vida bajo arresto domiciliario.

El premio fue para el sha. Washington le otorgó poder absoluto, lo coronó como Shahanshah —Rey de reyes— y lo convirtió en garante de los intereses occidentales. Las compañías petrolíferas regresaron. Los contratos se multiplicaron. Irán volvió a ser fiable.

La CIA aprendió entonces una lección decisiva: con unos pocos millones de dólares se podía hacer el trabajo que antes exigía ejércitos enteros. Sin invasión. Sin titulares. Sin dar la cara. Sin que la mayoría de los estadounidenses supiera que su país acababa de derrocar una democracia.

El modelo se repetiría después en Guatemala, Chile y varios países africanos. Irán fue el ensayo general. Kermit Roosevelt había inaugurado una nueva forma de imperio: discreta, barata y eficaz.

Durante los años sesenta y setenta, Irán se llenó de asesores estadounidenses. Convencieron al sha de invertir los petrodólares en proyectos diseñados, gestionados y ejecutados por grandes corporaciones extranjeras. General Electric, Boeing, IBM, Citibank. Americanizar el país era una cuestión de estilo y de contratos.

Mientras tanto, la dictadura se iba pudriendo. La represión crecía. El apoyo social se evaporaba. En 1978, las protestas estallaron. El ayatolá Jomeini regresó del exilio. El sha huyó, enfermo de cáncer. Estados Unidos y Reino Unido le negaron asilo. Murió en Egipto atesorando una fortuna intacta de unos 4 000 millones de dólares que había obtenido saqueando el Banco nacional.

Los nuevos gobernantes iraníes gritaron contra el imperialismo estadounidense. Tomaron la embajada de Estados Unidos en Teherán y retuvieron a 52 diplomáticos durante 444 días. Las empresas estadounidenses fueron expulsadas. Todavía no han vuelto.

La actual inestabilidad política de Irán y los miles de muertos causados por la represión es consecuencia de la intervención de Estados Unidos. Trump ha advertido públicamente que la Casa Blanca no descarta ataques a objetivos militares iraníes como parte de su respuesta. Una respuesta a un problema de inestabilidad política que hunde sus raíces en la intervención desestabilizadora estadounidense hace casi setenta y cinco años.

El eterno retorno de lo mismo.


viernes, 16 de enero de 2026

ARISTOLOCHIA, UN ANTIGUO REMEDIO PARA LOS PARTOS

 

Aristolochia paucinervis. Foto de J. Fuentes

Vamos a empezar por la etimología. El nombre Aristolochia con el que Linneo denominó en 1753 a este género, procede del griego antiguo: áristos = “el mejor” y locheía = “parto” o “alumbramiento”. En resumen, aristolochía significa literalmente “la mejor para el parto”.

El término fue usado en la Antigüedad clásica porque varias especies del género se empleaban en la medicina grecorromana como remedios para facilitar el parto, estimular la expulsión de la placenta o tratar problemas ginecológicos. Autores como Hipócrates, Dioscórides y Galeno mencionan estas plantas con ese uso.

El nombre resulta hoy especialmente llamativo porque muchas especies de Aristolochia contienen ácidos aristolóquicos, compuestos altamente nefrotóxicos y carcinógenos. Es decir, una planta cuyo nombre significa “excelente para el parto” acabó siendo un ejemplo clásico de medicamento tradicional peligroso. En resumen, Aristolochia es un nombre botánico cargado de historia médica, optimismo terapéutico antiguo… y una buena dosis de ironía científica moderna.

Y ahora hablemos de botánica. El género Aristolochia, que da nombre a la familia a la que pertenece (Aristolochiaceae), comprende más de 500 especies de plantas herbáceas perennes o lianas leñosas, raramente arbustos. Muchas especies son trepadoras con tallos flexibles que se enrollan sobre soportes naturales. Otras son erectas o decumbentes (los tallos se arrastran paralelos al suelo para luego curvarse y levantarse). Los tallos suelen ser glabros (carentes de pelos) o ligeramente pubescentes (con un vello muy corto) y, en las formas leñosas, pueden lignificarse notablemente con la edad.

Las hojas son simples, alternas y pecioladas, generalmente grandes y de contorno cordiforme (con forma de corazón), reniforme (arriñonada) u ovado. La nerviación es palmeada, bien marcada, lo que confiere a la hoja un aspecto robusto y un tanto arcaico.

La flor de Aristolochia es uno de los ejemplos más singulares de las angiospermas, tanto por su morfología como por su función ecológica. Las flores se disponen solitarias o en pequeñas inflorescencias que nacen en la axila que forman las hojas donde surgen de los tallos.  Las flores son generalmente zigomorfas, es decir, tienen un solo plano de simetría que las divide en dos partes bilateralmente simétricas.

El perianto (de peris, alrededor, y anthos, flor) es el protagonista absoluto de las flores, que carecen de corola, es decir, no hay pétalos. El elemento visible es un cáliz petaloide, formado por tres sépalos soldados en una única estructura tubular.

(A) Flores de Aristolochia argentina. (B) sección longitudinal de las flores mostrando el ginostemo basal. Abreviaturas: l, limbo; g, ginostemo; t, tubo; u, utrículo. Fuente

Este tubo periántico se divide morfológicamente en tres regiones (véase la figura de arriba):

Utrículo basal: una cámara inflada donde quedan atrapados los insectos.

Tubo o trompa: parte estrecha y generalmente curvada.

Limbo: extremo distal expandido, a menudo en forma de lengua, embudo o bandera. En las flores tropicales el limbo puede ser espectacularmente grande, con colores que van del verde amarillento al púrpura oscuro, marrón o casi negro, frecuentemente con venaciones contrastadas o manchas que recuerdan a carne en descomposición.

La longitud del tubo o trompa que conecta el limbo y el utrículo es variable. El tubo es liso por fuera, mientras que el interior suele parecer más claro debido a la presencia de pequeños pelitos blancos (tricomas) dirigidos hacia abajo (retrorsos). La base del tubo termina en el utrículo, que externamente se observa en la curvatura del propio tubo formando un grueso collar alrededor de la entrada que se superpone a la flor a modo de cámara inflada donde quedan atrapados los insectos.

La parte masculina de la flor, el androceo, consta de seis estambres sésiles fusionados externamente con los estigmas del ovario (gineceo) en seis ramas estigmáticas formando en su conjunto una unidad funcional llamada ginostemo (de ginos, femenino, por el gineceo o parte femenina de una flor, y estemo, apócope de estambre). Las paredes internas del utrículo presentan manchas moradas rodeadas de mechones de tricomas que producen pequeñas cantidades de néctar.

Aristolochia bianorii. a) porte de la planta mostrando el único tubérculo basal. b, hoja cordiforme-lanceolada y flor. c, flor aislada, a la izquierda entera, a la derecha el dorso del limbo y del tubo; d, sección del utrículo inflado, a la izquierda mostrando los estambres, a la derecha con el ovario cortado repleto de semillas y, arriba, los estigmas (se han eliminado los estambres). e, el fruto es una cápsula, que en (f) aparece cortada en sección para mostrar las seis cavidades carpelares con semillas en su interior. Imagen tomada de Flora Iberica.

La polinización de muchas especies de Aristolochia es a través de un sofisticado sistema de polinización por engaño conocido como sapromiofilia, un término de origen grecolatino que se usa en biología para describir la atracción de ciertos organismos —especialmente insectos— por la materia orgánica en descomposición, en particular cadáveres o tejidos putrefactos. Su etimología se descompone así: saprós (“podrido”, “corrupto” o “en descomposición”), myía (“mosca”) y philia (“amor”, “afinidad”, “inclinación por”). El significado literal es, pues, “afinidad o atracción por lo podrido asociada a las moscas”.

De ahí que muchas especies emitan olores fétidos (cadaverina, putrescina) que atraen dípteros necrófagos. Los tricomas del tubo están orientados hacia abajo para impedir la salida del insecto, que queda temporalmente atrapado, se impregna de polen y, tras la fecundación, los tricomas se marchitan permitiendo su liberación. Este mecanismo convierte a la flor en una auténtica trampa biológica temporal, una rareza entre las plantas con flor.

El fruto es una cápsula, generalmente péndula, que al madurar se abre en valvas, liberando numerosas semillas planas, a menudo aladas o con expansiones membranosas que facilitan la dispersión por viento. 

Las seis especies españolas del género Aristolochia

En España hay seis especias nativas, que pueden separarse por la siguiente clave:

Clave sencilla para identificar las especies españolas de Aristolochia (ver la imagen adjunta)

1a. Flores en grupos (fascículos): A. clematidis (Cataluña y Baleares).
1b. Flores solitarias: 2

2a. Planta trepadora de flores púrpuras: A. baetica (sur de España, desde el Algarve a Levante y norte de África).
2b. Plantas no trepadoras: 3

3a. Hojas sin peciolo: A. rotunda (Cataluña y Levante).
3b. Hojas con peciolo: 4

4a. Margen de las hojas con un reborde cartilaginoso ondulado o denticulado: A. pistolochia (Península y Baleares).
4b. Margen delgado, no cartilaginoso ni denticulado: 5

5a. Tallos postrados: A. bianorii (Baleares).
5b. Tallos ascendentes. A. paucinervis (Península y Baleares).

jueves, 15 de enero de 2026

POR QUÉ LA ESCALA FAHRENHEIT PARECE UNA BROMA Y NO LO ES

 

Hay invenciones humanas que parecen concebidas expresamente para irritar a las generaciones futuras. La escala Fahrenheit es una de ellas. No porque no funcione —funciona estupendamente— sino porque parece diseñada por alguien que se levantó una mañana y pensó: “Voy a medir algo perfectamente natural usando números que no tengan ningún sentido evidente”.

Según esta escala, el agua se congela a 32 grados, hierve a 212, y el cero no coincide con ninguna de las dos cosas, ni siquiera intenta caer cerca. Es como si alguien hubiera numerado los pisos de un edificio empezando por el sótano, saltándose el tercero y llamando “ático” al quinto. Y, sin embargo, durante más de tres siglos millones de personas han vivido perfectamente bien con este sistema sin arder de indignación (aunque a veces sí de calor).

El responsable de todo esto fue Daniel Gabriel Fahrenheit, un físico del siglo XVIII que no tenía ni la más remota intención de fastidiarnos la vida. De hecho, su problema era exactamente el contrario: quería que las cosas funcionaran de una vez. En su época, medir la temperatura era un ejercicio cercano al arte adivinatorio. Dos termómetros distintos podían dar lecturas distintas para el mismo día, el mismo lugar y la misma habitación, lo cual no es ideal si uno intenta hacer ciencia y no simplemente comentar el tiempo mientras toma café.

Fahrenheit decidió que la única forma de imponer orden era fabricar termómetros fiables y, para ello, necesitaba una escala estable. Estable no en el sentido filosófico, sino práctico: que pudiera reproducirse en cualquier laboratorio sin depender de inviernos excepcionales, veranos tórridos o estados de ánimo del observador. Y ahí es donde empezó el problema, por el principio de todo sistema de medida: el cero.

Hoy damos por hecho que el cero debe significar algo profundo y solemne, como “nada”, “inicio” o “a partir de aquí pasan cosas importantes”. Pero en el siglo XVIII el cero era, ante todo, un número incómodo, y los números negativos eran vistos con una mezcla de sospecha matemática y anomalía estética. Fahrenheit decidió evitar ambos fijando el cero en la temperatura más baja que podía generar de forma fiable en su laboratorio: una mezcla de hielo, agua y sal. Un brebaje tan frío como poco apetecible, pero maravillosamente constante. Ese fue el 0 °F. Ni el frío absoluto, ni el invierno de 1709, ni el Polo Norte. Simplemente, lo más frío que puedo hacer sin cambiar de continente.

Una vez decidido el cero, Fahrenheit necesitaba puntos de referencia útiles. El primero era obvio: el punto de congelación del agua. Cuando lo midió en su escala recién creada, cayó en 32 grados. Y aquí ocurrió algo revelador: no hizo absolutamente nada al respecto. No redondeó, no reajustó, no pensó “qué número tan feo”. Aceptó el 32 con la seguridad de alguien que entiende que el mundo no tiene obligación alguna de ser elegante. El termómetro funcionaba. El punto era reproducible. Caso cerrado.

Después vino la temperatura del cuerpo humano, que le pareció un referente práctico y universal. Midió, probablemente en sí mismo o en alguien disponible y cooperativo, y obtuvo 96 grados. De nuevo, no 100, no un número bonito para los pósteres educativos, sino uno útil. Entre 32 y 96 hay 64 grados, una potencia de dos, lo que permitía dividir intervalos una y otra vez sin recurrir a fracciones endiabladas. Era una escala pensada para manos, no para pizarras; para artesanos, no para filósofos.

El último gran hito fue el punto de ebullición del agua, que resultó estar en 212 °F. Esto dejó exactamente 180 grados entre congelación y ebullición, un número extraordinariamente cooperativo. Divisible por casi todo, ideal para cálculos en una época sin calculadoras, sin hojas de cálculo y sin paciencia infinita. A esas alturas, la escala ya estaba completa. No era bonita, pero era sólida. Y, sobre todo, era consistente.

Lo que ocurre es que la escala Fahrenheit tuvo la mala suerte de ser comparada más tarde con la escala Celsius, que apareció cuando la ciencia ya había decidido que, además de funcionar, debía tener buena presencia. Celsius estableció que, por narices, el agua se congelara a 0 y hirviera a 100, creando una escala tan limpia y pedagógica que parece diseñada por un comité de profesores con regla y compás. Frente a eso, Fahrenheit parece un manuscrito medieval lleno de tachones.

Pero aquí viene la ironía: para la vida cotidiana, la escala  Fahrenheit es sorprendentemente buena. Tiene más grados en el mismo rango, lo que permite describir cambios pequeños pero perceptibles. Entre 68 y 72 °F hay una diferencia clara que cualquiera nota al salir de casa. En Celsius, 20 y 22 grados parecen casi la misma cosa, como si el clima se encogiera de hombros. Fahrenheit, en cambio, susurra matices. Es una escala con oído fino.

Por eso, cuando los estadounidenses hablan del tiempo en Fahrenheit, suenan extraordinariamente precisos, como si el clima estuviera afinado al milímetro. No es que la escala sea más científica; es que es más gradual. Está ajustada a la experiencia humana, no a la elegancia conceptual.

Así que la escala Fahrenheit no es complicada porque sea mala, sino porque es antigua. Nació antes de que la ciencia decidiera que debía ser intuitiva, bonita y fácil de explicar a adolescentes. Nació en un mundo donde lo importante era que dos instrumentos distintos dijeran lo mismo, aunque los números parecieran sacados de una rifa. Y lo consiguió.

Al final, Fahrenheit no nos dejó una escala absurda, sino un fósil funcional: algo que no encaja del todo con nuestras expectativas modernas, pero que sigue haciendo su trabajo con una dignidad imperturbable. Como muchas reliquias del siglo XVIII, no tiene sentido a primera vista, pero basta usarla un rato para darse cuenta de que, por extraño que parezca, sabe exactamente lo que está haciendo.

miércoles, 14 de enero de 2026

COCINA MODERNA: EL DÍA EN QUE LA PIMIENTA GANÓ

 


Nadie proclamó oficialmente la victoria de la pimienta. No hubo edictos, ni concilios gastronómicos, ni campanas repicando en las cocinas europeas. La pimienta ganó como ganan casi siempre las cosas que cambian de verdad la historia: sin que nadie se diera cuenta, poco a poco, por acumulación de gestos pequeños y cómodos. Un giro aquí, un atajo allá, hasta que un día el mundo ya no sabe exactamente cuándo dejó de ser como antes.

Durante siglos, la pimienta negra había sido un lujo casi mítico. Llegaba desde la India por rutas largas y peligrosas, pasaba por intermediarios árabes, venecianos y genoveses, y terminaba en Europa convertida en algo más cercano a una joya que a un ingrediente. Se guardaba bajo llave, se regalaba como símbolo de prestigio y se usaba con cuidado. No estructuraba platos: los subrayaba. El sabor, en cambio, seguía construyéndose con otros pilares mucho más antiguos y complejos: vinagre, vino reducido, agraz, fermentos, miel, grasa y hierbas.

Roma había enseñado a Europa que el ácido no era un error, sino una herramienta. La Edad Media había perfeccionado esa lección hasta convertirla en un arte: acideces amortiguadas, dulces estratégicos, salsas pensadas para envolver y no para golpear. Comer era componer. La pimienta existía, sí, pero no mandaba. Era una nota exótica en una partitura larga y cuidadosamente equilibrada.

El cambio no llegó desde la cocina, sino desde el comercio. Entre los siglos XVII y XVIII, las rutas se estabilizaron, los imperios coloniales hicieron su trabajo y las especias dejaron de viajar como reliquias para empezar a hacerlo como mercancía. La pimienta comenzó a llegar en grandes cantidades, en sacos, de forma regular. Y cuando algo deja de ser raro, deja también de ser pensado. Ahí está el momento clave de su victoria: no cuando apareció, sino cuando se volvió cotidiana.

A partir de entonces, la pimienta empezó a ocupar un lugar que antes no tenía. Ya no era un adorno ni un lujo: se convirtió en solución. Si un plato parecía insípido, se le añadía pimienta. Si faltaba carácter, pimienta. Si algo no acababa de cuadrar, pimienta. El molinillo se volvió un gesto reflejo. Y con ese gesto automático, Europa empezó a abandonar sin saberlo una forma entera de entender el sabor.

Porque la pimienta no vino sola. Llegó acompañada de una gran simplificación. Frente a la cocina antigua —romana y medieval—, que pensaba el plato como una estructura interna de equilibrios, la cocina moderna empezó a tratar el sabor como algo que se ajusta desde fuera. Antes, el ácido se integraba desde el principio; ahora se evitaba. Antes, la fermentación era cotidiana; ahora se volvió sospechosa. El agraz desapareció, el vinagre se relegó a la ensalada y el dulce dejó de ser un amortiguador para convertirse en un compartimento estanco reservado al postre.

El ácido, que durante siglos había sido columna vertebral, empezó a percibirse como un problema potencial. Algo que había que moderar, justificar o esconder. No porque fuera más intenso que antes, sino porque había perdido su contexto. Sin grasa suficiente, sin dulzor estratégico, sin fermentación, la acidez quedaba desnuda. Y un sabor desnudo siempre parece excesivo.

Este cambio coincidió además con una nueva moral del gusto. La Edad Moderna empezó a valorar la claridad, la limpieza, la separación de categorías. Dulce por un lado, salado por otro. Lo complejo empezó a parecer confuso; lo mezclado, sospechoso. La pimienta encajaba perfectamente en este nuevo mundo: era seca, controlable, estable, siempre igual. No vivía, no cambiaba, no evolucionaba. Era el condimento ideal para una cultura que comenzaba a desconfiar de todo lo que no se podía medir o repetir.

En el siglo XIX, la cocina burguesa consagró definitivamente esta transformación. La sal y la pimienta se convirtieron en norma escrita, en base de manual, en punto de partida incuestionable. La cocina dejó de ser un saber transmitido por hábito y pasó a ser un sistema ordenado, racional, pedagógico. Y en ese sistema, la complejidad antigua estorbaba. Lo que no se podía explicar rápido, se eliminaba.

El resultado no fue una cocina sin sabor, sino una cocina con menos lenguaje. La acidez no desapareció del todo, pero se escondió en escabeches, encurtidos y recetas regionales que sobrevivieron casi como fósiles. Mientras tanto, fuera de Europa, muchas cocinas siguieron hablando con naturalidad el idioma que aquí se había olvidado: Asia, África, América precolombina nunca abandonaron la acidez como estructura.

La ironía es que hoy, siglos después, la cocina más inquieta y creativa está intentando volver exactamente a ese punto perdido. Fermentos, vinagres suaves, salsas de pescado, reducciones, agraz recuperado bajo nombres elegantes. Se habla de equilibrio, de tensión, de profundidad. Palabras nuevas para ideas muy antiguas. La pimienta sigue ahí, pero ya no manda sola.

Conviene decirlo claramente: la pimienta no es la villana de esta historia. Es magnífica, aromática y merecidamente famosa. El problema no fue usarla, sino dejarla ganar por goleada. Cuando un solo condimento se convierte en respuesta universal, el gusto se empobrece no por falta de intensidad, sino por falta de conversación.

Roma hablaba en frases largas. La Edad Media escribía párrafos barrocos. La modernidad redujo el discurso a una nota breve, eficaz y repetible. El día en que la pimienta ganó, Europa ganó comodidad. Pero perdió oído. La buena noticia es que el oído se puede reeducar. Y que, como ocurre con los buenos vinagres, el pasado sigue teniendo mucho que decir… si estamos dispuestos a escucharlo sin molinillo en la mano.