Vistas de página en total

domingo, 25 de enero de 2026

ANDROCYMBIUM: LA COPITA MASCULINA DE LOS BOTÁNICOS

 

Los nombres científicos, cuando están bien escogidos, funcionan como pequeñas cápsulas de conocimiento. Androcymbium es uno de esos casos en los que la etimología no es un adorno, sino una descripción casi anatómica disfrazada de griego clásico.

El término procede de dos raíces griegas: andrós, “hombre” o “varón”, y kymbíon, “copita”, “vaso pequeño”, algo cóncavo que contiene. El resultado —literalmente, la copita del macho— alude a la disposición de los órganos reproductores masculinos, los estambres, alojados dentro de una estructura floral que recuerda a un pequeño cuenco protector. Es una imagen precis y muy propia de la botánica ilustrada del siglo XVIII, cuando el latín y el griego se usaban como herramientas conceptuales.

Desde el punto de vista botánico, Androcymbium es un género de plantas geófitas, es decir, de plantas que pasan buena parte de su vida escondidas bajo tierra gracias a órganos de reserva como bulbos o tubérculos. Esa estrategia les permite sobrevivir a veranos abrasadores o inviernos secos y reaparecer cuando las condiciones son favorables.

Las plantas del género suelen ser bajas, compactas y pegadas al suelo. Sus hojas, generalmente basales, forman una roseta que abraza el sustrato. Las flores, a menudo solitarias, no se elevan sobre largos tallos: emergen casi a ras de tierra, como si no quisieran llamar demasiado la atención. Y, sin embargo, al mirarlas de cerca, revelan una arquitectura floral compleja, con tépalos (pétalos y sépalos indistinguibles) que envuelven con cuidado el aparato reproductor.

El género se distribuye principalmente por el sur de África y la cuenca mediterránea, dos regiones separadas pero unidas por climas estacionales y suelos donde sobrevivir bajo tierra es una ventaja evolutiva clara.

Androcymbium pertenece a la familia Colchicaceae, un grupo de plantas que combina elegancia floral con una bioquímica nada inocente. Muchas especies de esta familia producen alcaloides tóxicos, siendo el más famoso la colchicina, una sustancia que interfiere con la división celular y ha sido tanto veneno como medicamento.

Androcymbium europaeum es una rareza ibérica. Es la única especie europea, una rareza botánica que vive en algunos enclaves del litoral mediterráneo occidental, incluidos puntos muy concretos del sureste de la península ibérica.

Es una planta discreta hasta la invisibilidad. Florece en invierno o a comienzos de la primavera, cuando el paisaje aún parece dormido. Sus flores, blanquecinas o ligeramente verdosas, se abren casi a ras de suelo, protegidas del viento y del frío, como si la planta desconfiara del mundo exterior. No busca polinizadores vistosos ni exhibiciones llamativas: apuesta por la eficiencia y el bajo perfil.

Su presencia suele pasar desapercibida, pero es un indicador de hábitats bien conservados, asociados a suelos arenosos o pedregosos poco alterados. Precisamente por eso, A. europaeum ha sufrido el retroceso de los espacios costeros naturales y hoy se considera una especie de interés para la conservación.

En el fondo, su nombre le viene como anillo al dedo: una pequeña “copita” botánica, modesta y cerrada sobre sí misma, que guarda en silencio una larga historia evolutiva y lingüística. Una planta que no grita, pero que, si uno se agacha lo suficiente, tiene mucho que contar.

LA CREMA FRENTE AL PURÉ: UNA CUESTIÓN DE ESTRUCTURA

 

Hoy teníamos una comida familiar. Mesa larga y conversación cruzada y afectuosa. Yo había traído una calabaza del Jardín Botánico, que es una forma algo pretenciosa de decir que no venía del supermercado. Mi esposa, con mejor criterio que yo, decidió convertirla en una crema de calabaza. El resultado fue excelente: suave, estable, reconfortante, de esas cosas que uno come y agradece que existan.

El problema fue que yo sí pensaba. La víspera había terminado de escribir un artículo sobre los purés, sus grumos, sus traiciones térmicas y esa tendencia tan suya a descomponerse en cuanto uno les da la espalda. Frente al plato humeante, inevitablemente, me asaltó la pregunta: ¿qué diferencia física y química hay entre un puré y una crema? ¿Por qué aquella crema que estaba saboreando se comportaba con tanta dignidad mientras los purés, incluso bienintencionados, suelen venirse abajo al enfriarse?

Lo que sigue es lo que he aprendido estudiando un poco. Os lo cuento.

La primera diferencia es conceptual. El puré confía en el ingrediente. La crema confía en el método. El puré parte de la idea optimista de que una verdura cocida y triturada sabrá arreglárselas sola. La crema, en cambio, asume desde el principio que la verdura —especialmente la calabaza— necesita apoyo estructural. No es una cuestión de refinamiento, sino de desconfianza bien entendida.

Un puré de calabaza es, en esencia, calabaza cocida y triturada. Puede llevar algo de agua o caldo, quizá un poco de aceite, pero su cuerpo depende casi por completo de la propia calabaza. Y la calabaza es un vegetal con mucha agua, poca fibra estructural y, a diferencia de las patatas, un contenido modesto de almidón. Como comenté en elartículo anterior, al calentar la calabaza triturada ocurre un proceso llamado gelatinización, que ocurre cuando los gránulos de almidón absorben agua, se hinchan y se disgregan, liberando amilosa y amilopectina.

La crema de calabaza introduce desde el principio elementos que cambian las reglas físicas del sistema. El más importante es la grasa. Nata, mantequilla o aceite no se añaden solo para mejorar el sabor, aunque lo hagan. Están para interferir en el comportamiento del almidón y del agua. La grasa se interpone entre las partículas sólidas, lubrica la estructura y dificulta que el agua se separe cuando la temperatura baja. Donde el puré depende de una red rígida, la crema construye un entramado más flexible.

También cambia la relación con el agua. En el puré, el agua es mayoritariamente la que trae la propia verdura. En la crema, el líquido se va añadiendo de forma controlada, normalmente en forma de caldo, y se integra como parte del sistema desde el principio. No se trata de diluir, sino de crear una suspensión estable. El objetivo no es espesar, sino cohesionar.

El triturado, que suele verse como un detalle técnico, es en realidad decisivo. En un puré, triturar en exceso libera más almidón y puede empeorar la textura al enfriarse. En una crema, el triturado fino es esencial, porque se realiza cuando ya hay grasa suficiente para amortiguar los daños. Las partículas sólidas quedan tan finamente dispersas que el sistema se comporta como un conjunto, no como una suma de fragmentos.

La diferencia se vuelve evidente cuando nadie hace nada. En caliente, puré y crema pueden parecer primos cercanos. En frío, se separan sin disimulo. El puré se descompone, la crema aguanta. La crema puede reposar, recalentarse, incluso congelarse con dignidad.

Desde el punto de vista físico, podría decirse que el puré es un sistema sostenido por el calor, mientras que la crema es un sistema diseñado para resistir la pérdida de calor. El puré vive en un equilibrio temporal. La crema aspira a la estabilidad. No es casualidad que las cremas dominen comedores colectivos, restaurantes y neveras domésticas. Pueden esperar. El puré, no tanto.

También hay una diferencia sensorial que a menudo se confunde con calidad. El puré sabe más intensamente a calabaza porque no hay intermediarios. La crema sabe más redonda. La grasa suaviza, transporta aromas y elimina asperezas. No es que uno sea mejor que la otra: son decisiones distintas. El puré es directo. La crema es diplomática.

Al final, la diferencia entre puré y crema no es una cuestión de batidora ni de etiqueta en la carta. Es una cuestión de física aplicada a la cocina doméstica. El puré confía en la verdura y en el momento. La crema confía en la estructura y en el tiempo. Uno acepta la fragilidad. La otra la corrige.

Aquella crema de calabaza que comimos en familia no era mejor que un buen puré recién hecho. Simplemente estaba pensada para durar. Fluía con naturalidad, mantenía su cohesión y no exigía consumirla con urgencia. Era calabaza con apoyo logístico. Por eso, por el tratamiento con mimo, la crema fría de calabaza es una receta perfecta para hacer en verano.

El puré, en cambio, es otra cosa. Es calabaza convencida. Y como todas las convicciones que no cuentan con respaldo estructural, funciona mientras el calor acompaña. Luego, inevitablemente, se reorganiza.

sábado, 24 de enero de 2026

LA VIDA SECRETA DEL PURÉ: CUANDO EL ALMIDÓN SE REORGANIZA

 

El puré, cuando está caliente, inspira una confianza que quizás no merece. Uno lo mira y piensa: esto está resuelto. Todo está integrado, todo es suave, todo parece haber encajar razonablemente. El puré caliente es un alimento socialdemócrata. No hay tensiones visibles, no hay bandos. La patata ha renunciado a su pasado sólido, el agua ha aceptado quedarse en segundo plano y el conjunto se presenta como una masa homogénea, domesticada y apetecible, que no plantea problemas. Es entonces cuando cometemos el error: apartarlo del fuego y dar por hecho que seguirá siendo el mismo, pase lo que pase, por siempre jamás.

Al volver al cabo de un rato —no hace falta mucho, basta con que se enfríe— el puré ya no es uno. Hay grumos que flotan en una especie de archipiélago triste frodeado por un mar de aguachirle. El puré no está malo, pero ha cambiado de estado. Y lo ha hecho sin consultarnos, como suelen hacerse las cosas importantes.

Lo que ha ocurrido no es un capricho culinario ni una mala praxis del cocinero. Son la física y la química actuando con la frialdad que las caracteriza. La patata, la calabaza, el arroz, todos esos vegetales que parecen tan dóciles contienen almidón, y el almidón es una sustancia con carácter. En caliente se comporta de manera expansiva: absorbe agua, se hincha, forma una red que atrapa el líquido y da esa textura cremosa que asociamos con la felicidad doméstica. Pero ese estado es transitorio. 

En los cereales y los tubérculos, el almidón se encuentra en las células formando estructuras discretas, los gránulos de almidón. Estos gránulos tienen un tamaño entre 2 y 100 micras, dependiendo del vegetal, aunque en un mismo vegetal aparece una cierta heterogeneidad de tamaño Los gránulos de almidón de arroz están entre los más pequeños, y los del almidón de patata, entre los más grandes, en los extremos del rango de tamaños indicado. La forma suele ser redondeada, pero también aparecen gránulos de forma alargada o más o menos irregular.

Estructura interna del gránulo de almidón observada con microscopio electrónico de barrido. Las moléculas de amilosa y de amilopectina se disponen en forma radial, formando una serie de capas concéntricas. 

Un poco de química elemental nos vendrá bien. Como pueden ver en la figura de abajo, el almidón tiene una composición química muy sencilla. Es la unión de dos polisacáridos (si lo prefieren, dos carbohidratos): la amilosa y la amilopectina. Ambos están formados por unidades de glucosa; las de amilosa unidas entre ellas por enlaces que dan lugar a una cadena lineal y las de amilopectina por enlaces que hacen que las cadenas de glucosa se ramifiquen. Los dos polisacáridos se modifican con la adición de agua.


El almidón está formado por dos polisacáridos, amilosa y amilopectina, ambos constituidos por moléculas encadenadas de azúcar (glucosa). Cada molécula de glucosa es uno de los hexágonos que aparecen en la imagen.

La hidrólisis es una reacción química en la que una molécula de agua se rompe para descomponer un compuesto más complejo en dos o más sustancias más simples, lo que se consigue incorporando los átomos de hidrógeno y oxígeno del agua a los nuevos productos. En el proceso de hidrólisis que tiene lugar cuando comemos, las amilasas, unas enzimas secretadas por el páncreas y las glándulas salivales, son las encargadas de degradar los polisacáridos de los alimentos, los cuales se transforman en glúcidos más simples, en moléculas más sencillas, que pueden atravesar la pared digestiva o ser absorbidas en el intestino.

Como no hay enzimas, lo que sucede al hacer puré no es una hidrólisis, sino un proceso llamado gelatinización, que ocurre durante la cocción de la patata cuando los gránulos de almidón absorben agua, se hinchan y se disgregan, liberando amilosa y amilopectina. Como resultado, se forma una pasta o gel espesante que da la textura característica al puré. No hay una ruptura masiva de los enlaces químicos para crear azúcares simples; las moléculas de almidón siguen siendo largas. Siguen ahí, a la espera de reorganizarse.

Cuando la temperatura desciende, el almidón empieza a hacer memoria. Sus moléculas, especialmente la amilosa, sienten una irresistible necesidad de ordenarse como si se tratase de regimientos prusianos. Se alinean, se juntan, se compactan. Donde antes había una red flexible ahora hay una estructura rígida y concentrada. El agua, que ya no tiene cabida en ese nuevo orden cerrado, es expulsada sin miramientos. El puré se disgrega porque el almidón ha decidido que cuando el ardor amoroso cesa, la pareja se divorcia.

Este proceso tiene un nombre que parece inventado para tranquilizarnos: retrogradación del almidón. Suena técnico, pero viene a significar algo bastante cotidiano: las cosas tienden a volver a su estado más estable, aunque ese estado no nos guste. Para la estructura molécular, el puré frío es un éxito. Para nosotros, una decepción templada.

Eso explica una de las frustraciones más persistentes de la cocina doméstica: el puré recalentado nunca vuelve a ser exactamente igual. Uno puede calentarlo con cuidado, removerlo con paciencia, añadir leche, mantequilla, aceite de oliva, incluso optimismo. El puré mejora, sí, pero no regresa del todo a su ser original. Algo irrecuperable, como la niñez o la virginidad, se ha perdido por el camino. El almidón, una vez reorganizado, no vuelve a desorganizarse completamente. El calor puede aflojar la estructura, pero no borrar lo ocurrido. 

Todo esto debería servirnos para mirar los purés con un poco más de respeto y algo menos de ingenuidad. La textura no es un atributo fijo: es un equilibrio temporal. El calor mantiene a raya a las moléculas, las obliga a convivir. El frío les devuelve la libertad. Y cuando cada componente puede elegir, elige el orden, no la cremosidad.

Quizá por eso los recalentados nos producen una leve melancolía. No están mal, pero nos recuerdan que el momento de la excelencia pasó. El puré recién hecho es una promesa; el puré frío es otra cosa. No hay traición, solo sinceridad tardía.

Al final, los grumos no son un error ni un castigo. Son el almidón haciendo exactamente lo que lleva millones de años haciendo: buscar estabilidad. Que esa estabilidad no coincida con nuestra idea de una cena perfecta es un problema filosófico, no culinario. El puré no se estropea. Se reorganiza. Y, como tantas reorganizaciones, llega cuando ya no podemos hacer mucho más que mirarla con resignación y coger la cuchara.

Cuando el puré se congela, la reorganización íntima que ya había empezado al enfriarse se vuelve radical. Al congelar ocurren varias cosas, todas poco favorables para la mesa y perfectamente razonables desde el punto de vista de la física. El agua forma cristales de hielo que crecen, empujan y rompen. Al hacerlo, perforan las paredes celulares que quedaban y destrozan la red gelatinosa del almidón que sostenía la ilusión de unidad.

Además, la retrogradación del almidón se acelera y se consolida. Las moléculas se ordenan con convicción definitiva. Cuando el puré se descongela, ese almidón ya no está dispuesto a volver a colaborar. Ha encontrado una forma estable y no piensa abandonarla. El resultado aparece de inmediato: agua separada, grumos más firmes y una textura que recuerda vagamente a lo que fue, pero que ya no responde al proyecto original.

No es que el puré “se haya cortado”. Es que ha dejado de existir como puré en sentido estructural. Es una agregación de fases que antes estaban obligadas a convivir y ahora no. El recalentado ayuda poco. El calor puede suavizar los grumos y engañar al ojo durante unos minutos, pero no reconstruye las células rotas ni deshace la compactación del almidón. El daño ocurrió a escala microscópica. El puré congelado no envejece: sufre una metamorfosis. 

Por eso algunos purés congelan mejor que otros. El mito de que "el puré no se puede congelar" nace de errores comunes: usar patatas con bajo contenido de almidón o no agregar grasas protectoras. Las variedades harinosas de las patatas mantienen hasta un 92% de su textura original cuando se congelan con al menos un 10% de grasa añadida. La mantequilla, la nata o la leche entera forman una barrera que evita la cristalización del agua, previniendo la degradación del almidón. 

Por eso, los purés que llevan grasa o proteínas resisten más: esos ingredientes interfieren en la formación de grandes cristales de hielo y lubrican la estructura al descongelar. Los purés “puros”, solo verdura y agua, son los más castigados. La pureza tiene un precio.

Desde el punto de vista sensorial, el puré descongelado pierde cohesión. La cuchara ya no encuentra resistencia uniforme. El puré no acompaña: cede. Se comporta como algo que ha pasado por una experiencia intensa y ya no quiere fingir normalidad. No está malo, pero ya no es un puré recién hecho: es la memoria congelada de uno.

Si el puré frío es una advertencia, el puré congelado es una muestra forense. Y la física, como siempre, ha hecho exactamente lo que prometía, no lo que queríamos.

Lo dicho para el puré no vale para la crema, pero esa es otra historia.

jueves, 22 de enero de 2026

CÓMO GROENLANDIA ACABÓ SIENDO DANESA (Y POR QUÉ TRUMP NO ENTENDIÓ NADA)

 

Ricard Ferrandiz: El capitán Trueno y Sigrid se casan.

Groenlandia me ha llamado desde que era niño y leía los tebeos del Capitán Trueno. Me fascinaba la bella y elegante Sigrid, la amada del Capitán, que no era una princesa ornamental sino reina de Thule, un reino del norte remoto y helado donde los hombres hablaban poco, cumplían su palabra y no parecían especialmente interesados en conquistar el mundo. Como suele ocurrir con los mitos infantiles bien asentados, un día quise saber más. Así que recurrí a la enciclopedia Espasa, ese Google en papel que exigía bíceps y paciencia, y busqué Thule. Descubrí entonces que no era solo un escenario de tebeo, sino también un lugar real o casi real: el asentamiento más septentrional del mundo conocido, situado al norte de Groenlandia, allí donde los mapas empiezan a pedir disculpas.

Mi imaginación quedó atrapada para siempre en ese punto del planeta. Y más aún cuando tropecé con la historia de Erik el Rojo, el vikingo que tuvo la brillante idea de llamar Greenland (Tierra Verde) a uno de los mayores pedazos de hielo del hemisferio norte. Lo hizo para atraer colonos y funcionó. Aquello me pareció prodigioso: cambiar la realidad con una palabra. Años después comprendí que esa habilidad —rebautizar el mundo para hacerlo más vendible— no se perdió con los vikingos, sino que ha tenido una larga y próspera descendencia.

Por eso, cuando Donald Trump afirmó en televisión que el hecho de que un barco danés llegara a Groenlandia hace quinientos años no da derecho a poseer la isla, sentí una mezcla de déjà vu y alarma histórica. La frase tiene esa cualidad tan suya de sonar razonable durante tres segundos y luego desplomarse como una silla plegable mal abierta. Porque, con el mismo argumento, cabría preguntarse qué derecho tienen los anglosajones a poseer Estados Unidos, si llegaron a las costas de Nueva Inglaterra hace prácticamente el mismo tiempo, armados de Biblias, escopetas y una extraordinaria fe en que Dios siempre estaba de su lado… inmobiliario.

El problema de ese razonamiento es que no desmonta solo a Dinamarca: haría saltar por los aires medio planeta. América entera, Australia, buena parte de África y Asia quedarían en suspenso jurídico, como si la historia internacional funcionara con tiques de aparcamiento que caducan a los cinco siglos. Pero Trump no hablaba de coherencia histórica; hablaba de propiedad, una palabra muy peligrosa cuando se aplica a territorios, pueblos y milenios.

Para empezar, conviene corregir el dato. Los primeros europeos que llegaron a Groenlandia no eran daneses. Eran noruegos, y llegaron hacia el año 985 empujados por el destierro, la violencia interpersonal y una notable resistencia al frío. Erik el Rojo, nacido en Noruega, fue expulsado primero de su país y luego de Islandia, antes de decidir que siempre quedaba un oeste más lejano al que huir.

Los asentamientos que fundó en Groenlandia fueron colonias noruegas: dependían políticamente del rey de Noruega, pagaban diezmos a la Iglesia noruega y mantenían lazos constantes con Islandia. Dinamarca no pintaba absolutamente nada en ese momento. Groenlandia formaba parte del mundo atlántico noruego, ese arco de islas y costas donde los vikingos sobrevivían más por tozudez que por comodidad.

Otros tipos fascinantes los vikingos, unos tipos fortachones a los que no importaba lucir una hermosa cornamenta. Parte del malentendido moderno procede de imaginar a los vikingos como una franquicia homogénea del tipo Starbucks: todos iguales, todos daneses, todos astados como mihuras, todos con el mismo mapa mental. En realidad, hubo tres grandes áreas vikingas, con rutas y destinos bien distintos.

Los vikingos noruegos miraron al Atlántico: Irlanda, Escocia, Islandia, Groenlandia y, finalmente, América del Norte. Colonizaron islas y costas donde el viento no perdonaba. Los vikingos daneses miraron al sur y al oeste: Inglaterra, Francia, el mar del Norte. Gobernaron, cobraron impuestos y dejaron una huella política duradera. Los vikingos suecos, los varegos, miraron al este: ríos interminables, comercio con Bizancio y el mundo islámico.

Groenlandia pertenece sin discusión al mundo noruego, no al danés. Así que el famoso “barco danés” de Trump no solo llega tarde: llega al sitio equivocado.

Los colonos nórdicos sobrevivieron en Groenlandia durante varios siglos. Luego, desaparecieron. Probablemente por una combinación letal de enfriamiento climático, aislamiento, falta de recursos y mala suerte. Europa miró hacia otro lado y Groenlandia quedó, durante generaciones, como un territorio inuit, habitado por los antepasados de los actuales Kalaallit, expertos en hielo, caza marina y supervivencia extrema.

Y aquí es donde Groenlandia empieza a estropear los discursos coloniales clásicos. No hubo una conquista continua ni una expansión imparable. Hubo llegada, retirada y olvido. Algo muy poco compatible con las narrativas épicas. Dinamarca entró en escena no por exploración heroica, sino por herencia política. En 1380, Noruega y Dinamarca quedaron unidas bajo un mismo monarca. Más tarde se sumó Suecia en la Unión de Kalmar, uno de esos inventos políticos medievales que sobre el papel parecían una gran idea y en la práctica funcionaron como una mesa coja: se mantenía en pie, pero nadie se atrevía a apoyar demasiado peso.

La arquitecta de la Unión fue Margarita I, reina de Dinamarca y una de las figuras políticas más impresionantes de la Europa medieval. Su objetivo era simple y muy sensato: frenar el poder de la Liga Hanseática y de los principados alemanes, que se estaban quedando con el comercio del Báltico como quien se queda con las mejores mesas del restaurante. Unir Escandinavia significaba controlar rutas comerciales, recursos y defensa común, al menos en teoría.

Así que, entre 1397 y 1523, Dinamarca, Noruega y Suecia estuvieron reunidas bajo un mismo monarca. No era un Estado unificado, sino tres reinos distintos con un solo rey. Cada uno conservaba sus leyes, su nobleza y sus problemas, lo cual garantizaba que los problemas se multiplicaran. Groenlandia, como colonia noruega, quedó incluida automáticamente en esa Unión.

En 1523, Gustavo Vasa lideró la ruptura definitiva. Suecia se separó, creó su propio Estado moderno y dejó a Dinamarca y Noruega unidas un par de siglos más. La Unión se disolvió, pero sus efectos duraron siglos: explica rivalidades, guerras posteriores y, sobre todo, por qué Dinamarca heredó territorios noruegos como Groenlandia, Islandia y las Feroe.

Cuando en 1814 Dinamarca perdió Noruega tras las guerras napoleónicas, conservó Groenlandia, Islandia y las Feroe. No por capricho, sino por tratados internacionales. A partir de entonces, Groenlandia fue danesa por continuidad legal, no por desembarco reciente ni por entusiasmo imperial.

Durante los siglos XVIII y XIX, Dinamarca recolonizó Groenlandia de forma lenta, administrativa y relativamente silenciosa. Fue colonia, luego provincia, y finalmente territorio autónomo. Hoy, Groenlandia gobierna casi todos sus asuntos internos y mantiene un debate abierto sobre su independencia futura.

No es un botín olvidado esperando comprador. Es una sociedad viva, con lengua propia, instituciones propias y memoria histórica. Algo que no encaja bien en el pensamiento inmobiliario aplicado a la geopolítica.

Cuando Trump reduce Groenlandia a “un barco danés hace quinientos años”, no solo yerra el dato —ni era danés, ni hace quinientos años—, sino que convierte mil años de historia en una caricatura televisiva. Es la misma lógica que permitiría cuestionar cualquier frontera que no haya sido dibujada esta misma mañana con rotulador permanente.

La ironía final es que Estados Unidos, el país desde el que se pronuncian estas frases, es uno de los ejemplos más claros de continuidad colonial: llegada europea, desplazamiento indígena, construcción estatal y legitimación posterior. No es una acusación moral; es un hecho histórico. Y precisamente por eso resulta tan llamativo que el argumento se use contra Groenlandia, un territorio donde el proceso fue más torpe, más discontinuo y, en algunos aspectos, menos brutal.

Como Thule en los tebeos del Capitán Trueno, Groenlandia sigue estando en el borde del mapa mental de muchos. Pero convendría recordar que, en ese borde, la historia no se deja resumir sin pelear. Y que, a veces, el hielo conserva mejor la memoria que la televisión.

domingo, 18 de enero de 2026

NO, INTERNET NO NACIÓ EN UN CUARTEL

 

Durante años se ha repetido una frase que suena tranquilizadora, casi reconfortante: tenemos Internet gracias a la investigación militar. Es una frase ordenada, jerárquica, con un aroma a despacho bien iluminado y decisiones firmes adoptadas entre estrellas y galones. Sugiere que alguien, en algún momento, supo exactamente lo que estaba haciendo y que el resultado es este caos organizado que usamos a diario para trabajar, discutir y ver vídeos de gatos.

El problema es que no es verdad. O, para ser más precisos, no es exactamente verdad. Internet no es un invento militar, aunque durante un tiempo fuera pagado por militares. Y esa diferencia, que parece menor, lo explica casi todo.

La historia suele empezar en ARPANET, una red creada a finales de los años sesenta por una agencia del Departamento de Defensa de Estados Unidos llamada ARPA, luego DARPA. A partir de ahí, el relato se simplifica peligrosamente: Defensa financia una red, por tanto, la red es militar. Pero esa lógica es como decir que las autopistas son inventos bélicos porque el Estado las paga. La financiación explica el contexto; no define el propósito.

ARPANET no se diseñó para dirigir guerras ni para resistir ataques nucleares, pese a lo mucho que se repite esa idea. De hecho, nadie en el proyecto estaba especialmente preocupado por las bombas atómicas. El problema que intentaban resolver era mucho más pedestre: los ordenadores eran enormes, carísimos y estaban infrautilizados. Las universidades y centros de investigación tenían máquinas potentes que solo podían usar unos pocos investigadores locales. La idea de conectarlas para compartir recursos parecía sensata, casi doméstica. Nada heroico. Nada estratégico. Simplemente práctico.

Mapa lógico de la ARPANET tal como existía en abril de 1971. Ilustra la estructura de la red, mostrando los nodos interconectados y los ordenadores anfitriones conectados a ellos. La red estaba compuesta por 15 Procesadores de Mensajes de Interfaz (IMP). Entre las instituciones clave conectadas se encontraban La Universidad de California Los Ángeles (UCLA), la Universidad de Stanford en California, el Instituto Tecnológico de Massachussets (MIT), la Universidad de Harvard y la RAND Corporation, un grupo estadounidense creado originalmente para asesorar a las Fuerzas Aéreas tras la Segunda Guerra Mundial. Varios ordenadores estaban conectados a los IMP, como el PDP-10, el IBM 1800 y el ILLIAC IV. El mapa muestra la etapa inicial de la red que más tarde se convertiría en la base del internet moderno. Fuente.

Quienes construyeron ARPANET no fueron generales ni estrategas, sino ingenieros, matemáticos e informáticos civiles, muchos de ellos universitarios con barba, gafas gruesas y una paciencia infinita para discutir protocolos. Los militares ponían el dinero, sí, pero no diseñaban la red ni dictaban su funcionamiento. De hecho, uno de los grandes aciertos del proyecto fue que los responsables políticos no entendían del todo qué se estaba haciendo. Eso permitió algo rarísimo en la administración pública: que los técnicos trabajaran con bastante libertad.

El correo electrónico, por ejemplo, no fue una orden ni una necesidad militar. Surgió porque era útil. Alguien escribió un programa para mandar mensajes entre ordenadores y, de repente, la red empezó a usarse más para comunicarse que para compartir capacidad de cálculo. Nadie lo había previsto. Nadie lo había autorizado formalmente. Simplemente funcionaba.

Lo mismo ocurrió con la arquitectura descentralizada de la red. No fue una genialidad estratégica pensada para sobrevivir a una guerra nuclear, sino una solución elegante a un problema técnico: qué hacer cuando un nodo falla. La respuesta fue repartir la inteligencia de la red y evitar puntos únicos de colapso. Una decisión técnica que luego adquirió un aura casi filosófica.

Hasta aquí, todo podría haber quedado en una curiosidad académica bien financiada. De hecho, si ARPANET hubiera sido un proyecto militar al uso, eso es exactamente lo que habría pasado. Habría sido cerrada, clasificada, limitada a unos pocos usuarios autorizados. No habría salido jamás de Estados Unidos y probablemente nadie fuera del Pentágono habría oído hablar de ella.

Pero ocurrió algo poco habitual. Los protocolos que hacían funcionar la red se hicieron públicos. Cuando en los años setenta y ochenta se desarrollaron TCP/IP, nadie los patentó, nadie los convirtió en un estándar propietario y nadie exigió licencias. Cualquiera podía usarlos. Cualquiera podía implementarlos. Cualquiera podía mejorarlos. Fue una decisión técnica que tuvo consecuencias políticas enormes.

Aquí aparece la pregunta clave: ¿por qué Estados Unidos permitió eso? ¿Por qué soltó el control? La respuesta corta es que no lo hizo por altruismo, sino por una combinación de pragmatismo, confianza institucional y un contexto histórico muy específico.

En primer lugar, porque el objetivo original ya estaba cumplido. ARPANET había servido para conectar centros de investigación y demostrar que el sistema funcionaba. Desde el punto de vista militar, el interés era limitado. No era un arma, no daba ventaja inmediata y no encajaba bien en la lógica de secreto que rige el mundo de la defensa.

En segundo lugar, porque el sistema académico estadounidense era —y sigue siendo— extraordinariamente influyente. Las universidades tenían peso, prestigio y capacidad de presión. Internet creció en un ecosistema donde compartir conocimiento era un valor central. Convertir la red en un coto cerrado habría sido ir contra la cultura que la había hecho posible.

En tercer lugar, porque Estados Unidos confiaba en su ventaja estructural. Liberar los protocolos no se percibía como una amenaza, sino como una oportunidad. Si el mundo iba a conectarse, mejor que lo hiciera usando estándares diseñados en universidades estadounidenses, con empresas estadounidenses listas para aprovecharlos. Y eso fue exactamente lo que ocurrió.

A finales de los años ochenta, el interés militar en la red se había evaporado casi por completo. ARPANET se apagó en 1990 sin ceremonias. Internet, en cambio, estaba a punto de empezar de verdad. Las universidades se conectaban entre sí, las empresas comenzaban a experimentar y la red dejaba de ser un experimento para convertirse en infraestructura.

El empujón definitivo llegó desde un lugar inesperado: el CERN, en Suiza. Allí, un físico británico propuso una forma sencilla de enlazar documentos usando hipertexto. No lo hizo para conquistar mercados ni para transformar el mundo, sino para que los científicos compartieran información sin volverse locos. Lo llamó World Wide Web y, en un gesto que hoy parece casi subversivo, lo liberó al dominio público.

La web no tiene absolutamente nada de militar. Es, si acaso, un invento burocrático: nació para organizar papeles. Pero era simple, gratuita y útil. Tres cualidades que suelen ser letales para cualquier sistema alternativo. A partir de ahí, Internet se convirtió en lo que conocemos: una red global, civil, caótica, comercial y profundamente humana.

El mito del Internet militar persiste porque simplifica una historia compleja y encaja bien con la narrativa de la Guerra Fría. También porque confunde financiación con autoría y porque da una falsa sensación de control. Es reconfortante pensar que alguien diseñó todo esto. La realidad es más inquietante: Internet no fue diseñado. Emergió.

Decir que tenemos Internet gracias a la investigación militar es como decir que tenemos la medicina moderna gracias a las guerras. Hay algo de verdad: dinero, urgencia, contexto. Pero lo decisivo no es la guerra, sino los médicos, los hospitales y la ética profesional. Con Internet ocurre lo mismo. Lo importante no fue el uniforme, sino la bata.

La formulación más honesta sería esta: Internet nació de investigación pública financiada en parte por el ámbito militar, pero fue concebida, desarrollada y expandida por científicos civiles y universidades, y se convirtió en lo que es gracias a su apertura, no a su origen.

O, dicho de forma menos elegante pero más clara: Internet no es un invento militar. Es un invento civil que tuvo la suerte —y la rareza histórica— de que quien pagaba supo cuándo apartarse y dejarlo crecer.

Eso, visto con perspectiva, puede que sea el verdadero milagro tecnológico del siglo XX.

VIAJAR EN EL TIEMPO, SEGÚN EL RELOJ

 

«El pasado es obstinado». La frase aparece en 22/11/63, la extraordinaria novela de Stephen King en la que un hombre intenta corregir una fecha concreta —la del asesinato de Kennedy— y descubre que el tiempo no acepta correcciones sin presentar una factura detallada. Cada intento de ajuste provoca un desorden mayor que el anterior. El tiempo, viene a decir King, es como un gato. Hace lo que quiere y se ofende si lo tocas.

En cierto modo, el viaje en el tiempo sí existe. Basta con tomar un avión de Lisboa a Ankara o a Moscú para desplazarse tres horas en el reloj. No cambia tu edad, ni tu carácter, ni tu cuenta bancaria, pero confunde lo suficiente como para que durante unos minutos no sepas si tienes hambre, sueño o ambas cosas a la vez.

Durante la mayor parte de la historia humana, esta clase de confusión no existía. Nadie necesitaba saber qué hora era en otra ciudad. Bastaba con mirar al cielo y aceptar que el mediodía llegaba cuando el sol decidía ponerse en lo alto. Era un sistema primitivo, sí, pero tenía una gran ventaja: funcionaba.

Hasta el siglo XIX, cada ciudad vivía en su propio presente. La hora era local, subjetiva y bastante flexible. Si el reloj de la plaza decía una cosa y el sol otra, se le daba la razón al sol. Y si alguien llegaba tarde, siempre podía culpar a la sombra de la torre.

El problema apareció con el ferrocarril, una invención extraordinaria que, además de transportar personas y mercancías, introdujo un concepto inquietante: la puntualidad compartida. De repente, no bastaba con salir “más o menos” a una hora. Había que salir exactamente a la misma hora que figuraba en un papel impreso. Eso fue el principio del fin.

Durante un tiempo se intentó convivir con el caos. En Estados Unidos, por ejemplo, llegaron a coexistir más de trescientas horas locales distintas. Algunas estaciones tenían varios relojes, cada uno marcando la hora correcta para una línea distinta. Era como un museo del tiempo, pero con trenes. Los viajeros aprendieron a vivir con ello. Perdían trenes, discutían con revisores y llegaban tarde a destinos que aún no sabían exactamente en qué hora vivían.

Este método de cronometraje se vio cuestionado en 1853 cuando, en Nueva Inglaterra, dos trenes que se dirigían uno hacia el otro, en la misma vía, colisionaron. Podría haberse evitado si los conductores hubieran tenido la misma hora en sus relojes. El desastre provocó la muerte de catorce pasajeros y diecisiete heridos, lo que puso de relieve los peligros de no contar con una hora ferroviaria estandarizada. Pero estandarizar la hora en los ferrocarriles norteamericanos resultó ser mucho más difícil de lo previsto, por lo que la idea estuvo prácticamente paralizada drente más de veinte años.

En 1878, Sir Sandford Fleming, ingeniero ferroviario canadiense, tuvo una idea revolucionaria. Inspirado por un error en un horario de trenes, cuando una confusión entre AM y PM le hizo perder su tren, Fleming ideó la creación de un reloj de veinticuatro horas (hora militar). Tras esta propuesta, Fleming concibió la idea de implementar otras tantas zonas horarias en todo el mundo. Las zonas horarias, según Fleming, tendrían cada una quince grados de longitud de ancho; en pocas palabras, una hora de ancho. 

El cálculo que ahora parece pan comido es que la Tierra gira 360° en un día, lo que, dividido entre veinticuatro se obtienen 15° y, ¡por lo tanto, zonas horarias iguales! Aunque inicialmente se enfrentaron a cierta resistencia, en 1883, las compañías ferroviarias de Estados Unidos decidieron operar en cuatro zonas horarias, y poco después, el resto del mundo siguió su ejemplo.

En 1884, se celebró en Washington la Conferencia Internacional del Meridiano, una reunión en la que representantes de varios países discutieron algo aparentemente sencillo: dónde empieza el mundo. Ganó Greenwich. No porque fuera el mejor sitio, sino porque los británicos ya lo usaban y tenían barcos en todas partes. Francia votó en contra, y durante décadas siguió usando su propio meridiano en París, porque el orgullo nacional también tiene huso horario.

Así como el Ecuador divide la Tierra en los hemisferios norte y sur, el meridiano de Greenwich divide la Tierra en los hemisferios este y oeste. Básicamente:

La latitud 0º es el Ecuador y sus líneas corren horizontalmente.

La longitud 0º es el meridiano de Greenwich y sus líneas corren verticalmente.

El Meridiano de Greenwich es importante porque sirve como punto de referencia para los mecanismos de medición del tiempo del mundo tal como los conocemos. El GMT (Tiempo Medio de Greenwich) es la base del sistema de husos horarios estándar.

Aunque sobre el papel, los husos horarios son elegantes franjas verticales limpias, ordenadas, casi racionales, en la realidad son una pesadilla cartográfica. Se doblan, se estiran y hacen curvas imposibles para no molestar a países, provincias, islas, intereses económicos o señores muy serios con bigote que un día dijeron “aquí no”.

Y es que, si bien la idea de Fleming de crear veinticuatro husos horarios perfectamente uniformes era lógica y parecía tener un amplio apoyo en su momento, no se mantuvo plenamente vigente por mucho tiempo. Si bien técnicamente existen veinticuatro husos horarios estándar, hoy en día existen entre treintaiocho y cuarenta reconocidos en todo el mundo. Esta discrepancia se debe en gran medida a que los países no siguen diferencias horarias de una hora completa con respecto al GMT, como India y Nepal, que operan en GMT+5:30 y GMT+5:45 respectivamente.

En el caso de la India, y de manera similar en China, la decisión de mantener una única zona horaria nacional fue impulsada por el liderazgo político con la intención de unificar el país bajo una hora estándar. La zona horaria de la India tiene también raíces históricas en el dominio colonial británico.

España vive en el mismo huso que Alemania, pese a que el sol insiste en comportarse como si estuviéramos en el de Portugal. Aunque hay quien sostiene que Franco cambió nuestro huso para adaptarlo al de los alemanes, nadie recuerda bien por qué ocurrió, pero como cambiarlo implicaría reuniones, informes y opiniones, se ha decidido que lo mejor es seguir tal y como estamos.

Rusia, cansada de cambiar el reloj dos veces al año, decidió dejar de hacerlo. Turquía hizo lo mismo. Otros países lo estudian, lo debaten, lo votan, lo posponen y vuelven a estudiarlo. El resultado es que el mapa horario europeo parece diseñado por alguien que empezó con entusiasmo y terminó con sueño.

Mientras que, siguiendo la lógica de Fleming, los científicos que viven en la Antártida simplemente usan el GMT, el continente se dividiría en veinticuatro pequeñas zonas horarias. ¡Qué manera de pasar la Nochevieja, celebrando el Año Nuevo a cada hora, todo el día! ¡Eso sí que es una fiesta!

Y es que nada de esto tiene que ver con el tiempo real. Los relojes no miden el tiempo: miden decisiones humanas. Decisiones políticas, económicas y sociales que aceptamos porque la alternativa —que cada uno viva al sol que más le caliente— sería aún más caótica.

Por eso viajar en avión produce esa sensación infantil de haber ganado o perdido horas sin merecerlo. No has hecho nada heroico. No estás en el mundo imaginario de detrás del espejo. Simplemente has cruzado una línea imaginaria que alguien dibujó hace más de un siglo para que los trenes no colisionaran.

Como advertía Stephen King, el tiempo no acepta bien las correcciones. Cada ajuste genera pequeñas molestias: jet lag, reuniones a horas absurdas, informativos que no coinciden, videollamadas en las que alguien bosteza siempre. Nada grave, pero todo constante.

La pregunta inevitable es por qué seguimos tocando el reloj, por qué continuamos modificando la hora si nadie parece estar satisfecho. La respuesta es decepcionante: porque ya estamos demasiado metidos en el lío. El sistema funciona lo suficiente como para que cambiarlo resulte aún más complicado que soportarlo.

El tiempo moderno es una infraestructura invisible. Como el alcantarillado o el wifi, solo pensamos en él cuando falla. Y cuando falla, suele hacerlo de madrugada, un domingo, con el reloj del microondas parpadeando y la vaga sensación de que alguien nos ha robado una hora de vida sin pedir permiso.

No hemos inventado la máquina del tiempo. Pero hemos creado algo quizá más inquietante: un sistema global que permite desplazarse por el tiempo administrativo con solo cruzar una frontera.

Y eso, para una especie que durante milenios se conformó con mirar al cielo y decir “más o menos ahora”, es un logro notable. O una advertencia. Depende de la hora a la que lo leas.

sábado, 17 de enero de 2026

EL ORIGEN ESTADOUNIDENSE DEL CAOS IRANÍ

El golpe de Estado de 1953 en Irán no fue un episodio aislado, sino el inicio de una cadena de decisiones que todavía hoy condicionan la política iraní y la de la Casa Blanca de Donald Trump.

Foto de Amnistía Internacional

No hay duda de que el caos que Irán vive estas semanas hunde sus raíces en un golpe de Estado que acabó con la incipiente democracia surgida de las elecciones libres celebradas en 1951. Desde entonces, los iraníes viven atrapados en una inestabilidad política y en una crisis económica que sigue llenando las calles de manifestantes abatidos a disparos por las fuerzas de seguridad.

En 1950, sin que nadie pareciera advertirlo del todo, Washington tomó una decisión que cambiaría la política internacional para siempre. La Guerra Fría estaba en marcha y los servicios de inteligencia estadounidenses habían señalado un punto rojo en el mapa: Irán. No tanto por lo que era, sino por dónde estaba.

Irán tenía petróleo. Mucho. Pero, sobre todo, tenía vecinos. Al norte, la Unión Soviética. Al oeste, Turquía e Irak. Al sur, Arabia Saudí y el Golfo Pérsico. Al este, Afganistán y Pakistán. Desde Teherán se podía vigilar media región, se controlaba el estrecho de Ormuz, la gran arteria petrolera del mundo por donde pasan el 30% del comercio global de petróleo y el 20% de gas natural licuado que Irán lleva años amenazando con bloquear, y, llegado el caso, proyectar fuerza sobre Israel, Líbano, Jordania o Siria. En geopolítica, eso no es un país: es una tentación.

Esa condición de territorio codiciado no era nueva. Irán —la antigua Persia— llevaba siglos acostumbrado a sobrevivir entre imperios. Fue un Estado que ya estaba organizado en el siglo VI antes de nuestra era, cuando Ciro el Grande fundó el Imperio aqueménida. Desde entonces, con conquistas, invasiones y dominaciones parciales, la idea de un Estado persa nunca desapareció del todo.

Alejandro Magno pasó por allí en el siglo IV antes de nuestra era. Los árabes musulmanes llegaron en el siglo VII. Los mongoles gobernaron entre los siglos XIII y XIV. Nadie “liberó” Irán de los mongoles: simplemente se diluyeron, se iranizaron y dejaron paso a nuevas dinastías locales. En Persia, incluso los conquistadores acaban pareciendo de la casa.

La reconstrucción de un Estado iraní fuerte y reconocible llegó en 1501, cuando Ismail I fundó la dinastía safávida. Unificó el territorio, expulsó rivales e impuso el chiismo duodecimano como religión oficial. Fue una decisión política más que espiritual, pero funcionó: dotó al país de una identidad propia frente a sus vecinos suníes.

Cuatro siglos después, en diciembre de 1925, el Parlamento iraní depuso a la debilitada dinastía kayar y proclamó sha a Reza Shah Pahlavi. No fue una revolución popular, sino una operación desde arriba. Reza Khan, un oficial cosaco, había dado un golpe de Estado en 1921 y desde el cargo de primer ministro fue acumulando poder mientras el último sha quedaba reducido a mero comparsa.

Con Reza Shah comenzó la construcción del Irán moderno: centralización, secularización, infraestructuras, debilitamiento del clero y de las élites tribales. Todo ello bajo un régimen autoritario, pero con ambición nacional. En 1935, incluso cambió el nombre del país: Persia pasó a llamarse oficialmente Irán.

La soberanía duró poco. En 1941, en plena Segunda Guerra Mundial, británicos y soviéticos ocuparon el país, forzaron la abdicación de Reza Shah y sentaron en el trono a su hijo, Mohammad Reza Pahlavi. El mensaje era claro: Irán era un corredor estratégico, no un Estado soberano.

Ese contexto abrió un breve paréntesis de libertad. El Parlamento recuperó peso, los partidos proliferaron, la prensa respiró. Y de ahí emergió Mohammad Mossadegh: aristócrata, nacionalista, legalista hasta la obsesión y enormemente popular. En 1951 fue nombrado primer ministro tras unas elecciones parlamentarias que el sha no promovió, pero tampoco pudo frenar.

Mossadegh había prometido algo sencillo y explosivo: que el petróleo iraní beneficiara a los iraníes. Nacionalizó los activos petrolíferos y, con ello, encendió todas las alarmas en Londres y Washington. El Reino Unido protestó. Estados Unidos calculó.

El presidente Eisenhower descartó una invasión directa. Irán estaba demasiado cerca de la URSS y nadie quería provocar una guerra nuclear. Pero la CIA tenía otra idea. Se llamaba Kermit Roosevelt, era nieto del antiguo presidente Theodore Roosevelt, y llegó a Teherán con maletas llenas de dólares.

Con ese dinero contrató matones, financió disturbios, sobornó funcionarios, compró voluntades y fabricó la sensación de que Mossadegh era un líder incapaz y detestado. En 1953 fue derrocado. Pasó por la cárcel y terminó el resto de su vida bajo arresto domiciliario.

El premio fue para el sha. Washington le otorgó poder absoluto, lo coronó como Shahanshah —Rey de reyes— y lo convirtió en garante de los intereses occidentales. Las compañías petrolíferas regresaron. Los contratos se multiplicaron. Irán volvió a ser fiable.

La CIA aprendió entonces una lección decisiva: con unos pocos millones de dólares se podía hacer el trabajo que antes exigía ejércitos enteros. Sin invasión. Sin titulares. Sin dar la cara. Sin que la mayoría de los estadounidenses supiera que su país acababa de derrocar una democracia.

El modelo se repetiría después en Guatemala, Chile y varios países africanos. Irán fue el ensayo general. Kermit Roosevelt había inaugurado una nueva forma de imperio: discreta, barata y eficaz.

Durante los años sesenta y setenta, Irán se llenó de asesores estadounidenses. Convencieron al sha de invertir los petrodólares en proyectos diseñados, gestionados y ejecutados por grandes corporaciones extranjeras. General Electric, Boeing, IBM, Citibank. Americanizar el país era una cuestión de estilo y de contratos.

Mientras tanto, la dictadura se iba pudriendo. La represión crecía. El apoyo social se evaporaba. En 1978, las protestas estallaron. El ayatolá Jomeini regresó del exilio. El sha huyó, enfermo de cáncer. Estados Unidos y Reino Unido le negaron asilo. Murió en Egipto atesorando una fortuna intacta de unos 4 000 millones de dólares que había obtenido saqueando el Banco nacional.

Los nuevos gobernantes iraníes gritaron contra el imperialismo estadounidense. Tomaron la embajada de Estados Unidos en Teherán y retuvieron a 52 diplomáticos durante 444 días. Las empresas estadounidenses fueron expulsadas. Todavía no han vuelto.

La actual inestabilidad política de Irán y los miles de muertos causados por la represión es consecuencia de la intervención de Estados Unidos. Trump ha advertido públicamente que la Casa Blanca no descarta ataques a objetivos militares iraníes como parte de su respuesta. Una respuesta a un problema de inestabilidad política que hunde sus raíces en la intervención desestabilizadora estadounidense hace casi setenta y cinco años.

El eterno retorno de lo mismo.