Vistas de página en total

domingo, 1 de febrero de 2026

NITRITOS: VILLANOS MODERNOS CON UN PASADO HEROICO

El problema no es el nitrito: es morirse. Por qué un ingrediente sospechoso del envase está ahí por tu bien.

Durante años, el nitrito de sodio ha sido uno de esos ingredientes que habitan en la parte oscura del envase, junto a los códigos E y las palabras que nadie pronuncia en voz alta. Está ahí, pequeño, discreto, sospechoso. El tipo de sustancia que hace que alguien en el supermercado frunza el ceño, deje el paquete de salchichas en su sitio y murmure algo sobre “química” antes de irse a por hummus. Y, sin embargo, si el nitrito pudiera hablar, probablemente se defendería con una frase muy poco dramática: estoy aquí para que no te mueras.

Porque esa fue su misión original. No mejorar el color, ni uniformar sabores ni arruinar la cocina tradicional, sino impedir una de las intoxicaciones alimentarias más temidas que se conocen: el botulismo. Una enfermedad tan seria que no admite bromas, aunque lleguemos a ella a través de una humilde salchicha.

Los nitritos inhiben el crecimiento de Clostridium botulinum, la bacteria que produce la toxina botulínica, una sustancia tan potente que una milmillonésima de gramo puede ser letal. No hablamos de una simple indisposición digestiva, sino de parálisis muscular progresiva, dificultad respiratoria y, en ausencia de tratamiento, un riesgo real de muerte.

Lo inquietante es que Clostridium botulinum se siente como en casa en muchos alimentos que, hasta hace relativamente poco, comíamos con absoluta normalidad: carnes cocidas, húmedas, poco ácidas y conservadas sin aire. Es decir, justo el tipo de productos que hoy llenan las vitrinas refrigeradas: jamón de york, lacón cocido, salchichas, mortadela o carnes mechadas envasadas al vacío. No es casualidad que “botulismo” venga del latín botulus, salchicha. El nombre ya era una advertencia, y bastante clara.

El uso de los nitritos no nació, sin embargo, de una brillante comprensión microbiológica. El camino fue largo, empírico y bastante accidental, y comienza con uno de los métodos de conservación más antiguos conocidos por la humanidad: la salazón. La sal común no envenena a las bacterias; las deshidrata. Sin agua, las células microbianas colapsan. Pero los antiguos observaron algo curioso: cuando la sal procedía de regiones áridas, la carne no solo duraba más, sino que adquiría un atractivo tono rosado.

Aquella “sal” no era exactamente cloruro de sodio. Los griegos la llamaron nitrón; en la Edad Media se conoció como salitre. Aparecía como costras blancas en rocas, sótanos o establos, y parecía brotar de la piedra misma. En realidad, era el resultado de un proceso biológico poco glamuroso: bacterias que transformaban los desechos orgánicos, como orina y estiércol, en nitratos cristalinos.

El salitre se volvió un bien estratégico cuando, en el siglo IX, alquimistas chinos descubrieron accidentalmente la pólvora mientras buscaban una pócima de la inmortalidad. Europa tardó poco en comprender que aquella mezcla de azufre, carbón y nitrato servía mejor para matarse que para vivir para siempre. Durante siglos, el nitrato fue sinónimo de guerra, cañones y ejércitos, pero también acabó salvando vidas por una vía mucho más doméstica: la carnicería.

A comienzos del siglo XIX, el médico alemán Justinus Kerner describió centenares de casos de parálisis, visión borrosa y muerte asociados al consumo de salchichas. Sospechó de una toxina, aunque no pudo identificarla. Fue en 1895 cuando el bacteriólogo belga Émile van Ermengem aisló por fin a la culpable y bautizó la enfermedad como botulismo, de nuevo en honor a la salchicha.

No todas las salchichas provocaban la enfermedad. Las elaboradas con salitre raramente causaban botulismo, lo que intrigó a carniceros y médicos por igual. El misterio se resolvió en la década de 1920, cuando Karl Friedrich Meyer demostró que no era el nitrato del salitre el responsable, sino el nitrito en el que este se transformaba dentro de la carne. La solución fue directa y muy poco romántica: añadir nitrito de forma controlada. Desde entonces, el riesgo de botulismo en carnes procesadas cayó en picado.

De paso, el nitrito explicó otro pequeño milagro: el color rosado. Parte del nitrito se convierte en óxido nítrico, que se une a la mioglobina de la carne formando un compuesto estable y visualmente apetecible. Sin él, muchas salchichas serían de un gris hospitalario poco compatible con el placer gastronómico cotidiano.

¿Significa todo esto que todas las carnes procesadas llevan nitrito? No. Aparece sobre todo en productos cocidos, húmedos y envasados sin oxígeno: salchichas tipo Frankfurt, mortadela, bacon, jamón cocido, pavo loncheado o carnes listas para consumir. En ellos, el riesgo teórico de botulismo existe y el nitrito actúa como una barrera de seguridad clave dentro de un sistema más amplio.

Otros productos tradicionales no lo necesitan. El jamón serrano, la cecina o muchos embutidos artesanos se conservan gracias a la sal, el tiempo y la deshidratación. Reducen tanto el agua disponible que Clostridium botulinum no puede prosperar. Aquí la seguridad no depende de un solo truco químico, sino de un equilibrio lento y acumulativo de factores.

En los últimos años han proliferado los productos “sin nitritos añadidos”. Conviene leer con atención la letra pequeña: muchos utilizan extractos vegetales ricos en nitratos que, durante el procesado, se transforman en nitritos. El compuesto no desaparece; simplemente llega con una narrativa más verde y tranquilizadora.

En la década de 1950, se identificaron en el laboratorio unos compuestos llamados nitrosaminas como carcinógenos. Esto impulsó la búsqueda de su presencia en los alimentos, gracias a los avances en química analítica que permitieron la detección de sustancias presentes en cantidades muy pequeñas. Efectivamente, se encontraron nitrosaminas en carnes curadas con nitratos o nitritos. La carne contiene aminas naturales que pueden reaccionar con los nitritos durante el procesamiento para formar nitrosaminas. Esta reacción no solo puede ocurrir durante el procesamiento, sino también en las condiciones ácidas del estómago.

Los investigadores se pusieron manos a la obra para ver cómo se puede reducir la exposición a las nitrosaminas. Se disminuyeron las temperaturas de cocción, se redujeron los niveles de nitritos al mínimo necesario y se exigió el uso de ascorbato de sodio o eritorbato de sodio como aditivos al comprobarse que reducían la formación de nitrosaminas. Estas intervenciones han reducido drásticamente el riesgo de formación de nitrosaminas, pero no lo han eliminado.

¿Son peligrosos los nitritos? En las cantidades reguladas, no especialmente. El consenso científico señala más bien al consumo frecuente de carnes procesadas en general. No pasa nada por comer embutidos de vez en cuando; el problema es convertirlos en la base de la dieta durante años.

Resulta casi irónico que un compuesto introducido para evitar muertes sea hoy objeto de sospecha. El botulismo no ha desaparecido: sigue apareciendo, sobre todo, en conservas caseras mal elaboradas, donde no hay nitritos ni controles. Así que no, el problema nunca fue el nitrito. El problema era morirse. Y el resto, como tantas veces en alimentación, es cuestión de contexto, de memoria histórica y de cuántas salchichas decidimos comer.

viernes, 30 de enero de 2026

LOS CABALLEROS DEL CÍRCULO DORADO Y LA OBSESIÓN IMPERIALISTA DE ESTADOS UNIDOS POR CUBA

 Cuando la obsesión imperialista de Estados Unidos por Cuba tomó forma de hermandad secreta.


El pasado 29 de enero, el presidente de Estados Unidos, Donald Trump, declaró una “emergencia nacional” respecto a Cuba y firmó una orden ejecutiva que permitirá imponer aranceles a bienes de países que suministren petróleo a la isla. Trump argumenta que las políticas del gobierno cubano representan una amenaza para la seguridad nacional estadounidense y promete castigar a terceros países que ayuden a La Habana con crudo.

Cuando se piensa en las grandes historias de ambición imperial del siglo XIX, no suele aparecer en los libros de texto un grupo misterioso, exuberante y profundamente polémico: los Caballeros del Círculo Dorado. Sin embargo, su historia —entre la conspiración, la aventura y la política racial— es una de las claves olvidadas para entender cómo parte de la élite estadounidense concebía a Cuba no como un vecino, sino como una pieza predestinada del destino expansionista.

Hacia mediados de la década de 1850, en una América inquieta por la expansión territorial y atormentada por el creciente conflicto entre estados esclavistas y libres, surgió un grupo que combinaba la retórica secreta de una sociedad fraternal con la ambición política de un movimiento expansionista: los Caballeros del Círculo Dorado. Esta hermandad —reflejo de una órbita intelectual y política que reivindicaba el supremacismo sureño— imaginó un “círculo dorado” que se extendía desde el Golfo de México hasta el corazón del Caribe, incluyendo México, Centroamérica y, de manera especial, una Cuba libre de España, pero alineada con la Unión estadounidense esclavista.

Para sus miembros, Cuba no era simplemente un territorio para conquistar; era la pieza que podría inclinar la balanza del poder en Washington, garantizando una hegemonía sureña y esclavista que resistiera las presiones abolicionistas del Norte.

El imaginario de los Caballeros del Círculo Dorado estaba lejos de ser una simple fantasía. Su estructura se inspiraba en sociedades secretas como los masones, con grados de iniciación y rituales, pero con una agenda explícitamente política: crear un imperio regional sometido a los intereses de los estados esclavistas del Sur.

Cuba, con sus fértiles tierras azucareras, su posición estratégica en el Caribe y su cercanía a las costas de Florida se convirtió en el gran objeto de deseo. Sus planes no eran discretos: contemplaban la invasión, “liberación” de España y posterior incorporación a los Estados Unidos como uno o varios estados esclavistas. Lo que para algunos historiadores parecía un fantasioso sueño conspirativo, para muchos sureños fue —en aquel momento— una idea plausible, incluso una ambición deseable. Y aunque no contaban con apoyo oficial del gobierno, sí influenciaron el discurso expansionista y la idea de que Cuba estaba destinada a caer bajo la sombra estadounidense.

Color verde oscuro: nuevos territorios que los miembros del Círculo Dorado planeaban incorporar a Estados Unidos.

Aunque pintorescos en su organización interna, es importante distinguir entre actos simbólicos y maniobras con consecuencias reales. Los Caballeros del Círculo Dorado no lanzaron invasiones de gran escala por su cuenta. Pero sí fueron un caldo de cultivo para filibusteros y aventureros que organizaron expediciones armadas hacia Cuba, como las de Narciso López. Estas acciones, aunque no tuvieron éxito, ocuparon espacios políticos y mediáticos en Estados Unidos y alimentaron la percepción de que Cuba era “objetivo legítimo” de una expansión.

Más aún, la existencia de grupos como este contribuyó a un clima político en el que anexionar territorios ultramarinos se debatía abiertamente, y donde la retórica racista y imperialista se fusionaba con la política pública. Los Caballeros del Círculo Dorado alcanzaron su punto máximo justo antes del estallido de la Guerra Civil estadounidense. La lucha entre Norte y Sur redirigió la atención política y militar hacia cuestiones internas, haciendo que las ambiciones caribeñas quedaran en un segundo plano. Tras la derrota confederada, el grupo se desintegró y sus planes quedaron como una anécdota oscura en la historia expansionista del país.

Hoy, con la política estadounidense de nuevo bajo los focos por sus recientes medidas contra Cuba —incluyendo aranceles a países que suministran petróleo a la isla y la declaración de emergencia nacional por parte de Donald Trump—, recordar a los Caballeros del Círculo Dorado es más que una curiosidad histórica. Es entender que la relación entre EE. UU. y Cuba ha estado marcada por la ambición, la injerencia y la creencia persistente de que la isla debía integrarse en la órbita estadounidense, ya fuera por la fuerza, la diplomacia o el poder económico.

La historia de este grupo revela que las raíces del anexionismo no fueron solo oficiales, sino también culturales y colectivas, arraigadas en imaginarios políticos que perduraron más allá de su tiempo.

EL FASCISMO COMO PROCESO Y LA POLÍTICA ESTADOUNIDENSE ACTUAL

 

El auge del autoritarismo no es patrimonio de los márgenes del sistema democrático ni de países supuestamente “atrasados”. A la luz del análisis del historiador Robert O. Paxton, Estados Unidos muestra síntomas reconocibles de degradación democrática. No como ruptura súbita, sino como proceso. Y eso debería preocuparnos a todos.

En su ensayo Anatomía del fascismo (Capitán Swing), Paxton, historiador estadounidense especializado en el fascismo europeo del siglo XX, decidió desmontar ese ruido con un análisis que se ha vuelto canónico. Su propuesta era dejar de preguntar quién es fascista y empezar a observar qué comportamientos lo son. Ni ideologías cerradas, ni símbolos, ni estéticas reconocibles. Lo que importa son las prácticas. Aplicar ese marco a los Estados Unidos actuales no conduce a una etiqueta definitiva, pero sí a un diagnóstico inquietante.

Paxton parte de una intuición simple: el fascismo no cae de repente desde el cielo. Avanza por etapas y se adapta al terreno. No irrumpe con tanques; entra con discursos de decadencia. En Estados Unidos, ese discurso lleva tiempo instalado. «Nos han robado el país», «ya no somos respetados», «antes éramos grandes». El lema trumpista Make America Great Again no es un programa económico: es una emocionalidad política. Sugiere una pérdida, una humillación y una promesa de restitución. Para Paxton, ese es el primer ingrediente.

La obsesión con el declive no necesita datos; necesita sensaciones. Estados Unidos sigue siendo la mayor potencia del planeta, pero una parte considerable de sus ciudadanos se siente derrotada. No por el PIB, sino por la cultura. Por la demografía. Por el lenguaje. Cuando la política se convierte en terapia del agravio, el terreno queda abonado.

El siguiente paso, según Paxton, es la identificación del enemigo interno. El fascismo no prospera sin culpables cercanos. En Estados Unidos, el repertorio es amplio y móvil: inmigrantes, periodistas, jueces, burócratas, universidades, minorías, feministas. El enemigo cambia, pero la estructura permanece. La política deja de ser una discusión sobre intereses para convertirse en una batalla moral. El adversario ya no se equivoca: traiciona. No gobierna mal: conspira.

Ese desplazamiento tiene efectos prácticos. Deshumaniza. Simplifica. Permite justificar lo injustificable. Paxton subraya que el fascismo necesita un “nosotros” imaginado, puro y homogéneo, frente a un “ellos” contaminante. No importa que ese “nosotros” sea una ficción: importa que se sienta real.

Llega entonces el momento clave: la relación con la democracia. El fascismo, escribe Paxton, no desprecia la democracia en abstracto. La usa mientras sirve y la desacredita cuando estorba. En Estados Unidos, la erosión de la confianza electoral no es un accidente retórico; es una estrategia. Si solo una victoria propia es legítima, la derrota se convierte en fraude por definición. La ley pasa a ser un obstáculo, no un marco compartido.

Leído con las herramientas de Paxton —no con el dramatismo de la consigna—, el asalto del Capitolio el 6 de enero de 2021 deja de ser una anomalía grotesca y pasa a encajar como un síntoma. No hubo golpe militar ni plan elaborado; hubo una movilización emocional contra una legalidad percibida como ilegítima. El fascismo, advierte Paxton, suele avanzar por vías legales hasta que decide que la ley sobra. Ese umbral no se cruza de golpe; se desgasta.

Otro elemento central es la normalización de la violencia. El fascismo no necesita violencia constante; le basta con justificarla. Minimizarla. Presentarla como reacción comprensible. Cuando la violencia “de los nuestros” se relativiza y la del adversario se exagera, el listón moral se desplaza. En Estados Unidos, la retórica armada, la indulgencia con las milicias que asaltaron el Capitolio y la normalización de prácticas estatales de violencia extrajudicial presentadas como defensa del orden encajan con lo que Paxton llamaba violencia redentora: no criminal, sino purificadora. Al comportamiento de los paramilitares trumpistas del ICE me remito.

Pero el punto más inquietante del análisis de Paxton no está en las masas, sino en las élites. El fascismo no llega solo. Necesita la colaboración, la resignación o el cálculo de quienes creen poder domesticarlo. Empresarios que priorizan beneficios. Políticos que miran a otro lado. Medios que amplifican por interés o miedo. Paxton fue tajante: el fascismo avanza cuando las élites creen que pueden usarlo como herramienta. Nunca lo consiguen.

En Estados Unidos, esa connivencia no es total ni homogénea, pero existe. Sectores del Partido Republicano toleran comportamientos que antes habrían sido inaceptables. Se justifica lo injustificable por disciplina, cálculo o temor al votante. Es una alianza incómoda, exactamente como la describía Paxton. Para la izquierda, esta lección es especialmente incómoda: el autoritarismo no siempre llega desde fuera del sistema, sino a menudo con la complicidad de quienes creen poder administrarlo.

¿Significa todo esto que Estados Unidos es un régimen fascista? Según sus etapas, el país muestra rasgos claros de las primeras fases: creación de un movimiento de masas, relato de declive, deslegitimación del adversario, desgaste de las reglas y coqueteo con la violencia. El acceso pleno al poder y la radicalización final no son inevitables, pero tampoco imposibles.

Aquí conviene introducir un matiz decisivo. Estados Unidos no es la Italia de Mussolini ni la Alemania de Weimar. Tiene instituciones robustas, federalismo, tribunales, prensa plural y una sociedad civil resistente. Pero Paxton insistía en que el fascismo se adapta al terreno. No copia modelos; los reescribe. En Estados Unidos no necesita abolir la Constitución; puede vaciarla. No necesita cerrar periódicos; puede desacreditarlos. No necesita un partido único; le basta con colonizar uno.

La gran aportación de Paxton es obligarnos a abandonar la comodidad del «eso aquí no puede pasar». El fascismo, escribió, no llega prometiendo dictaduras, sino restauraciones. No se presenta como ruptura, sino como salvación. Cuando una democracia empieza a aceptar que el poder debe imponerse a la ley para “salvar” a la nación, el problema ya no es semántico.

Paxton insistía en algo aún más inquietante: las democracias no suelen morir por exceso de enemigos, sino por exceso de excusas. Excusas para ignorar normas, para relativizar abusos, para aceptar que “esta vez” el fin justifica los medios. El fascismo no entra cuando la democracia es derrotada, sino cuando empieza a explicarse por qué ya no puede permitirse ser democrática del todo.

Estados Unidos sigue siendo una democracia. Pero, a la luz de Paxton, es una democracia bajo estrés. El espejo no devuelve una imagen definitiva, sino una pregunta. Y las preguntas, en política, suelen ser más peligrosas que las respuestas.

Por lo demás, conviene recordar que el fascismo no llega hasta nosotros como una brisa suave, sino más bien como un vendaval, porque como señala Hervé Le Tellier en su nueva novela ensayística, El nombre en el muro (Seix Barral), apenas nueve semanas separaron el ascenso a la Cancillería de Hitler de las primeras medidas antisemitas. Los fascismos avanzan más rápido que cualquier democracia.

domingo, 25 de enero de 2026

ANDROCYMBIUM: LA COPITA MASCULINA DE LOS BOTÁNICOS

 

Los nombres científicos, cuando están bien escogidos, funcionan como pequeñas cápsulas de conocimiento. Androcymbium es uno de esos casos en los que la etimología no es un adorno, sino una descripción casi anatómica disfrazada de griego clásico.

El término procede de dos raíces griegas: andros, “hombre” o “varón”, y kymbíon, “copita”, “vaso pequeño”, algo cóncavo que contiene. El resultado —literalmente, la copita del macho— alude a la disposición de los órganos reproductores masculinos, los estambres, alojados dentro de una estructura floral que recuerda a un pequeño cuenco protector. Es una imagen precisa y muy propia de la botánica ilustrada del siglo XVIII, cuando el latín y el griego se usaban como herramientas conceptuales.

Desde el punto de vista botánico, Androcymbium es un género de plantas geófitas, es decir, de plantas que pasan buena parte de su vida escondidas bajo tierra gracias a órganos de reserva como bulbos o tubérculos. Esa estrategia les permite sobrevivir a veranos abrasadores o inviernos secos y reaparecer cuando las condiciones son favorables.

Las plantas del género suelen ser bajas, compactas y pegadas al suelo. Sus hojas, generalmente basales, forman una roseta que abraza el sustrato. Las flores, a menudo solitarias, no se elevan sobre largos tallos: emergen casi a ras de tierra, como si no quisieran llamar demasiado la atención. Y, sin embargo, al mirarlas de cerca, revelan una arquitectura floral compleja, con tépalos (pétalos y sépalos indistinguibles) que envuelven con cuidado el aparato reproductor.

Androcymbium pertenece a la familia Colchicaceae, un grupo de plantas que combina elegancia floral con una bioquímica nada inocente. Muchas especies de esta familia producen alcaloides tóxicos, el más famoso de los cuales es la colchicina, una sustancia que interfiere con la división celular y ha sido tanto veneno como medicamento.

El género se distribuye principalmente por el sur de África y la cuenca mediterránea, dos regiones separadas pero unidas por climas estacionales y suelos donde sobrevivir bajo tierra es una ventaja evolutiva clara.

Androcymbium europaeum es una rareza ibérica. Es la única especie europea del género y, por tanto, una rareza botánica que sobrevive en algunos enclaves del litoral mediterráneo occidental, incluidos puntos muy concretos del sureste de la península ibérica.

Es una planta discreta hasta la invisibilidad. Florece en invierno o a comienzos de la primavera, cuando el paisaje aún parece dormido. Sus flores, blanquecinas o ligeramente verdosas, se abren casi a ras de suelo, protegidas del viento y del frío, como si la planta desconfiara del mundo exterior. No busca polinizadores vistosos ni exhibiciones llamativas: apuesta por la eficiencia y el bajo perfil.

Su presencia suele pasar desapercibida, pero es un indicador de hábitats bien conservados, asociados a suelos arenosos o pedregosos poco alterados. Precisamente por eso, A. europaeum ha sufrido el retroceso de los espacios costeros naturales y hoy se considera una especie de interés para la conservación.

En el fondo, su nombre le viene como anillo al dedo: una pequeña “copita” botánica, modesta y cerrada sobre sí misma, que guarda en silencio una larga historia evolutiva y lingüística. Una planta que no grita, pero que, si uno se agacha lo suficiente, tiene mucho que contar.

jueves, 22 de enero de 2026

CÓMO GROENLANDIA ACABÓ SIENDO DANESA (Y POR QUÉ TRUMP NO ENTENDIÓ NADA)

 

Ricard Ferrandiz: El capitán Trueno y Sigrid se casan.

Groenlandia me ha llamado desde que era niño y leía los tebeos del Capitán Trueno. Me fascinaba la bella y elegante Sigrid, la amada del Capitán, que no era una princesa ornamental sino reina de Thule, un reino del norte remoto y helado donde los hombres hablaban poco, cumplían su palabra y no parecían especialmente interesados en conquistar el mundo. Como suele ocurrir con los mitos infantiles bien asentados, un día quise saber más. Así que recurrí a la enciclopedia Espasa, ese Google en papel que exigía bíceps y paciencia, y busqué Thule. Descubrí entonces que no era solo un escenario de tebeo, sino también un lugar real o casi real: el asentamiento más septentrional del mundo conocido, situado al norte de Groenlandia, allí donde los mapas empiezan a pedir disculpas.

Mi imaginación quedó atrapada para siempre en ese punto del planeta. Y más aún cuando tropecé con la historia de Erik el Rojo, el vikingo que tuvo la brillante idea de llamar Greenland (Tierra Verde) a uno de los mayores pedazos de hielo del hemisferio norte. Lo hizo para atraer colonos y funcionó. Aquello me pareció prodigioso: cambiar la realidad con una palabra. Años después comprendí que esa habilidad —rebautizar el mundo para hacerlo más vendible— no se perdió con los vikingos, sino que ha tenido una larga y próspera descendencia.

Por eso, cuando Donald Trump afirmó en televisión que el hecho de que un barco danés llegara a Groenlandia hace quinientos años no da derecho a poseer la isla, sentí una mezcla de déjà vu y alarma histórica. La frase tiene esa cualidad tan suya de sonar razonable durante tres segundos y luego desplomarse como una silla plegable mal abierta. Porque, con el mismo argumento, cabría preguntarse qué derecho tienen los anglosajones a poseer Estados Unidos, si llegaron a las costas de Nueva Inglaterra hace prácticamente el mismo tiempo, armados de Biblias, escopetas y una extraordinaria fe en que Dios siempre estaba de su lado… inmobiliario.

El problema de ese razonamiento es que no desmonta solo a Dinamarca: haría saltar por los aires medio planeta. América entera, Australia, buena parte de África y Asia quedarían en suspenso jurídico, como si la historia internacional funcionara con tiques de aparcamiento que caducan a los cinco siglos. Pero Trump no hablaba de coherencia histórica; hablaba de propiedad, una palabra muy peligrosa cuando se aplica a territorios, pueblos y milenios.

Para empezar, conviene corregir el dato. Los primeros europeos que llegaron a Groenlandia no eran daneses. Eran noruegos, y llegaron hacia el año 985 empujados por el destierro, la violencia interpersonal y una notable resistencia al frío. Erik el Rojo, nacido en Noruega, fue expulsado primero de su país y luego de Islandia, antes de decidir que siempre quedaba un oeste más lejano al que huir.

Los asentamientos que fundó en Groenlandia fueron colonias noruegas: dependían políticamente del rey de Noruega, pagaban diezmos a la Iglesia noruega y mantenían lazos constantes con Islandia. Dinamarca no pintaba absolutamente nada en ese momento. Groenlandia formaba parte del mundo atlántico noruego, ese arco de islas y costas donde los vikingos sobrevivían más por tozudez que por comodidad.

Otros tipos fascinantes los vikingos, unos tipos fortachones a los que no importaba lucir una hermosa cornamenta. Parte del malentendido moderno procede de imaginar a los vikingos como una franquicia homogénea del tipo Starbucks: todos iguales, todos daneses, todos astados como mihuras, todos con el mismo mapa mental. En realidad, hubo tres grandes áreas vikingas, con rutas y destinos bien distintos.

Los vikingos noruegos miraron al Atlántico: Irlanda, Escocia, Islandia, Groenlandia y, finalmente, América del Norte. Colonizaron islas y costas donde el viento no perdonaba. Los vikingos daneses miraron al sur y al oeste: Inglaterra, Francia, el mar del Norte. Gobernaron, cobraron impuestos y dejaron una huella política duradera. Los vikingos suecos, los varegos, miraron al este: ríos interminables, comercio con Bizancio y el mundo islámico.

Groenlandia pertenece sin discusión al mundo noruego, no al danés. Así que el famoso “barco danés” de Trump no solo llega tarde: llega al sitio equivocado.

Los colonos nórdicos sobrevivieron en Groenlandia durante varios siglos. Luego, desaparecieron. Probablemente por una combinación letal de enfriamiento climático, aislamiento, falta de recursos y mala suerte. Europa miró hacia otro lado y Groenlandia quedó, durante generaciones, como un territorio inuit, habitado por los antepasados de los actuales Kalaallit, expertos en hielo, caza marina y supervivencia extrema.

Y aquí es donde Groenlandia empieza a estropear los discursos coloniales clásicos. No hubo una conquista continua ni una expansión imparable. Hubo llegada, retirada y olvido. Algo muy poco compatible con las narrativas épicas. Dinamarca entró en escena no por exploración heroica, sino por herencia política. En 1380, Noruega y Dinamarca quedaron unidas bajo un mismo monarca. Más tarde se sumó Suecia en la Unión de Kalmar, uno de esos inventos políticos medievales que sobre el papel parecían una gran idea y en la práctica funcionaron como una mesa coja: se mantenía en pie, pero nadie se atrevía a apoyar demasiado peso.

La arquitecta de la Unión fue Margarita I, reina de Dinamarca y una de las figuras políticas más impresionantes de la Europa medieval. Su objetivo era simple y muy sensato: frenar el poder de la Liga Hanseática y de los principados alemanes, que se estaban quedando con el comercio del Báltico como quien se queda con las mejores mesas del restaurante. Unir Escandinavia significaba controlar rutas comerciales, recursos y defensa común, al menos en teoría.

Así que, entre 1397 y 1523, Dinamarca, Noruega y Suecia estuvieron reunidas bajo un mismo monarca. No era un Estado unificado, sino tres reinos distintos con un solo rey. Cada uno conservaba sus leyes, su nobleza y sus problemas, lo cual garantizaba que los problemas se multiplicaran. Groenlandia, como colonia noruega, quedó incluida automáticamente en esa Unión.

En 1523, Gustavo Vasa lideró la ruptura definitiva. Suecia se separó, creó su propio Estado moderno y dejó a Dinamarca y Noruega unidas un par de siglos más. La Unión se disolvió, pero sus efectos duraron siglos: explica rivalidades, guerras posteriores y, sobre todo, por qué Dinamarca heredó territorios noruegos como Groenlandia, Islandia y las Feroe.

Cuando en 1814 Dinamarca perdió Noruega tras las guerras napoleónicas, conservó Groenlandia, Islandia y las Feroe. No por capricho, sino por tratados internacionales. A partir de entonces, Groenlandia fue danesa por continuidad legal, no por desembarco reciente ni por entusiasmo imperial.

Durante los siglos XVIII y XIX, Dinamarca recolonizó Groenlandia de forma lenta, administrativa y relativamente silenciosa. Fue colonia, luego provincia, y finalmente territorio autónomo. Hoy, Groenlandia gobierna casi todos sus asuntos internos y mantiene un debate abierto sobre su independencia futura.

No es un botín olvidado esperando comprador. Es una sociedad viva, con lengua propia, instituciones propias y memoria histórica. Algo que no encaja bien en el pensamiento inmobiliario aplicado a la geopolítica.

Cuando Trump reduce Groenlandia a “un barco danés hace quinientos años”, no solo yerra el dato —ni era danés, ni hace quinientos años—, sino que convierte mil años de historia en una caricatura televisiva. Es la misma lógica que permitiría cuestionar cualquier frontera que no haya sido dibujada esta misma mañana con rotulador permanente.

La ironía final es que Estados Unidos, el país desde el que se pronuncian estas frases, es uno de los ejemplos más claros de continuidad colonial: llegada europea, desplazamiento indígena, construcción estatal y legitimación posterior. No es una acusación moral; es un hecho histórico. Y precisamente por eso resulta tan llamativo que el argumento se use contra Groenlandia, un territorio donde el proceso fue más torpe, más discontinuo y, en algunos aspectos, menos brutal.

Como Thule en los tebeos del Capitán Trueno, Groenlandia sigue estando en el borde del mapa mental de muchos. Pero convendría recordar que, en ese borde, la historia no se deja resumir sin pelear. Y que, a veces, el hielo conserva mejor la memoria que la televisión.

domingo, 18 de enero de 2026

NO, INTERNET NO NACIÓ EN UN CUARTEL

 

Durante años se ha repetido una frase que suena tranquilizadora, casi reconfortante: tenemos Internet gracias a la investigación militar. Es una frase ordenada, jerárquica, con un aroma a despacho bien iluminado y decisiones firmes adoptadas entre estrellas y galones. Sugiere que alguien, en algún momento, supo exactamente lo que estaba haciendo y que el resultado es este caos organizado que usamos a diario para trabajar, discutir y ver vídeos de gatos.

El problema es que no es verdad. O, para ser más precisos, no es exactamente verdad. Internet no es un invento militar, aunque durante un tiempo fuera pagado por militares. Y esa diferencia, que parece menor, lo explica casi todo.

La historia suele empezar en ARPANET, una red creada a finales de los años sesenta por una agencia del Departamento de Defensa de Estados Unidos llamada ARPA, luego DARPA. A partir de ahí, el relato se simplifica peligrosamente: Defensa financia una red, por tanto, la red es militar. Pero esa lógica es como decir que las autopistas son inventos bélicos porque el Estado las paga. La financiación explica el contexto; no define el propósito.

ARPANET no se diseñó para dirigir guerras ni para resistir ataques nucleares, pese a lo mucho que se repite esa idea. De hecho, nadie en el proyecto estaba especialmente preocupado por las bombas atómicas. El problema que intentaban resolver era mucho más pedestre: los ordenadores eran enormes, carísimos y estaban infrautilizados. Las universidades y centros de investigación tenían máquinas potentes que solo podían usar unos pocos investigadores locales. La idea de conectarlas para compartir recursos parecía sensata, casi doméstica. Nada heroico. Nada estratégico. Simplemente práctico.

Mapa lógico de la ARPANET tal como existía en abril de 1971. Ilustra la estructura de la red, mostrando los nodos interconectados y los ordenadores anfitriones conectados a ellos. La red estaba compuesta por 15 Procesadores de Mensajes de Interfaz (IMP). Entre las instituciones clave conectadas se encontraban La Universidad de California Los Ángeles (UCLA), la Universidad de Stanford en California, el Instituto Tecnológico de Massachussets (MIT), la Universidad de Harvard y la RAND Corporation, un grupo estadounidense creado originalmente para asesorar a las Fuerzas Aéreas tras la Segunda Guerra Mundial. Varios ordenadores estaban conectados a los IMP, como el PDP-10, el IBM 1800 y el ILLIAC IV. El mapa muestra la etapa inicial de la red que más tarde se convertiría en la base del internet moderno. Fuente.

Quienes construyeron ARPANET no fueron generales ni estrategas, sino ingenieros, matemáticos e informáticos civiles, muchos de ellos universitarios con barba, gafas gruesas y una paciencia infinita para discutir protocolos. Los militares ponían el dinero, sí, pero no diseñaban la red ni dictaban su funcionamiento. De hecho, uno de los grandes aciertos del proyecto fue que los responsables políticos no entendían del todo qué se estaba haciendo. Eso permitió algo rarísimo en la administración pública: que los técnicos trabajaran con bastante libertad.

El correo electrónico, por ejemplo, no fue una orden ni una necesidad militar. Surgió porque era útil. Alguien escribió un programa para mandar mensajes entre ordenadores y, de repente, la red empezó a usarse más para comunicarse que para compartir capacidad de cálculo. Nadie lo había previsto. Nadie lo había autorizado formalmente. Simplemente funcionaba.

Lo mismo ocurrió con la arquitectura descentralizada de la red. No fue una genialidad estratégica pensada para sobrevivir a una guerra nuclear, sino una solución elegante a un problema técnico: qué hacer cuando un nodo falla. La respuesta fue repartir la inteligencia de la red y evitar puntos únicos de colapso. Una decisión técnica que luego adquirió un aura casi filosófica.

Hasta aquí, todo podría haber quedado en una curiosidad académica bien financiada. De hecho, si ARPANET hubiera sido un proyecto militar al uso, eso es exactamente lo que habría pasado. Habría sido cerrada, clasificada, limitada a unos pocos usuarios autorizados. No habría salido jamás de Estados Unidos y probablemente nadie fuera del Pentágono habría oído hablar de ella.

Pero ocurrió algo poco habitual. Los protocolos que hacían funcionar la red se hicieron públicos. Cuando en los años setenta y ochenta se desarrollaron TCP/IP, nadie los patentó, nadie los convirtió en un estándar propietario y nadie exigió licencias. Cualquiera podía usarlos. Cualquiera podía implementarlos. Cualquiera podía mejorarlos. Fue una decisión técnica que tuvo consecuencias políticas enormes.

Aquí aparece la pregunta clave: ¿por qué Estados Unidos permitió eso? ¿Por qué soltó el control? La respuesta corta es que no lo hizo por altruismo, sino por una combinación de pragmatismo, confianza institucional y un contexto histórico muy específico.

En primer lugar, porque el objetivo original ya estaba cumplido. ARPANET había servido para conectar centros de investigación y demostrar que el sistema funcionaba. Desde el punto de vista militar, el interés era limitado. No era un arma, no daba ventaja inmediata y no encajaba bien en la lógica de secreto que rige el mundo de la defensa.

En segundo lugar, porque el sistema académico estadounidense era —y sigue siendo— extraordinariamente influyente. Las universidades tenían peso, prestigio y capacidad de presión. Internet creció en un ecosistema donde compartir conocimiento era un valor central. Convertir la red en un coto cerrado habría sido ir contra la cultura que la había hecho posible.

En tercer lugar, porque Estados Unidos confiaba en su ventaja estructural. Liberar los protocolos no se percibía como una amenaza, sino como una oportunidad. Si el mundo iba a conectarse, mejor que lo hiciera usando estándares diseñados en universidades estadounidenses, con empresas estadounidenses listas para aprovecharlos. Y eso fue exactamente lo que ocurrió.

A finales de los años ochenta, el interés militar en la red se había evaporado casi por completo. ARPANET se apagó en 1990 sin ceremonias. Internet, en cambio, estaba a punto de empezar de verdad. Las universidades se conectaban entre sí, las empresas comenzaban a experimentar y la red dejaba de ser un experimento para convertirse en infraestructura.

El empujón definitivo llegó desde un lugar inesperado: el CERN, en Suiza. Allí, un físico británico propuso una forma sencilla de enlazar documentos usando hipertexto. No lo hizo para conquistar mercados ni para transformar el mundo, sino para que los científicos compartieran información sin volverse locos. Lo llamó World Wide Web y, en un gesto que hoy parece casi subversivo, lo liberó al dominio público.

La web no tiene absolutamente nada de militar. Es, si acaso, un invento burocrático: nació para organizar papeles. Pero era simple, gratuita y útil. Tres cualidades que suelen ser letales para cualquier sistema alternativo. A partir de ahí, Internet se convirtió en lo que conocemos: una red global, civil, caótica, comercial y profundamente humana.

El mito del Internet militar persiste porque simplifica una historia compleja y encaja bien con la narrativa de la Guerra Fría. También porque confunde financiación con autoría y porque da una falsa sensación de control. Es reconfortante pensar que alguien diseñó todo esto. La realidad es más inquietante: Internet no fue diseñado. Emergió.

Decir que tenemos Internet gracias a la investigación militar es como decir que tenemos la medicina moderna gracias a las guerras. Hay algo de verdad: dinero, urgencia, contexto. Pero lo decisivo no es la guerra, sino los médicos, los hospitales y la ética profesional. Con Internet ocurre lo mismo. Lo importante no fue el uniforme, sino la bata.

La formulación más honesta sería esta: Internet nació de investigación pública financiada en parte por el ámbito militar, pero fue concebida, desarrollada y expandida por científicos civiles y universidades, y se convirtió en lo que es gracias a su apertura, no a su origen.

O, dicho de forma menos elegante pero más clara: Internet no es un invento militar. Es un invento civil que tuvo la suerte —y la rareza histórica— de que quien pagaba supo cuándo apartarse y dejarlo crecer.

Eso, visto con perspectiva, puede que sea el verdadero milagro tecnológico del siglo XX.

VIAJAR EN EL TIEMPO, SEGÚN EL RELOJ

 

«El pasado es obstinado». La frase aparece en 22/11/63, la extraordinaria novela de Stephen King en la que un hombre intenta corregir una fecha concreta —la del asesinato de Kennedy— y descubre que el tiempo no acepta correcciones sin presentar una factura detallada. Cada intento de ajuste provoca un desorden mayor que el anterior. El tiempo, viene a decir King, es como un gato. Hace lo que quiere y se ofende si lo tocas.

En cierto modo, el viaje en el tiempo sí existe. Basta con tomar un avión de Lisboa a Ankara o a Moscú para desplazarse tres horas en el reloj. No cambia tu edad, ni tu carácter, ni tu cuenta bancaria, pero confunde lo suficiente como para que durante unos minutos no sepas si tienes hambre, sueño o ambas cosas a la vez.

Durante la mayor parte de la historia humana, esta clase de confusión no existía. Nadie necesitaba saber qué hora era en otra ciudad. Bastaba con mirar al cielo y aceptar que el mediodía llegaba cuando el sol decidía ponerse en lo alto. Era un sistema primitivo, sí, pero tenía una gran ventaja: funcionaba.

Hasta el siglo XIX, cada ciudad vivía en su propio presente. La hora era local, subjetiva y bastante flexible. Si el reloj de la plaza decía una cosa y el sol otra, se le daba la razón al sol. Y si alguien llegaba tarde, siempre podía culpar a la sombra de la torre.

El problema apareció con el ferrocarril, una invención extraordinaria que, además de transportar personas y mercancías, introdujo un concepto inquietante: la puntualidad compartida. De repente, no bastaba con salir “más o menos” a una hora. Había que salir exactamente a la misma hora que figuraba en un papel impreso. Eso fue el principio del fin.

Durante un tiempo se intentó convivir con el caos. En Estados Unidos, por ejemplo, llegaron a coexistir más de trescientas horas locales distintas. Algunas estaciones tenían varios relojes, cada uno marcando la hora correcta para una línea distinta. Era como un museo del tiempo, pero con trenes. Los viajeros aprendieron a vivir con ello. Perdían trenes, discutían con revisores y llegaban tarde a destinos que aún no sabían exactamente en qué hora vivían.

Este método de cronometraje se vio cuestionado en 1853 cuando, en Nueva Inglaterra, dos trenes que se dirigían uno hacia el otro, en la misma vía, colisionaron. Podría haberse evitado si los conductores hubieran tenido la misma hora en sus relojes. El desastre provocó la muerte de catorce pasajeros y diecisiete heridos, lo que puso de relieve los peligros de no contar con una hora ferroviaria estandarizada. Pero estandarizar la hora en los ferrocarriles norteamericanos resultó ser mucho más difícil de lo previsto, por lo que la idea estuvo prácticamente paralizada drente más de veinte años.

En 1878, Sir Sandford Fleming, ingeniero ferroviario canadiense, tuvo una idea revolucionaria. Inspirado por un error en un horario de trenes, cuando una confusión entre AM y PM le hizo perder su tren, Fleming ideó la creación de un reloj de veinticuatro horas (hora militar). Tras esta propuesta, Fleming concibió la idea de implementar otras tantas zonas horarias en todo el mundo. Las zonas horarias, según Fleming, tendrían cada una quince grados de longitud de ancho; en pocas palabras, una hora de ancho. 

El cálculo que ahora parece pan comido es que la Tierra gira 360° en un día, lo que, dividido entre veinticuatro se obtienen 15° y, ¡por lo tanto, zonas horarias iguales! Aunque inicialmente se enfrentaron a cierta resistencia, en 1883, las compañías ferroviarias de Estados Unidos decidieron operar en cuatro zonas horarias, y poco después, el resto del mundo siguió su ejemplo.

En 1884, se celebró en Washington la Conferencia Internacional del Meridiano, una reunión en la que representantes de varios países discutieron algo aparentemente sencillo: dónde empieza el mundo. Ganó Greenwich. No porque fuera el mejor sitio, sino porque los británicos ya lo usaban y tenían barcos en todas partes. Francia votó en contra, y durante décadas siguió usando su propio meridiano en París, porque el orgullo nacional también tiene huso horario.

Así como el Ecuador divide la Tierra en los hemisferios norte y sur, el meridiano de Greenwich divide la Tierra en los hemisferios este y oeste. Básicamente:

La latitud 0º es el Ecuador y sus líneas corren horizontalmente.

La longitud 0º es el meridiano de Greenwich y sus líneas corren verticalmente.

El Meridiano de Greenwich es importante porque sirve como punto de referencia para los mecanismos de medición del tiempo del mundo tal como los conocemos. El GMT (Tiempo Medio de Greenwich) es la base del sistema de husos horarios estándar.

Aunque sobre el papel, los husos horarios son elegantes franjas verticales limpias, ordenadas, casi racionales, en la realidad son una pesadilla cartográfica. Se doblan, se estiran y hacen curvas imposibles para no molestar a países, provincias, islas, intereses económicos o señores muy serios con bigote que un día dijeron “aquí no”.

Y es que, si bien la idea de Fleming de crear veinticuatro husos horarios perfectamente uniformes era lógica y parecía tener un amplio apoyo en su momento, no se mantuvo plenamente vigente por mucho tiempo. Si bien técnicamente existen veinticuatro husos horarios estándar, hoy en día existen entre treintaiocho y cuarenta reconocidos en todo el mundo. Esta discrepancia se debe en gran medida a que los países no siguen diferencias horarias de una hora completa con respecto al GMT, como India y Nepal, que operan en GMT+5:30 y GMT+5:45 respectivamente.

En el caso de la India, y de manera similar en China, la decisión de mantener una única zona horaria nacional fue impulsada por el liderazgo político con la intención de unificar el país bajo una hora estándar. La zona horaria de la India tiene también raíces históricas en el dominio colonial británico.

España vive en el mismo huso que Alemania, pese a que el sol insiste en comportarse como si estuviéramos en el de Portugal. Aunque hay quien sostiene que Franco cambió nuestro huso para adaptarlo al de los alemanes, nadie recuerda bien por qué ocurrió, pero como cambiarlo implicaría reuniones, informes y opiniones, se ha decidido que lo mejor es seguir tal y como estamos.

Rusia, cansada de cambiar el reloj dos veces al año, decidió dejar de hacerlo. Turquía hizo lo mismo. Otros países lo estudian, lo debaten, lo votan, lo posponen y vuelven a estudiarlo. El resultado es que el mapa horario europeo parece diseñado por alguien que empezó con entusiasmo y terminó con sueño.

Mientras que, siguiendo la lógica de Fleming, los científicos que viven en la Antártida simplemente usan el GMT, el continente se dividiría en veinticuatro pequeñas zonas horarias. ¡Qué manera de pasar la Nochevieja, celebrando el Año Nuevo a cada hora, todo el día! ¡Eso sí que es una fiesta!

Y es que nada de esto tiene que ver con el tiempo real. Los relojes no miden el tiempo: miden decisiones humanas. Decisiones políticas, económicas y sociales que aceptamos porque la alternativa —que cada uno viva al sol que más le caliente— sería aún más caótica.

Por eso viajar en avión produce esa sensación infantil de haber ganado o perdido horas sin merecerlo. No has hecho nada heroico. No estás en el mundo imaginario de detrás del espejo. Simplemente has cruzado una línea imaginaria que alguien dibujó hace más de un siglo para que los trenes no colisionaran.

Como advertía Stephen King, el tiempo no acepta bien las correcciones. Cada ajuste genera pequeñas molestias: jet lag, reuniones a horas absurdas, informativos que no coinciden, videollamadas en las que alguien bosteza siempre. Nada grave, pero todo constante.

La pregunta inevitable es por qué seguimos tocando el reloj, por qué continuamos modificando la hora si nadie parece estar satisfecho. La respuesta es decepcionante: porque ya estamos demasiado metidos en el lío. El sistema funciona lo suficiente como para que cambiarlo resulte aún más complicado que soportarlo.

El tiempo moderno es una infraestructura invisible. Como el alcantarillado o el wifi, solo pensamos en él cuando falla. Y cuando falla, suele hacerlo de madrugada, un domingo, con el reloj del microondas parpadeando y la vaga sensación de que alguien nos ha robado una hora de vida sin pedir permiso.

No hemos inventado la máquina del tiempo. Pero hemos creado algo quizá más inquietante: un sistema global que permite desplazarse por el tiempo administrativo con solo cruzar una frontera.

Y eso, para una especie que durante milenios se conformó con mirar al cielo y decir “más o menos ahora”, es un logro notable. O una advertencia. Depende de la hora a la que lo leas.