Vistas de página en total

sábado, 10 de enero de 2026

EL TIMO DE LA SAL ROSA DEL HIMALAYA


La sal rosa del Himalaya es una sal de roca natural, extraída en Pakistán, valorada por su color rosado debido al óxido de hierro y otros minerales (calcio, magnesio, potasio), y se promociona como alternativa saludable a la sal común, aunque su aporte en yodo es nulo.

La sal rosa del Himalaya es uno de esos productos que han logrado lo que muy pocos consiguen en la era moderna: parecer antiguos, puros, espirituales y, al mismo tiempo, perfectamente compatibles con Instagram. Viene en tonos rosados seductores, suele presentarse en caros recipientes minimalistas que sugieren calma interior y promete, sin decirlo nunca del todo, que quien la usa ha tomado mejores decisiones vitales que el resto de la humanidad. Para sus apologistas, cambiar la sal blanca “industrial” por sal rosa no es solo una elección culinaria: es una declaración moral.

La verás aparecer en redes sociales en cuestión de minutos. Una influencer de bienestar, perfectamente iluminada, te explicará que la sal de mesa es “tóxica” y que esta, en cambio, es “natural”. Incluso la célebre dieta TB12 del legendario quarterback Tom Brady recomienda la versión rosada, lo que sugiere que, además de seis anillos de la Super Bowl, quizá también sea responsable de la juventud eterna. El mensaje es claro: esta sal es más pura, más sana y probablemente esté alineada con tus chakras.

Solo hay un pequeño inconveniente. Es un timo.

O, para ser justos, un timo elegante. La sal rosa del Himalaya contiene trazas de minerales como potasio, magnesio o calcio, lo cual suena formidable hasta que uno recuerda que esas trazas son tan diminutas que habría que consumir cantidades peligrosas de sal para obtener un beneficio apreciable. Químicamente, la sal rosa sigue siendo, en un 97–99 %, cloruro de sodio. Exactamente lo mismo que la sal blanca común. No desintoxica, no equilibra el pH sanguíneo —que por cierto está regulado con una precisión que haría llorar de envidia a cualquier influencer— y no aporta beneficios fisiológicos que sobrevivan a un análisis mínimamente serio.

Lo que sí aporta es estética. Hace que la cocina parezca una revista de estilo de vida. Y eso, hoy en día, cuenta mucho.

El verdadero problema no es lo que la sal rosa contiene, sino lo que no contiene. Le falta yodo. Y el yodo no es un adorno opcional en la dieta humana: es un micronutriente esencial. Sin él, la glándula tiroides no puede fabricar las hormonas tiroideas, la tiroxina (T4) y la triyodotironina (T3), que regulan el metabolismo, la temperatura corporal, la frecuencia cardíaca, el crecimiento y, lo que es más importante, el desarrollo cerebral. Dicho sin rodeos: sin yodo, el cuerpo funciona mal.

La inflamación visible de la tiroides produce el bocio típico del hipotiroidismo

España lo aprendió por las malas. A mediados del siglo XX, la deficiencia de yodo era tan común que el bocio —el agrandamiento visible de la tiroides— formaba parte del paisaje humano. En 1947 se instauró la yodación obligatoria de la sal de mesa, una medida tan discreta como brillante. Nadie tuvo que cambiar sus hábitos, nadie tuvo que aprender nada nuevo y, sin embargo, la prevalencia del bocio y del hipotiroidismo se desplomó. Fue uno de los mayores éxitos silenciosos de la salud pública.

Y ahora lo estamos deshaciendo, cucharada a cucharada, por motivos decorativos.

Cuando alguien sustituye la sal yodada por sal rosa del Himalaya, elimina sin ruido una de las fuentes más fiables de yodo de su dieta. Al principio no ocurre nada llamativo. La deficiencia de yodo no provoca fuegos artificiales. Es un proceso lento, educado, casi británico. La tiroides empieza a quedarse corta de materia prima, produce menos T3 y T4, y la hipófisis responde liberando más hormona estimulante de la tiroides (TSH), obligando a la glándula a trabajar más. Con el tiempo, ese esfuerzo constante puede hacer que la tiroides crezca, formando un bocio, sin llegar siquiera a producir suficientes hormonas funcionales para arreglar el problema.

Las consecuencias del hipotiroidismo son variadas y desagradables: fatiga persistente, aumento de peso, intolerancia al frío, piel seca, caída del cabello, pulso lento, bajo estado de ánimo y una especie de niebla mental que hace que todo resulte un poco más cuesta arriba. Nada de esto encaja bien con la imagen radiante que promete la sal rosa.

Durante el embarazo, el asunto es mucho más serio. El cerebro del feto depende de las hormonas tiroideas maternas en las primeras fases del desarrollo, y una deficiencia de yodo en ese periodo puede causar daños neurológicos permanentes. No es una hipótesis marginal ni una disputa académica: es fisiología básica, de la que se examinan los estudiantes de primer curso de Medicina.

Paradójicamente, la deficiencia de yodo está reapareciendo no por falta de alimentos, sino por exceso de consejos. Se repite a menudo que no hay problema porque gran parte de la sal que consumimos procede de alimentos procesados. Pero ahí está el truco: esa sal no suele estar yodada. El principal aporte de yodo en muchas dietas modernas sigue siendo la sal que se añade en casa. Exactamente la que los gurús del bienestar recomiendan abandonar.

Un estudio reciente mostraba que una proporción alarmante de mujeres embarazadas presentaba niveles inadecuados de yodo en el primer trimestre, incluso tomando suplementos después de saber que estaban embarazadas. El daño, en esos casos, ya podía estar hecho. No porque nadie hubiera decidido conscientemente ignorar la ciencia, sino porque alguien, en algún momento, pensó que una sal más bonita era una sal mejor.

Conviene aclarar algo importante: esto no es una invitación a consumir más sal. La mayoría de nosotros ya ingerimos más sodio del que conviene a nuestro sistema cardiovascular. Es, más bien, una invitación a elegir con criterio la poca sal que usamos. La sal yodada no es una conspiración industrial ni un residuo del pasado: es una herramienta sencilla, barata y extraordinariamente eficaz de salud pública.

La sal rosa del Himalaya no te desintoxica. No equilibra nada que esté fuera de equilibrio. No mejora la función tiroidea ni aporta minerales en cantidades relevantes. Es, en esencia, sal cara con un buen departamento de marketing y una mina fotogénica en Pakistán. Y aunque no sea venenosa, su uso sistemático en lugar de sal yodada puede tener consecuencias reales, discretas y acumulativas.

Así que, si lo que buscas es un bienestar auténtico —del tipo que no se puede fotografiar— quizá la decisión más saludable sea también la menos vistosa: esa humilde sal blanca, ligeramente yodada, que lleva décadas evitando enfermedades sin pedir “likes” a cambio. 

DANONE: LECHE, CABRAS, BACTERIAS Y SULTANES

 

Blanco, prosaico y aparentemente inofensivo, promete mejorar la digestión mientras caduca con disciplina. Sin embargo, detrás de cada cucharada de yogur se esconden pastores anónimos, reyes enfermos, sultanes poderosos, microbios atareados y una larga cadena de casualidades. Esta es la historia de cómo la leche aprendió a estropearse mejor que nadie y terminó cambiando la dieta —y el vientre— de medio mundo.

Nadie recuerda su nombre, lo cual es una ventaja cuando se quiere pasar a la historia sin darse importancia. Érase que se era un pastor de Asia Central, que moviéndose sin parar de un lado a otro, llevaba la leche donde podía: en una bolsa cosida con el vientre de una cabra que colgada al costado de su borrico. El calor hizo lo que suele hacer el calor, y el traqueteo del camino se ocupó del resto.

 Cuando abrió la bolsa, la leche había decidido no seguir siendo leche. Olía raro, parecía sospechosa y, sin embargo, no mató a nadie. Al contrario: lo alimentó, aligeró su vientre y le permitió seguir andando con ánimos renovados. Fue un descubrimiento sin acta notarial, sin testigos y sin agradecimientos: el tipo de invento que mejora la vida y luego desaparece en el polvo del camino.

Mucho después, en un palacio francés lleno de tapices, médicos y diagnósticos inútiles, el vientre del rey Francisco I de Francia se rebeló con una obstinación impropia de la realeza. La medicina oficial fracasó y, gracias al buen hacer del embajador otomano, el auxilio llegó desde lejos, enviado por su aliado Suleimán el Magnífico: un médico y un cuenco de leche fermentada. El rey mejoró —o así se contó— y el yogur entró en Europa como entran las cosas importantes: disfrazado de remedio.

La propia palabra yogur delata su procedencia. Viene del turco yoğurt, derivado del verbo yoğurmak, que significa amasar, mezclar, trabajar con las manos. No alude a un alimento refinado ni a una receta codificada, sino a un proceso físico y doméstico: transformar algo fluido en algo denso, dejar que la leche cambie de estado. Incluso su ortografía conserva una letra muda, la ğ, que no se pronuncia, pero alarga el sonido, como si la palabra hubiera sido más transmitida de boca en boca que fijada en libros. Es un término nacido en el mundo túrquico, anterior a las cocinas cortesanas y a la ciencia moderna.

Que Europa adoptara el alimento junto con su nombre —sin traducirlo ni adaptarlo— refuerza esa filiación oriental. El yogur llegó como llegan los remedios exóticos: envuelto en prestigio ajeno, asociado a saberes médicos de fuera. En ese contexto, la leyenda del envío de yogur por Suleimán el Magnífico a Francisco I de Francia no resulta un simple capricho narrativo, sino una condensación simbólica de una verdad mayor: que el yogur entró en Europa no como alimento cotidiano, sino como herencia otomana, cargada de autoridad cultural, médica y lingüística.

Entre el pastor sin nombre y el rey con demasiados nombres se levanta el andamiaje fabuloso de la verdadera historia del yogur. No es la historia de un alimento refinado, sino la de una solución portátil a un problema básico: cómo conservar la leche sin que se vuelva peligrosa. Antes de ser moda, probiótico o postre edulcorado, el yogur fue una tecnología nómada, una casualidad bacteriana y una lección de humildad histórica. Porque, como suele ocurrir, lo que acabó servido en porcelana empezó en una bolsa de piel colgada de un burro ignorante como su dueño de que estaban colaborando con la civilización más allá de su humilde trabajo cotidiano.

Durante siglos, el yogur fue eso: un alimento local, doméstico, transmitido por costumbre más que por receta. Se tomaba en los Balcanes, en Anatolia, en el Cáucaso, en Persia; se mezclaba con sal, con pepino, con ajo o simplemente con hambre. Nadie pensaba que aquello tuviera futuro internacional. Nadie pensaba, en realidad, gran cosa al respecto. El yogur funcionaba y eso bastaba. La idea de que pudiera contener bacterias beneficiosas —y de que eso fuera una virtud y no una amenaza— habría parecido una extravagancia peligrosa.

Las leyendas sobre su origen empezaron a circular con entusiasmo recién en el siglo XIX, cuando Europa descubrió dos cosas simultáneamente: los microbios y la ansiedad por la salud. Fue entonces cuando apareció en escena un personaje decisivo, Élie Metchnikoff, un microbiólogo franco-ucraniano que trabajaba en el Instituto Pasteur de París, veía cada vez peor, bebía cada vez más y pensaba a lo grande. En 1904 impartió una conferencia en la que lanzó una idea tan audaz como provocadora: muchas enfermedades —y el envejecimiento mismo— podían deberse a la “putrefacción intestinal” causada por bacterias nocivas, y quizás esa putrefacción podía frenarse introduciendo bacterias buenas mediante alimentos fermentados.

Metchnikoff no afirmó exactamente que el yogur concediera la inmortalidad, pero se quedó muy cerca. Señaló que los campesinos búlgaros parecían vivir mucho y que consumían grandes cantidades de yogur. Para la prensa, aquello fue suficiente. El diario Le Temps proclamó, con entusiasmo casi publicitario, que quien no quisiera envejecer ni morir debía comer yogur. Era una exageración descomunal, pero tremendamente eficaz.

Al año siguiente, otro búlgaro, Stamen Grigorov, identificó la bacteria responsable de la fermentación del yogur, más tarde bautizada como Lactobacillus bulgaricus. Por primera vez, aquel alimento ancestral adquiría nombre científico y respetabilidad de laboratorio. El yogur dejaba de ser una rareza rural para convertirse en un objeto de estudio, y pronto, en un producto.

Aquí es donde la historia da un giro inesperado, no hacia un laboratorio, sino hacia una catástrofe urbana. En 1917, un incendio devastador arrasó el centro de Salónica, una ciudad que acababa de pasar del Imperio otomano a Grecia y que albergaba una próspera comunidad judía sefardí descendiente de los expulsados de España en 1492. Decenas de miles de personas perdieron sus casas y sus negocios. Entre ellas estaba Isaac Carasso, que decidió hacer lo que tantos otros a lo largo de la historia: emigrar.

Carasso llegó a Barcelona con su familia y con una memoria culinaria formada en los Balcanes, donde el yogur era algo cotidiano y saludable. En la ciudad, mientras los niños sufrían epidemias de diarrea y trastornos intestinales, Carasso vio una oportunidad que mezclaba compasión, ciencia reciente y negocio. Empezó a fabricar yogur en casa, lo envasó en pequeños tarros de cerámica y convenció a las farmacias para venderlo como alimento terapéutico. No se anunciaba como placer, sino como medicina, lo cual siempre ha sido una forma muy eficaz de introducir cosas raras en la dieta.

El producto necesitaba un nombre, y Carasso recurrió a lo que tenía más a mano: el apodo de su hijo Daniel, “Danon”. Así nació Danone, sin imaginar que aquel diminutivo infantil acabaría rotulando millones de neveras en todo el mundo.

Casualidad llaman los necios al destino: Daniel Carasso estudió bacteriología en el Instituto Pasteur, lo que le dio a la empresa un aire de respetabilidad científica que nunca abandonaría del todo. En 1929 abrió una sucursal en Francia, justo a tiempo para que Europa volviera a desmoronarse. Durante la ocupación nazi, Daniel huyó a Estados Unidos y volvió a empezar, rebautizando la empresa como Dannon, porque le sonaba más anglosajona y porque nadie había acusado nunca a un nombre simplificado de ser un error.

El problema era que el yogur no gustaba. A los estadounidenses les parecía ácido, sospechoso y demasiado cercano a la leche estropeada. Daniel hizo entonces lo que hacen todos los visionarios prácticos: añadió azúcar y fruta. El yogur con fresa fue un éxito inmediato. El sabor venció al prejuicio y el yogur dejó de ser un tratamiento para convertirse en un postre.

A partir de ahí, la historia es la de un crecimiento imparable, fusiones, diversificación y etiquetas cada vez más cuidadas. Danone se convirtió en un gigante alimentario global, y el yogur, en su producto estrella. Con él llegaron las declaraciones de propiedades saludables, cada vez más prudentes, cada vez más revisadas por autoridades regulatorias. Algunas afirmaciones fueron demasiado lejos y tuvieron que retirarse. Otras se suavizaron hasta convertirse en expresiones educadamente vagas como “favorece la salud intestinal”.

La verdad, como casi siempre, es menos espectacular y más interesante. El yogur contiene bacterias vivas que pueden ayudar a equilibrar la microbiota intestinal, mejorar modestamente el tránsito digestivo y reducir ciertos síntomas leves como la hinchazón o el estreñimiento ocasional. También aporta proteínas, calcio y vitaminas del grupo B. No previene el envejecimiento ni garantiza la longevidad, pero tampoco es poca cosa haber nacido por accidente en una bolsa de piel y acabar siendo uno de los alimentos más consumidos del planeta.

Metchnikoff exageró, los publicistas exageraron más, pero el fondo era correcto: hay bacterias que nos hacen bien, y llevamos milenios conviviendo con ellas sin saberlo. El yogur no es un milagro, pero sí una pequeña alianza entre humanos y microbios, sellada mucho antes de que existieran los nombres científicos, los tarros de plástico o los departamentos de marketing.

Quizás por eso sigue funcionando. Porque, en el fondo, cada cucharada conecta al pastor anónimo, al rey enfermo, al científico miope y al empresario exiliado. Y porque recuerda, con una discreción muy propia de las bacterias, que algunas de las mejores ideas de la civilización no fueron planeadas, sino fermentadas.

POR QUÉ EL CAMELLO CANARIO NO ES AUTÓCTONO (PERO SÍ PROFUNDAMENTE CULTURAL)

La fundación suiza Franz Weber ha denunciado el uso de camellos en las cabalgatas de Reyes en Fuerteventura. Oasis Wildlife y la Asociación del Camello Canario siembre han defendido que se trata de una actividad clave para conservar una raza autóctona en peligro de extinción. El asunto biológico de fondo es que, por mucho empeño que se ponga, los camellos no son autóctonos de Canarias.

Cada cierto tiempo, cuando surge una polémica sobre el uso de camellos en actividades festivas o turísticas, reaparece una afirmación que suena rotunda y tranquilizadora: los camellos son autóctonos de Canarias. Es una frase eficaz para zanjar discusiones, pero científicamente incorrecta. Y, lo que es peor, innecesaria. La historia real de los camélidos —y del llamado “camello canario”— es mucho más interesante que cualquier etiqueta de origen.

Para entenderlo hay que separar dos planos que solemos mezclar sin darnos cuenta: biología evolutiva y adaptación cultural. En el primer plano, los camellos de una joroba, es decir, los dromedarios (Camelus dromediarius), no son autóctonos de Canarias. En el segundo, llevan tanto tiempo integrados en la vida insular que forman parte indiscutible de su paisaje histórico. Confundir ambos planos no hace justicia ni a la ciencia ni a la historia humana.

Los dromedarios llegaron a las Canarias tras la conquista castellana, entre los siglos XV y XVI. Procedían del norte de África y pertenecían a, una especie ya domesticada desde hacía milenios en regiones áridas. No hay restos arqueológicos que indiquen su presencia antes de la llegada europea, ni referencias en las crónicas prehispánicas. Fueron introducidos deliberadamente como animales de trabajo, sobre todo en islas como Fuerteventura y Lanzarote, donde la escasez de agua, los suelos volcánicos y las largas distancias hacían poco eficaces a bueyes o caballos.

Durante siglos, los dromedarios cargaron agua, grano, piedra volcánica y personas. Su presencia no fue ornamental ni folclórica: fue funcional. Y precisamente esa función continuada explica por qué hoy parecen “de toda la vida”. Pero eso no los convierte en autóctonos, del mismo modo que el trigo no se volvió canario por crecer bien en suelo insular.

Con el paso de las generaciones, el aislamiento relativo, la selección humana y las condiciones ambientales dieron lugar a lo que popularmente se conoce como “camello canario”. No es una especie distinta ni una subespecie reconocida formalmente, sino una población adaptada: animales algo más pequeños, bien aclimatados al terreno volcánico, resistentes y dóciles.

Este es un caso clásico de adaptación cultural y zootécnica, no de evolución autóctona. Algo muy parecido a lo ocurrido con muchas razas ganaderas europeas o americanas. El error está en pensar que “llevar mucho tiempo” equivale a “haber estado siempre”. Para comprender hasta qué punto esa confusión es absurda, conviene retroceder mucho más atrás. No quinientos años, sino cuarenta y cinco millones.

Contra lo que dicta la intuición, los camélidos no evolucionaron en África ni en Asia, ni siquiera en desiertos. Su historia comienza en Norteamérica, hace unos 45 millones de años, en un mundo forestal y húmedo. El primer camélido conocido es Protylopus, un animal pequeño, del tamaño de una liebre, sin joroba, sin adaptaciones a ambientes desérticos y sin ningún aire solemne. Vivía entre arbustos y árboles, alimentándose de vegetación blanda. No parecía destinado a convertirse en icono del desierto, pero ya poseía dos rasgos decisivos: eficiencia energética y versatilidad alimentaria.

Durante millones de años, los camélidos se diversificaron en Norteamérica en una sorprendente variedad de formas. Algunos eran esbeltos y rápidos; otros grandes y robustos. Fue un grupo triunfador, bien adaptado y abundante, cuyo verdadero éxito evolutivo fue impulsado por su resiliencia frente a la escasez. Desde muy pronto desarrollaron una fisiología capaz de aprovechar alimentos pobres, resistir largos ayunos y recorrer grandes distancias sin colapsar.

Cuando, hace unos veinte millones de años, el clima global empezó a enfriarse y secarse muchos herbívoros especializados desaparecieron. Los camélidos, en cambio, prosperaron. No porque fueran los más fuertes, sino porque eran los más austeros. Ese éxito les permitió expandirse fuera de su continente de origen en dos direcciones opuestas.

Hacia el noroeste, cruzaron a Asia a través de Beringia, el puente terrestre que unía Siberia y Alaska durante las glaciaciones. Allí evolucionaron los llamados camellos del Viejo Mundo: el dromedario y el de dos jorobas, Camelus bactrianus, este último adaptado a climas extremos con inviernos gélidos y veranos abrasadores.

En este contexto aparecieron las famosas jorobas, que no almacenan agua, sino grasa, una batería metabólica para tiempos difíciles. A ello se suman glóbulos rojos capaces de soportar grandes cambios de volumen, riñones extremadamente eficientes y una tolerancia térmica fuera de lo común.

Hacia el sur, otros camélidos cruzaron el istmo de Panamá hace unos tres millones de años y colonizaron Sudamérica. Allí no encontraron desiertos infinitos, sino montañas y falta de oxígeno. La respuesta fue distinta, pero igual de eficaz. Así surgieron la llama (Lama glama), la alpaca (Vicugna pacos), el guanaco (Lama guanicoe) y la vicuña (Vicugna vicugna), especialistas en la vida de altura.

La paradoja final, el giro evolutivo más irónico llegó al final del Pleistoceno. Hace entre 10 000 y 12 000 años, todos los camélidos norteamericanos se extinguieron. Cambios climáticos rápidos y presión humana acabaron con ellos. El continente donde habían evolucionado durante decenas de millones de años quedó vacío de camélidos. Sobrevivieron únicamente los que habían emigrado. Pocos ejemplos ilustran mejor que la evolución no recompensa el arraigo, sino la capacidad de moverse a tiempo.

Cuando los dromedarios llegaron a Canarias en época moderna, se incorporaron a una historia evolutiva larguísima que nada tenía que ver con el archipiélago. No eran autóctonos, pero sí perfectamente compatibles con el medio. Su éxito no fue un accidente, sino la consecuencia de millones de años de selección para resistir la escasez. Llamarlos “camellos canarios” no es un error si se entiende en sentido cultural e histórico. Lo es cuando se pretende convertir esa etiqueta en un argumento biológico. La ciencia no necesita ese atajo.

Comprender la evolución de los camélidos permite algo más útil que ganar una discusión: distinguir entre lo natural y lo heredado, entre lo biológico y lo cultural. Los dromedarios de Canarias no son originarios de las islas, pero forman parte de su historia humana. Negar una cosa para defender la otra no es necesario.

Los camélidos, en conjunto, son una lección ambulante —y a veces paciente— sobre cómo sobrevivir en mundos cambiantes. Nacieron en bosques, conquistaron desiertos y montañas, desaparecieron de su hogar original y se adaptaron a nuevos paisajes culturales. Quizá por eso resultan tan familiares: porque llevan millones de años haciendo lo mismo que nosotros intentamos hoy, aprender a vivir donde hemos llegado.

viernes, 9 de enero de 2026

EL CAMBIO CLIMÁTICO HA CONVERTIDO A GROENLANDIA EN UN OBJETIVO PARA TRUMP

El deshielo acelerado de la banquisa ártica —el hielo marino— está transformando el vasto e indomable espacio natural del Ártico en uno de los epicentros de la geopolítica moderna. Ahora que el océano es navegable durante casi tres meses de verano, se abren nuevas oportunidades económicas clave, tanto por la apertura de estas nuevas vías marítimas como por la accesibilidad a recursos naturales inexplotados. El deshielo impulsado por el calentamiento global abre nuevas vías marítimas que Moscú, Washington y Pekín quieren controlar.

El rompehielos de propulsión nuclear Sibir llega a su puerto base de Murmansk desde San Petersburgo. Foto ALAMY

Durante siglos, el Ártico fue el lugar donde acababan los mapas y empezaban los peligros. Un océano cubierto de hielo, hostil, caro de explorar y completamente inútil para el comercio. Hoy, por una ironía histórica difícil de superar, el calentamiento global está transformando ese espacio inhóspito en uno de los activos geoestratégicos más codiciados. No por lo que hay debajo del hielo —minerales, petróleo, gas, que los hay, pero por el momento sepultados bajo kilómetros de hielo, sino por lo que empieza a desaparecer: el propio hielo.

La navegación marítima es el núcleo de esta transformación. El deshielo no ha creado una ruta única, sino tres grandes corredores potenciales, cada uno con su lógica, sus actores y sus tensiones. Rusia ya explota el suyo. China quiere asegurarse un asiento. Estados Unidos, que llega tarde, mira a Groenlandia como la pieza que le falta.

1. La Ruta Marítima del Noreste: el peaje ruso del Ártico

La Ruta Marítima del Noreste es hoy la única ruta ártica que funciona de manera regular. Recorre la costa septentrional de Rusia, desde el mar de Barents hasta el estrecho de Bering, conectando Europa y Asia por el camino más corto posible. Su atractivo es evidente: entre Shanghái y Róterdam puede ahorrar hasta dos semanas de navegación frente a Suez. Menos combustible, menos costes, menos exposición a cuellos de botella políticos. Pero la clave no es solo la geografía, sino el control.


Rusia ha invertido durante décadas en convertir esa franja helada en una infraestructura estatal: La mayor flota de rompehielos del mundo, incluidos rompehielos nucleares. Puertos árticos modernizados. Sistemas de navegación, rescate y escolta obligatorias. Legislación que exige permisos y pagos de peaje a Moscú.

En la práctica, la Ruta Marítima del Noreste funciona como una autopista marítima de peaje bajo supervisión rusa. No es una ruta libre: es una ruta regulada, vigilada y monetizada. Cada barco que pasa refuerza la idea de que Rusia no solo es una potencia continental, sino también una potencia marítima ártica.

Desde el punto de vista geoestratégico, esta ruta ofrece algo más que comercio, ofrece soberanía funcional. Rusia no necesita bloquearla para ejercer poder. Le basta con administrarla.

2. China y la Ruta de la Seda Polar: llegar sin mandar

El 13 de octubre de 2025, un buque portacontenedores chino completó la travesía del Ártico entre China e Inglaterra en solo veinte días, marcando uno de los trayectos más rápidos jamás realizado por un barco comercial en esta ruta sin la asistencia de un rompehielos. La travesía, impulsada por los efectos del calentamiento global en la región, es un nuevo paso para la consolidación de esta conexión a través del Polo Norte, mucho más barata y el doble de rápida que las vías marítimas tradicionales, como el canal de Suez o el cabo de Buena Esperanza.

La Ruta de la Seda Polar (en rojo) y la alternativa merdional por Sueza (en azul)

China no tiene costa ártica, pero sí una obsesión estratégica clara: no depender de rutas controladas por otros. De ahí su interés creciente por el Ártico y su concepto de “Ruta de la Seda Polar”. Para China, el Ártico no es una ruta propia, sino una ruta de acceso. Utiliza —y utilizará— principalmente la vía rusa, pero con un objetivo a largo plazo: asegurarse que ninguna potencia pueda cerrarle el paso en una crisis global.

China ya ha enviado buques comerciales por la Ruta Marítima del Norte, ha botado rompehielos propios y se ha integrado en foros árticos como actor “cercano”. Su estrategia es pragmática: Menos discurso territorial; más inversión logística; presencia científica, comercial y financiera.

El Ártico encaja perfectamente en la visión china de red global de transporte. No necesita controlarlo; le basta con tener garantizado el acceso. Cada contenedor que cruza el Ártico reduce su dependencia del estrecho de Malaca, del canal de Suez o de zonas bajo influencia estadounidense.

Para la industria china, la ruta polar representa una alternativa estratégica que elude la tradicional ruta del mar de la China Meridional —un punto de alta tensión geopolítica en el Pacífico—, lo cual, sumado a la mejora en los tiempos y la reducción de los costes de los envíos hacia Europa, potencia significativamente sus relaciones comerciales con el Viejo Continente.

Este es el gran incentivo que tiene China para cultivar buenas relaciones con Rusia. La convergencia de intereses entre ambos países ha dado lugar a una alianza estratégica en el Ártico. Rusia necesita inversiones importantes para el mantenimiento y desarrollo de sus vastas infraestructuras árticas. A su vez, China requiere autorizaciones de navegación en la ruta marítima del Norte, una vía que transcurre a lo largo de la ZEE rusa y sobre la que Moscú ejerce un control casi total.

China entiende algo clave: en un mundo fragmentado, la resiliencia logística es poder. El Ártico añade una capa más a esa resiliencia.

3. Estados Unidos y la ruta Transártica: el papel central de Groenlandia

La creciente alianza entre Rusia y China ha dejado a Estados Unidos en una posición precaria en el Ártico. Pese a ser una nación ártica que controla el estrecho de Bering, Estados Unidos operó de facto como una “nación ártica sin una estrategia ártica” tras la Guerra Fría, creando un vacío estratégico que China ha aprovechado en el contexto de su creciente disputa geopolítica con Washington.

A diferencia de Rusia y China, Estados Unidos llega tarde al Ártico marítimo. Así, por ejemplo, en la década del 2000, mientras Rusia mantenía docenas de bases militares y la presencia china crecía, Estados Unidos mostró poco interés y solo contaba con una flota de rompehielos relativamente obsoleta en la región. Además, la persistente negativa de la potencia norteamericana a ratificar la convención del mar complica su capacidad para hacer valer legalmente sus reclamaciones marítimas en las aguas en disputa.

Solo recientemente, y como reacción directa a avance creciente de China y la alianza rusa, Estados Unidos ha comenzado a abordar este déficit histórico: en 2022, su Estrategia Nacional para la Región Ártica representó un reconocimiento explícito de la urgencia para recuperar el retraso acumulado. Este cambio se ha manifestado en movimientos prácticos, incluyendo el acuerdo con Finlandia para la adquisición de once nuevos rompehielos, cruciales para recuperar la competitividad polar y el interés de la Administración Trump en adquirir Groenlandia

La futura ruta Transártica, que cruzaría directamente el océano Ártico por el centro —no pegada a las costas— solo será viable cuando los veranos sin hielo sean habituales. Esa ruta, si llega a consolidarse, no estará bajo control ruso. Será la más corta… y la más disputada.

Groenlandia es la llave de esa vía: Se sitúa entre América del Norte, Europa y el Ártico central; ofrece puntos naturales para puertos, rescate y repostaje; permite vigilancia marítima y aérea de rutas emergentes y sirve como plataforma logística y militar avanzada. Desde el punto de vista naval, Groenlandia es lo que los estrategas llaman un “portaaviones fijo”. No controla la ruta, pero condiciona su uso. Quien tenga presencia allí puede supervisar el tráfico, garantizar seguridad, influir en normas y estándares, y proyectar poder sin necesidad de cerrar rutas.

Para Estados Unidos, que no controla Suez ni Panamá en términos soberanos, el Ártico representa una oportunidad histórica: participar desde el principio en la definición de una gran vía marítima global.

Mientras el hielo se derrite, las reglas se escriben. La navegación ártica no es aún masiva, ni barata, ni sencilla. Pero eso es irrelevante desde el punto de vista geoestratégico. Lo importante es que está naciendo. Y las rutas que nacen rara vez permanecen neutrales.

En resumen: Rusia ya cobra peaje. China asegura acceso y Estados Unidos busca posición. Groenlandia no es el premio final, sino el punto de apoyo. Y en geopolítica marítima, quien controla los apoyos acaba influyendo en el camino.

DE LA JUNGLA FRÍA AL TRÓPICO: UNA NUEVA MIRADA A LOS ORÍGENES DE LOS PRIMATES

 

Macacos de Hokaido, Japón. Foto de Jasper Doest.

Cuando pensamos en el origen de los primates —el grupo que incluye, entre otros a los lémures, los monos, los simios y, por supuesto, a los humanos—, la imagen casi universal es la de un pequeño antepasado balanceándose alegremente entre lianas bajo un sol tropical. La idea de que nuestros ancestros surgieron en selvas húmedas y cálidas ha sido un pilar de la paleoantropología durante décadas. Pero nuevos datos están reescribiendo este relato de forma radical.

Un estudio reciente publicado en la revista Proceedings of the National Academy of Sciences (PNAS) por Jorge Avaria-Llautureo —un biólogo chileno que actualmente trabaja en la universidad de Reading— y colegas sugiere que los primeros primates no surgieron en climas cálidos y estables, sino en entornos fríos, estacionales y cambiantes del hemisferio norte hace unos 66 millones de años. Esta investigación desafía lo que se ha llamado el “dogma tropical” de la evolución de los primates.

La hipótesis tradicional, la del dogma tropical, sostiene que los primates evolucionaron en bosques tropicales cálidos porque estos ambientes proporcionan recursos abundantes, especialmente frutas durante todo el año, lo que habría favorecido la aparición de características como manos prensiles, visión estereoscópica y cerebros relativamente grandes. Esta visión fue reforzada por la presencia de muchos fósiles de primates en regiones que hoy son ecuatoriales y por las similitudes del comportamiento de los primates modernos en lugares como África central y Madagascar.

Sin embargo, esa interpretación depende de suposiciones sobre los climas del pasado que resultan ser más inciertas de lo que se pensaba. El nuevo estudio combina datos fósiles con reconstrucciones climáticas detalladas para rastrear no solo dónde vivieron los ancestros de los primates, sino también cómo eran los ambientes en esos lugares en diferentes momentos del pasado profundo.

Los datos que cambian la historia y apuntan hacia el frío surgen del trabajo de Avaria-Llautureo y su equipo, quienes analizaron el registro fósil de primates tempranos junto con modelos climáticos que reconstruyen la temperatura y las precipitaciones en distintas regiones del planeta hace decenas de millones de años. Para su sorpresa, los resultados muestran que el ancestro común de todos los primates actuales vivió en latitudes altas del hemisferio norte, en lo que hoy serían zonas templadas o incluso boreales, con estaciones frías marcadas y cambios climáticos significativos a lo largo del año.

Estas condiciones no eran las de un paraíso tropical permanente. Más bien eran entornos con inviernos fríos, variaciones estacionales pronunciadas y recursos alimentarios poco predecibles. Este contexto obliga a replantear el escenario evolutivo: nuestros antepasados aprendieron primero a lidiar con la adversidad climática antes de conquistar los trópicos.

Un punto clave del estudio es cómo los primates antiguos respondieron a estas condiciones exigentes. Ante la escasez estacional de alimento —como frutas, que son más abundantes en climas tropicales—, estos primeros primates no pudieron depender de una dieta especializada. Se volvieron generalistas en su alimentación, capaces de consumir insectos, brotes, corteza e incluso otros recursos menos predecibles cuando las frutas escaseaban.

Más aún, los investigadores encontraron que primates que pudieron moverse grandes distancias en respuesta a cambios locales de clima o precipitación tenían más éxito evolutivo. La capacidad de dispersarse era una ventaja crucial: facilitaba no solo la supervivencia sino también la diversificación en nuevas especies durante millones de años.

Este patrón de movilidad y adaptación a condiciones variables ayuda a explicar por qué los primates se diversificaron eventualmente en una amplia gama de nichos ecológicos y geográficos. Lejos de ser frágiles habitantes de selvas siempre verdes, estos ancestros eran viajeros resilientes ante los grandes cambios ambientales.

Si los primates evolucionaron en climas fríos, ¿por qué hoy la mayor parte de las especies vive en regiones tropicales? La respuesta no es contradictoria, sino complementaria: los trópicos actuaron como un refugio y luego como un terreno fértil para la explosión de diversidad.

Hace decenas de millones de años, cuando el clima global empezó a cambiar, los primates que ya tenían una “caja de herramientas” adaptativa construida a partir de experiencias en condiciones duras encontraron en los trópicos un ambiente más benigno y rico en recursos, ideal para diversificarse y expandirse. En otras palabras, el trópico no fue donde nacieron los primates, sino donde florecieron.

Más allá de ofrecer una versión más rica de nuestro pasado, este nuevo paradigma tiene lecciones importantes para el presente. Comprender cómo los primates ancestrales respondieron a cambios climáticos drásticos —incluyendo variaciones en temperatura y disponibilidad de agua— es crucial para prever cómo las especies actuales enfrentarán el calentamiento global acelerado.

Hoy, muchas poblaciones de primates están restringidas a fragmentos de hábitats tropicales debido a la deforestación y la presión humana. A diferencia de sus antepasados, estas poblaciones no pueden moverse libremente para escapar de condiciones adversas o explorar nuevos nichos. Esto aumenta su vulnerabilidad frente a cambios rápidos del clima y pérdida de biodiversidad.

Además, la historia evolutiva de resiliencia climática que revela este estudio sugiere que la capacidad de adaptación metabólica —como la que permitió a los primeros primates tolerar inviernos duros— ha sido una fuerza motriz en nuestra propia trayectoria evolutiva. Quizás esta historia de resistencia nos dice algo sobre las posibilidades —y los límites— de la adaptación humana en un planeta que cambia a gran velocidad.

Conclusión: reiniciando la historia de los primates

El artículo de Avaria-Llautureo y colegas ofrece una visión renovada de cómo y dónde comenzaron los primates. Contrariamente a la noción tradicional de un origen tropical, los primates surgieron en climas fríos, enfrentaron la variabilidad ambiental con flexibilidad dietética y movilidad, y solo millones de años después ocuparon los climas cálidos que hoy asociamos con ellos.

Este nuevo relato no solo transforma nuestra comprensión de los primeros capítulos evolutivos del linaje que conduce a los humanos, sino que también nos invita a reflexionar sobre cómo el clima ha sido y sigue siendo un motor fundamental de la vida en la Tierra.

jueves, 8 de enero de 2026

NUEVA YORK, O CÓMO CINCO CIUDADES APRENDIERON A DISCUTIR JUNTAS

Nueva York no nació unida, sino negociada. Durante más de dos siglos, Manhattan fue la ciudad y el resto eran pueblos, rivales o simples molestias al otro lado del río. La consolidación de 1898 no creó una metrópolis armónica, sino un acuerdo forzado entre identidades que nunca dejaron de sentirse ciudades por separado. Quizá por eso Nueva York no se entiende: se discute.

Se llega a Manhattan con la impresión de que todo empezó aquí y de que, en el fondo, todo sigue pasando aquí. La isla tiene ese aire de capital que no necesita proclamarse capital. Los edificios miran por encima del hombro, las avenidas avanzan en línea recta como si el resto del planeta tuviera la obligación de adaptarse. Durante mucho tiempo Manhattan no fue un distrito de Nueva York: fue Nueva York. Toda Nueva York. A secas. 

Durante más de dos siglos, la ciudad cabía entera en esta isla estrecha. Primero se llamó Nueva Ámsterdam, luego Nueva York, y durante generaciones nadie vio la necesidad de compartir el nombre con nadie. Al otro lado de los ríos había campo, pueblos dispersos y caminos embarrados: aquello no era ciudad, y quizá nunca lo sería. Manhattan miraba hacia fuera como miran las capitales jóvenes, con una mezcla de ambición y desprecio.

El problema llegó cuando la ciudad empezó a desbordarse. A finales del siglo XIX, Manhattan era un embudo humano. Llegaban inmigrantes sin cesar, los edificios crecían hacia arriba porque no podían crecer hacia los lados, y la ciudad descubrió algo inquietante: el futuro estaba fuera de la isla. Para alcanzarlo había que cruzar puentes, ríos y, sobre todo, superar egos municipales.

Al otro lado del East River estaba Brooklyn, que no solo no quería ser absorbida, sino que tenía motivos de sobra para resistirse. Brooklyn era una ciudad independiente, grande, rica y orgullosa de su identidad. Tan grande que, cuando se planteó la unificación, era la cuarta ciudad más poblada de Estados Unidos. Tenía ayuntamiento, periódicos propios y, además de una autoestima perfectamente comprensible, una funcionalidad perfecta. Sus habitantes cruzaban a Manhattan por trabajo o curiosidad, pero no por admiración. Luego, finalizada la jornada de trabajo, abandonaban el bosque de rascacielos para buscar la tranquilidad de su hogar.

La idea de la consolidación cayó en Brooklyn como una mala noticia anunciada con sonrisa. Los periódicos locales hablaron de anexión, de traición y de colonialismo urbano. Los políticos prometieron resistir hasta el final. Se dijo que Brooklyn perdería su alma y que acabaría convertida en un barrio grande, algo así como una ciudad satélite y carente de identidad. Cuando llegó el referéndum de 1894, el resultado fue muy ajustado. Brooklyn perdió por poco y entró en la nueva ciudad sin entusiasmo, sin alegría y sin ganas de olvidar lo que había sido.

Al este se extendía Queens, que no tuvo ni siquiera la posibilidad de sentirse traicionada, porque no era exactamente nada. Queens era un rompecabezas de pueblos, zonas rurales, muelles industriales y barrios que no se hablaban entre sí. No había un centro claro ni una identidad compartida. Para muchos de sus habitantes, la consolidación no fue una tragedia sino una bendición: transporte, servicios, inversiones. Queens no se unió a Nueva York con orgullo, pero tampoco con drama. Simplemente aceptó y siguió siendo lo que es hoy: un territorio inmenso donde cada barrio cree vivir en una ciudad distinta.

Más al norte estaba el Bronx, que fue incorporado por partes, como si nadie tuviera muy claro qué hacer con él. Originalmente pertenecía al condado de Westchester y durante años fue una periferia administrativa, una zona que Nueva York fue engullendo poco a poco, como el que no quiere la cosa. Primero un distrito, luego otro. Durante décadas, el Bronx no tuvo identidad política propia hasta 1914, cuando se convirtió en condado independiente. Hasta entonces, fue un lugar que ya era ciudad sin que nadie le hubiera explicado del todo en qué consistía eso.

En medio de todo esto estaba Harlem, que nunca fue municipio independiente, pero que se comportaba como si lo hubiera sido. Harlem fue pueblo holandés, suburbio elegante, luego epicentro cultural afroamericano. Su peso simbólico fue tan fuerte que acabó generando la ilusión de una autonomía que nunca existió en los papeles. Es uno de esos lugares que no necesitan fronteras legales para tener identidad. Basta con caminar por sus calles para entender por qué muchos creen que Harlem fue algo separado: lo fue, aunque solo en el imaginario.

Y luego está Staten Island, que aceptó la unión con la prudencia de quien firma un contrato largo sin estar del todo convencido. Siempre estuvo lejos, física y emocionalmente. Su conexión con el resto de la ciudad fue débil durante décadas, y todavía hoy se comporta como un pariente que aparece en las reuniones familiares, pero se sienta cerca de la puerta. Es el borough donde periódicamente reaparece la idea de la secesión, como si la consolidación de 1898 hubiera sido una prueba abierta al divorcio.

Todo esto quedó sellado el «1 de enero de Consolidación de 1898», un hito clave en la historia de Nueva York, la fecha en la que se consolidó una operación administrativa gigantesca que no tuvo nada de romántica. Un solo alcalde, un solo ayuntamiento, una sola ciudad compuesta por entidades que no se querían demasiado. Los defensores hablaban de eficiencia, de poder económico, de convertir Nueva York en una metrópolis a la altura de Londres o París. Los detractores advertían del caos, de la pérdida de autonomía e identidad y del dominio absoluto de Manhattan. Como suele ocurrir, todos tenían razón.

La nueva ciudad nació sin espíritu unitario. Funcionó desde el primer día como una federación informal, donde cada borough conservó su carácter, su resentimiento y su manera particular de entender el mundo. El metro y los túneles hicieron más por la unión que cualquier discurso político. Las infraestructurasconectaron territorios, pero no borraron las identidades.

Caminar hoy por Nueva York es recorrer una discusión que lleva más de un siglo abierta. Manhattan sigue creyéndose imprescindible. Brooklyn sigue actuando como si fuera una ciudad creativa que no necesita permiso. Queens presume de diversidad. El Bronx defiende su identidad con una mezcla de orgullo y desconfianza. Staten Island observa desde la distancia, como si todavía estuviera dudando.

Nueva York no es una ciudad nacida de una fusión armónica. Es el resultado de una negociación permanente, de una suma de voluntades desiguales y de muchas reticencias mal resueltas. Quizá por eso funciona. Porque nunca intentó ser una cosa sola. Es una ciudad hecha de ciudades que aprendieron a convivir sin dejar de discutir. Y en esa tensión constante, en esa incapacidad para ponerse de acuerdo del todo, está buena parte de su energía.

Si alguna vez Nueva York parece exagerada, contradictoria o excesiva, conviene recordar su origen. No nació para ser coherente. Nació para sobrevivir junta. Y lo sigue haciendo.

Y sigue debatiendo, porque como dice la canción que hizo mundialmente famosa Sinatra, Nueva York «is a city that never sleeps». Nunca duerme, siempre está despierta y muy viva, aunque esté en debate permanente.

miércoles, 7 de enero de 2026

1903: EL AÑO EN QUE ESTADOS UNIDOS SE INVENTÓ UN PAÍS A MEDIDA

Panamá no nació de una revolución ni de una epopeya nacional, sino de una necesidad logística. Y desde entonces, el mundo pasa por allí sin hacer demasiadas preguntas. Que se preparen en Groenlandia.

Hay países que nacen tras una guerra, otros después de una larga humillación colonial y algunos, los más curiosos, aparecen porque alguien necesitaba entenderse mejor con la geografía. Panamá pertenece a esta última categoría: no fue exactamente una nación soñada, sino una solución técnica. Una zanja con bandera.

Hoy, el Canal de Panamá es uno de esos lugares por los que pasa el mundo sin detenerse. Cada año lo cruzan en torno a catorce mil barcos. Portacontenedores gigantescos, petroleros, gaseros, graneleros que llevan soja, trigo o minerales y algún crucero con turistas que fotografían esclusas como quien inmortaliza una catedral hidráulica. Por allí transita alrededor del seis por ciento del comercio marítimo mundial, que no es poco para una franja de agua que cabe en un mapa escolar.

El canal ingresa varios miles de millones de dólares al año y sostiene buena parte de la economía panameña. Es rentable, estratégico y absolutamente imprescindible para el tráfico entre Asia y la costa este de América. Cuando se atasca Suez, Panamá sonríe. Cuando suben los fletes, Panamá cobra. El canal es una máquina de hacer dinero con forma de geografía. Pero antes de ser una autopista acuática, el istmo era otra cosa: un lugar incómodo y una provincia que nadie veía

A finales del siglo XIX, Panamá era una provincia lejana de Colombia, un país que entonces miraba más hacia los Andes que hacia la selva húmeda del Caribe. El istmo estaba mal comunicado, poco poblado y mentalmente desligado de Bogotá. No era tanto una periferia como una distracción.

En todo el territorio vivían unas 250.000 personas, concentradas en su mayoría entre Panamá y Colón, a lo largo del ferrocarril transístmico. El interior era rural y disperso. Y el Darién, ese tapón verde que todavía hoy interrumpe la Carretera Panamericana, era directamente otra dimensión: ríos, selva, comunidades indígenas, nubes de mosquitos, serpientes venenosas, malaria y una ausencia casi total de Estado. El Darién no separaba países; separaba realidades.

Colombia no controlaba Panamá porque no podía llegar a él con facilidad. Gobernar desde Bogotá aquel istmo era como administrar una isla sin barcos. El sentimiento nacional colombiano allí era débil; el local, práctico; el internacional, inevitable. Panamá comerciaba con el mundo mientras Colombia discutía consigo misma. Y entonces reavivó una vieja idea: la de un canal que todos querían.

La idea de unir el Atlántico y el Pacífico no era nueva. Desde que en 1513 Núñez de Balboa fuera el primer europeo en avistar el Pacífico cruzando el istmo y demostrando que aquel trozo de selva era, desde el principio, un lugar pensado para ser atravesado, no para quedarse a vivir., los españoles la habían soñado, los franceses la intentaron y fracasaron con estrépito y miles de cadáveres, y los estadounidenses tomaron nota. La lección que aprendieron era clara: el problema no era solo técnico ni sanitario. Era político.

A comienzos del siglo XX, Estados Unidos estaba dejando de ser una potencia regional para convertirse en algo más ambicioso. Necesitaba un canal para mover su flota, su comercio y su influencia de costa a costa. Negoció con Colombia un tratado para construirlo. Colombia dudó, regateó y finalmente dijo que no. Fue un error pedagógico. Que Dinamarca tome nota.

Washington entendió entonces que negociar con Bogotá era complicado. Negociar con el istmo, en cambio, podía ser rápido, barato y eficaz. Si el canal no cabía en Colombia, tal vez Colombia sobraba. Que Dinamarca siga tomando nota.

En Panamá no existía un movimiento independentista sólido, épico ni multitudinario. No hacía falta. Bastaba con activar un sentimiento latente: la idea de que el istmo funcionaría mejor sin Bogotá. Estados Unidos incentivó discretamente a las élites locales, prometió prosperidad inmediata y dejó claro que la independencia sería reconocida sin demora.

La prensa local ayudó. Se habló de abandono, de centralismo, de futuro propio. Todo era cierto, pero nunca había sido urgente hasta que alguien lo volvió rentable. Y cuando Colombia amagó con enviar tropas, aparecieron buques estadounidenses frente a la costa. Como en Venezuela: no dispararon. No hizo falta. La diplomacia naval es muy persuasiva cuando se limita a estar.

En noviembre de 1903, Panamá proclamó su independencia. Colombia protestó. Estados Unidos reconoció al nuevo país de inmediato. El tratado que concedía a Washington el control del canal se firmó con una rapidez admirable. Panamá había nacido y, además de esclusas, ya tenía cláusulas.

Detrás de todo estaba Theodore Roosevelt, un presidente con afición por las frases musculares y las obras colosales. Años después resumiría el episodio con una sinceridad poco habitual en política exterior: “I took the Canal”. No dijo “lo construimos”, ni “lo negociamos”. Dijo “lo tomé”. Panamá venía incluido en el lote.

Durante décadas, Panamá fue soberana en el papel y tutelada en la práctica. Como las marionetas. El canal era estadounidense, el territorio que lo rodeaba también, y la política panameña orbitaba alrededor de esa realidad. El país no se organizó en torno a una identidad previa, sino alrededor de una infraestructura. Primero fue la zanja; luego, la nación.

Con el tiempo y con Torrijos, Panamá recuperó el control del canal y lo ha gestionado con notable eficiencia. Hoy es un país plenamente funcional, con problemas propios y una economía que gira, inevitablemente, alrededor de aquella decisión tomada en 1903. La independencia, vista con perspectiva, fue menos un acto romántico que una externalización estratégica.

Y ahora, con la tentación de repetir la jugada es donde la historia se vuelve incómodamente contemporánea. Si Estados Unidos fue capaz de facilitar el nacimiento de un país para asegurar una obra clave de su comercio y su defensa, ¿por qué no podría volver a hacerlo si las condiciones fueran favorables? No con cañoneras ni proclamas, sino con incentivos, inversiones y una calculadora. Por ejemplo, en Groenlandia.

Groenlandia es grande, fría, riquísima en minerales estratégicos y escandalosamente poco poblada. Unas 56.000 personas. Tiene autogobierno, un debate abierto sobre la independencia y una economía sostenida en buena parte por transferencias de Dinamarca. Está en el Ártico, ese tablero donde se cruzan nuevas rutas marítimas, bases militares y ambiciones geopolíticas.

A diferencia del Panamá de 1903, Groenlandia no necesitaría inventarse desde cero. El sentimiento nacional ya existe. La pregunta no es si podría independizarse, sino con qué padrinos. No haría falta un golpe de Estado ni una revolución. Bastaría con ofrecer prosperidad, salarios atractivos, infraestructuras, inversiones bien publicitadas y una narrativa convincente sobre el futuro. En un territorio pequeño, la política es más manejable y los números salen antes. La soberanía, como concepto, es muy flexible cuando cabe en un presupuesto.

La lección del istmo no significa que Estados Unidos esté hoy fabricando países en serie ni que Groenlandia vaya a convertirse mañana en un Panamá con hielo. Significa algo más simple e inquietante: que la historia ha demostrado que crear un país puede ser más barato que negociar con uno.

Panamá no fue un accidente. Fue un precedente. Un manual temprano de geopolítica aplicada, en el que una potencia entendió que, a veces, la forma más eficaz de controlar una infraestructura no es conquistarla, sino rodearla de soberanía recién estrenada. En 1903, Estados Unidos no expandió sus fronteras. Hizo algo más elegante: ajustó el mapa a sus necesidades. El canal exigía un país dócil, funcional y nuevo. Y el país apareció.

La historia no se repite exactamente. Pero conviene recordar que, cuando los intereses estratégicos son lo bastante grandes, la identidad nacional puede acelerarse, la autodeterminación puede incentivarse y los países —en circunstancias muy concretas— pueden surgir con la misma lógica con la que se abre una ruta marítima.

A veces, para que el mundo circule mejor, alguien decide dibujar una línea nueva en el mapa. Y luego la llama nación. Por mi parte, doy Groenlandia por entregada.