Vistas de página en total

domingo, 18 de enero de 2026

NO, INTERNET NO NACIÓ EN UN CUARTEL

 

Durante años se ha repetido una frase que suena tranquilizadora, casi reconfortante: tenemos Internet gracias a la investigación militar. Es una frase ordenada, jerárquica, con un aroma a despacho bien iluminado y decisiones firmes adoptadas entre estrellas y galones. Sugiere que alguien, en algún momento, supo exactamente lo que estaba haciendo y que el resultado es este caos organizado que usamos a diario para trabajar, discutir y ver vídeos de gatos.

El problema es que no es verdad. O, para ser más precisos, no es exactamente verdad. Internet no es un invento militar, aunque durante un tiempo fuera pagado por militares. Y esa diferencia, que parece menor, lo explica casi todo.

La historia suele empezar en ARPANET, una red creada a finales de los años sesenta por una agencia del Departamento de Defensa de Estados Unidos llamada ARPA, luego DARPA. A partir de ahí, el relato se simplifica peligrosamente: Defensa financia una red, por tanto, la red es militar. Pero esa lógica es como decir que las autopistas son inventos bélicos porque el Estado las paga. La financiación explica el contexto; no define el propósito.

ARPANET no se diseñó para dirigir guerras ni para resistir ataques nucleares, pese a lo mucho que se repite esa idea. De hecho, nadie en el proyecto estaba especialmente preocupado por las bombas atómicas. El problema que intentaban resolver era mucho más pedestre: los ordenadores eran enormes, carísimos y estaban infrautilizados. Las universidades y centros de investigación tenían máquinas potentes que solo podían usar unos pocos investigadores locales. La idea de conectarlas para compartir recursos parecía sensata, casi doméstica. Nada heroico. Nada estratégico. Simplemente práctico.

Mapa lógico de la ARPANET tal como existía en abril de 1971. Ilustra la estructura de la red, mostrando los nodos interconectados y los ordenadores anfitriones conectados a ellos. La red estaba compuesta por 15 Procesadores de Mensajes de Interfaz (IMP). Entre las instituciones clave conectadas se encontraban La Universidad de California Los Ángeles (UCLA), la Universidad de Stanford en California, el Instituto Tecnológico de Massachussets (MIT), la Universidad de Harvard y la RAND Corporation, un grupo estadounidense creado originalmente para asesorar a las Fuerzas Aéreas tras la Segunda Guerra Mundial. Varios ordenadores estaban conectados a los IMP, como el PDP-10, el IBM 1800 y el ILLIAC IV. El mapa muestra la etapa inicial de la red que más tarde se convertiría en la base del internet moderno. Fuente.

Quienes construyeron ARPANET no fueron generales ni estrategas, sino ingenieros, matemáticos e informáticos civiles, muchos de ellos universitarios con barba, gafas gruesas y una paciencia infinita para discutir protocolos. Los militares ponían el dinero, sí, pero no diseñaban la red ni dictaban su funcionamiento. De hecho, uno de los grandes aciertos del proyecto fue que los responsables políticos no entendían del todo qué se estaba haciendo. Eso permitió algo rarísimo en la administración pública: que los técnicos trabajaran con bastante libertad.

El correo electrónico, por ejemplo, no fue una orden ni una necesidad militar. Surgió porque era útil. Alguien escribió un programa para mandar mensajes entre ordenadores y, de repente, la red empezó a usarse más para comunicarse que para compartir capacidad de cálculo. Nadie lo había previsto. Nadie lo había autorizado formalmente. Simplemente funcionaba.

Lo mismo ocurrió con la arquitectura descentralizada de la red. No fue una genialidad estratégica pensada para sobrevivir a una guerra nuclear, sino una solución elegante a un problema técnico: qué hacer cuando un nodo falla. La respuesta fue repartir la inteligencia de la red y evitar puntos únicos de colapso. Una decisión técnica que luego adquirió un aura casi filosófica.

Hasta aquí, todo podría haber quedado en una curiosidad académica bien financiada. De hecho, si ARPANET hubiera sido un proyecto militar al uso, eso es exactamente lo que habría pasado. Habría sido cerrada, clasificada, limitada a unos pocos usuarios autorizados. No habría salido jamás de Estados Unidos y probablemente nadie fuera del Pentágono habría oído hablar de ella.

Pero ocurrió algo poco habitual. Los protocolos que hacían funcionar la red se hicieron públicos. Cuando en los años setenta y ochenta se desarrollaron TCP/IP, nadie los patentó, nadie los convirtió en un estándar propietario y nadie exigió licencias. Cualquiera podía usarlos. Cualquiera podía implementarlos. Cualquiera podía mejorarlos. Fue una decisión técnica que tuvo consecuencias políticas enormes.

Aquí aparece la pregunta clave: ¿por qué Estados Unidos permitió eso? ¿Por qué soltó el control? La respuesta corta es que no lo hizo por altruismo, sino por una combinación de pragmatismo, confianza institucional y un contexto histórico muy específico.

En primer lugar, porque el objetivo original ya estaba cumplido. ARPANET había servido para conectar centros de investigación y demostrar que el sistema funcionaba. Desde el punto de vista militar, el interés era limitado. No era un arma, no daba ventaja inmediata y no encajaba bien en la lógica de secreto que rige el mundo de la defensa.

En segundo lugar, porque el sistema académico estadounidense era —y sigue siendo— extraordinariamente influyente. Las universidades tenían peso, prestigio y capacidad de presión. Internet creció en un ecosistema donde compartir conocimiento era un valor central. Convertir la red en un coto cerrado habría sido ir contra la cultura que la había hecho posible.

En tercer lugar, porque Estados Unidos confiaba en su ventaja estructural. Liberar los protocolos no se percibía como una amenaza, sino como una oportunidad. Si el mundo iba a conectarse, mejor que lo hiciera usando estándares diseñados en universidades estadounidenses, con empresas estadounidenses listas para aprovecharlos. Y eso fue exactamente lo que ocurrió.

A finales de los años ochenta, el interés militar en la red se había evaporado casi por completo. ARPANET se apagó en 1990 sin ceremonias. Internet, en cambio, estaba a punto de empezar de verdad. Las universidades se conectaban entre sí, las empresas comenzaban a experimentar y la red dejaba de ser un experimento para convertirse en infraestructura.

El empujón definitivo llegó desde un lugar inesperado: el CERN, en Suiza. Allí, un físico británico propuso una forma sencilla de enlazar documentos usando hipertexto. No lo hizo para conquistar mercados ni para transformar el mundo, sino para que los científicos compartieran información sin volverse locos. Lo llamó World Wide Web y, en un gesto que hoy parece casi subversivo, lo liberó al dominio público.

La web no tiene absolutamente nada de militar. Es, si acaso, un invento burocrático: nació para organizar papeles. Pero era simple, gratuita y útil. Tres cualidades que suelen ser letales para cualquier sistema alternativo. A partir de ahí, Internet se convirtió en lo que conocemos: una red global, civil, caótica, comercial y profundamente humana.

El mito del Internet militar persiste porque simplifica una historia compleja y encaja bien con la narrativa de la Guerra Fría. También porque confunde financiación con autoría y porque da una falsa sensación de control. Es reconfortante pensar que alguien diseñó todo esto. La realidad es más inquietante: Internet no fue diseñado. Emergió.

Decir que tenemos Internet gracias a la investigación militar es como decir que tenemos la medicina moderna gracias a las guerras. Hay algo de verdad: dinero, urgencia, contexto. Pero lo decisivo no es la guerra, sino los médicos, los hospitales y la ética profesional. Con Internet ocurre lo mismo. Lo importante no fue el uniforme, sino la bata.

La formulación más honesta sería esta: Internet nació de investigación pública financiada en parte por el ámbito militar, pero fue concebida, desarrollada y expandida por científicos civiles y universidades, y se convirtió en lo que es gracias a su apertura, no a su origen.

O, dicho de forma menos elegante pero más clara: Internet no es un invento militar. Es un invento civil que tuvo la suerte —y la rareza histórica— de que quien pagaba supo cuándo apartarse y dejarlo crecer.

Eso, visto con perspectiva, puede que sea el verdadero milagro tecnológico del siglo XX.

VIAJAR EN EL TIEMPO, SEGÚN EL RELOJ

 

«El pasado es obstinado». La frase aparece en 22/11/63, la extraordinaria novela de Stephen King en la que un hombre intenta corregir una fecha concreta —la del asesinato de Kennedy— y descubre que el tiempo no acepta correcciones sin presentar una factura detallada. Cada intento de ajuste provoca un desorden mayor que el anterior. El tiempo, viene a decir King, es como un gato. Hace lo que quiere y se ofende si lo tocas.

En cierto modo, el viaje en el tiempo sí existe. Basta con tomar un avión de Lisboa a Ankara o a Moscú para desplazarse tres horas en el reloj. No cambia tu edad, ni tu carácter, ni tu cuenta bancaria, pero confunde lo suficiente como para que durante unos minutos no sepas si tienes hambre, sueño o ambas cosas a la vez.

Durante la mayor parte de la historia humana, esta clase de confusión no existía. Nadie necesitaba saber qué hora era en otra ciudad. Bastaba con mirar al cielo y aceptar que el mediodía llegaba cuando el sol decidía ponerse en lo alto. Era un sistema primitivo, sí, pero tenía una gran ventaja: funcionaba.

Hasta el siglo XIX, cada ciudad vivía en su propio presente. La hora era local, subjetiva y bastante flexible. Si el reloj de la plaza decía una cosa y el sol otra, se le daba la razón al sol. Y si alguien llegaba tarde, siempre podía culpar a la sombra de la torre.

El problema apareció con el ferrocarril, una invención extraordinaria que, además de transportar personas y mercancías, introdujo un concepto inquietante: la puntualidad compartida. De repente, no bastaba con salir “más o menos” a una hora. Había que salir exactamente a la misma hora que figuraba en un papel impreso. Eso fue el principio del fin.

Durante un tiempo se intentó convivir con el caos. En Estados Unidos, por ejemplo, llegaron a coexistir más de trescientas horas locales distintas. Algunas estaciones tenían varios relojes, cada uno marcando la hora correcta para una línea distinta. Era como un museo del tiempo, pero con trenes. Los viajeros aprendieron a vivir con ello. Perdían trenes, discutían con revisores y llegaban tarde a destinos que aún no sabían exactamente en qué hora vivían.

Este método de cronometraje se vio cuestionado en 1853 cuando, en Nueva Inglaterra, dos trenes que se dirigían uno hacia el otro, en la misma vía, colisionaron. Podría haberse evitado si los conductores hubieran tenido la misma hora en sus relojes. El desastre provocó la muerte de catorce pasajeros y diecisiete heridos, lo que puso de relieve los peligros de no contar con una hora ferroviaria estandarizada. Pero estandarizar la hora en los ferrocarriles norteamericanos resultó ser mucho más difícil de lo previsto, por lo que la idea estuvo prácticamente paralizada drente más de veinte años.

En 1878, Sir Sandford Fleming, ingeniero ferroviario canadiense, tuvo una idea revolucionaria. Inspirado por un error en un horario de trenes, cuando una confusión entre AM y PM le hizo perder su tren, Fleming ideó la creación de un reloj de veinticuatro horas (hora militar). Tras esta propuesta, Fleming concibió la idea de implementar otras tantas zonas horarias en todo el mundo. Las zonas horarias, según Fleming, tendrían cada una quince grados de longitud de ancho; en pocas palabras, una hora de ancho. 

El cálculo que ahora parece pan comido es que la Tierra gira 360° en un día, lo que, dividido entre veinticuatro se obtienen 15° y, ¡por lo tanto, zonas horarias iguales! Aunque inicialmente se enfrentaron a cierta resistencia, en 1883, las compañías ferroviarias de Estados Unidos decidieron operar en cuatro zonas horarias, y poco después, el resto del mundo siguió su ejemplo.

En 1884, se celebró en Washington la Conferencia Internacional del Meridiano, una reunión en la que representantes de varios países discutieron algo aparentemente sencillo: dónde empieza el mundo. Ganó Greenwich. No porque fuera el mejor sitio, sino porque los británicos ya lo usaban y tenían barcos en todas partes. Francia votó en contra, y durante décadas siguió usando su propio meridiano en París, porque el orgullo nacional también tiene huso horario.

Así como el Ecuador divide la Tierra en los hemisferios norte y sur, el meridiano de Greenwich divide la Tierra en los hemisferios este y oeste. Básicamente:

La latitud 0º es el Ecuador y sus líneas corren horizontalmente.

La longitud 0º es el meridiano de Greenwich y sus líneas corren verticalmente.

El Meridiano de Greenwich es importante porque sirve como punto de referencia para los mecanismos de medición del tiempo del mundo tal como los conocemos. El GMT (Tiempo Medio de Greenwich) es la base del sistema de husos horarios estándar.

Aunque sobre el papel, los husos horarios son elegantes franjas verticales limpias, ordenadas, casi racionales, en la realidad son una pesadilla cartográfica. Se doblan, se estiran y hacen curvas imposibles para no molestar a países, provincias, islas, intereses económicos o señores muy serios con bigote que un día dijeron “aquí no”.

Y es que, si bien la idea de Fleming de crear veinticuatro husos horarios perfectamente uniformes era lógica y parecía tener un amplio apoyo en su momento, no se mantuvo plenamente vigente por mucho tiempo. Si bien técnicamente existen veinticuatro husos horarios estándar, hoy en día existen entre treintaiocho y cuarenta reconocidos en todo el mundo. Esta discrepancia se debe en gran medida a que los países no siguen diferencias horarias de una hora completa con respecto al GMT, como India y Nepal, que operan en GMT+5:30 y GMT+5:45 respectivamente.

En el caso de la India, y de manera similar en China, la decisión de mantener una única zona horaria nacional fue impulsada por el liderazgo político con la intención de unificar el país bajo una hora estándar. La zona horaria de la India tiene también raíces históricas en el dominio colonial británico.

España vive en el mismo huso que Alemania, pese a que el sol insiste en comportarse como si estuviéramos en el de Portugal. Aunque hay quien sostiene que Franco cambió nuestro huso para adaptarlo al de los alemanes, nadie recuerda bien por qué ocurrió, pero como cambiarlo implicaría reuniones, informes y opiniones, se ha decidido que lo mejor es seguir tal y como estamos.

Rusia, cansada de cambiar el reloj dos veces al año, decidió dejar de hacerlo. Turquía hizo lo mismo. Otros países lo estudian, lo debaten, lo votan, lo posponen y vuelven a estudiarlo. El resultado es que el mapa horario europeo parece diseñado por alguien que empezó con entusiasmo y terminó con sueño.

Mientras que, siguiendo la lógica de Fleming, los científicos que viven en la Antártida simplemente usan el GMT, el continente se dividiría en veinticuatro pequeñas zonas horarias. ¡Qué manera de pasar la Nochevieja, celebrando el Año Nuevo a cada hora, todo el día! ¡Eso sí que es una fiesta!

Y es que nada de esto tiene que ver con el tiempo real. Los relojes no miden el tiempo: miden decisiones humanas. Decisiones políticas, económicas y sociales que aceptamos porque la alternativa —que cada uno viva al sol que más le caliente— sería aún más caótica.

Por eso viajar en avión produce esa sensación infantil de haber ganado o perdido horas sin merecerlo. No has hecho nada heroico. No estás en el mundo imaginario de detrás del espejo. Simplemente has cruzado una línea imaginaria que alguien dibujó hace más de un siglo para que los trenes no colisionaran.

Como advertía Stephen King, el tiempo no acepta bien las correcciones. Cada ajuste genera pequeñas molestias: jet lag, reuniones a horas absurdas, informativos que no coinciden, videollamadas en las que alguien bosteza siempre. Nada grave, pero todo constante.

La pregunta inevitable es por qué seguimos tocando el reloj, por qué continuamos modificando la hora si nadie parece estar satisfecho. La respuesta es decepcionante: porque ya estamos demasiado metidos en el lío. El sistema funciona lo suficiente como para que cambiarlo resulte aún más complicado que soportarlo.

El tiempo moderno es una infraestructura invisible. Como el alcantarillado o el wifi, solo pensamos en él cuando falla. Y cuando falla, suele hacerlo de madrugada, un domingo, con el reloj del microondas parpadeando y la vaga sensación de que alguien nos ha robado una hora de vida sin pedir permiso.

No hemos inventado la máquina del tiempo. Pero hemos creado algo quizá más inquietante: un sistema global que permite desplazarse por el tiempo administrativo con solo cruzar una frontera.

Y eso, para una especie que durante milenios se conformó con mirar al cielo y decir “más o menos ahora”, es un logro notable. O una advertencia. Depende de la hora a la que lo leas.

sábado, 17 de enero de 2026

EL ORIGEN ESTADOUNIDENSE DEL CAOS IRANÍ

El golpe de Estado de 1953 en Irán no fue un episodio aislado, sino el inicio de una cadena de decisiones que todavía hoy condicionan la política iraní y la de la Casa Blanca de Donald Trump.

Foto de Amnistía Internacional

No hay duda de que el caos que Irán vive estas semanas hunde sus raíces en un golpe de Estado que acabó con la incipiente democracia surgida de las elecciones libres celebradas en 1951. Desde entonces, los iraníes viven atrapados en una inestabilidad política y en una crisis económica que sigue llenando las calles de manifestantes abatidos a disparos por las fuerzas de seguridad.

En 1950, sin que nadie pareciera advertirlo del todo, Washington tomó una decisión que cambiaría la política internacional para siempre. La Guerra Fría estaba en marcha y los servicios de inteligencia estadounidenses habían señalado un punto rojo en el mapa: Irán. No tanto por lo que era, sino por dónde estaba.

Irán tenía petróleo. Mucho. Pero, sobre todo, tenía vecinos. Al norte, la Unión Soviética. Al oeste, Turquía e Irak. Al sur, Arabia Saudí y el Golfo Pérsico. Al este, Afganistán y Pakistán. Desde Teherán se podía vigilar media región, se controlaba el estrecho de Ormuz, la gran arteria petrolera del mundo por donde pasan el 30% del comercio global de petróleo y el 20% de gas natural licuado que Irán lleva años amenazando con bloquear, y, llegado el caso, proyectar fuerza sobre Israel, Líbano, Jordania o Siria. En geopolítica, eso no es un país: es una tentación.

Esa condición de territorio codiciado no era nueva. Irán —la antigua Persia— llevaba siglos acostumbrado a sobrevivir entre imperios. Fue un Estado que ya estaba organizado en el siglo VI antes de nuestra era, cuando Ciro el Grande fundó el Imperio aqueménida. Desde entonces, con conquistas, invasiones y dominaciones parciales, la idea de un Estado persa nunca desapareció del todo.

Alejandro Magno pasó por allí en el siglo IV antes de nuestra era. Los árabes musulmanes llegaron en el siglo VII. Los mongoles gobernaron entre los siglos XIII y XIV. Nadie “liberó” Irán de los mongoles: simplemente se diluyeron, se iranizaron y dejaron paso a nuevas dinastías locales. En Persia, incluso los conquistadores acaban pareciendo de la casa.

La reconstrucción de un Estado iraní fuerte y reconocible llegó en 1501, cuando Ismail I fundó la dinastía safávida. Unificó el territorio, expulsó rivales e impuso el chiismo duodecimano como religión oficial. Fue una decisión política más que espiritual, pero funcionó: dotó al país de una identidad propia frente a sus vecinos suníes.

Cuatro siglos después, en diciembre de 1925, el Parlamento iraní depuso a la debilitada dinastía kayar y proclamó sha a Reza Shah Pahlavi. No fue una revolución popular, sino una operación desde arriba. Reza Khan, un oficial cosaco, había dado un golpe de Estado en 1921 y desde el cargo de primer ministro fue acumulando poder mientras el último sha quedaba reducido a mero comparsa.

Con Reza Shah comenzó la construcción del Irán moderno: centralización, secularización, infraestructuras, debilitamiento del clero y de las élites tribales. Todo ello bajo un régimen autoritario, pero con ambición nacional. En 1935, incluso cambió el nombre del país: Persia pasó a llamarse oficialmente Irán.

La soberanía duró poco. En 1941, en plena Segunda Guerra Mundial, británicos y soviéticos ocuparon el país, forzaron la abdicación de Reza Shah y sentaron en el trono a su hijo, Mohammad Reza Pahlavi. El mensaje era claro: Irán era un corredor estratégico, no un Estado soberano.

Ese contexto abrió un breve paréntesis de libertad. El Parlamento recuperó peso, los partidos proliferaron, la prensa respiró. Y de ahí emergió Mohammad Mossadegh: aristócrata, nacionalista, legalista hasta la obsesión y enormemente popular. En 1951 fue nombrado primer ministro tras unas elecciones parlamentarias que el sha no promovió, pero tampoco pudo frenar.

Mossadegh había prometido algo sencillo y explosivo: que el petróleo iraní beneficiara a los iraníes. Nacionalizó los activos petrolíferos y, con ello, encendió todas las alarmas en Londres y Washington. El Reino Unido protestó. Estados Unidos calculó.

El presidente Eisenhower descartó una invasión directa. Irán estaba demasiado cerca de la URSS y nadie quería provocar una guerra nuclear. Pero la CIA tenía otra idea. Se llamaba Kermit Roosevelt, era nieto del antiguo presidente Theodore Roosevelt, y llegó a Teherán con maletas llenas de dólares.

Con ese dinero contrató matones, financió disturbios, sobornó funcionarios, compró voluntades y fabricó la sensación de que Mossadegh era un líder incapaz y detestado. En 1953 fue derrocado. Pasó por la cárcel y terminó el resto de su vida bajo arresto domiciliario.

El premio fue para el sha. Washington le otorgó poder absoluto, lo coronó como Shahanshah —Rey de reyes— y lo convirtió en garante de los intereses occidentales. Las compañías petrolíferas regresaron. Los contratos se multiplicaron. Irán volvió a ser fiable.

La CIA aprendió entonces una lección decisiva: con unos pocos millones de dólares se podía hacer el trabajo que antes exigía ejércitos enteros. Sin invasión. Sin titulares. Sin dar la cara. Sin que la mayoría de los estadounidenses supiera que su país acababa de derrocar una democracia.

El modelo se repetiría después en Guatemala, Chile y varios países africanos. Irán fue el ensayo general. Kermit Roosevelt había inaugurado una nueva forma de imperio: discreta, barata y eficaz.

Durante los años sesenta y setenta, Irán se llenó de asesores estadounidenses. Convencieron al sha de invertir los petrodólares en proyectos diseñados, gestionados y ejecutados por grandes corporaciones extranjeras. General Electric, Boeing, IBM, Citibank. Americanizar el país era una cuestión de estilo y de contratos.

Mientras tanto, la dictadura se iba pudriendo. La represión crecía. El apoyo social se evaporaba. En 1978, las protestas estallaron. El ayatolá Jomeini regresó del exilio. El sha huyó, enfermo de cáncer. Estados Unidos y Reino Unido le negaron asilo. Murió en Egipto atesorando una fortuna intacta de unos 4 000 millones de dólares que había obtenido saqueando el Banco nacional.

Los nuevos gobernantes iraníes gritaron contra el imperialismo estadounidense. Tomaron la embajada de Estados Unidos en Teherán y retuvieron a 52 diplomáticos durante 444 días. Las empresas estadounidenses fueron expulsadas. Todavía no han vuelto.

La actual inestabilidad política de Irán y los miles de muertos causados por la represión es consecuencia de la intervención de Estados Unidos. Trump ha advertido públicamente que la Casa Blanca no descarta ataques a objetivos militares iraníes como parte de su respuesta. Una respuesta a un problema de inestabilidad política que hunde sus raíces en la intervención desestabilizadora estadounidense hace casi setenta y cinco años.

El eterno retorno de lo mismo.


viernes, 16 de enero de 2026

ARISTOLOCHIA, UN ANTIGUO REMEDIO PARA LOS PARTOS

 

Aristolochia paucinervis. Foto de J. Fuentes

Vamos a empezar por la etimología. El nombre Aristolochia con el que Linneo denominó en 1753 a este género, procede del griego antiguo: áristos = “el mejor” y locheía = “parto” o “alumbramiento”. En resumen, aristolochía significa literalmente “la mejor para el parto”.

El término fue usado en la Antigüedad clásica porque varias especies del género se empleaban en la medicina grecorromana como remedios para facilitar el parto, estimular la expulsión de la placenta o tratar problemas ginecológicos. Autores como Hipócrates, Dioscórides y Galeno mencionan estas plantas con ese uso.

El nombre resulta hoy especialmente llamativo porque muchas especies de Aristolochia contienen ácidos aristolóquicos, compuestos altamente nefrotóxicos y carcinógenos. Es decir, una planta cuyo nombre significa “excelente para el parto” acabó siendo un ejemplo clásico de medicamento tradicional peligroso. En resumen, Aristolochia es un nombre botánico cargado de historia médica, optimismo terapéutico antiguo… y una buena dosis de ironía científica moderna.

Y ahora hablemos de botánica. El género Aristolochia, que da nombre a la familia a la que pertenece (Aristolochiaceae), comprende más de 500 especies de plantas herbáceas perennes o lianas leñosas, raramente arbustos. Muchas especies son trepadoras con tallos flexibles que se enrollan sobre soportes naturales. Otras son erectas o decumbentes (los tallos se arrastran paralelos al suelo para luego curvarse y levantarse). Los tallos suelen ser glabros (carentes de pelos) o ligeramente pubescentes (con un vello muy corto) y, en las formas leñosas, pueden lignificarse notablemente con la edad.

Las hojas son simples, alternas y pecioladas, generalmente grandes y de contorno cordiforme (con forma de corazón), reniforme (arriñonada) u ovado. La nerviación es palmeada, bien marcada, lo que confiere a la hoja un aspecto robusto y un tanto arcaico.

La flor de Aristolochia es uno de los ejemplos más singulares de las angiospermas, tanto por su morfología como por su función ecológica. Las flores se disponen solitarias o en pequeñas inflorescencias que nacen en la axila que forman las hojas donde surgen de los tallos.  Las flores son generalmente zigomorfas, es decir, tienen un solo plano de simetría que las divide en dos partes bilateralmente simétricas.

El perianto (de peris, alrededor, y anthos, flor) es el protagonista absoluto de las flores, que carecen de corola, es decir, no hay pétalos. El elemento visible es un cáliz petaloide, formado por tres sépalos soldados en una única estructura tubular.

(A) Flores de Aristolochia argentina. (B) sección longitudinal de las flores mostrando el ginostemo basal. Abreviaturas: l, limbo; g, ginostemo; t, tubo; u, utrículo. Fuente

Este tubo periántico se divide morfológicamente en tres regiones (véase la figura de arriba):

Utrículo basal: una cámara inflada donde quedan atrapados los insectos.

Tubo o trompa: parte estrecha y generalmente curvada.

Limbo: extremo distal expandido, a menudo en forma de lengua, embudo o bandera. En las flores tropicales el limbo puede ser espectacularmente grande, con colores que van del verde amarillento al púrpura oscuro, marrón o casi negro, frecuentemente con venaciones contrastadas o manchas que recuerdan a carne en descomposición.

La longitud del tubo o trompa que conecta el limbo y el utrículo es variable. El tubo es liso por fuera, mientras que el interior suele parecer más claro debido a la presencia de pequeños pelitos blancos (tricomas) dirigidos hacia abajo (retrorsos). La base del tubo termina en el utrículo, que externamente se observa en la curvatura del propio tubo formando un grueso collar alrededor de la entrada que se superpone a la flor a modo de cámara inflada donde quedan atrapados los insectos.

La parte masculina de la flor, el androceo, consta de seis estambres sésiles fusionados externamente con los estigmas del ovario (gineceo) en seis ramas estigmáticas formando en su conjunto una unidad funcional llamada ginostemo (de ginos, femenino, por el gineceo o parte femenina de una flor, y estemo, apócope de estambre). Las paredes internas del utrículo presentan manchas moradas rodeadas de mechones de tricomas que producen pequeñas cantidades de néctar.

Aristolochia bianorii. a) porte de la planta mostrando el único tubérculo basal. b, hoja cordiforme-lanceolada y flor. c, flor aislada, a la izquierda entera, a la derecha el dorso del limbo y del tubo; d, sección del utrículo inflado, a la izquierda mostrando los estambres, a la derecha con el ovario cortado repleto de semillas y, arriba, los estigmas (se han eliminado los estambres). e, el fruto es una cápsula, que en (f) aparece cortada en sección para mostrar las seis cavidades carpelares con semillas en su interior. Imagen tomada de Flora Iberica.

La polinización de muchas especies de Aristolochia es a través de un sofisticado sistema de polinización por engaño conocido como sapromiofilia, un término de origen grecolatino que se usa en biología para describir la atracción de ciertos organismos —especialmente insectos— por la materia orgánica en descomposición, en particular cadáveres o tejidos putrefactos. Su etimología se descompone así: saprós (“podrido”, “corrupto” o “en descomposición”), myía (“mosca”) y philia (“amor”, “afinidad”, “inclinación por”). El significado literal es, pues, “afinidad o atracción por lo podrido asociada a las moscas”.

De ahí que muchas especies emitan olores fétidos (cadaverina, putrescina) que atraen dípteros necrófagos. Los tricomas del tubo están orientados hacia abajo para impedir la salida del insecto, que queda temporalmente atrapado, se impregna de polen y, tras la fecundación, los tricomas se marchitan permitiendo su liberación. Este mecanismo convierte a la flor en una auténtica trampa biológica temporal, una rareza entre las plantas con flor.

El fruto es una cápsula, generalmente péndula, que al madurar se abre en valvas, liberando numerosas semillas planas, a menudo aladas o con expansiones membranosas que facilitan la dispersión por viento. 

Las seis especies españolas del género Aristolochia

En España hay seis especias nativas, que pueden separarse por la siguiente clave:

Clave sencilla para identificar las especies españolas de Aristolochia (ver la imagen adjunta)

1a. Flores en grupos (fascículos): A. clematidis (Cataluña y Baleares).
1b. Flores solitarias: 2

2a. Planta trepadora de flores púrpuras: A. baetica (sur de España, desde el Algarve a Levante y norte de África).
2b. Plantas no trepadoras: 3

3a. Hojas sin peciolo: A. rotunda (Cataluña y Levante).
3b. Hojas con peciolo: 4

4a. Margen de las hojas con un reborde cartilaginoso ondulado o denticulado: A. pistolochia (Península y Baleares).
4b. Margen delgado, no cartilaginoso ni denticulado: 5

5a. Tallos postrados: A. bianorii (Baleares).
5b. Tallos ascendentes. A. paucinervis (Península y Baleares).

jueves, 15 de enero de 2026

POR QUÉ LA ESCALA FAHRENHEIT PARECE UNA BROMA Y NO LO ES

 

Hay invenciones humanas que parecen concebidas expresamente para irritar a las generaciones futuras. La escala Fahrenheit es una de ellas. No porque no funcione —funciona estupendamente— sino porque parece diseñada por alguien que se levantó una mañana y pensó: “Voy a medir algo perfectamente natural usando números que no tengan ningún sentido evidente”.

Según esta escala, el agua se congela a 32 grados, hierve a 212, y el cero no coincide con ninguna de las dos cosas, ni siquiera intenta caer cerca. Es como si alguien hubiera numerado los pisos de un edificio empezando por el sótano, saltándose el tercero y llamando “ático” al quinto. Y, sin embargo, durante más de tres siglos millones de personas han vivido perfectamente bien con este sistema sin arder de indignación (aunque a veces sí de calor).

El responsable de todo esto fue Daniel Gabriel Fahrenheit, un físico del siglo XVIII que no tenía ni la más remota intención de fastidiarnos la vida. De hecho, su problema era exactamente el contrario: quería que las cosas funcionaran de una vez. En su época, medir la temperatura era un ejercicio cercano al arte adivinatorio. Dos termómetros distintos podían dar lecturas distintas para el mismo día, el mismo lugar y la misma habitación, lo cual no es ideal si uno intenta hacer ciencia y no simplemente comentar el tiempo mientras toma café.

Fahrenheit decidió que la única forma de imponer orden era fabricar termómetros fiables y, para ello, necesitaba una escala estable. Estable no en el sentido filosófico, sino práctico: que pudiera reproducirse en cualquier laboratorio sin depender de inviernos excepcionales, veranos tórridos o estados de ánimo del observador. Y ahí es donde empezó el problema, por el principio de todo sistema de medida: el cero.

Hoy damos por hecho que el cero debe significar algo profundo y solemne, como “nada”, “inicio” o “a partir de aquí pasan cosas importantes”. Pero en el siglo XVIII el cero era, ante todo, un número incómodo, y los números negativos eran vistos con una mezcla de sospecha matemática y anomalía estética. Fahrenheit decidió evitar ambos fijando el cero en la temperatura más baja que podía generar de forma fiable en su laboratorio: una mezcla de hielo, agua y sal. Un brebaje tan frío como poco apetecible, pero maravillosamente constante. Ese fue el 0 °F. Ni el frío absoluto, ni el invierno de 1709, ni el Polo Norte. Simplemente, lo más frío que puedo hacer sin cambiar de continente.

Una vez decidido el cero, Fahrenheit necesitaba puntos de referencia útiles. El primero era obvio: el punto de congelación del agua. Cuando lo midió en su escala recién creada, cayó en 32 grados. Y aquí ocurrió algo revelador: no hizo absolutamente nada al respecto. No redondeó, no reajustó, no pensó “qué número tan feo”. Aceptó el 32 con la seguridad de alguien que entiende que el mundo no tiene obligación alguna de ser elegante. El termómetro funcionaba. El punto era reproducible. Caso cerrado.

Después vino la temperatura del cuerpo humano, que le pareció un referente práctico y universal. Midió, probablemente en sí mismo o en alguien disponible y cooperativo, y obtuvo 96 grados. De nuevo, no 100, no un número bonito para los pósteres educativos, sino uno útil. Entre 32 y 96 hay 64 grados, una potencia de dos, lo que permitía dividir intervalos una y otra vez sin recurrir a fracciones endiabladas. Era una escala pensada para manos, no para pizarras; para artesanos, no para filósofos.

El último gran hito fue el punto de ebullición del agua, que resultó estar en 212 °F. Esto dejó exactamente 180 grados entre congelación y ebullición, un número extraordinariamente cooperativo. Divisible por casi todo, ideal para cálculos en una época sin calculadoras, sin hojas de cálculo y sin paciencia infinita. A esas alturas, la escala ya estaba completa. No era bonita, pero era sólida. Y, sobre todo, era consistente.

Lo que ocurre es que la escala Fahrenheit tuvo la mala suerte de ser comparada más tarde con la escala Celsius, que apareció cuando la ciencia ya había decidido que, además de funcionar, debía tener buena presencia. Celsius estableció que, por narices, el agua se congelara a 0 y hirviera a 100, creando una escala tan limpia y pedagógica que parece diseñada por un comité de profesores con regla y compás. Frente a eso, Fahrenheit parece un manuscrito medieval lleno de tachones.

Pero aquí viene la ironía: para la vida cotidiana, la escala  Fahrenheit es sorprendentemente buena. Tiene más grados en el mismo rango, lo que permite describir cambios pequeños pero perceptibles. Entre 68 y 72 °F hay una diferencia clara que cualquiera nota al salir de casa. En Celsius, 20 y 22 grados parecen casi la misma cosa, como si el clima se encogiera de hombros. Fahrenheit, en cambio, susurra matices. Es una escala con oído fino.

Por eso, cuando los estadounidenses hablan del tiempo en Fahrenheit, suenan extraordinariamente precisos, como si el clima estuviera afinado al milímetro. No es que la escala sea más científica; es que es más gradual. Está ajustada a la experiencia humana, no a la elegancia conceptual.

Así que la escala Fahrenheit no es complicada porque sea mala, sino porque es antigua. Nació antes de que la ciencia decidiera que debía ser intuitiva, bonita y fácil de explicar a adolescentes. Nació en un mundo donde lo importante era que dos instrumentos distintos dijeran lo mismo, aunque los números parecieran sacados de una rifa. Y lo consiguió.

Al final, Fahrenheit no nos dejó una escala absurda, sino un fósil funcional: algo que no encaja del todo con nuestras expectativas modernas, pero que sigue haciendo su trabajo con una dignidad imperturbable. Como muchas reliquias del siglo XVIII, no tiene sentido a primera vista, pero basta usarla un rato para darse cuenta de que, por extraño que parezca, sabe exactamente lo que está haciendo.

miércoles, 14 de enero de 2026

COCINA MODERNA: EL DÍA EN QUE LA PIMIENTA GANÓ

 


Nadie proclamó oficialmente la victoria de la pimienta. No hubo edictos, ni concilios gastronómicos, ni campanas repicando en las cocinas europeas. La pimienta ganó como ganan casi siempre las cosas que cambian de verdad la historia: sin que nadie se diera cuenta, poco a poco, por acumulación de gestos pequeños y cómodos. Un giro aquí, un atajo allá, hasta que un día el mundo ya no sabe exactamente cuándo dejó de ser como antes.

Durante siglos, la pimienta negra había sido un lujo casi mítico. Llegaba desde la India por rutas largas y peligrosas, pasaba por intermediarios árabes, venecianos y genoveses, y terminaba en Europa convertida en algo más cercano a una joya que a un ingrediente. Se guardaba bajo llave, se regalaba como símbolo de prestigio y se usaba con cuidado. No estructuraba platos: los subrayaba. El sabor, en cambio, seguía construyéndose con otros pilares mucho más antiguos y complejos: vinagre, vino reducido, agraz, fermentos, miel, grasa y hierbas.

Roma había enseñado a Europa que el ácido no era un error, sino una herramienta. La Edad Media había perfeccionado esa lección hasta convertirla en un arte: acideces amortiguadas, dulces estratégicos, salsas pensadas para envolver y no para golpear. Comer era componer. La pimienta existía, sí, pero no mandaba. Era una nota exótica en una partitura larga y cuidadosamente equilibrada.

El cambio no llegó desde la cocina, sino desde el comercio. Entre los siglos XVII y XVIII, las rutas se estabilizaron, los imperios coloniales hicieron su trabajo y las especias dejaron de viajar como reliquias para empezar a hacerlo como mercancía. La pimienta comenzó a llegar en grandes cantidades, en sacos, de forma regular. Y cuando algo deja de ser raro, deja también de ser pensado. Ahí está el momento clave de su victoria: no cuando apareció, sino cuando se volvió cotidiana.

A partir de entonces, la pimienta empezó a ocupar un lugar que antes no tenía. Ya no era un adorno ni un lujo: se convirtió en solución. Si un plato parecía insípido, se le añadía pimienta. Si faltaba carácter, pimienta. Si algo no acababa de cuadrar, pimienta. El molinillo se volvió un gesto reflejo. Y con ese gesto automático, Europa empezó a abandonar sin saberlo una forma entera de entender el sabor.

Porque la pimienta no vino sola. Llegó acompañada de una gran simplificación. Frente a la cocina antigua —romana y medieval—, que pensaba el plato como una estructura interna de equilibrios, la cocina moderna empezó a tratar el sabor como algo que se ajusta desde fuera. Antes, el ácido se integraba desde el principio; ahora se evitaba. Antes, la fermentación era cotidiana; ahora se volvió sospechosa. El agraz desapareció, el vinagre se relegó a la ensalada y el dulce dejó de ser un amortiguador para convertirse en un compartimento estanco reservado al postre.

El ácido, que durante siglos había sido columna vertebral, empezó a percibirse como un problema potencial. Algo que había que moderar, justificar o esconder. No porque fuera más intenso que antes, sino porque había perdido su contexto. Sin grasa suficiente, sin dulzor estratégico, sin fermentación, la acidez quedaba desnuda. Y un sabor desnudo siempre parece excesivo.

Este cambio coincidió además con una nueva moral del gusto. La Edad Moderna empezó a valorar la claridad, la limpieza, la separación de categorías. Dulce por un lado, salado por otro. Lo complejo empezó a parecer confuso; lo mezclado, sospechoso. La pimienta encajaba perfectamente en este nuevo mundo: era seca, controlable, estable, siempre igual. No vivía, no cambiaba, no evolucionaba. Era el condimento ideal para una cultura que comenzaba a desconfiar de todo lo que no se podía medir o repetir.

En el siglo XIX, la cocina burguesa consagró definitivamente esta transformación. La sal y la pimienta se convirtieron en norma escrita, en base de manual, en punto de partida incuestionable. La cocina dejó de ser un saber transmitido por hábito y pasó a ser un sistema ordenado, racional, pedagógico. Y en ese sistema, la complejidad antigua estorbaba. Lo que no se podía explicar rápido, se eliminaba.

El resultado no fue una cocina sin sabor, sino una cocina con menos lenguaje. La acidez no desapareció del todo, pero se escondió en escabeches, encurtidos y recetas regionales que sobrevivieron casi como fósiles. Mientras tanto, fuera de Europa, muchas cocinas siguieron hablando con naturalidad el idioma que aquí se había olvidado: Asia, África, América precolombina nunca abandonaron la acidez como estructura.

La ironía es que hoy, siglos después, la cocina más inquieta y creativa está intentando volver exactamente a ese punto perdido. Fermentos, vinagres suaves, salsas de pescado, reducciones, agraz recuperado bajo nombres elegantes. Se habla de equilibrio, de tensión, de profundidad. Palabras nuevas para ideas muy antiguas. La pimienta sigue ahí, pero ya no manda sola.

Conviene decirlo claramente: la pimienta no es la villana de esta historia. Es magnífica, aromática y merecidamente famosa. El problema no fue usarla, sino dejarla ganar por goleada. Cuando un solo condimento se convierte en respuesta universal, el gusto se empobrece no por falta de intensidad, sino por falta de conversación.

Roma hablaba en frases largas. La Edad Media escribía párrafos barrocos. La modernidad redujo el discurso a una nota breve, eficaz y repetible. El día en que la pimienta ganó, Europa ganó comodidad. Pero perdió oído. La buena noticia es que el oído se puede reeducar. Y que, como ocurre con los buenos vinagres, el pasado sigue teniendo mucho que decir… si estamos dispuestos a escucharlo sin molinillo en la mano.

LA COCINA MEDIEVAL: CUANDO ROMA SE AGRIÓ Y EUROPA APRENDIÓ A SABOREARLO

 

Cuando el Imperio romano se derrumbó, no se llevó consigo el gusto por la acidez. Cayó la administración, se fragmentaron las rutas, se empobrecieron las ciudades y durante un tiempo incluso pareció que Europa había olvidado cómo bañarse con regularidad. Pero el paladar —ese archivo sorprendentemente resistente— sobrevivió mejor de lo que solemos imaginar. La Edad Media heredó de Roma algo más que técnicas culinarias: heredó una forma de pensar el sabor, una arquitectura gustativa en la que la acidez no era un accidente, sino el eje sobre el que giraba todo lo demás.

Existe la idea persistente de que la cocina medieval era burda, pesada y destinada a ocultar carnes dudosas bajo montañas de especias. Es una caricatura cómoda, pero profundamente falsa. La cocina medieval, al menos en sus formas más elaboradas, fue una cocina intelectual, consciente de sus herramientas y obsesionada con el equilibrio. Si la romana había sido una cocina de ingenieros prácticos, la medieval fue una cocina de teóricos: reflexiva, simbólica, casi filosófica. Y en el centro de esa reflexión estaba, una vez más, la acidez.

El gran condimento romano, el garum, fue desapareciendo poco a poco, no porque resultara repulsivo, sino porque requería una infraestructura difícil de mantener en un mundo fragmentado. Sin embargo, su función —aportar profundidad salina y complejidad fermentada— no se perdió. Fue sustituida por pescados salados, salmueras, quesos curados y caldos concentrados. El principio seguía siendo el mismo: el sabor no se daba por sentado, se construía.

En ese contexto emergió el gran protagonista medieval: el agraz. El zumo de uvas verdes prensadas antes de madurar se convirtió en el ácido por excelencia de la cocina europea. No era tan agresivo como el vinagre ni tan aromático como el limón, que aún no estaba plenamente integrado en todas las cocinas. Era una acidez discreta, flexible, capaz de integrarse sin dominar. El agraz no gritaba; organizaba. Se usaba en carnes, pescados, potajes y salsas como hoy usamos el fondo o el sofrito: no como adorno, sino como estructura.

Lo interesante es que esa acidez nunca iba sola. La cocina medieval comprendía algo que hoy nos cuesta recordar: que el ácido necesita compañía. Grasa, dulzor, espesantes. Almendras molidas, pan tostado, miel, frutas secas y vino cocido no se utilizaban para “endulzar” en el sentido moderno, sino para amortiguar, para redondear, para evitar que el plato se descompensara. El resultado no era ni dulce ni ácido, sino algo más difícil de definir y, por eso mismo, más interesante.

Esta alianza entre dulce y ácido es uno de los grandes escollos para el paladar contemporáneo. Acostumbrados a compartimentar sabores, tendemos a ver esa mezcla como una confusión. Para un cocinero medieval, en cambio, era pura técnica. Un plato bien hecho no debía destacar por un sabor concreto, sino por su armonía interna. Comer no era una experiencia sensorial aislada, sino un acto que debía resultar correcto, saludable y coherente con una determinada visión del mundo.

En la península ibérica, esta herencia romana y medieval pasó además por un refinamiento decisivo: el mundo andalusí. Allí, la acidez se volvió más fragante, más vegetal, más compleja. Zumo de granada, agraz usado con precisión, hierbas frescas en abundancia, frutos secos como estabilizadores del sabor. No se trataba de inventar una cocina nueva, sino de perfeccionar una antigua. Muchas de las combinaciones que hoy nos parecen “sorprendentemente modernas” —carne con fruta, pescado con ácido y dulce, salsas espesas sin lácteos— son, en realidad, romanas y medievales pasadas por el filtro islámico.

Mientras tanto, la pimienta seguía circulando, pero sin gobernar. Era prestigiosa, visible, apreciada, pero no estructural. El plato medieval seguía sosteniéndose sobre el mismo trípode que había aprendido de Roma: acidez, grasa y equilibrio. La pimienta añadía perfume, no sentido. Todavía no había ganado.

La diferencia más profunda entre Roma y la Edad Media es que, en esta última, el gusto se volvió consciente de sí mismo. Se escribieron tratados, se clasificaron alimentos según su efecto en el cuerpo, se relacionaron sabores con humores y estaciones. El ácido no solo era sabroso: refrescaba, estimulaba, ordenaba. Comer bien no era comer rico, sino comer de forma adecuada. La cocina se convirtió en una extensión de la medicina y de la moral.

Por eso, cuando hoy intentamos recrear una receta medieval y concluimos que “no funciona”, solemos estar cometiendo errores de traducción. Sustituimos el agraz por limón, eliminamos la grasa por considerarla excesiva, reducimos o suprimimos el dulce por miedo. El resultado es un plato desequilibrado, donde la acidez aparece desnuda y agresiva. No es que la receta sea mala; es que hemos desmontado el sistema que la sostenía.

La Edad Media fue, en realidad, el gran puente gustativo entre la complejidad romana y la simplificación moderna. No fue un paréntesis oscuro, sino un laboratorio en el que la acidez dejó de ser solo una herramienta práctica para convertirse en lenguaje culinario. Cuando más tarde la pimienta empiece a imponerse como solución universal, ese lenguaje se irá olvidando, pero no desaparecerá del todo. Quedará latente, escondido en cocinas regionales, en escabeches, en platos “raros” que sobreviven sin que sepamos muy bien por qué.

Hoy, cuando la cocina contemporánea intenta recuperar fermentos, vinagres suaves y equilibrios complejos, cree estar innovando. En realidad, está recordando. Está volviendo a un punto en el que el sabor no se resolvía con un gesto automático, sino con atención, paciencia y estructura.

Entre Roma y la modernidad hubo siglos en los que Europa supo saborear la acidez sin miedo. Aprendió a domesticarla, a envolverla, a pensarla. Y aunque más tarde la olvidara, ese conocimiento sigue ahí, esperando que volvamos a escuchar lo que un cocinero medieval —que aún recordaba a Roma— habría considerado evidente: que el ácido no estropea la comida; la hace inteligible.