Vistas de página en total

domingo, 16 de febrero de 2025

INTEREST IN GREENLAND EMERGED DURING WORLD WAR II AND INTENSIFIED DURING THE COLD WAR

 


Although it may seem like a newly emerging topic, Greenland’s glacial landscape has been entering and exiting U.S. politics for eight decades. President Trump has stated that his country needs the island for national security reasons. But there are other possible interests.

President Trump’s boasts at the beginning of his second term have placed the world’s largest island in direct conflict with the most powerful nation on Earth. Although it’s not the first time they’ve attempted to acquire ownership of this giant Arctic landmass, Trump’s desire to incorporate it into the United States has caused a significant impact among its 57,000 endogamous inhabitants.

In 1946, under President Truman, the United States, which wanted to control Greenland to strengthen international security against its Russian nuclear enemies, made a $1 billion purchase offer to Denmark, which had ruled the island since 1814.

The U.S. presence, which began during World War II near Thule, in the northwest corner of Greenland, has continued there ever since. As part of a secret plan to hide nuclear weapons from the Soviets, in the 1950s, during the Cold War, the U.S. military launched Project Iceworm.

Military engineers built a multi-story underground base near Thule, calling it Camp Century. It didn’t last long. Snow and ice began to slowly crush the buildings above the tunnels, forcing the military to abandon it in 1966.



During its short life, scientists were able todrill into the ice core and begin analyzing Greenland's climate history. The U.S. weather station Bluie West Six, built during the war, was located just a few kilometers from the indigenous settlement of Pituffik. Immediately after the war, as part of Operation Nanook, the Americans expanded the existing facility with a gravel runway as part of an upgrade to a larger, new weather station. This is how the Pituffik Missile Base was born, an essential piece for carrying out the polar strategy and establishing U.S. military supremacy in the Arctic.

As the historical record points out, both Denmark and the United States owe much to the ancient Icelandic Vikings, who, under Erik the Red, were the first to inhabit Greenland in the 11th century. The legendary Icelandic sagas provide a detailed (and to some extent historically accurate) account of life in Greenland during the Viking domination period, which has written testimonies from the 13th century that show how natural forces have long shaped human interaction with the region.

Unlike those medieval Vikings who, overwhelmed by the climate, abandoned their first attempts to colonize the island, the Greenland Inuit resisted. The Inuit arrived in Greenland around the year 1200 AD, forming part of a more recent culture that replaced the Paleo-Eskimo peoples who had previously inhabited Greenland, such as the Saqqaq and Dorset. The Inuit ("Eskimos" in old terms) originally came from Siberia and crossed what is now known as the Bering Strait, later expanding eastward to reach Alaska, Canada, and eventually Greenland.

The arrival of the Inuit in Greenland marked a significant change in the history of human settlement on the island, as they brought new hunting technologies and adaptations to the extremely cold climate. Today, they face a warmer climate than they ever could have imagined.

At Summit, a research station located near the highest point of the ice sheet center, temperatures increased six times faster than the global average between 1982 and 2011. For the first time in nearly 130 years, in July 2012, 97% of the surface melted for several days. The ice sheet has thinned and darkened since the early 1990s, especially at its edges, causing an increase in the number of icebergs breaking off from glaciers near the sea while more glacial earthquakes occur.

This behavior predicts a grim future because, as shown in the following video, it could potentially disrupt ocean circulation as more and more freshwater flows from the melting glaciers.

As Greenland’s temperatures rise, so does the internal political thermometer, as some of the island’s politicians are calling for full independence from the Danish crown. Although Denmark contributes two-thirds of Greenland’s budget, both Greenlanders and foreign observers are aware of the opportunities that a melting island surrounded by increasingly warmer waters offers for future naval transportation routes, not to mention the extraction of gas and rare minerals that will become more accessible as the permafrost fades away. 

Although the Greenland government banned anyattempts to extract oil and gas in 2021, arguing that "the price was too high" in terms of environmental impacts, the greed for these resources is growing. 

As expected, the ambitions of the Trump administration have put the White House in direct conflict with Greenland and Denmark. In a 1944 article for Foreign Affairs, Hans W. Weigert wrote: “The awareness that the far north is an area of great strategic importance to the United States is no longer limited to a small group of people... [..]. The strategy of this war has accelerated the pace of progress in the Arctic, but there are certain barriers that nature has raised against the development of this area; and political realities set limits on the possibilities of an American advance northward.” 

That argument, written in the context of World War II and shortly after Iceland declared its independence from Denmark (while Denmark was still occupied by Nazi Germany), remains relevant today. 

In his famous "Day of Infamy" speech to Congress in 1941, President Roosevelt spoke of the need to prevent "Germany's occupation of strategic outposts in the Arctic for a possible attack against the Western Hemisphere." Roosevelt also described the obligation of a future withdrawal from the region: “Immediately after the termination of the 'current international emergency,' all U.S. forces will be withdrawn from Iceland.” 

President Franklin Delano Roosevelt delivers his "Day of Infamy" speech before Congress on December 8, 1941. Behind him are Vice President Henry Wallace (left) and Speaker of the House Sam Rayburn. To the right, in uniform, is Roosevelt’s son, James, who escorted his father to the Capitol.

However, Roosevelt also stated that the Pact on the defense of Greenland to be signed between the United States and Denmark would open the door for negotiations on the future of the island, specifying that the pact “will remain in effect until it is agreed that the current dangers to the peace and security of the American continent have passed. At that time, the modification or termination of the agreement will be subject to consultation between the governments of the United States and Denmark.” 

Eighty-four years later, the new Trump administration’s sense is that these “current dangers” still exist. What are the chances this time of reaching a negotiated and peaceful agreement between the United States, Denmark, and the world’s largest island?

EL INTERÉS POR GROENLANDIA NACIÓ CON LA GUERRA FRÍA

 

Aunque pueda parecer un tema recién nacido, el paisaje glaciar de Groenlandia ha estado entrando y saliendo de la política estadounidense durante ocho décadas.

Las baladronadas del presidente Trump al inicio de su segundo mandato han puesto a la isla más grande del mundo en conflicto directo con el país más poderoso del orbe. Aunque no es la primera vez que han intentado adquirir la propiedad de esta gigantesca masa terrestre ártica, el deseo de Trump de incorporarla a Estados Unidos ha causado un considerable impacto entre sus 57.000 endogámicos habitantes.

En 1946, bajo la presidencia de Truman, los Estados Unidos, que deseaban controlar Groenlandia para reforzar la seguridad internacional contra sus enemigos nucleares rusos, hicieron una oferta de compra por mil millones de dólares a Dinamarca, que había gobernado la isla desde 1814.

La presencia estadounidense, que comenzó durante la Segunda Guerra Mundial cerca de Thule, en el extremo noroeste de Groenlandia, ha continuado allí desde entonces. Como parte de un plan secreto para ocultar armas nucleares a los soviéticos, en la década de los 50 del siglo pasado, en plena Guerra Fría, el ejército estadounidense puso en marcha el proyecto Iceworm (Gusano de Hielo).

Hasta el noreste de Groenlandia llegaron cientos de militares, equipos pesados e incluso un reactor nuclear. Los ingenieros militares construyeron una base subterránea soterrada. La llamaron Camp Century. No duró mucho. La nieve y el hielo comenzaron a aplastar lentamente los edificios sobre los túneles situados debajo, lo que obligó a los militares a abandonarlo en 1966.

Construcción de un túnel bajo el hielo en Camp Century. Foto

Durante su corta vida, los científicos pudieron atravesar el núcleo de hielo y comenzar a analizar la historia climática de Groenlandia. La estación meteorológica estadounidense Bluie West Six, construida durante la guerra, se encontraba a solo unos pocos kilómetros del asentamiento indígena de Pituffik. Justo después de la guerra, como parte de la Operación Nanook, los estadounidenses ampliaron la instalación existente con una pista de aterrizaje de grava como parte de una actualización para una estación meteorológica más grande y nueva.

Entre 1947 y 1950, aviones de reconocimiento estadounidenses fotografiaron a fondo la zona con fines cartográficos. Mientras tanto, estudiantes universitarios jóvenes realizaban trabajos de topografía y mapeo en el terreno. Había poca información sobre las condiciones geográficas y meteorológicas de la zona, y obtener este conocimiento era una condición esencial para llevar a cabo la estrategia polar y así establecer la supremacía militar de Estados Unidos en el Ártico.

Como señala el registro histórico, tanto Dinamarca como Estados Unidos deben mucho a los antiguos nórdicos, que se cree fueron los primeros habitantes de Groenlandia. Su oscuridad puede, al menos en parte, explicarse por los pocos detalles que poseemos de la civilización pionera en el techo del mundo.

Las sagas legendarias [islandesas] dan un relato detallado (y hasta cierto punto históricamente correcto) de la vida en Groenlandia durante el período de dominación vikinga de la que existen testimonios escritos desde el siglo XIII que demuestran que las fuerzas naturales han moldeado durante mucho tiempo la interacción humana con la región.

A diferencia de los vikingos medievales que abandonaron los primeros intentos de colonizar la isla, los inuits groenlandeses se enfrentan hoy a un clima más cálido. En Summit, una estación de investigación situada cerca del punto más alto del centro de la capa de hielo, las temperaturas aumentaron seis veces más rápido que el promedio mundial entre 1982 y 2011.

Por primera vez en casi 130 años, en julio de 2012 un 97% de la superficie se derritió durante unos días. La capa de hielo se ha adelgazado y ennegrecido desde principios de la década de 1990, especialmente en sus bordes, lo que hace que aumente el número de icebergs que se desprenden de los glaciares cercanos al mar al tiempo que aparecen más terremotos glaciales.

Ese comportamiento augura un futuro sombrío porque, como se puede se observar en el siguiente vídeo, puede interrumpir potencialmente la circulación oceánica a medida que más y más agua dulce fluye desde el deshielo glaciar.

A medida que las temperaturas de Groenlandia aumentan, también lo hace el termómetro político interno, porque algunos de los políticos de la isla reclaman la plena independencia de la corona danesa. Aunque Dinamarca contribuye con dos tercios del presupuesto de Groenlandia, tanto los groenlandeses como los observadores foráneos son conscientes de las posibilidades que una isla en deshielo rodeada de aguas cada vez más cálidas ofrece para futuras rutas de transporte naval, sin mencionar la extracción de gas y minerales raros que serán más accesibles conforme se desvanezca el permafrost. 

La codicia por esos recursos es cada vez mayor, a pesar de que el gobierno de Groenlandia prohibió en 2021 cualquier intento de extracción de petróleo y gas, argumentando que "el precio era demasiado alto" en términos de impactos ambientales.

Como cabía esperar, las ambiciones de la Administración Trump han puesto a la Casa Blanca en conflicto directo con Groenlandia y Dinamarca. Como escribió Hans W. Weigert en un artículo de la revista Foreign Affairs publicado en 1944, «la conciencia de que el lejano norte es un área de gran importancia estratégica para Estados Unidos ya no está limitada a un pequeño grupo de personas... […]. La estrategia de esta guerra ha acelerado el ritmo del progreso en el Ártico, pero existen ciertas barreras que la naturaleza ha levantado contra el desarrollo de esta área; y las realidades políticas establecen límites a las posibilidades de un avance estadounidense hacia el norte».

Ese argumento, escrito en el contexto de la Segunda Guerra Mundial y poco después de que Islandia declarara su independencia de Dinamarca (mientras que esta última aún estaba ocupada por la Alemania nazi), sigue siendo relevante hoy.

En el Day of Infamy speech, su famoso discurso de 1941 ante el Congreso, el presidente Roosevelt habló de la necesidad de prevenir la «ocupación por parte de Alemania de puestos avanzados estratégicos en el Ártico para un eventual ataque contra el hemisferio occidental». Roosevelt también describió la obligación de una futura retirada de la región: «Inmediatamente después de la terminación de la “emergencia internacional actual”, todas las fuerzas estadounidenses serán retiradas de Islandia».

El presidente Franklin Delano Roosevelt pronuncia su discurso del "Día de la Infamia" ante el Congreso el 8 de diciembre de 1941. Detrás de él están el vicepresidente Henry Wallace (izquierda) y el presidente de la Cámara de Representantes, Sam Rayburn. A la derecha, en uniforme, está el hijo de Roosevelt, James, quien escoltó a su padre al Capitolio.

Sin embargo, dijo también que el Pacto sobre la defensa de Groenlandia de 1941, a suscribir entre Estados Unidos y Dinamarca, abría la puerta a negociaciones sobre el futuro de la isla, especificando que el pacto «permanecerá en vigor hasta que se acuerde que los peligros actuales para la paz y la seguridad del continente americano hayan pasado. En ese momento, la modificación o terminación del acuerdo será objeto de consulta entre los gobiernos de Estados Unidos y Dinamarca».

Ochenta y cuatro añosdespués, la sensación de la nueva Administración Trump es que esos "peligros actuales" siguen existiendo. ¿Qué posibilidades habrá esta vez, de que se alcance un acuerdo negociado y pacífico entre Estados Unidos, Dinamarca y la isla más grande del mundo?

domingo, 9 de febrero de 2025

NO, CONSUMIR CHOCOLATE NEGRO NO REDUCE EL RIESGO DE CONTRAER DIABETES

 

Se acerca el día de San Valentín y podemos esperar una avalancha de regalos a base de chocolate. Con el afán de promocionar, algunos influencers recurren al viejo y trillado cliché de que la feniletilamina del chocolate estimula el ardor amoroso al aumentar la liberación de dopamina, la “sustancia química del bienestar” en el cerebro. ¡Olvídate! Aunque el chocolate contiene algo de feniletilamina, esta sustancia se metaboliza en el organismo antes de que pueda llegar al cerebro.

No faltan tampoco los artículos hiperbólicos sobre los beneficios del chocolate para la salud, que van desde sus capacidades hipotensoras y antioxidantes hasta la eliminación de la placa de las arterias y la prevención del deterioro de la memoria en las personas mayores. Para evitar las demandas, las publicaciones científicas citadas en esos artículos, que suelen estar financiadas por la industria del chocolate, están plagadas de palabras como "puede" y "podría" y acostumbran a terminar con la frase "se necesita más investigación".

El chocolate no es el único caso. De hecho, me ocupé de sus supuestas (e inciertas) propiedades terapéuticas en un artículo El chocolate ni mata ni cura, pero engorda, publicado hace justamente un año. Seguimos en las mismas: casi no pasa un día sin que aparezca un estudio que sugiera consumir algún alimento o suplemento para mejorar nuestra salud o que nos inste a evitar algún alimento o ingrediente que la perjudique. A esto suele seguir una serie de titulares en los medios de comunicación que exageran los resultados mucho más de lo que realmente se merecen.

Ese es el caso de un estudio publicado el pasado diciembre en el British Medical Journal sobre los supuestos beneficios de comer chocolate negro para combatir el riesgo de sufrir diabetes tipo 2. Ese artículo provocó una cascada de titulares del tipo “Buenas noticias: el chocolate negro reduce el riesgo de diabetes tipo 2”, que algunos precavidos reporteros intentan disimular para desviar las críticas con las típicas frases equívocas como “¡Qué dulce! Una dosis diaria de chocolate negro puede reducir el riesgo de diabetes”. Por supuesto, es así. Claro que, con la misma certeza, también podría escribirse “puede que no”.

El estudio en cuestión es un ejemplo de muchos otros similares que implican la “exploración retorcida” de datos recopilados en estudios estadísticos, en los cuales se pide a un gran número de participantes que completen cuestionarios detallados sobre la frecuencia de consumo de alimentos y luego informen a lo largo de un período de años sobre cualquier problema de salud que experimenten.

El objetivo es detectar cualquier asociación entre algún componente de la dieta y la enfermedad, pero estos estudios prospectivos nunca pueden demostrar una relación de causa y efecto. Sin embargo, pueden servir a modo de palanca como trampolín para otros estudios.

En este caso, se combinaron los resultados de tres grandes estudios de cohorte en los que participaron un total de 111.654 participantes, de los cuales 18.862 fueron finalmente diagnosticados con diabetes y se “diseccionaron” los datos en busca de un vínculo entre la dieta y la enfermedad.

Después de exprimir los datos hasta que arrojaron algún resultado, los investigadores concluyeron que, aunque el chocolate con leche no tenía ningún efecto sobre la diabetes, ingerir semanalmente cinco o más porciones de chocolate negro, en comparación con no consumirlo, reducían el riesgo de desarrollar diabetes en un 21%. Eso suena bastante bien y hace que uno proceda a zampar chocolate negro.

Pero antes de llegar a esa conclusión, es necesario indagar un poco más. En primer lugar, está la preocupación habitual sobre los cuestionarios de frecuencia de consumo de alimentos. La memoria sobre lo que se ha consumido no es fiable, porque los humanos somos notoriamente ineptos para estimar las cantidades de nuestras ingestas.

En este estudio se pidió a los participantes que dijeran su frecuencia media de consumo de una onza de chocolate en el último año; para facilitar el trabajo, debían elegir entre nueve niveles que iban desde "nunca, o menos de una vez al mes" hasta "más de seis al día". ¿Con qué fiabilidad se puede recordar el consumo de chocolate a lo largo de un año? ¿Cómo se tiene en cuenta el chocolate consumido comiendo tarta de chocolate, engullendo conguitos, bebiendo chocolate caliente o sacando un par de piezas de esa caja de bombones que un compañero de trabajo llevó a la oficina el día de su cumpleaños?

Y las dudas no acaban ahí. No existe un único tipo de chocolate negro. El contenido de cacao de las tabletas puede variar entre el 60 y el 90%, lo que quiere decir que hay diferencias significativas en la composición química. La cadena Lindt incluso tiene una tableta cien por cien de cacao sin azúcar. Creo que en mi caso puedo recordar cuántas veces consumí una tableta de ese tipo o de cualquier otro tipo a lo largo del año pasado: ninguna. Ahora bien, cuántas veces piqué cuando me ofrecieron una caja de bombones en alguna celebración es algo que me es imposible recordar.

Consideremos ahora las diferentes variedades de árboles de cacao que producen los granos a partir de los cuales se produce el chocolate. Dependiendo de la variedad, la composición química de los granos puede cambiar. Una vez que se cosechan y se extraen los granos, se dejan fermentar. Esto significa que las levaduras naturales descomponen los azúcares de la pulpa que rodea los granos para producir etanol. Este primero es convertido por bacterias en ácido láctico, que a su vez produce ácido acético por la acción de otras bacterias.

Con la ayuda del calor producido durante la fermentación, el ácido acético rompe las paredes de las células de las semillas (los granos) y luego degrada las proteínas liberadas en aminoácidos y péptidos. A través de una serie de reacciones, estos se convierten en varias familias de polifenoles que son los componentes saludables del chocolate.

Teniendo en cuenta todas esas variables, la química de los diferentes chocolates negros o casi negros puede ser muy diferente. Consumir una tableta de chocolate negro con un 90% de cacao que proviene de árboles cultivados en Ghana puede tener un efecto metabólico bastante diferente que otra con un 60% procedente de árboles cultivados en Oaxaca.

Obviamente, hay mucha incertidumbre en lo que se refiere a la cantidad y el tipo de chocolate negro consumido. Por si le parece poco, podemos añadir otro grado de incertidumbre cuando analizamos la afirmación de una reducción del 21% de la diabetes en los participantes que consumieron más de cinco raciones de chocolate negro a la semana.

Presentar los resultados en porcentajes siempre es problemático porque incluso un gran cambio porcentual puede ser bastante insignificante. Comprar dos billetes de lotería en lugar de uno aumenta la probabilidad de ganar en un 100%, pero la probabilidad sigue siendo insignificante. ¿Qué significa, pues, una reducción del 21% en este caso?

Por no complicarles más la vida, de los datos brutos recopilados por los investigadores, podríamos deducir que, si mil personas que no comen chocolate comenzaran a comer cinco porciones de chocolate negro a la semana durante un año, una de ellas se salvaría de ser diagnosticada con diabetes durante ese año.

Incluso este cálculo tiene a una importante incertidumbre porque de 4.771 personas a las que se les diagnosticó diabetes tipo 2, solo 132 consumieron más de cinco porciones de chocolate negro a la semana. Se trata de una cifra muy pequeña en la que basar las estadísticas. Además, como hemos visto, realmente no sabemos qué significa una "porción de chocolate negro" en términos de los componentes químicos que se suministran al cuerpo.

También está la cuestión de las diferencias en el estilo de vida entre los consumidores de chocolate negro y los que no lo consumen. Calcular los niveles de actividad física a partir de cuestionarios es difícil, como lo es determinar si los resultados se debieron a lo que no se comió en lugar de a lo que se comió. Tal vez las cinco porciones de chocolate negro reemplazaron al helado como postre y fue el hecho de evitar el helado lo que precisamente produjo el pequeño beneficio.

La conclusión es que las muchas horas de investigación que respaldaron esta investigación dieron resultados que pueden tener cierto interés académico, pero que tienen poca importancia práctica. Las conclusiones de los medios de comunicación de que añadir cinco raciones de chocolate negro a la dieta con la esperanza de reducir el riesgo de diabetes tipo 2 son, simplemente, una bobada.

LLEGA SAN VALENTÍN: OLVÍDATE DE LOS AFRODISÍACOS

 

Phallus impudicus. Wikipedia

Febrero, 14, día de San Valentín: llega el amor y su deseable consecuencia. el sexo. Entonces es cuando entran en juego los afrodisíacos. ¿Cuerno de rinoceronte, ginseng, mandrágoras, espárragos o “moscas españolas” para potenciar la sexualidad? No te lo creas.

Según se dice, las sustancias afrodisíacas, que llevan el nombre de Afrodita, la diosa griega del amor y la pasión, están destinadas a estimular la libido y representan algo así como el bálsamo de Fierabrás para quienes de alguna manera se sienten sexualmente insatisfechos.

Hubo un tiempo en que estaba muy extendida la creencia de que una sustancia de origen animal o vegetal podía servir como afrodisíaco si su forma se parecía al cuerpo humano o a una parte de este (preferiblemente relacionada con lo genital).

Probablemente por su apariencia fálica, el cuerno de rinoceronte que, a pesar de que está hecho exclusivamente de queratina, la misma proteína que forma el cabello y las uñas, todavía se venera en algunas partes de Asia como un estimulante "mágico". Consumir cuerno de rinoceronte en polvo tiene más o menos el mismo efecto sobre el apetito sexual que morderse las uñas. Desgraciadamente, el rinoceronte ha sido cazado casi hasta estar en peligro de extinción debido a la absurda creencia en sus efectos afrodisíacos.

Las raíces de ginseng, procedentes de varias plantas del género asiático Panax, suelen tener un aspecto remotamente similar al humano, lo que probablemente haya contribuido a su popularidad como impulsor de la sexualidad. Veamos.

Hay algunas pruebas clínicas, de que el ginseng ejerce un efecto sobre la disfunción eréctil al desencadenar la liberación de óxido nítrico, un neurotransmisor, cuyo mecanismo de actuación es exactamente el mismo de la Viagra. Incluso si se confirmara eso, que todavía está por ver, ni el ginseng ni la Viagra pueden clasificarse como afrodisíacos. Ambos pueden proporcionar cierta ayuda “mecánica”, pero no aumentan la libido, cuyo control reside en una combinación de factores biológicos, psicológicos y sociales.

En algunos lugares, ciertas orquídeas han sido consideradas un símbolo de amor y admiración, porque sus raíces bituberculadas evocan la imagen de los testículos masculinos (de hecho, “orquis” significa testículo en griego). Algo así ocurre con un extraño hongo maloliente, el falo de perro (Phallus impudicus), que tiene un supuesto efecto estimulante sobre el pene humano al que se parece. Bucee en PubMed, la principal fuente de publicaciones médicas, y no encontrará prueba alguna de que se haya observado tal actividad.

Casi todos los alimentos que se han consumido a lo largo de la historia se han asociado en algún momento con ciertas propiedades afrodisíacas. Los tomates se llamaban antiguamente "manzanas del amor" y se creía que eran la verdadera fruta prohibida del Edén. Los aguacates (los aztecas usaban la palabra "ahucatl", que significa testículo para denominar esta fruta), las cebollas, el ajo, las anguilas, las almejas, la miel, los huevos, las setas, los plátanos e incluso las espinacas (como ya nos demostró Popeye) tienen fama de ser afrodisíacos.

Las anguilas y los plátanos son obviamente fálicos y las almejas y las ostras se parecen algo a los genitales femeninos. Los espárragos, también fálicos, también se han utilizado mucho como estimulantes sexuales, aunque lo único que consiguen es impregnar la orina de algunas personas con un olor característico.

Las bebidas alcohólicas han sido probablemente los "afrodisíacos" más utilizados. Su consumo puede producir cierta disminución de las inhibiciones, pero siempre hay que recordar el famoso verso de Macbeth sobre cómo «el alcohol provoca el deseo, pero quita la capacidad de actuar»

En tiempos bíblicos, nos recuerda el Antiguo Testamento, la raíz de mandrágora (de aspecto humanoide como la del ginseng) era muy buscada por sus supuestos poderes. En Génesis 29, por ejemplo, puede leerse que Raquel deseaba tanto un poco de esta raíz que permitió que Lea, su hermana, se acostara con su marido Jacob a cambio de un poco de esa raíz.

Hacía tiempo que Lea no concebía, y se creía que la planta, cuyas raíces se asemejan al cuerpo humano, ayudaba a la fertilidad. Frustrada por no poder concebir, Raquel le ofreció a Lea cambiar su noche con su marido a cambio de las mandrágoras. Lea aceptó, y esa noche se acostó con Jacob y concibió a Isaac. Después dio a luz a Zabulón y a una hija, Dina. A continuación, Dios se acordó de Raquel y le dio dos hijos, José y Benjamín.


Como descepar una mandrágora. Imagen del manuscrito del siglo XV Tacuinum SanitatisImagen. 

Pero tal vez el afrodisíaco más famoso sea la “mosca española”, obtenida de los escarabajos cantáridos, supuestamente los favoritos de Casanova y del católico Rey Fernando, quien al parecer los utilizaba para satisfacer a su segunda esposa, la joven Germana de Foix. Como nos recordó Luis Monje en un divertido artículo, «la cantaridina debe su nombre a que se aisló inicialmente de un insecto alargado de color verde metálico llamado cantárida, también conocido como escarabajo del fresno (Lytta vesicatoria) o mosca de España que, al igual que Puertollano que ni es puerto ni es llano, ni es mosca, ni es exclusiva del solar patrio por más que guste de dejarse ver por nuestras fresnedas y alisedas.

[…] cantárida ha permanecido en el discreto anonimato propio del anacoreta, la traviesa cantárida pasó a la posteridad como una famosa e involuntaria agente de intrigas en las cortes europeas, cuyas coronadas cabezas han sido de siempre más aficionadas al fornicio que al cilicio.

La cantárida, como cualquier coleóptero que se precie, tiene un duro exoesqueleto que en esta especie es rico en una feromona irritante llamada cantaridina. Como nos recuerda el profesor de la Complutense José Ignacio Arana en Los grandes polvos de la historia, un ensayo tan riguroso como desenfadado, la cantaridina, transformada en polvo, es buena para el ídem, habida cuenta de que en pequeñísimas cantidades produce una irritación en la uretra que provoca que el miembro masculino se ponga cual mastelero de gavia y que el sexo opuesto entre en lo que ha dado en llamarse furor uterino.

El polvo de cantárida llegó a ser tan usado para doblegar féminas, que eminentes lingüistas y etimólogos atribuyen a su empleo el origen de la frase “echar un polvo”»

La "mosca española" es realmente un coleóptero, Lytta vesicatoria. 

En cualquier caso, no se aficione: la cantaridina es un compuesto potencialmente peligroso que puede provocar inflamación del tracto urogenital y, en dosis lo suficientemente altas, insuficiencia renal.

Por último, se dice que el emperador azteca Moctezuma consumía chocolate para reforzar su virilidad antes de visitar a su harén y en una época se creía que el chocolate era tan provocativo de inmoralidad que la Iglesia en España prohibía su consumo en seminarios y conventos. El supuesto efecto se ha atribuido a la feniletilamina del chocolate, pero no hay ninguna prueba de que tenga un efecto afrodisíaco. Y lo que es más, la feniletilamina, se descompone al pasar por el tracto digestivo, así que su efecto metabólico es nulo.

En cualquier caso, hay mucha más feniletilamina en el chucrut que en el chocolate. Pero no es muy romántico aparecer en la puerta de tu ser amado con un frasco de col fermentada.

Compra bombones y que sea lo que San Valentín quiera. ¡Feliz día!


jueves, 6 de febrero de 2025

A BRIEF HISTORY OF VITAMINS

 

The fundamental components of the human diet —the so-called macronutrients: water, carbohydrates, fats, and proteins— were identified almost two hundred years ago by an Englishman named William Prout, a curious fellow who combined chemistry with theology. Even back then, it was clear that some other elements were needed to produce a fully healthy diet. For a long time, no one knew exactly which elements those were, but it was evident that if they were missing from the diet, people were likely to suffer from deficiency diseases like beriberi or scurvy.

Initially, they were called "complementary factors of foods." We now call them vitamins. Vitamins are simply organic chemical substances that, because we cannot produce them ourselves, we need to obtain from our food.

At the dawn of the 20th century, British biochemist Frederick Gowland Hopkins, a man with a curious resemblance to the 8th Marquis of the Guadalquivir Marshes, was busy feeding his laboratory rats. He treated them well with a diet of proteins, fats, carbohydrates, and minerals. Although it was known that these substances were the main components of food, they were not sufficient to maintain health. Something was missing: the rats were succumbing to malnutrition.

In 1906, after discovering that supplementing the diet with some milk caused his rats to grow wonderfully, Hopkins coined the term "auxiliary food factor," something previously unknown but necessary for normal development.

Hopkins was not the first to make such an observation. Between 1878 and 1883, Kanehiro Takaki, a Japanese military doctor, had studied the high incidence of a terrible disease among sailors, characterized by muscle degeneration, heart irregularities, and emaciation, known as "beriberi," a name derived from a native Sri Lankan expression meaning "I can't, I can't," referring to the progressive loss of mobility experienced by those affected.

Takaki discovered that among the 276 men of a ship’s crew whose diet mainly consisted of polished rice (a type of rice ground to remove the bran, germ, and fiber, leaving a starch-rich grain), 169 cases of beriberi developed, with twenty-five deaths within nine months. On another ship, no deaths occurred, and only fourteen cases of the disease were reported. The difference was that the crew of this second ship was given more meat, milk, and vegetables. Takaki concluded that this had something to do with the protein content of the diet, but he was mistaken.

Fifteen years later, Christiaan Eijkman, a Dutch doctor working in Java, observed that chickens fed polished rice also contracted beriberi but recovered when fed brown rice. He thought the starch in polished rice was toxic to the nerves and that the bran contained an antidote. His conclusion, like Takaki's, was wrong.

Casimir Funk, a Polish biochemist who had emigrated to the United States, read an article by Eijkman describing that people who ate brown rice were less susceptible to beriberi than those who ate only completely milled rice. Funk attempted to isolate the responsible substance, and in 1912 he finally succeeded. The compound turned out to belong to a family of molecules called amines, and Funk, convinced they were vital for life, coined the term "vitamin."

Funk suggested that diseases like rickets, pellagra, and scurvy were also caused by vitamin deficiencies, an idea also proposed by Dutch researcher Gerrit Grijns, who continued Eijkman’s work. Both were correct, but their work was not recognized.

In 1929, Hopkins and Eijkman shared the Nobel Prize in Physiology or Medicine for their work on vitamins, but Grijns and Funk were ignored. Funk rightly protested because the Nobel committee awarded the prize to Hopkins for "his discovery of vitamins that stimulate growth," even though Hopkins himself never claimed to be the discoverer of vitamins. It was true: there was no single discoverer; many scientists contributed to the knowledge we now have about vitamins.

In 1913, Elmer McCollum and Marguerite Davis, biochemists at the University of Wisconsin, discovered that rats fed lard as their only fat source did not grow and developed eye problems. When butterfat or an egg yolk extract was added to their diet, growth resumed, and the eye condition was corrected.

McCollum suggested that whatever was present in the ether extract should be called fat-soluble factor "A," and the aqueous extract that Funk had used to prevent beriberi should be called water-soluble factor "B." When it was discovered that the water-soluble extract was a mixture of compounds, its components were designated with numerical subscripts. The specific factor against beriberi was eventually named vitamin B1 or thiamine.

Effects of scurvy in the Diary of Henry Walsh Mahon aboard the convict ship Barrosa.
 

Vitamin B3, or niacin, was added to the vitamin family in 1914, when American doctor Joseph Goldberger solved the mystery of pellagra, an epidemic in the southern states, particularly in cotton-growing areas. Described as the disease of the four Ds: diarrhea, dermatitis, dementia, and death, it was thought that pellagra was related to cotton, either as a germ or a toxin contained in the plant.

Goldberger, a public health doctor, demonstrated that the disease was actually caused by a diet consisting mostly of corn and could be cured by adding fresh vegetables, milk, and eggs. Twenty years later, in 1937, Norwegian-born American biochemist Conrad Elvejhem identified niacin as the nutrient lacking in corn that was necessary to prevent pellagra.

Although it is known that the Spanish, at least since the early 17th century, regularly used citrus fruits as a method to prevent scurvy, vitamin C, the most famous of all vitamins, was identified in 1932 by Hungarian-American physiologist Albert Szent Gyorgyi, who was awarded the Nobel Prize in Physiology or Medicine in 1937. He extracted the compound from paprika and suggested it be named ascorbic acid, from the Latin "scorbuticus" (scurvy). A year later, British chemist Walter Haworth determined its molecular structure.

Long before the identification of ascorbic acid, in his Treatise on Scurvy, published in 1753, Scottish doctor James Lind described experiments demonstrating that scurvy could be prevented by consuming citrus fruits. This led to British sailors being supplied with lime juice. The Anglo-French Napoleonic Wars are a good example: the British Admiralty provided about six million liters of lemon juice to sailors during the years of that conflict. Sicily actually became a lemonade factory.

Subsequently, other vitamins were identified and given the designations D and E, following the order of their discovery. Vitamin K was named as such because its discoverer, Danish biochemist Henrik Dam, proposed the term "Koagulations Vitamin" due to its promotion of blood coagulation.

Are there still unknown vitamins? It is unlikely. Many hospitalized patients have survived for many years using intravenous nutrition that incorporates the known vitamins. However, the current trend aims to investigate whether, in addition to preventing diseases caused by nutritional deficiency, vitamins may have some supplementary benefit.

It has been suggested that vitamin C may prevent the common cold, vitamin E may reduce the risk of cardiovascular diseases, and vitamin D is a sort of cure-all. None of these claims are backed by convincing scientific evidence, but that hasn’t stopped vitamin supplements from flourishing into a multimillion-dollar industry.

The main debate around vitamins was sparked by American chemist Linus Pauling, who had won not one, but two Nobel Prizes (the Chemistry Prize in 1954 for his work describing chemical bonds, and the Peace Prize eight years later for his defense of human rights). In a striking example of a cobbler not sticking to his trade, Pauling believed that taking massive doses of vitamin C was effective in fighting colds, flu, and even certain types of cancer.

Pauling himself took up to 40,000 milligrams of vitamin C daily (the recommended daily dose is 60), and claimed that this enormous intake had kept his prostate cancer at bay for twenty years. He had no evidence for any of his claims, and all of them have been largely discredited by subsequent studies. But thanks to Pauling, many people still believe that taking a lot of vitamin C helps them avoid colds. But it doesn’t.

BREVE HISTORIA DE LAS VITAMINAS

 

Los componentes fundamentales de la dieta humana —los denominados macronutrientes: agua, carbohidratos, grasas y proteínas—fueron identificados hace casi doscientos años por un inglés llamado William Prout, un tipo curioso que combinaba la química con la teología, pero ya entonces resultaba evidente que hacían falta algunos otros elementos para producir una dieta completamente saludable. Durante mucho tiempo, nadie supo con certeza cuáles eran esos elementos, pero estaba claro que, si faltaban en la dieta, era probable que las personas sufrieran enfermedades deficitarias como el beriberi o el escorbuto.

En un principio se denominaron “factores complementarios de los alimentos”. Ahora los llamamos vitaminas. Las vitaminas son simplemente sustancias químicas orgánicas, que, como no podemos fabricarlas por nosotros mismos, necesitamos obtenerlas de nuestros alimentos.

Cuando despuntaba el siglo XX, el bioquímico británico Frederick Gowland Hopkins, un hombre con un curioso parecido con el VIII marqués de las Marismas del Guadalquivir, se afanaba en alimentar a sus ratas de laboratorio. Las trataba bien a base de una dieta de proteínas, grasas, carbohidratos y minerales. Aunque se sabía que estas sustancias eran los componentes principales de los alimentos, no eran suficientes para mantener la salud. Algo faltaba: las ratas desfallecían de malnutrición.

En 1906, después de comprobar que si complementaba la dieta con algo de leche sus ratas crecían que era un primor, Hopkins acuñó el término “factor auxiliar alimentario”, algo por entonces desconocido pero que era necesario para el desarrollo normal.

Hopkins no fue el primero en hacer semejante observación. Entre 1878 y 1883, Kanehiro Takaki, un médico militar japonés, había estudiado la alta incidencia entre la marinería de una terrible enfermedad caracterizada por degeneración muscular, irregularidades cardíacas y demacración, a la que se conocía como “beriberi” un nombre derivado de una expresión nativa de Sri Lanka que significaba “no puedo, no puedo”, en referencia a la progresiva falta de movilidad que experimentaban los afectados.

Takaki descubrió que en la tripulación de 276 hombres de un barco cuya dieta consistía principalmente en arroz pulido (un arroz molido para eliminar el salvado, el germen y la fibra, dejando un grano rico en almidón) se desarrollaron 169 casos de beriberi, veinticinco de los cuales murieron durante al cabo de nueve meses. En otro barco no hubo muertes y solo catorce casos de la enfermedad. La diferencia era que a la tripulación de este último se les suministraba más carne, leche y verduras. Takaki concluyó que eso tenía algo que ver con el contenido proteínico de la dieta, pero estaba equivocado.

Quince años después, Christiaan Eijkman, un médico holandés que trabajaba en Java, observó que los pollos alimentados con arroz pulido también contraían beriberi, pero se recuperaban cuando se alimentaban con arroz integral. Pensó que el almidón del arroz pulido era tóxico para los nervios y que el salvado contenía una antitoxina. Su conclusión, como la de Takaki, era errónea.

Casimir Funk, un bioquímico polaco emigrado a Estados Unidos, leyó un artículo de Eijkman en el que describía que las personas que comían arroz integral eran menos vulnerables al beriberi que las que comían solo arroz totalmente molido. Funk intentó aislar la sustancia responsable y en 1912 finalmente lo consiguió. El compuesto resultó pertenecer a una familia de moléculas llamadas aminas, y Funk, convencido de que eran vitales para la vida, acuñó el término "vitamina".

Funk sugirió que enfermedades como el raquitismo, la pelagra y el escorbuto también estaban condicionadas por deficiencia vitamínica, una idea que también se le había ocurrido al investigador holandés Gerrit Grijns, continuador de la investigación de Eijkman. Ambos acertaron, pero su trabajo no fue reconocido.

En 1929, Hopkins y Eijkman compartieron el Premio Nobel de Fisiología y Medicina por su trabajo sobre las vitaminas, pero Grijns y Funk fueron ignorados. Con mucha razón, Funk protestó porque el comité del Nobel había otorgado el premio a Hopkins por “su descubrimiento de las vitaminas que estimulan el crecimiento” y ello a pesar de que el propio Hopkins nunca dijo que él hubiera sido el descubridor de las vitaminas. Era verdad: no hubo un solo descubridor, muchos científicos contribuyeron al conocimiento que ahora tenemos sobre las vitaminas.

En 1913, Elmer McCollum y Marguerite Davis, bioquímicos de la Universidad de Wisconsin, descubrieron que las ratas a las que se les daba manteca de cerdo como única fuente de grasa no crecían y desarrollaban problemas oculares. Cuando se añadía a la dieta grasa de mantequilla o un extracto de yema de huevo, el crecimiento se reanudaba y se corregía la afección ocular.

McCollum sugirió que lo que estuviera presente en el extracto etéreo se llamara factor liposoluble “A” y que el extracto acuoso que Funk había utilizado para prevenir el beriberi se llamara factor hidrosoluble “B”. Cuando se descubrió que el extracto hidrosoluble era una mezcla de compuestos, se designaron sus componentes con subíndices numéricos. El factor específico contra el beriberi se denominó finalmente vitamina B1 o tiamina.

La vitamina B3, o niacina, se incorporó a la nueva cofradía vitamínica en 1914, cuando el doctor estadounidense Joseph Goldberge resolvió el enigma de la pelagra, que era una epidemia en los estados sureños, sobre todo en las zonas de cultivo de algodón. Descrita como la enfermedad de las cuatro D: diarrea, dermatitis, demencia y muerte (death, en inglés), se pensaba que la pelagra estaba relacionada con el algodón, ya fuera en forma de algún germen o de alguna toxina contenida en la planta.

Goldberger, médico del sistema público de salud, demostró que la enfermedad se debía en realidad a una dieta que consistía principalmente en maíz y que podía curarse añadiendo verduras frescas, leche y huevos. Veinte años después, en 1937, el bioquímico estadounidense de origen noruego Conrad Elvejhem identificó la niacina como el nutriente del que carecía el maíz que era necesario para prevenir la pelagra.

Aunque es conocido que los españoles, ya desde al menos principios de siglo XVII, utilizaban de forma habitual los cítricos como método para evitar el escorbuto, la vitamina C, que es la más famosa de todas las vitaminas, fue identificada en 1932 por Albert Szent Gyorgyi, un fisiólogo húngaro nacionalizado estadounidense, galardonado con el Premio Nobel de Fisiología o Medicina en 1937, como la sustancia necesaria en la dieta para prevenir el escorbuto. Había extraído el compuesto del pimentón y sugirió que se le pusiera el nombre de ácido ascórbico, del latín scorbuticus (escorbuto). Un año después, el químico británico Walter Haworth determinó la estructura molecular del compuesto.

Efectos del escorbuto en el diario de Henry Walsh Mahon a bordo del barco de presidiarios BarrosaWikipedia

Mucho antes de la identificación del ácido ascórbico, en su Tratado sobre el escorbuto, publicado en 1753, el médico escocés James Lind había descrito experimentos que demostraban que el escorbuto podía prevenirse consumiendo frutas cítricas. Esto llevó a que los marineros de los barcos británicos recibieran jugo de lima. Las guerras napoleónicas anglo-francesas son un buen ejemplo: el Almirantazgo británico suministró unos seis millones de litros de zumo de limón a los marineros durante los años de esa contienda. Sicilia se convirtió, de hecho, en una fábrica de limonada.

Posteriormente se identificaron otras vitaminas y se les dieron las designaciones D y E siguiendo el orden de su descubrimiento. La vitamina K se llamó así porque su descubridor, el bioquímico danés Henrik Dam, propuso el término "Koagulations Vitamin" porque promovía la coagulación sanguínea.

¿Todavía hay vitaminas desconocidas? No es probable. Muchos enfermos hospitalizados han podido sobrevivir durante muchos años mediante la nutrición intravenosa que incorpora las vitaminas conocidas. Sin embargo, la tendencia actual tiene como objetivo investigar si además de prevenir las enfermedades por deficiencia nutricional, las vitaminas pueden tener algún beneficio suplementario.

Se ha sugerido que la vitamina C puede prevenir el resfriado común, la vitamina E puede reducir el riesgo de enfermedades cardiovasculares y la vitamina D es una especie de curalotodo. Ninguna de esas afirmaciones está respaldada por evidencia científica convincente, pero eso no ha impedido que los suplementos vitamínicos florezcan hasta convertirse en una industria multimillonaria.

El debate principal en torno a las vitaminas la provocó el químico estadounidense Linus Pauling, que había ganado, no uno, sino dos Premios Nobel (el de Química en 1954, por su trabajo en el que describía los enlaces químicos, y el de la Paz ocho años después por su defensa de los derechos humanos). En un rotundo ejemplo de zapatero que no se dedica a sus zapatos, Pauling creía que tomar dosis masivas de vitamina C resultaba eficaz para combatir los resfriados, la gripe e incluso algunos tipos de cáncer.

Él mismo Pauling llegó a tomar hasta 40.000 miligramos diarios de vitamina C (la dosis diaria recomendada es de 60) y sostenía que aquella enorme ingesta vitamínica había mantenido a raya su cáncer de próstata durante veinte años. No tenía evidencias de ninguna de sus afirmaciones y todas ellas han sido bastante desacreditadas por posteriores estudios. Pero gracias a Pauling, todavía hoy mucha gente cree que tomar un montón de vitamina C le ayuda a librarse de los resfriados. Pero no es así.

domingo, 2 de febrero de 2025

ADAM'S RIB AND EVE'S PELVIS

 

Escultura de Fernando Botero

It should come as no surprise the importance that one bone, just one bone, holds in human genealogy from the perspective of the three Abrahamic religions. According to Genesis (2:23), Eve emerged from Adam's rib: 

Then the Lord God caused a deep sleep to fall upon the man, and he slept. And He took one of his ribs, [...] and from the rib that the Lord God had taken from the man, He made a woman. 

In addition to creating woman, this account gave rise to an absurd dogma imposed for centuries: since Eve was created from a rib taken from Adam, all men had 23 ribs, one less than women. 

Throughout history, the ecclesiastical hierarchy has made all scientific advancements clandestine. From the movement of the Earth around the Sun to in vitro fertilization, passing through the smallpox vaccine, anesthesia, lightning rods, tomatoes, blood transfusions, painless childbirth, condoms, and stem cell research, those in charge of the sacred fire have almost always prohibited or condemned any attempt at progress arising from human intellect. However, despite these efforts to keep us in darkness, no anathema, excommunication, or bonfire has managed to stop the human drive that forges a path through the darkness. 

This drive to explain the nature of things scientifically was what led anatomist Vesalius to challenge the Inquisition. Since the time of the Greek Galen, anatomical dissections had been performed on animals, but the Catholic Church allowed Vesalius to dissect the bodies of the executed because, according to theologians, there was no possibility that their souls would return from hell. Vesalius counted the ribs and debunked the myth in his Fabrica (1543), organizing a huge debate before inevitably falling, of course, into the clutches of the Inquisition. 


Although some ribs are relatively unimportant anatomically for human architecture, the same cannot be said for another bone, the pelvis, and the hip joint, which connects the femur to the pelvis. The particular configuration of the female hip is the cause of labor pains, although, in the Old Testament, the origin is attributed to another divine curse. Indeed, after "knowing" each other in the biblical sense, Adam and Eve realize their nakedness, and Yahweh condemns the woman: "I will greatly increase your pains in childbearing; with pain you will give birth to children" (Genesis 3:16), a prophetic curse that, like many other prophecies, is made a posteriori, once the prophesied event is known, to solemnize the obvious and without any chance of failure. 

For religion, the rib is fundamental in the history of humankind, while for the science of evolution, the hip is the key piece. All the remarkable anatomical and physiological changes that developed, over millions of years of evolution, the large brain that characterizes Homo sapiens would have been of no use if, in parallel, a hip capable of supporting the enormous skull had not evolved. 

Unlike other primates, in humans, the bones of the hip are different in both sexes, which is easily visible in the anatomical curves and the female way of walking. This structural difference has led all human cultures to view the hips as a symbol of fertility and a general expression of sexuality: from the sculptures of classical antiquity to the full-figured women of Rubens, artistic creations of all kinds have emphasized the volume of the hips as the most attractive manifestation of femininity. 

Women’s hips are wider and deeper than men’s, with femurs more widely spaced to allow for greater separation during childbirth. The iliac bone and its associated musculature are shaped in such a way as to keep the buttocks apart, ensuring that the contraction of the gluteal muscles does not interfere during delivery. 

Despite this, childbirth in humans is extraordinarily complicated. During childbirth, the full-term fetus must pass through the lower part of the pelvis through a bony passage known as the "birth canal." While in large anthropoid apes, delivery is easy, quick, and painless because the birth canal is large relative to the size of the fetal head, human newborns are about the same size as the birth canal, making the passage during delivery incredibly difficult. 

The birth canal in human females has an average maximum diameter of 13 centimeters and a minimum diameter of 10. Through this space must pass a baby whose head has an anteroposterior diameter of 10 centimeters and whose shoulders are typically 12 centimeters apart. 

To make things even more complicated, the evolution towards bipedalism (the technical term for walking on two feet, which characterizes hominids) led to a series of anatomical changes that turned the already narrow birth canal into a tortuous passage. As in all terrestrial quadruped mammals, in anthropoid apes, the birth canal is straight, the uterus is aligned with the vagina, and the fetus is born without flexing, facing its mother. 

In women, due to bipedalism, the bones of the hip have undergone modifications that have led to the birth canal becoming angulated, and the vagina forming a right angle with the uterus. As a result, the mechanism of birth (the series of rotations and twists in the spinal column that the fetus must perform to emerge through the mother’s tortuous birth canal) is a peculiarity of humans, absent in vertebrate animals. This peculiarity is traumatic for the baby and painful for the woman, and it is the price that seven million years of evolution have forced Homo sapiens to pay as compensation for its two great evolutionary advantages: upright walking and the development of a large brain mass. 

Since the appearance of the first life forms nearly 3.5 billion years ago, the common mode of movement among living beings has been swimming, crawling, or moving on a fixed number of legs, usually four in terrestrial mammals, among which humans are included. Hominids—bipedal primates—emerged just about seven million years ago. 

In issue 106 of the American scientific journal Proceedings of the National Academy of Sciences, anthropologists Weaver and Hublin delve into one of the most accepted paradigms in the complex process of human evolution: the adoption of bipedalism as a vital strategy in the hominid lineage, a key evolutionary step that is responsible, not any biblical curse, for the painful childbirth characteristic of female Homo sapiens, which—as Weaver and Hublin show—was also suffered by Neanderthal females more than 200,000 years ago.