Cómo hacer el mejor café expreso, según las matemáticas

Científicos señalan la cantidad y la forma de los granos más adecuadas para obtener una bebida igual de fuerte y más barata

Cómo hacer el mejor café expreso, según las matemáticas

«En la industria del café se suelen usar muchos granos de café y ajustes de molienda fina para obtener la mezcla de amargor y acidez deseada, pero es impredecible y no sale siempre igual», dice el coautor Christopher Hendon, químico computacional en la Universidad de Oregon (EE.UU.). «Suena contraintuitivo –reconoce–, pero nuestros experimentos y modelo indican que podemos tener un buen producto y reproducible simplemente utilizando menos café y moliéndolo más grueso».

Aunque intervienen muchos factores y depende de los gustos, la norma habitual para preparar un expreso es moler una cantidad relativamente grande de granos de café (unos 20 gramos) lo más triturados posible. En principio, cuanto más molidos estén, más superficie queda expuesta al agua caliente y así se supone que aumentará el rendimiento de la extracción, es decir, la fracción de café molido que realmente se disuelve y termina en la bebida final. Pero el asunto no es tan sencillo.

Los investigadores desarrollaron un modelo matemático para explicar este rendimiento en función de variables que puede controlar el barista o experto en café (como la cantidad de agua y café seco, el grosor de los granos y la presión del agua) y compararon sus predicciones con los resultados de diversas preparaciones. Así se comprobó que moliendo tan fino como hace la industria se obstruyó el lecho del café, lo que reducía el rendimiento de la extracción, hacía que se desperdiciara materia prima e introducía variación en el sabor.

Tras muchos cálculos numéricos y miles de ‘tiradas’ de café, el equipo llegó a una receta donde se maximiza la extracción y se logra producir un expreso de sabor similar a otro. Para conseguirlo, una forma es moler más grueso y usar un poco menos de agua, pero otra es simplemente reducir la masa de café.

«Habíamos descubierto que con una masa de 20 g de café seco se podía preparar una sabrosa bebida de 40 g (la miden en gramos en lugar de en mililitros), ajustando una molienda muy fina de 1,3, lo que da lugar a partículas con un diámetro de unas 200 micras», explica Hendon a Sinc.

«Pero luego –añade–, tomando esta receta de referencia, comprobamos que al reducir la dosis de café a 15 g se podía aumentar la extracción total del café si se molía en fragmentos mayores, con partículas de unas 250 micras, es decir un 25% más grandes. Conociendo esto, no creo que quieras gastar 20 g de café si puedes obtener una bebida que sabe bien con menos cantidad».

Por tanto, los autores consideran que usar 15 gramos de café molidos relativamente gruesos para elaborar una bebida de 40 g es una proporción bastante buena, aunque siempre va a depender del barista o de los gustos del consumidor. Los expresos italianos, por ejemplo, utilizan tan solo 7 gramos de café, pero se sirve en muy poca cantidad en tazas muy pequeñas.

«En realidad nuestra propuesta, más que una única receta, es más bien un concepto», apunta Hendon, que recomienda a la industria experimentar: «Hay que encontrar la configuración de molienda que permita que el agua entre en contacto de forma uniforme con el café seco. Luego hay que modificar la masa de café o de agua para acceder al perfil de sabor que se desea, siendo capaz de reproducir los resultados y reducir los desechos».

Una mayor eficiencia en el uso del café ayudará a disminuir sus residuos en un momento en que los suministros desde las áreas de producción históricas están amenazados por el cambio climático. Pero además de los beneficios de sostenibilidad para la industria, aumentar el rendimiento de la extracción a través de las rutas que plantea el modelo también puede generar ganancias económicas.

Por ejemplo, al precio actual de los granos de café tostado, reducir la masa de café seco de 20 a 15 gramos por bebida representaría un ahorro de unos pocos miles de dólares anuales para una cafetería, pero ascendería a 1.100 millones si se considera toda la industria cafetalera de Estados Unidos.

Respecto a la aplicación del modelo en casa, el químico computacional considera que un usuario medio no se va a dedicar a preparar muchos cafés para determinar el punto más sabroso y estudiar como optimizarlo: «Simplemente comprenderá que existe una rutina para conseguirlo, y que sin ella pueden esperar variaciones en el sabor del café, independientemente de la habilidad del barista».

En cualquier caso, insiste: «Aunque existen estrategias claras para reducir los residuos y mejorar la reproducibilidad, no existe un punto de expreso óptimo obvio. Existe una tremenda dependencia de las preferencias de la persona que elabora el café. No damos una solución que funcione en todos los casos. Demostramos la variabilidad que existe en la preparación del café y proponemos métodos para superar este problema».

Inspirado en la electroquímica

El matemático Jamie M. Foster
El matemático Jamie M. Foster – Universidad de Portsmouth

Respecto al desarrollo del modelo para optimizar la preparación del café no fue una tarea sencilla. En un nivel básico, el rendimiento de extracción depende de cómo fluye el agua bajo presión a través de la masa de café molido. Pero esa masa está compuesta por millones de granos individuales de diferentes formas y tamaños, atascados irregularmente en un único lecho del filtro.

«Se necesitaría más potencia informática que Google para resolver con precisión las ecuaciones físicas y de transporte implicadas en este proceso en una geometría tan intrincada como un lecho de café», comenta otro de los autores, Jamie M. Foster, matemático de la Universidad de Portsmouth (Reino Unido).

Para superar este obstáculo, los investigadores recurrieron a una curiosa fuente: la electroquímica, comparando cómo la cafeína y otras moléculas se disuelven fuera de los granos con los movimientos que tienen los iones de litio a través de los electrodos de una batería.

Tomar prestada la metodología de los estudios con baterías condujo al modelo riguroso de extracción de café con el que el equipo –integrado también por científicos de Irlanda, Suiza y Australia– ha sido capaz de realizar predicciones potentes y comprobables con experimentos.

 

https://www.abc.es/ciencia/

Salvador Dalí, el gran científico que nunca recibió clases

Fotografía de un grafiti callejero que retrata a Salvador Dalí en Vitebsk, Bielorrusia. kavzov / shutterstock
Fotografía de un grafiti callejero que retrata a Salvador Dalí en Vitebsk, Bielorrusia. kavzov / shutterstock

 

Recordar a Salvador Dalí (1904-1989) es dar un paso más en la necesaria relación existente entre arte y ciencia. Desde su juventud, Dalí muestra interés en la ciencia y prueba de ello son los ejemplares de libros y revistas científicas que se encontraron en su biblioteca.

A pesar de ello, no tuvo una especial formación científica, aunque este interés sí que le permitió reconocer la importancia de la ciencia en la sociedad del siglo XX.

Sin más que observar algunos de los títulos de sus obras encontramos inmediatamente algunas referencias a la física: Idilio atómico y uránico melancólico (1945), Leda Atómica (1949) y también a la bioquímica, como en Paisaje de mariposas (El gran masturbador en un paisaje surrealista con ADN ) (1957), Galacidalacidesoxiribunucleicacid (Homenaje a Crick y Watson) (1963) o La estructura del ADN. Obra estereoscópica(1973). En otros casos, la relación con la ciencia no se encuentra únicamente en el título, sino que debemos ver la obra en sí.

La proporción áurea

Las matemáticas no quedan fuera de la obra de Salvador Dalí. De hecho, Leda Atómica contiene una composición basada en la proporción áurea, como también lo hace Taza gigante volando, con apéndice incomprensible de cinco metros de largo (1944).

Puede que detrás de este uso de las matemáticas y la razón áurea en la obra de Salvador Dalí estuviera su relación con Matila Ghyka, prolífico autor bastante obsesionado con el número áureo y que publicó varios libros sobre él. En cualquier caso, las matemáticas existentes en la obra de Dalí no se restringen a la composición.

Cubos y estructuras cúbicas

Dalí fue un apasionado de los cubos y la estructura cúbica. Lo demuestra en varios de sus cuadros: quizás el más importante y conocido es Crucifixion (Corpus Hypercubus) (1954), en el que representa a Jesús crucificado en un hipercubo. Nosotros vivimos en un espacio tridimensional y ese es el espacio donde nos movemos todos los días y donde “habitan” los cubos. Si bajásemos una dimensión en vez de estar en un espacio 3D estaríamos en un plano y todos podemos intuir que lo análogo al cubo tridimensional en el caso del plano (que es bidimensional) sería el cuadrado.

El hipercubo (o Teseracto) vuelve a ser un análogo, pero esta vez en un espacio con cuatro dimensiones. La figura que aparece en el cuadro sería el desarrollo tridimensional del hipercubo de dimensión 4. De este modo, Dalí representa a Jesús en una dimensión mayor. Sin embargo, María está llorando abajo, en la Tierra, donde se ve la sombra (bidimensional y representada en color granate en el cuadro) del hipercubo que forma la cruz. La comprensión de la cuarta dimensión llevó a Salvador Dalí a entablar una amistad y colaboración con el matemático Tomas Banchoff.

Un cuadro muy poco conocido

La marcada relación de Salvador Dalí con los cubos también se pone de manifiesto en el cuadro A propósito del «Discurso sobre la forma cúbica» de Juan de Herrera (1960). Juan de Herrera fue el arquitecto del monasterio de San Lorenzo del Escorial y fundador y primer director de la Academia de Matemáticas y Delineación, que más tarde se transformaría en la Real Academia de Ciencias Exactas, Físicas y Naturales. Este cuadro, bastante desconocido, tiene, además, una curiosidad combinatoria: en las caras del cubo descrito aparece representado en muchas direcciones el texto “Silo princeps fecit”, del mismo modo como aparece en la piedra laberíntica del Rey Silo de Santianes de Pravia, en Asturias.

¿Querría Dalí hacer una representación tridimensional de este acróstico? Quizás es esta la respuesta, pero también podría ser que quisiera dar un paso más allá y llevarlo al espacio de cuatro dimensiones, puesto que la forma en la que aparece “el cubo”, cuando se consideran las cadenas que están representadas en el cuadro, vemos que también es la representación de un hipercubo: no su desarrollo, sino su proyección, lo que en matemáticas conocemos como diagrama de Schlegel.

El logotipo de Chupa-Chups

Logo de Chupa Chups. Wikimedia Commons, CC BY-SA
Logo de Chupa Chups. Wikimedia Commons, CC BY-SA

Quizás una de las facetas más desconocidas de Salvador Dalí es la de diseñador del logotipo de la marca Chupa-Chups. En 1969, la compañía le pidió a Dalí que se encargara de mejorar la imagen de la marca y así lo hizo. El trabajo fue bueno, puesto que 50 años después sigue utilizándose el diseño que realizó, que está basado en la gráfica de la curva r=sen(4θ/3) en coordenadas polares. Si recordamos la imagen de la marca y vemos esta figura se puede entender mejor esta relación:

Hablar de Dalí y matemáticas nos lleva necesariamente a las ilusiones ópticas. Aunque todas ellas no sean estrictamente matemáticas, sí que podemos tener en cuenta las anamorfosis, que son deformaciones de imágenes que aparentemente son difíciles de interpretar pero que desde un punto de vista determinado cobran sentido.

Los que hayan visitado el Teatro-Museo de Dalí en Figueras recordarán Gala desnuda mirando el mar que a 18 metros aparece el presidente Lincoln (1975) o Rostro de Mae West utilizado como apartamento (1974). A estos podrían seguir algunas litografías diseñadas para verse reflejadas en un espejo cilíndrico, y que parece que se encuentran a la venta y pueden verse en esta página.

Como estas cosas cambian es mejor dar una referencia estable: pueden verse en el libro Masters of Deception, de Al Seckel (prologado por el matemático Douglas Hofstadter). Tampoco podemos olvidar, y es una referencia imprescindible, la colaboración que Salvador Dalí mantuvo con Walt Disney creando Destino, un corto iniciado en 1946, que no vio la luz hasta 2003 y que está repleto de ilusiones ópticas.

Otra referencia fundamental en la relación de Salvador Dalí con las matemáticas es el hecho de que conociese a Martin Gardner, la persona que durante más de 25 años publicó la columna de juegos matemáticos en la revista Scientific American. Cuenta Gardner que varias veces quedaron en Nueva York y que Dalí era lector de sus escritos y hablaban sobre ciencia y, en concreto, sobre ilusiones ópticas.

Del conejopato al cisnelefante

Hay una conocida ilusión, el conejopato, que según lo mires ves un conejo o un pato. Se puede encontrar haciendo una simple búsqueda en internet. Lo que no es tan simple es encontrar el cisnelefante, que fue creado por Dalí en Cisnes reflejando elefantes (1937). Según cuenta Gardner en su autobiografía, en una ocasión que iba a comer con Dalí llevaba un modelo en porcelana del conejopato y se lo regaló, con lo que le dio una idea para diseñar un cenicero cisnelefante que sirvió como regalo para los clientes de Air India en 1967.

Salvador Felipe Jacinto Dalí i Domènech, marqués de Dalí de Púbol, un personaje poliédrico o politópico (un politopo es el análogo al poliedro pero en dimensiones mayores que 3) del que nos queda mucho por hablar.

FERNANDO BLASCO

https://blogs.publico.es/otrasmiradas

Descubren que los microbios del intestino son capaces de predecir nuestra muerte

Dos estudios científicos concluyen que el «microbioma» resulta mucho más fiable a la hora de predecir enfermedades, e incluso el riesgo de morir en los siguientes 15 años

Descubren que los microbios del intestino son capaces de predecir nuestra muerte

Los microbios que viven y prosperan en nuestro intestino se han relacionado hasta ahora con un gran número de enfermedades, desde la artritis al autismo. Pero un equipo de investigadores acaba de descubrir que nuestro «microbioma», el genoma combinado de los microbios que viven en nuestros cuerpos es capaz, también, de predecir nuestra salud futura, e incluso de decirnos las probabilidades que tenemos de morir en los próximos 15 años. El excepcional descubrimiento se acaba de publicar en dos estudios diferentes en bioRxiv y medRxiv.

En el primer estudio los investigadores compararon las capacidades predictivas del microbioma humano con las variantes genómicas humanas en 13 enfermedades comunes. «Y llegamos a la conclusión -escriben- de que los indicadores microbiómicos superan a la genética humana en la predicción del fenotipo del huésped».

«Nuestros resultados -prosiguen los científicos-, aunque preliminares y centrados en un subconjunto de la totalidad de las enfermedades, demuestran la capacidad predictiva del microbioma, lo que indica que puede superar a la genética humana en la discriminación de casos y controles de enfermedades humanas».

Para llegar a esas conclusiones, los científicos revisaron 47 trabajos anteriores que analizaban las relaciones entre los genomas colectivos de los microbios intestinales y 13 enfermedades comunes como esquizofrenia, hipertensión y asma, consideradas muy complejas ya que son causadas tanto por factores ambientales como genéticos. Después compararon estos estudios con otros 24 sobre la relación del genoma humano en general con esas mismas enfermedades.

Los resultados fueron asombrosos. En términos generales, la firma genética de los microbios intestinales fue un 20% más efectiva a la hora de discriminar entre una persona sana y una enferma que los propios genes de esas personas. El microbioma, además, fue un 50% mejor que el genoma humano en la predicción de casos de cáncer colorrectal. El perfil genético humano solo consiguió superar al microbioma en las predicciones sobre una sola enfermedad, la diabetes tipo 1.

Aunque el propio autor principal del estudio, Braden Tierney, biólogo computacional de la Facultad de Medicina de Harvard, admite que sus resultados son preliminares, considera que «podemos utilizar tanto el microbioma como la genética humana para mejorar la calidad de vida de los pacientes». Según el investigador, el objetivo es identificar marcadores clave en ambos conjuntos de genomas para que, juntos, ayuden a diagnosticar mejor esas enfermedades complejas.

El problema, sin embargo, es que actualmente conocemos mucho mejor el funcionamiento de nuestro genoma que el del microbioma que nos acompaña, de forma que compararlos en igualdad de condiciones podría inducir a errores. Por otra parte, el microbioma tiene la ventaja de que se ve afectado directamente por el entorno de una persona, como por ejemplo lo que come o cuánto ejercicio hace, por lo que podría predecir mucho mejor enfermedades como la diabetes tipo 2, que depende mucho de los factores ambientales.

Prediciendo nuestra muerte

En el segundo estudio, los investigadores observaron el vínculo entre el microbioma de una persona y su esperanza de vida. El análisis aprovechó un estudio finlandés que ha estado recopilando datos de salud de miles de participantes desde 1972. En 2002, los participantes donaron muestras de heces que fueron secuenciadas 15 años después. Y los datos revelan que las personas con una abundancia de bacterias Enterobacteriaceae, una familia de bacterias potencialmente infecciosas que incluye Escherichia coli y Salmonella, tienen un 15% más de probabilidades de morir en los próximos 15 años.

Ambos estudios, sin embargo, no consiguen aún aclarar por qué el microbioma está tan relacionado con la muerte y la enfermedad. Es posible, incluso, que los propios microbios estén causando enfermedades o acortando la vida de alguna manera que aún nos es desconocida. Aunque los investigadores creen que lo más probable es que solo reflejen lo que sea que esté sucediendo en el cuerpo.

https://www.abc.es/ciencia

El gólem

Si un cíborg es un ser vivo enriquecido con quincalla sintética, un biohíbrido es la quincalla potenciada por los tejidos vivos

Uno de los 'biobots' de medio milímetro creados por el equipo de Michael Levin y Josh Bongard.
Uno de los ‘biobots’ de medio milímetro creados por el equipo de Michael Levin y Josh Bongard. DOUGLAS BLACKISTON

 

“Tus ojos vieron mi gólem, y en tu libro se escribieron todos los días que me fueron dados, cuando no existía ni uno solo de ellos”, dice el libro gordo (Salmos 139:16). El original hebreo gólem suele traducirse por sustancia embrionaria, o inacabada, un mero proyecto existencial en espera de un soplo de vida para realizarse. El mito talmúdico cuajó con fuerza en las leyendas medievales, atestadas de hombres sabios que insuflaban vida a las efigies sin más que encontrar la exacta combinación de letras que configuraba uno de los nombres sagrados de Dios. Del gólem, desde luego, provienen Pinocho, el ya bicentenario Frankenstein de Mary Shelley y un profundo poema de Borges. Pero hoy, en el año del Señor de 2020, el mito está maduro para saltar a la estantería de no ficción.

Los robots inspirados en la biología son una de las líneas de investigación tecnológica más activas. Hemos visto estos días los primeros biobots construidos con células vivas que, en distintas configuraciones, ejecutan una serie de movimientos muy del gusto de los tecnólogos. Pocos expertos dudan de que el futuro de estos robots serán las máquinas biohíbridas, compuestas de tejidos vivos y materiales sintéticos. En el último número de Science Robotics, la élite del sector vaticina que los robots biohíbridos lo tendrán más fácil que los convencionales para interactuar con los humanos y con el entorno, y además serán más ecológicos, pues se alimentarán de productos naturales, incluida la luz solar, y sus desechos serán biodegradables por definición, como lo son los de nuestro cuerpo. Si un cíborg es un ser vivo enriquecido con quincalla sintética, un biohíbrido es la quincalla potenciada por los tejidos vivos. Las dos líneas de investigación deberían encontrarse alguna vez a mitad de camino, como dos tuneladoras bajo la montaña.

Pero lo más interesante, como ocurre a menudo, es el montón de problemas que quedan por resolver para llegar allí. Un tejido es más que la suma de sus células, y crearlo a partir del polvo va a requerir un sistema que intercambie gas y calor con el entorno, como el que tiene un tejido vivo, un procedimiento que distribuya el suministro energético y se deshaga de los desperdicios, como el que tiene un tejido vivo, y una red de comunicación entre células que permita al todo responder de manera coordinada, como la que tiene un tejido vivo.

También sería deseable que el artefacto híbrido supiera convertir su información genética en toda una batería de formas geométricas, y en este caso nos enfrentamos a un escollo aún más alto, porque los biólogos no han esclarecido aún cómo se hace eso, y, por tanto, no podemos copiárselo a la madre naturaleza, o bioinspirarnos en ella. El objetivo, dicen los investigadores, es desarrollar sistemas biocompatibles y biodegradables con “capacidad regenerativa, adaptativa, inteligente y biointegrable”. Dicho de otro modo, el objetivo es el gólem, insuflar vida a una efigie descubriendo la combinación oculta de letras (gatacca…).

Dijo Borges: “El gólem es al rabino que lo creó lo que el hombre es a Dios, y es también lo que el poema es al poeta”. La búsqueda moderna del gólem no solo va a requerir el conocimiento del biólogo molecular y la pericia del ingeniero, sino también el arte de un poeta.

https://elpais.com

El inútil «experimento» de «saborear» soja con los testículos, desmontado por la ciencia real

Un estudio publicado en PNAS en 2013 encontró células del gusto en zonas del cuerpo diferentes de la boca, incluidos los genitales, lo que ha sido malinterpretado por muchos internautas

Recipiente con salsa de soja en su interior en un restaurante

Todo comenzaba hace unas semanas: una usuaria de la popular red social TikTok difundía un estudio científico que había encontrado por Twitter donde se afirmaba haber hallado células receptivas del sentido del gusto (es decir, las que tenemos en la lengua y con las que somos capaces de detectar los sabores) en partes del cuerpo como el cerebro, los pulmones y los testículos. Con esta información, la famosa «tiktoker» retó a sus seguidores masculinos a probar de alguna manera lo que ella entendió como la capacidad de los genitales masculinos de «saborear» la comida. Una mala interpretación que, sin embargo, se ha convertido en viral y ha acabado extendiéndose como la pólvora, con varios «voluntarios» mojando su aparato reproductor en salsa de soja. Pero, ¿qué hay de ciencia en todo esto?

Tres estudios científicos sobre el tema

En realidad, poco o nada si lo que se desea es realizar un experimento científico. Aunque es cierto que sí existe el estudio, publicado en la revista PNAS en febrero de 2013. En él, Bedrich Mosinger y sus colegas del Monell Chemical Senses Center, en Filadelfia, explican que se sabía desde hacía tiempo que estos receptores se encontraban no solo en los testículos, sino también en los espermatozoides, pero que se desconocía su función exacta. Para conocerla, los investigadores probaron a inhibir estas células en ratones, lo que les llevó a detectar problemas reproductivos en los animales: sus espermatozoides no se formaban correctamente y, además, eran inmóviles, lo que producía que los machos fuesen estériles. Por ello, el grupo sugirió que estas células probablemente tenían algo que ver con la formación de los espermatozoides, lo que abría todo un campo en la investigación de la esterilidad masculina, incluida la de los hombres.

Meses después, se publicó una revisión por parte de un equipo de la Universidad Shanghai Jiao Tong (China) en la revista «Molecular Human Reproduction» en la que se ahondaba en los resultados. En ella se explica que tal vez la presencia de estas células en los espermatozoides les sirviese como una especie de «detector» en su camino de fecundación al óvulo. A pesar de todo, apuntan que «aunque los receptores del gusto están ampliamente dispersos en diversos sistemas de órganos, la función de estos receptores en muchos tejidos sigue sin estar clara a pesar de los avances recientes». Además, incide que aún es más complicado explicar su función en los testículos y en los espermatozoides.

Justo hace un año, una nueva publicación en la revista «International Journal of Molecular Sciences» apuntaba que, tal y como sospechaba el equipo de Mosinger, «los receptores de sabor son funcionalmente operativos para controlar la producción exitosa de esperma». Pero, en ninguno de los tres estudios se afirma nada de que estas células presentes en el aparato reproductor masculino puedan hacer que se «saboree» de alguna forma con esa parte del cuerpo. Es decir, el experimento es totalmente inútil y para nada científico.

Como «saborear» con la piel de la mejilla

«Las papilas gustativas están solamente en nuestras bocas y en el esófago superior, y son un grupo de células receptoras del gusto. Las señales de las papilas gustativas se envían desde la boca al cerebro para que podamos percibir conscientemente los sabores (…) Sin embargo, las células gustativas presentes en los testículos no activan la corteza gustativa en el cerebro», explica para Sciencealert Emma Beckett, experta en nutrición de la Universidad de Newcastle, en Australia. «Puedes pensar en ellas como cualquier otro receptor en el cuerpo que está monitorizando el medio ambiente. Pueden detectar infecciones, ya que las bacterias tienen compuestos estructurales dulces y secretan sustancias amargas y agrias como desechos. Por ejemplo, hay pruebas de que las células presentes en los pulmones y la nariz están involucradas en la regulación de las respuestas inflamatorias», continúa.

Por ello, los hombres que aceptaron el desafío y aseguraron haber detectado el gusto «umami» de la salsa de soja con sus genitales o han mentido o están equivocados. Además de que el experimento, en cualquier caso, no es válido, ya que las células se encontraron en los testículos en sí y las «cobayas humanas voluntarias» mojaron sus escrotos (la piel que rodea a los testículos), por lo que «sería como tratar de probar la salsa de soja frotándola en la parte externa de la mejilla», afirman en Scienciealert.

Así que antes de utilizar la soja para otro propósito diferente del ordinario e incurrir en una acción totalmente innecesaria y, quien sabe, si peligrosa, mejor no hacer caso a virales de internet y acudir a fuentes fiables. Mucho más si, además, la incalificable acción se va a comunicar al resto del mundo virtual como parte de cualquier reto que involucre nuestro propio cuerpo.

https://www.abc.es/ciencia

 

¿De dónde salió el campo magnético de la Tiera?

El choque de un «planeta» contra una Tierra primitiva arrancó un proceso que generó un poderoso campo magnético, capaz de proteger el agua del planeta frente a la radiación solar

Cuando la Tierra era joven, no se había formado un núcleo interno (izquierda). Este se formó hace 565 millones de años (derecha), regenerando un campo magnético que estaba muy debilitado por entonces
Cuando la Tierra era joven, no se había formado un núcleo interno (izquierda). Este se formó hace 565 millones de años (derecha), regenerando un campo magnético que estaba muy debilitado por entonces – University of Rochester illustration / Michael Osadciw

En el sistema solar existen tres planetas rocosos que tienen un tamaño más o menos comparable, pero que no podrían ser más distintos: se trata de Venus, Tierra y Marte. En el primero, el más cercano al Sol, la atmósfera es tan densa que genera un efecto invernadero descontrolado que calienta el aire hasta los 400ºC cerca del suelo. La Tierra es un planeta con un clima suavizado, donde existe agua líquida en la superficie, mientras que Marte es un mundo desolado y frío porque perdió su atmósfera en el pasado.

El campo magnético es una de las piezas que mantiene apuntalada la atmósfera de los planetas: si desaparece o su intensidad baja, la radiación de las estrellas puede llegar a barrer esta capa de gas tan importante para el clima. Esta semana, un estudio publicado en la revista «Proceedings of the National Academy of Sciences», que se ha basado en el estudio de pequeñas partículas presentes en cristales de zircón, ha concluido que en el pasado el campo magnético de la Tierra fue más potente de lo que se pensaba. Según han sugerido los autores, este campo nació gracias al cataclismo que creó la Luna.

«Esta investigación nos está hablando sobre la formación de los planetas habitables», ha dicho en un comunicado John Tarduno, coautor del estudio e investigador en la Universidad de Rochester (Reino Unido). «Una de las cuestiones que queremos resolver es por qué la Tierra evolucionó como lo hizo, y esto nos da incluso más evidencias de que el campo magnético quedó registrado desde muy temprano en el planeta».

¿De dónde proviene el campo magnético?

El interior de la Tierra alimenta los terremotos, los volcanes y los movimientos de los continentes. En lo más profundo existe un núcleo interno, compuesto de hierro y níquel, que está a una temperatura de hasta 6.000 ºC y que se encuentra en estado sólido. Por encima de este existe un núcleo externo, en estado líquido, cuyo movimiento y giro, muy influido por las diferencias de temperatura entre el interior y el exterior, genera el campo magnético terrestre. Este campo es un escudo que frena y desvía el viento solar y los rayos cósmicos procedentes del Sol, protegiendo la superficie de sus efectos dañinos y permitiendo la existencia de la tupida atmósfera terrestre.

Las últimas investigaciones hechas por Tarduno sugieren que el campo magnético terrestre tiene por lo menos 4.200 millones de años. En aquel momento, el sistema solar había nacido hacía unos 300 millones de años y el Sol era una estrella joven cuyo viento solar era más agresivo que el actual. Adicionalmente, según este investigador, no fue hasta hace 565 millones de años cuando en el interior de la Tierra se formó un núcleo interno, sólido. Pero, entonces, ¿cómo se originaba el campo magnético terrestre cuando el planeta era más joven y todavía no se había diferenciado un núcleo interno y un núcleo externo?

La respuesta, en el zircón

Los investigadores han estudiado unas pequeñas partículas presentes en cristales de zircón. Estas partículas quedaron atrapadas hace miles de millones de años y su colocación muestra tanto la dirección como la intensidad del campo magnético que el planeta tuvo. Gracias a eso, han concluido que el campo magnético era más potente de lo que se pensaba y han sugerido cómo se pudo originar:

«Creemos que el mecanismo es la precipitación química de óxido de magnesio en el interior de la Tierra», ha dicho Tarduno. Según su hipótesis, el enorme impacto que creó la Luna, cuando un objeto planetario del tamaño de Marte chocó contra una Tierra primitiva, favoreció la disolución de esta molécula, gracias a un drástico aumento de la temperatura en el interior del planeta.

Sin embargo, con el paso del tiempo, la Tierra se fue enfriando, permitiendo la precipitación de ese óxido de magnesio. Este proceso permitió la formación de corrientes de convección (impulsadas por diferencias de temperatura) y la generación del campo magnético, según John Tarduno.

El debilitamiento que pudo ser fatal

Sin embargo, hace 565 millones de años, casi todo el óxido de magnesio había precipitado, por lo que el campo magnético se debilitó enormemente. Afortunadamente para la vida en la Tierra, la formación del núcleo interno del planeta permitió regenerar el campo magnético. En Marte, sin embargo, el debilitamiento del campo magnético no se invirtió y este planeta acabó perdiendo su atmósfera, quedando convertido en un desierto reseco.

«Este primer campo magnético fue muy importante porque protegió a la atmósfera y evitó que la Tierra perdiera agua, cuando el viento solar era más intenso», ha apuntado John Tarduno.

Lo interesante, según este investigador, es que es altamente probable que el mecanismo que ha descrito también funcione en otros exoplanetas. Además, considera que es crucial entender qué procesos están manteniendo el campo magnético de la Tierra hoy en día.

https://www.abc.es/ciencia

 

Construyen un objeto capaz de girar a 300.000 millones de revoluciones por minuto

Su rotación es siete millones de veces más rápida que la del púlsar más veloz conocido

Este es el objeto rotatorio más rápido jamás construido. Es capaz de girar a 300-000 millones de revoluciones por minuto

En julio de 2018, un equipo de investigadores de la Universidad de Purdue consiguió crear en su laboratorio el objeto rotatorio más rápido del mundo, ni más ni menos que a 60.000 millones de revoluciones por minuto. Y ahora ha conseguido pulverizar su propio récord creando un diminuto rotor que es capaz de girar sobre sí mismo cinco veces más rápido, esto es, a 300.000 millones de rpm. El impresionante logro se acaba de publicar en «Nature Nanotechnology».

En ambos casos, los objetos en cuestión son nanopartículas de sílice en forma de mancuernas, suspendidas en el vacío. En su actual experimento, cuando la diminuta mancuerna se puso a girar, alcanzó la extraordinaria velocidad de 300.000 rpm. En comparación, baste decir que el torno de un dentista gira a «solo» 500.000 rpm, y que el púlsar más rápido, el objeto natural con mayor tasa de rotación que existe, lo hace a 43.000 rpm.

Para alcanzar este hito, los investigadores apuntaron dos láseres hacia la nanopartícula. El primero para mantenerla en su sitio, el segundo para hacerla girar. Cuando los fotones (las partículas de las que está hecha la luz) golpean un objeto, le transmiten una pequeña cantidad de energía, conocida como «presión de radiación». Normalmente, esa fuerza resulta ser demasiado débil como para producir efectos medibles, pero en un vacío en el que apenas existe fricción, es posible alcanzar velocidades de rotación increíblemente elevadas. Es el mismo concepto que se aplica al desarrollo de velas solares, que algún día podrían impulsar naves a través del espacio a velocidades relativistas.

Presión de radiación

«En el siglo XVII -explica Tongcang Li, autor principal del estudio- Johannes Kepler se dio cuenta de que las colas de los cometas siempre apuntaban en dirección opuesta al Sol debido, precisamente, a la presión de radiación. Utilizamos lo mismo, solo que con un láser muy concentrado, para hacer levitar y rotar a las nanopartículas».

Por supuesto, la utilidad de este logro no consiste en ir acumulando récords mundiales. Según los investigadores, esta clase de dispositivos «super rotatorios» podría utilizarse para medir efectos cuánticos como la fricción en el vacío o el magnetismo a nanoescala.

https://www.abc.es/ciencia/

 

La silla eléctrica, el horrible invento creado para provocar «una muerte rápida e indolora»

Se pensaba que era moderna y mucho más humana que la horca pero la primera vez que se usó sus resultados fueron devastadores

Una ejecución en la prisión de Sing Sing
Una ejecución en la prisión de Sing Sing – Dominio público en EEUU

Pedro Gargantilla

En 1999 fue subastada una silla eléctrica que había pertenecido a Andy Warhol. Al parecer uno de sus discípulos la había adquirido cuando la prisión de Alcatraz fue desmantelada.

El artilugio que sirvió para acabar con la vida de varios criminales se convirtió de la noche a la mañana en un objeto de Pop art y fue reproducida en numerosas ocasiones como un alegato contra la pena de muerte.

Pugna entre dos titanes de la electricidad

La invención de este macabro invento se la debemos a Harold P Brown, uno de los empleados del laboratorio de Menlo Park de Thomas A. Edison. Al parecer fue contratado por el prolífico inventor para investigar la electrocución y desarrollar una silla eléctrica que desacreditase a la corriente alterna.

En aquellos momentos había una fuerte pugna entre los defensores de la corriente alterna, con George Westinghouse a la cabeza, y los que abogaban por la supremacía de la corriente continua, desarrollada por Edison.

Al parecer la idea partió de un dentista de Buffalo (Nueva York) llamado Alfred Sothwick, que tuvo la inspiración al observar como una persona borracha, tras tropezar de forma accidental, se electrocutó con un generador.

En 1888 Brown diseñó un pequeño asiento al que amarraba un gato y aplicaba una descarga de corriente alterna cada vez mayor, hasta que el animal caía desplomado y, literalmente, achicharrado.

Su máquina se mostró en varias ciudades estadounidenses en un rutilante espectáculo feriante, ante la mirada escéptica de centenares de espectadores el colaborador de Edison acabó con la vida de perros, vacas, caballos, liebres y hasta un orangután.

La electricidad en el corredor de la muerte

En 1889 un comité de expertos del estado de Nueva York determinó que la ejecución mediante un sistema eléctrico sería un sistema mucho «más humano» que la horca, el método más habitual para llevar a cabo la pena capital.

El diseño era bastante sencillo, contaba con dos electrodos dispuestos en la cabeza y en una de las extremidades del ajusticiado, que aseguraban que el flujo eléctrico circulase y provocase, al menos sobre el papel, una muerte rápida e indolora.

La verdad es que tanto Westinghouse como Edison se opusieron abiertamente a este sistema de ejecución, no por problemas de índole ética, sino más bien de tipo monetario. Ambos inventores temían que los consumidores estadounidenses rechazasen tener en sus hogares aparatos que utilizasen ese tipo de corriente eléctrica.

El primer ejecutado en la silla

La primera vez que se empleó este método de ejecución fue el 6 de agosto de 1890 y se llevó a cabo en la prisión Auburn en Nueva York. El reo fue William Kemmler, el «primer condenado a morir por electricidad». En una rueda de prensa que concedió unos días antes afirmó: «Soy un criminal y debo morir. Muy bien. Pero no en la horca. En esa silla que han inventado, más moderna».

Cuando todo estuvo preparado se aplicó 1.000 voltios durante diecisiete segundos, pero ante la sorpresa de los allí congregados, el reo no falleció y la ejecución tuvo que ser interrumpida durante unos minutos. Se reinició con un voltaje mayor –2.000 voltios– que acabó con la vida del condenado en poco más de un minuto.

La escena fue espantosa, el olor a carne quemada era insoportable y cuando Kemmler falleció salía humo de su cabeza. El propio Westinghouse comentó con ironía: «mejor hubieran usado un hacha».

A pesar de todo, la prensa calificó la muerte de Kemmler como la primera ejecución moderna de la Historia. El artilugio causó una enorme expectación tanto dentro como fuera de Estados Unidos, hasta el punto de que el emperador Melenik II de Abisinia –la actual Etiopía– compró tres unidades, a pesar de que en su país todavía no había corriente eléctrica.

https://www.abc.es/ciencia

Nada más que el asteroide mató a los dinosaurios

Un nuevo estudio descarta la implicación de grandes erupciones volcánicas en la India en la extinción masiva de hace 66 millones de años

Los dinosaurios desaparecieron hace 66 millones de años por el impacto de un gran meteorito

Judith de Jorge

Hace 66 millones de años, la vida en la Tierra recibió uno de los mayores golpes que jamás haya sufrido. Algo que transformó para siempre el destino de los seres vivos que la habitan. Un asteroide de unos 10 km de diámetro se estrelló en lo que hoy es la península de Yucatán, en México, desencadenando una serie de terribles acontecimientos que terminaron con la desaparición del 75% de las especies existentes, incluidos casi todos los dinosaurios. Esa es la versión comúnmente aceptada por la comunidad científica. Pero existe otra, defendida por algunos investigadores, que dice que el meteorito no fue el único culpable de la gran extinción del Cretácico-Paleógeno (K-Pg), sino que unas erupciones volcánicas masivas en la India, en la región conocida como las escaleras del Decán, contribuyeron al exterminio.

Entonces, ¿tuvo el asteroide un cómplice en la Tierra? ¿Tuvieron los volcanes algo que ver con el ocaso de los que hasta ese momento eran los reyes del planeta? El debate se ha prolongado durante décadas, pero un nuevo estudio, llevado a cabo por un equipo internacional de investigadores dirigido por la Universidad de Yale, parece ponerle fin. Los resultados, publicados en la revista «Science», niegan que los volcanes del Decán tuvieran algo que ver en la extinción. En realidad, concluyen, la actividad volcánica y el aumento de la temperatura global asociado, que llevaron a muchas especies tropicales a migrar a los polos, finalizaron 200.000 años del impacto del asteroide en Yucatán. Para entonces, la temperatura y los ecosistemas ya se habían recuperado.  

Calentamiento de 2º

Para determinar el momento de la emisión de gases volcánicos, los investigadores generaron una curva de temperatura global desde medio millón de años antes del impacto del asteroide a un millón de años después. Con este objetivo, analizaron miles de fósiles extraídos de fondos marinos de todo el mundo, la mayoría foraminíferos, criaturas formadas por una sola célula cubierta con un caparazón. También moluscos, dientes de pez e incluso hojas de plantas. En este trabajo participó Laia Alegret, paleontóloga en el Instituto Universitario de Ciencias Ambientales de Aragón (IUCA) de la Universidad de Zaragoza. «El caparazón de calcita registra a nivel atómico la temperatura del agua, algo que podemos conocer con un análisis de isótopos», explica a ABC.

Gracias a estos registros, descubrieron que a finales del Cretácico se produjo un calentamiento global de 2º, atribuido a los volcanes indios, «que causó migraciones de especies tropicales a los polos», apunta Alegret. Sin embargo, la situación revertió y estos animales regresaron mucho antes del impacto del asteroide, lo que indica que el vulcanismo «no tuvo nada que ver con las extinciones», subraya.

Laia Alegret, en su laboratorio
Laia Alegret, en su laboratorio – U. Zaragoza

Recuperación más lenta

Los investigadores también realizaron varios modelos para comprender la influencia de la actividad volcánica. El mejor escenario que encaja con la curva de temperaturas es uno en el que más de la mitad de los gases asociados al vulcanismo del Decán se emitieron mucho antes de las extinciones masivas (con las que solo coincide, una vez más, el impacto del asteroide). Pero justo después hay otra fase de emisiones, lo que parece desconcertante porque no hay un evento de calentamiento que coincida.

Lo que ocurre, según explica Alegret, es que la extinción masiva provocada por el asteroide alteró profundamente el ciclo global del carbono, lo que permitió que el océano absorbiera una enorme cantidad de CO2 volcánico en escalas de tiempo prolongadas, lo que a su vez ocultó los efectos del calentamiento provocado por los volcanes. Eso sí, «aunque no provocaron la extinción, los gases volcánicos sí pudieron ralentizar la recuperación de la vida tras el impacto», señala.

Si los investigadores están en lo cierto, la historia que cuenta cómo un gran meteorito golpeó la Tierra, emitiendo una gran cantidad de material fundido y gases a la atmósfera, provocando lluvia ácida y un invierno nuclear de décadas, sigue siendo la de un criminal que actuaba en solitario.

Nada más que el asteroide mató a los dinosaurios

Viaje al continente perdido

Laia Alegret participó en 2017 en la expedición internacional a Zelandia, un continente perdido que se encuentra sumergido bajo las aguas del Pacífico y del que únicamente afloran sus montañas más altas, que son Nueva Zelanda y Nueva Caledonia. La paleontóloga oscense viajará este mismo viernes a Nueva Zelanda para poner en común con los científicos de la expedición los resultados obtenidos, que serán publicados en las próximas semanas en la revista «Biology». Lo único que puede avanzar la investigadora es que estos resultados van a «sorprender» porque suponen cambios desde el punto de vista geológico sobre cómo se mueven las placas tectónicas.

https://www.abc.es/ciencia

Así saca la basura el cerebro

Jordi Vilaplana

Profesor Titular de Universidad. Departament de Bioquímica i Fisiologia, Universitat de Barcelona

Carme Pelegri

Profesora de Fisiología, Grup de Recerca en Envelliment i Neurodegeneració, Universitat de Barcelona

Elisabet Augé

Investigadora Predoctoral, Universitat de Barcelona

Marta Riba

Honza Hruby / Shutterstock
Honza Hruby / Shutterstock

Si administrásemos un colorante vital como el azul de Evans a la sangre de una rata o un ratón, pasados unos minutos el animal tendría todos los órganos azulados, cual pitufo sin calzones, con excepción de su cerebro. La explicación es sencilla: en el cerebro existe una barrera, conocida como barrera hematoencefálica, que limita enormemente el intercambio de sustancias entre la sangre y dicho órgano.

Esta barrera provoca quebraderos de cabeza a los neurólogos, ya que dificulta la entrada de fármacos al cerebro y, por tanto, restringe los tratamientos disponibles para enfermedades como el alzhéimer y el párkinson. Pero ojo, porque esta barrera no solo limita la entrada de sustancias al cerebro. También frena su salida.

Entonces, ¿cómo hace el cerebro para sacar la basura?

Estudios recientes que hemos llevado a cabo junto con otros autores indican que el cerebro tiene un sistema propio de recogida de basura. En una primera fase, sin salir del cerebro, los desechos se vierten dentro de contenedores. Seguidamente, los contenedores abandonan el órgano pensante. Y en una tercera fase, ya fuera del cerebro, se eliminan esos contenedores.

Como veremos a continuación, esto nos va a permitir obtener información relevante acerca del estado del cerebro. Pero no nos adelantemos y describamos antes de nada cómo funciona el sistema de recogida de basura.

Contenedores siendo expulsados del cerebro. Riba, Augé, Pelegrí y Vilaplana / UB, Author provided
Contenedores siendo expulsados del cerebro. Riba, Augé, Pelegrí y Vilaplana / UB, Author provided

Los contenedores de basura del cerebro

En el cerebro existe un tipo de células llamadas astrocitos. Se caracterizan por tener forma estrellada, con digitaciones que se expanden a su alrededor. Son los responsables de generar los contenedores de basura, denominados en la jerga científica cuerpos amiláceos. Además, cual maleta facturada en un aeropuerto, los cuerpos amiláceos se etiquetan con unos marcadores denominados neo-epítopos que especifican cuál será su destino una vez expulsados del cerebro.

Generalmente, estos cuerpos amiláceos son estructuras esféricas y relativamente grandes. Pueden alcanzar diámetros de más de 20 micras, superando las 10 micras de los capilares sanguíneos. Demasiado tamaño para eliminarse a través de la sangre. Suerte que el cerebro tiene otros recursos para deshacerse de estos contenedores.

Físicamente el cerebro está muy bien protegido. Al igual que un pez de gran tamaño dentro de una pequeña pecera, “flota” dentro del cráneo suspendido en un medio acuoso llamado líquido cefalorraquídeo.

Pues bien, algunas sustancias de desecho cerebrales son vertidas directamente al líquido cefalorraquídeo, y este es el caso de los cuerpos amiláceos. Nuestros “contenedores”.

De ahí que, del mismo modo que es necesario limpiar de vez en cuando el agua de la pecera, sea necesario limpiar y renovar el líquido cefalorraquídeo, extrayendo los cuerpos amiláceos allí acumulados. Una tarea que está a cargo del sistema linfático de las meninges.

Cuestión de meninges

Entre el líquido cefalorraquídeo y los huesos del cráneo, así como entre el líquido cefalorraquídeo y el cerebro, existen unas membranas conocidas como meninges (la inflamación de estas membranas, la meningitis, es una enfermedad grave y en ocasiones mortal).

Ruta de eliminación de la basura cerebral. Marta Riba et al / PNAS 2019;116:51:26038-2604, Author provided
Ruta de eliminación de la basura cerebral. Marta Riba et al / PNAS 2019;116:51:26038-2604, Author provided

Para llevar a cabo esta limpieza contamos unas células especializadas llamadas macrófagos. Los macrófagos, una vez leídas las etiquetas de destino o neo-epítopos presentes en los cuerpos amiláceos, se los “comen” (fagocitan) y proceden a su degradación química. De este modo, sustancias residuales cerebrales que no pueden ser degradadas en el propio cerebro ni pueden salir a través de la sangre encuentran una escapatoria y son eliminadas.

Una nueva herramienta para el estudio de enfermedades cerebrales

Lo más interesante del asunto es que, del mismo modo que el análisis del contenido de una bolsa de basura nos permite conocer los hábitos de las personas que las generaron, estudiando los productos de desecho presentes en los cuerpos amiláceos presentes en el líquido cefalorraquídeo podremos hacernos una idea de cómo está funcionando el cerebro.

Obtener líquido cefalorraquídeo es relativamente sencillo, por ejemplo mediante punción lumbar. Aislar los cuerpos amiláceos de este líquido también es fácil, debido a su relativamente gran tamaño, peso y densidad. Y en caso de padecer alguna enfermedad cerebral, los cuerpos amiláceos contendrán productos de desecho que nos pondrán sobre aviso. Por tanto, el análisis del contenido de los cuerpos amiláceos aislados puede ser una buena herramienta de diagnóstico.Honza Hruby / Shutterstock

Resumiendo, en el cerebro algunos desechos se acumulan en contenedores de basura denominados cuerpos amiláceos. Estos cuerpos son expulsados al líquido cefalorraquídeo y transferidos al sistema linfático. Y ya en el sistema linfático, los macrófagos existentes en los nódulos linfáticos acaban definitivamente con ellos.

Se produce con todo ello un buen lavado de cerebro. Un lavado imprescindible para su correcto funcionamiento. Que además, ahora que lo conocemos, ofrece un nuevo enfoque para diagnosticar las enfermedades cerebrales.


Este artículo ha sido publicado originalmente en The Conversation

https://blogs.publico.es/otrasmiradas/