PREGUNTAS CONCIENCIA #32

¿QUÉ ES EL BOSÓN DE HIGGS? ¿FUE SU HALLAZGO REALMENTE TAN IMPORTANTE? Y, SI ES ASÍ, ¿QUÉ LO HACE TAN ESPECIAL? 

El pasado lunes 4 de julio de 2022 fue una fecha señalada en el calendario dentro de la comunidad científica pues se celebró el décimo aniversario del descubrimiento del bosón de Higgs en el año 2012, sin duda, uno de los acontecimientos más importantes de este siglo en el mundo de la ciencia. Y lo es porque el bosón de Higgs era la pieza que faltaba que faltaba para completar el gran rompecabezas que explica cómo interactúan los componentes básicos de la materia, gobernados por cuatro fuerzas fundamentales, llamado Modelo Estándar. Pero no solo eso, sino que el propio bosón de Higgs es parte de la respuesta a por qué nosotros, y todo con lo que interactuamos, tenemos masa. Como todos entenderéis, explicar que es el bosón de Higgs exactamente y qué papel juega dentro del Modelo Estándar de una manera clara y sencilla no es tarea fácil, pero lo vamos a intentar en las próximas líneas. Para ello debemos ir paso a paso definiendo varios conceptos que nos harán entender mejor el tema. Por lo tanto, prepararos para unos minutos de lectura 😉

Bien, comencemos entonces por el principio. La materia, como todos sabemos, está formada por átomos. Sin embargo, los átomos no son lo que llamamos “partículas elementales”. Son, de hecho, estas últimas las que forman los átomos. Definimos las partículas elementales como las que no están formadas por partículas más simples (no se pueden dividir en otros tipos de partículas) y, en consecuencia, son los constituyentes elementales de la materia. Por ejemplo, en un átomo conocemos casi de memoria tres tipos de partículas: el protón, el electrón y el neutrón. Pues bien, de todas ellas solo una es partícula elemental: el electrón. Tanto el protón como el neutrón están hechas de otras partículas más pequeñas llamadas quarks (de los cuales hay varios tipos) que sí son partículas elementales. Como el electrón y los quarks hay varias partículas elementales más que están divididas en dos grupos: quarks y leptones. Cada grupo consta de seis partículas, que están relacionadas en pares o «generaciones». Las partículas más ligeras y estables forman la primera generación, mientras que las partículas más pesadas y menos estables pertenecen a la segunda y tercera generación. Toda la materia estable del universo está formada por partículas que pertenecen a la primera generación; cualquier partícula más pesada se descompone rápidamente en otras más estables. Los seis quarks se emparejan en tres generaciones. El “up quark” (quark arriba) y el “down quark” (quark abajo) forman la primera generación. Después tenemos el “charm quark” (quark encanto) y el “strange quark” (quark extraño) que forman la segunda generación. Finalmente, la tercera generación la forman “top quark” (quark superior) y el “bottom (or beauty) quark” (quark inferior (o belleza)). Por otro lado, el grupo de los leptones está compuesto también por seis partículas tambien dispuestas en tres generaciones: el electrón y el neutrino electrónico (primera generación), el muón y el neutrino muónico (segunda generación) y el tau y el neutrino tauónico (tercera generación). El electrón, el muón y el tau tienen carga eléctrica y una masa considerable, mientras que los neutrinos son eléctricamente neutros y tienen muy poca masa (ver imagen adjunta con todas las partículas elementales). Cabe destacar que la combinación de quarks se denomina hadrón. Hay dos tipos de hadrones, los bariones y los mesones. La materia con la que convivimos suele denominarse también materia bariónica pues está compuesta por bariones (los protones y los neutrones son bariones). Los bariones se distinguen de los mesones en el número de quarks que los forman. Un barión está compuesto por 3 quarks mientras que un mesón está formado por un quark y un antiquark (la antipartícula del quark, ver publicación anterior sobre la antimateria para entender que es una antipartícula). Los mesones son partículas más exóticas y difíciles de detectar de las que hay dos tipos, el pión y el kaón.

Sin embargo, este no es el final de la historia. Lo cierto es que para no tener un universo formado por una sopa de partículas independientes flotando en el vacío, debemos tener una serie de fuerzas que las unan. Y aquí es donde entran en juego las llamadas fuerzas fundamentales. Hay cuatro fuerzas fundamentales que actúan en el universo: la fuerza fuerte (mantiene unidos los nucleones, es decir, a los protones y a los neutrones venciendo la a la fuerza electromagnética que tiende a separar a las partículas de la misma carga (los protones son todos de carga positiva)), la fuerza débil (responsable de la desintegración radiactiva de las partículas subatómicas), la fuerza electromagnética (fuerza que actúa entre partículas cargadas, como electrones cargados negativamente y protones cargados positivamente) y la fuerza gravitatoria (atracción entre objetos que tienen masa). Cada una de ellas actúa en diferentes escalas, tienen, digamos, puntos fuertes y débiles. La gravedad es la más débil, pero tiene un alcance infinito. La fuerza electromagnética también tiene un alcance infinito, pero es muchas veces más fuerte que la gravedad. Las fuerzas débil y fuerte son efectivas solo en un rango muy corto y dominan solo al nivel de las partículas subatómicas. A pesar de su nombre, la fuerza débil es mucho más fuerte que la gravedad, pero, de hecho, es más débil que la electromagnética y que la fuerte. La fuerza fuerte, como sugiere su nombre, es la más fuerte de las cuatro interacciones fundamentales. Pero al margen de su magnitud y alcance, resulta más interesante saber que tres de estas fuerzas fundamentales resultan del intercambio de lo que se llama “partículas portadoras de fuerza”. Estas partículas portadoras de fuerza pertenecen a un grupo más amplio llamado «bosones». La interacción entre las partículas de materia (quarks y leptones) y las partículas portadoras de fuerza se realiza mediante un complejo mecanismo, diferente para cada interacción en particular, que se basa en el intercambio de bosones entre las partículas de materia y que conlleva a su vez una transferencia de energía entre ellas. Cada fuerza fundamental tiene su propio bosón: la fuerza fuerte es transportada por el «gluon», la fuerza electromagnética es transportada por el «fotón» y los «bosones W y Z» son responsables de la fuerza débil. Aunque todavía no se ha encontrado, el «gravitón» debería ser la partícula portadora de la fuerza de gravedad.

Estas interacciones que acabamos de mencionar y que hemos descrito de forma cualitativa, están perfectamente formuladas por el conocido Modelo Estándar. Este modelo es uno de los logros más importantes de la ciencia en toda la historia pues explica con éxito las interacciones más básicas que dan lugar a toda la materia de la que vivimos rodeados. Resume con éxito nuestro conocimiento actual de los constituyentes básicos de la materia y sus interacciones recopilando las teorías y descubrimientos de miles de físicos desde la década de 1930. Este modelo nos da una visión notable de la estructura fundamental de la materia. Desarrollado a principios de la década de 1970 el Modelo Estándar ha explicado con éxito casi todos los resultados experimentales y ha predicho con precisión una amplia variedad de fenómenos. Con el tiempo y a través de muchos experimentos, el modelo estándar se ha establecido como una teoría física bien probada. En su formulación incluye las fuerzas electromagnética, fuerte y débil y todas sus partículas portadoras, y explica bien cómo actúan estas fuerzas sobre todas las partículas de materia.

Sin embargo, faltaba algo en el Modelo Estándar, estaba incompleto. Explicar el porqué los físicos sabían que faltaba algo es complejo, pero intentémoslo. Lo primero que tenemos que saber es que el Modelo Estándar que surge dentro del marco de la Teoría Cuántica de Campos (Quantum Field Theory, en inglés) que fue desarrollada con aportaciones de algunos de los físicos más brillantes de la historia (Schrödinger, Dirac, Heisenberg, Pauli, Feynman, etc.) desde la década del 20 del siglo pasado. La Teoría Cuántica de Campos describe el mundo de las partículas microscópicas de manera muy diferente a la vida cotidiana. Los llamados “campos cuánticos” se distribuyen por todo el universo y dictan lo que la naturaleza puede y no puede hacer. En esta descripción, existe lo que se llama “dualidad onda-partícula” ya que cada partícula puede ser representada por una onda en un “campo”. Un ejemplo es el fotón, la partícula de luz, que es una onda en el campo electromagnético (ver post “¿Por qué el cielo es azul?” para encontrar una explicación de la dualidad onda-partícula). Coma ya hemos comentado, cuando las partículas interactúan entre sí, intercambian «partículas portadoras de fuerza». Estos portadores de fuerza, antes descritos, son partículas (bosones), pero en este marco, también pueden describirse como ondas en sus respectivos campos. Por ejemplo, cuando dos electrones interactúan, lo hacen intercambiando fotones: los fotones son los portadores de fuerza de la interacción electromagnética. Por otro lado, uno de los componentes más importantes de esta teoría es la simetría. El concepto de simetría en este contexto es difícil de entender, pero en cierto modo se parece al concepto que tenemos habitualmente de la simetría. Comúnmente decimos que un objeto o forma geométrica es simétrica cuando permanece invariante (no cambia) al someterla a ciertas transformaciones, movimientos o intercambios. Por ejemplo, un circulo es simétrico bajo rotación ya que por mucho que lo giremos permanece igual. Pues con las leyes de la naturaleza se imponen requisitos similares de simetría. Por ejemplo, la fuerza eléctrica entre partículas con una carga eléctrica de uno siempre será la misma, independientemente de si la partícula es un electrón, un muón o un protón. Tanto los campos cuánticos y la representación de las partículas como ondas como las simetrías forman la base y definen la estructura de la Teoría Cuántica de Campos y, por lo tanto, del Modelo Estándar.

Pues bien, el Modelo Estándar presentaba una pequeña falla precisamente en una de estas simetrías. Utilizando la noción de simetría, los físicos pudieron proporcionar un conjunto unificado de ecuaciones tanto para el electromagnetismo (electricidad, magnetismo, luz) como para la fuerza nuclear débil (radiactividad). De esta forma, lograron unificar las dos fuerzas en una conocida como “fuerza electrodébil”. Sin embargo, estas mismas simetrías que habían permitido la unificación de estas dos fuerzas, presentaban un problema evidente: las simetrías explicaban la fuerza electrodébil, pero para mantener las simetrías válidas, quedaba prohibido que las partículas portadoras de fuerza tuvieran masa. Esto generaba un problema grave ya que se sabía que el fotón, partícula portadora del electromagnetismo, no tenía masa, pero los bosones W y Z, portadores de la fuerza débil, tenían que tener necesariamente masa. Y esto se sabía, pese a que en la época que surgió este problema todavía no se habían detectado ni el W y ni el Z, porque los físicos eran conscientes de que, si el W y Z no tuvieran masa, procesos ya conocidos en aquel tiempo como la desintegración beta (la desintegración beta es un tipo de desintegración radiactiva en la que una partícula beta (electrón o positrón energético rápido) se emite desde un núcleo atómico) se habrían producido a velocidades infinitas, algo que es físicamente imposible. Pero apareció la solución. En 1964, dos artículos, uno de Robert Brout y François Englert, el otro de Peter Higgs (ver artículo original adjunto), ofrecían una salida: un nuevo mecanismo que rompería la simetría electrodébil y, por lo tanto, la imposibilidad de que los bosones W y Z tuvieran masa. El llamado mecanismo de Brout-Englert-Higgs se sustenta en dos componentes principales: un campo cuántico completamente nuevo y cuya manifestación cuántica es el bosón de Higgs y un truco especial. Dicho truco es la ruptura espontánea de la simetría. Una simetría rota espontáneamente es aquella que está presente en las ecuaciones de una teoría pero que se rompe cuando vemos el sistema físico. Veámoslo con este ejemplo que es bastante claro. Imaginemos que ponemos un lápiz parado sobre su punta en el centro de una mesa. Esta es una situación perfectamente simétrica. Sin embargo, todos sabemos que esta situación se mantiene solo por un momento, el lápiz cae inmediatamente al soltarlo. Al caerse, la simetría rotacional (cuando esta vertical sobre la punta, si rotamos la mesa vemos el lápiz igual desde todos los ángulos) se rompe pues el lápiz “escoge” una sola dirección en la que apunta al caerse. Sin embargo, esta repentina perdida de simetría no implica que las leyes de la Naturaleza cambien, de hecho, no lo hacen. Simplemente el lápiz se cae en una dirección que no está predefinida las leyes físicas, no hay una ley que nos diga hacia donde debe caer el lápiz. Desde este punto de vista, la falta de simetría es esencialmente un «engaño», no altera la simetría original de la física. Ahora bien, ¿cómo resolvemos el problema de las masas de los bosones W y Z? De la siguiente manera. Justo en el momento en que se creó el universo en el Big-Bang, este estaba lleno del campo de Higgs en un estado inestable pero simétrico. Pero una fracción de segundo después del Big Bang, el campo de Higgs encontró una configuración estable, pero que rompía esa simetría inicial. En esta nueva configuración, las ecuaciones siguen siendo simétricas, pero la simetría rota del campo de Higgs da lugar a la masa de los bosones W y Z. Con esta brillante idea Brout, Englert y Higgs solventaron el problema de la masa de los bosones W y Z y sobre el papel todo encajaba perfectamente. Pero todavía quedaba un problema: el campo cuántico tenía su partícula portadora asociada, el bosón de Higgs, que tendríamos que encontrar para confirmar definitivamente las ecuaciones. Es decir, el acertijo matemático se había resuelto, pero aún quedaba por probar si las matemáticas describían la realidad física.

Y en este punto apareció el famoso Large Hadron Collider (LHC) o Gran Colisionador de Hadrones (se llama así porque hace colisionar hadrones, habitualmente protones) situado en el complejo del CERN, en Ginebra (Suiza). EL LHC es el acelerador de partículas más grande y potente del mundo y la maquina más grande construida por el hombre hasta ahora. Se puso en marcha por primera vez el 30 de marzo de 2010 y consiste en un anillo de 27 kilómetros de imanes superconductores con una serie de estructuras aceleradoras para impulsar la energía de las partículas a lo largo de su trayecto. La búsqueda del bosón de Higgs se confió al LHC. Se sabía que las colisiones de partículas a energías suficientemente altas podrían producir un bosón de Higgs, pero durante mucho tiempo los físicos fueron un poco a ciegas porque no sabían exactamente cuál era este rango de energía. Se habían buscado signos del bosón de Higgs en el Gran Colisionador de Electrones y Positrones (LEP), que fue el predecesor directo del Gran Colisionador de Hadrones, y en el Tevatron del Fermilab en los EEUU. Sin embargo, el LHC tenía la capacidad de explorar todo el rango de energía predicho donde podría aparecer el bosón de Higgs, y los dos detectores de partículas instalados en el LHC, el ATLAS y el CMS, estaban destinados a proporcionar una respuesta definitiva sobre su existencia. Para ello, los físicos debían identificar entre las ingentes cantidades de partículas que se generan en un choque la firma del bosón de Higgs. Lo que ocurre es que cuando dos protones chocan dentro del LHC, son sus quarks y gluones constituyentes los que interactúan entre sí. Estas interacciones de alta energía pueden, a través de efectos cuánticos bien predichos, producir un bosón de Higgs, que se transformaría inmediatamente en partículas más ligeras que ATLAS y CMS podrían observar. Por lo tanto, los científicos necesitaban acumular evidencia suficiente para sugerir que las partículas que podrían haber aparecido a partir de una producción y transformación de Higgs eran, de hecho, el resultado de dicho proceso. En diciembre de 2011 el CERN anuncio que los primeros signos del bosón de Higgs estaban allí: ambos detectores habían visto señales en sus datos que comenzaban a verse distintos de cualquier fluctuación estadística o ruido. Pero estos resultados carecían de la certeza estadística necesaria para reclamar descubrimiento. Se tuvo que esperar hasta julio de 2012 para hacer oficial el descubrimiento tan solo dos años después de haber empezado a recopilar datos.

Ahora que sabemos que realmente existe el bosón de Higgs y que el problema de la masa de los bosones W y Z está resuelto, una última pregunta que nos podríamos hacer es, ¿cómo actúa el bosón de Higgs? Es decir, ¿Cómo se genera la masa de las partículas? Vamos a tratar de explicarlo. Lo primero que hay que decir es que, pese a que, como hemos comentado, el mecanismo de Brout-Englert-Higgs fue inicialmente desarrollado para explicar la masa de los bosones W y Z, pronto los científicos se dieron cuenta de que el mismo mecanismo podría utilizarse para explicar como el resto de partículas adquiría su masa. Y después tener que entender que es la masa. En la vida cotidiana, la masa es aquel valor que observamos al “pesar” algo. Este valor nos dice “cuanta cantidad de materia” tiene un objeto. Cuando algo “pesa” mucho nos da una idea de que nos va a costar mucho moverlo o levantarlo y en realidad esta idea es la que más se ajusta a la definición física de masa ya que, en física, la masa es aquella magnitud física que mide la inercia del cuerpo, es decir, la resistencia a la aceleración (cambio de velocidad) cuando se aplica una fuerza neta. Pongamos un pequeño ejemplo para entender esto. Imaginemos un ciclista en una bicicleta yendo a una velocidad constante. De repente se cruza con una persona y esta le da un empujón por detrás. Inmediatamente la velocidad del ciclista cambia, la bicicleta acelera. Pongamos ahora un coche circulando a la misma velocidad que la bicicleta y al que le ocurre la misma situación, una persona lo empuja por detrás con la misma fuerza que a la bicicleta. Como todos sabemos, el coche ni se inmuta, su velocidad no cambia lo más mínimo. Esto acurre porque la inercia, su resistencia al cambio de velocidad, del coche es mucho mayor que la de la bicicleta y esto es así porque su masa es mucho mayor. De este modo, la masa se puede ver como una medida de la resistencia al cambio de velocidad. Si hemos entendido esto, entenderemos fácilmente como el campo de Higgs actúa. El campo de Higgs, cuya manifestación, como ya hemos mencionado, es el bosón de Higgs, está por todas partes, es omnipresente. Esto quiere decir que, según los cálculos, su “valor esperado” es distinto de cero en todas partes. Incluso en el vacío más absoluto está presente. Y esto hace que, aquellas partículas que por naturaleza pueden interactuar con él, estén todo el tiempo sujetas a esa interacción de tal forma que vistas desde fuera adquieren una masa. Como esto quizás es un poco difícil de ver, partamos desde el otro punto de vista, las partículas sin masa. Puede parecer un poco extraño, pero la característica que define a cualquier partícula sin masa es que viaja a la velocidad de la luz. Es decir, a aproximadamente 300 millones de metros por segundo. Desde esta perspectiva, la masa sería solo la propiedad de no tener que viajar siempre a la velocidad de la luz y, como efecto secundario, esto también significa no poder viajar a la velocidad de la luz. Pero la clave es que las partículas con masa tienen la suerte de viajar a la velocidad que quieran, siempre que sea más lenta que la luz aplicándoles una fuerza. Ahora bien, en este punto, podemos decir que, si no hubiera un campo de Higgs, todas las partículas no tendrían masa y, por lo tanto, viajarían a la velocidad de la luz lo cual es, evidentemente, irreal. Las partículas sin masa tienen la propiedad de no interactuar con el campo de Higgs, digamos que “pasan de largo” cuando se encuentran estas interacciones. Sin embargo, las partículas con masa interactúan con el campo de Higgs, es decir, “rebotan” con el campo de Higgs. De esta forma, una partícula que originalmente no tenía masa, empezó de interaccionar con el campo de Higgs, empezó a “rebotar” con el campo de Higgs impidiéndole el avance libremente y adquirió masa. Con estas interacciones continuas con el campo de Higgs, una partícula que originalmente nació sin masa, al considerar los “rebotes” se ve y actúa como si tuviera masa. Un último ejemplo (típico) para visualizar este mecanismo es el siguiente. Imaginemos que hay una fiesta con mucha gente desconocida. Cada uno está pasando la velada tranquilamente sin preocuparse mucho por los demás. En cierto momento, entra en la fiesta otra persona desconocida y quiere llegar al otro extremo de la habitación. Esta persona lo hace sin problemas y sin interacción con el resto de los asistentes porque pasa desapercibida. Esta seria nuestra partícula sin masa. Ahora pongamos que llega a la fiesta una persona muy famosa, un cantante o futbolista famoso. Inmediatamente la gente de la fiesta se da cuenta y empieza a arremolinarse a su alrededor para sacarse una foto, pedir un autógrafo, etc. Esta persona famosa, que también quería cruzar la sala hasta el otro extremo, tarda mucho más tiempo y “arrastra” consigo a un gran número de personas. Esta persona famosa es nuestra partícula con masa. Su interacción con el campo de Higgs ha hecho que su “tamaño efectivo inicial” y, por lo tanto, su “masa efectiva” creciera enormemente al desplazarse por la habitación (ver imágenes adjuntas para visualizar esta situación). Este es el efecto del campo de Higgs actuando sobre las partículas con masa. Entran el campo de Higgs, los bosones de Higgs se arremolinas a su alrededor (es decir, interactúan con la partícula) y de este modo la partícula adquiere masa.

Con el descubrimiento del bosón de Higgs, el Modelo Estándar quedaba totalmente demostrado y validado. De ahí la importancia de la búsqueda y el hallazgo del bosón de Higgs. Por lo tanto, hasta aquí todo bien, pero todavía queda trabajo por hacer y preguntas que responder. Por ejemplo, el Modelo Estándar no incluye la fuerza más familiar en nuestra vida cotidiana, la gravedad. La teoría cuántica utilizada para describir el micromundo (partículas elementales) y la teoría general de la relatividad utilizada para describir el macromundo (tamaños grandes, cosmología) son difíciles de encajar en un solo marco. Nadie ha logrado hacer que los dos sean matemáticamente compatibles en el contexto del Modelo Estándar. Pero, afortunadamente para la física de partículas, cuando tratamos con la escala microscópica, el efecto de la gravedad es tan débil que es insignificante. También hay preguntas importantes que no responde el Modelo Estándar, como «¿Qué es la materia oscura?», «¿Qué pasó con la antimateria después del Big Bang?» o «¿Por qué hay tres generaciones de quarks y leptones con una masa tan diferente?». Como vemos, muchas preguntas abiertas que dejan a los físicos mucho trabajo todavía por delante. A buen seguro, la nueva información de los futuros experimentos en el LHC nos ayudará a encontrar la respuesta a todas estas preguntas y más que están por llegar.

Partículas elementales
Diagrama con la relación entre las diferentes partículas elementales
Visualización del mecanismo de Higgs
Mecanismo de Higgs para dotar de masa a las partículas
Peter Higgs, descubridor del campo de Higgs y del mecanismo de Higgs que dieron lugar al posterior descubrimiento del bosón de Higgs

PREGUNTAS CONCIENCIA #31

¿POR QUÉ SE NOS ARRUGAN LOS DEDOS CUANDO PASAMOS MUCHO TIEMPO EN EL AGUA?

PREGUNTAS CONCIENCIA #31

¿POR QUÉ SE NOS ARRUGAN LOS DEDOS CUANDO PASAMOS MUCHO TIEMPO EN EL AGUA?

Los dedos y las palmas de tus manos y de tus pies arrugados son una señal casi siempre inequívoca de que alguien ha estado en contacto con el agua durante un buen rato. Parece un hecho fisiológico bastante trivial y sin importancia, pero lo cierto es que todavía existen muchas dudas acerca de porque ocurre esto. Parece mentira que después de todos los grandes avances en medicina que se producen constantemente una cuestión que parece tan simple como esta esté todavía sin una respuesta 100% confirmada. En las siguientes líneas vamos a tratar de responder a esta cuestión recopilando las distintas respuestas que se han ido dando a lo largo de los años.

Empecemos por una obviedad: no siempre que entramos en contacto con el agua se nos arrugan los dedos. Esto ocurre porque para que se nos arruguen los dedos, tenemos que estar cierto tiempo sumergidos. En caso contrario, tenemos una película protectora en la piel que nos protege del agua. Y es que la capa más externa de la piel está cubierta está cubierta por una emulsión de agua y lípidos (grasas) conocida como película o capa hidrolipídica. Esta película, mantenida por secreciones de las glándulas sudoríparas y sebáceas, contribuye a mantener la piel flexible, la humedece, la lubrica, actúa como barrera adicional frente a bacterias y también hace que tu piel sea un poco hidrófoba (repele el agua). Es por esto que el agua se desliza por la piel cuando te lavas las manos, en vez de penetrar en la misma. Sin embargo, al estar mucho tiempo en el agua, la capa hidrolipídica se acaba “limpiando”. ¿Cuánto tiempo se necesita para quitar la capa hidrolipídica? Pues depende de varios factores entre los que se encuentran la temperatura y la dureza del agua (concentración de compuestos minerales que hay en una determinada cantidad de agua, en particular sales de magnesio y calcio). Por ejemplo, se necesitan alrededor de 3,5 minutos en agua dulce (de baja dureza) a unos 40 °C mientras que en temperaturas más frías de aproximadamente 20 °C el proceso puede tardar hasta 10 minutos. Después de este tiempo, la capa hidrolipídica se retira y el agua puede penetrar la capa más externa de la piel y provocando que se sature de agua.

Una vez el agua penetra en las capas superiores se pensaba que las arrugas se formaban al hincharse estas capas a medida que el agua inundaba las células a través de un proceso conocido como ósmosis. Se define ósmosis como una difusión pasiva, caracterizada por el paso del agua, que actúa como disolvente, a través de una membrana semipermeable, desde la solución más diluida a la más concentrada. En el caso que nos ocupa tenemos a las células totalmente rodeados de agua con bajo (o no) contenido en sales minerales mientras que dentro de ellas mismas la concentración de sales es mucho mayor. En esta circunstancia, el agua tendera a equilibrar la concentración de sales en ambos lados de la membrana celular penetrando en la célula (ósmosis) lo cual, de forma general, causa una hinchazón en la zona afectada (ver esquemas de la ósmosis en las imágenes adjuntas). Sin embargo, ya en 1935 los científicos se dieron cuenta de que esta no era la explicación. Y lo descubrieron de una forma, digamos, fortuita. Los médicos estaban estudiando a pacientes en los que el nervio mediano había sido seccionado. El nervio mediano es uno de los principales nervios que recorren el brazo hasta la mano (ver imagen adjunta). Entre sus muchas funciones, el nervio mediano ayuda a controlar las llamadas actividades simpáticas (el sistema nervioso simpático es una rama del sistema nervioso autónomo que regula las funciones involuntarias y controla nuestros reflejos y reacciones inconscientes ante estímulos peligrosos o que nos generan estrés), como la sudoración y la constricción de los vasos sanguíneos. Pues bien, los dedos de estos pacientes no se arrugaban incluso después de un largo tiempo bajo el agua. Este descubrimiento sugirió que las arrugas de los dedos y palmas inducidas por el agua estaban controladas por el sistema nervioso y, en particular, por el sistema nervioso simpático. Estudios posteriores realizados por médicos en la década de 1970 proporcionaron todavía más pruebas esto y, de hecho, propusieron usar la inmersión de las manos en agua para ver si se arrugaban o no como una simple prueba de cabecera para evaluar el daño del sistema nervioso simpático que puede afectar la regulación de procesos inconscientes como el del flujo sanguíneo.

Sin embargo, la verdadera explicación fisiológica de lo que estaba realmente ocurriendo no llego hasta el año 2003 cuando los neurólogos Einar Wilder-Smith y Adeline Chow, que en ese momento trabajaban en el Hospital de la Universidad Nacional de Singapur, tomaron medidas de la circulación sanguínea en las manos de los voluntarios mientras las sumergían en agua. En estos experimentos descubrieron que a medida que la piel de las yemas de los dedos y de las palmas de las manos se arruga, se produce una caída significativa en el flujo sanguíneo en esas zonas. Este mismo efecto lo consiguieron al aplicar en los dedos de los voluntarios una crema anestésica local que afecta al sistema nervioso de una forma similar y que provocó que los vasos sanguíneos de los dedos de voluntarios sanos se contrajeran temporalmente y, por consiguiente, sus dedos se arrugaran de una forma similar a cuando los sumergían en agua. Esta explicación fisiológica enseguida fue aceptada por muchos neurocientífico y médicos ya que, a la vez que se arrugan, las yemas de los dedos y las palmas se ponen pálidas y eso se debe a que el suministro de sangre se está restringiendo lejos de la superficie. Posteriores análisis revelaron todavía mas detalles. Cuando nuestras manos están sumergidas en agua, los conductos de sudor en nuestros dedos y palmas se abren para permitir la entrada de agua, lo que conduce a un desequilibrio en las sales de nuestra piel. Este cambio en el equilibrio de sales desencadena la activación de las fibras nerviosas en los dedos, lo que hace que los vasos sanguíneos alrededor de los conductos sudoríparos se contraigan. Esto, a su vez, provoca una pérdida de volumen en la zona carnosa de las yemas de los dedos y las palmas, que tira hacia abajo de la piel que la recubre y se distorsiona en arrugas. El patrón de las arrugas depende de la forma en que la capa más externa de la piel, la epidermis, se ancla a las capas debajo de ella. Esta descripción del fenómeno descartó la teoría, aceptada hasta ese momento de la ósmosis, ya que nuevos datos revelaron que nuestra piel necesitaría hincharse un 20% para lograr las arrugas que vemos lo cual causaría una hinchazón muy destacada en mano y dedos que, de hecho, no se produce.

Pero lo cierto es que esta explicación no es una respuesta. Si que explica el hecho fisiológico, pero no explica por qué ocurre. Una primera pista al porqué de esta está en el propio mecanismo: si las arrugas están controladas por nuestros nervios, significa que nuestros cuerpos están reaccionando activamente al estar en el agua lo cual podría indicarnos que dicha reacción nos está dando una ventaja. Tratando de averiguar cuál es esta ventaja, se llevo a cabo un experimento con 500 voluntarios que visitaron el Museo de Ciencias de Londres durante 2020. En este experimento un equipo de científicos midió cuánta fuerza necesitaban usar para agarrar un objeto de plástico. Los resultados fueron reveladores. Como era de esperar, aquellos con manos secas y sin arrugas necesitaron usar menos fuerza que las personas con manos mojadas, por lo que su agarre del objeto fue mejor. Pero cuando sumergieron sus manos en un baño de agua durante unos minutos para que se arrugaran, la fuerza de agarre disminuyó incluso a pesar de que sus manos todavía estaban húmedas. Esto significa que las arrugas aumentaron la cantidad de fricción entre los dedos y el objeto haciendo que la fuerza de agarre necesaria para coger el objeto disminuyera (más fricción, menos fuerza de agarre necesaria). De hecho, nuestras manos son sensibles a este cambio en la fricción de la superficie y usamos esta información para aplicar menos fuerza para agarrar un objeto de forma segura. Esta diferencia en la fuerza de agarre puede suponer ventajas en ambientes húmedos en los que hay que hacer tareas pesadas. Si no hay que apretar tan fuerte para agarrar algo, los músculos de tus manos se cansan menos y puedes hacerlo por más tiempo. Estos hallazgos coinciden con algunos anteriores en los que ya se había visto que las arrugas nos facilitan el manejo de objetos húmedos. En 2013, un equipo de neurocientíficos de la Universidad de Newcastle en el Reino Unido pidió a los voluntarios que transfirieran canicas de vidrio de diferentes tamaños y plomos de pesca de un contenedor a otro. En un caso los objetos estaban secos y en el otro estaban en el fondo de un recipiente lleno de agua. Los participantes tardaron un 17 % más en transferir los objetos sumergidos con los dedos sin arrugas que cuando las tenían. Pero cuando tenían arrugas, podían transferir las canicas sumergidas y los pesos un 12% más rápido que cuando sus dedos estaban húmedos y sin arrugas. Curiosamente, no hubo diferencia en transferir los objetos secos con los dedos arrugados o sin arrugas.

La explicación de los investigadores a esta curiosa diferencia de capacidad de agarre es que las arrugas de nuestros dedos pueden actuar como los dibujos de los neumáticos o la suela de los zapatos. Los canales producidos por las arrugas ayudan a expulsar el agua del punto de contacto entre los dedos y un objeto. Esto sugiere que los humanos pueden haber desarrollado arrugas en manos y pies en algún momento de nuestro pasado para ayudarnos a agarrar objetos húmedos y caminar sobre superficies mojadas. También nos podría haber ayudado a capturar o buscar alimentos como mariscos. Este último punto implicaría que este mecanismo es exclusivo de los humanos, mientras que, si es lo primero, también esperaríamos que suceda en otros primates. Sin embargo, aún no se han observado arrugas en nuestros parientes más cercanos en el mundo de los primates, como los chimpancés, pero sí que se han visto en los dedos de los monos macacos japoneses, que se sabe que se bañan durante largos períodos en agua caliente. Pero la falta de evidencia en otros primates no significa que no suceda, simplemente puede deberse a que nadie ha mirado con suficiente interés estos posibles cambios todavía.

Hay algunas características particularmente interesantes de la formación de las arrugas que nos dan pistas sobre cuándo pudo haber aparecido esta adaptación en nuestra especie. Las arrugas en las yemas de los dedos son menos pronunciadas en agua salada y tardan más que en agua dulce. Esto probablemente se deba a que el gradiente de sal entre la piel y el entorno circundante es menor en agua salada (agua más dura, con más contenido en sales), por lo que el desequilibrio de sal que activa las fibras nerviosas es menos dramático. Entonces, podría ser una adaptación que ayudó a nuestros antepasados a vivir en ambientes de agua dulce en lugar de a lo largo de las costas pues les sería más fácil agarrar los objetos en agua dulce (arrugas más pronunciadas) que en agua salada. Sin embargo, no hay respuestas firmes respecto a si estos cambios se debieron a la adaptación de la especie humana al medio o si son solo una respuesta fisiológica coincidente sin función adaptativa.

Relacionado con este fenómeno, hay todavía varias preguntas abiertas. Por ejemplo, el porqué las mujeres tardan más tiempo en desarrollar las arrugas que los hombres o la razón de que la piel vuelva a su estado normal entre 10 y 20 minutos después de dejar de estar en contacto con el agua si no hay una clara desventaja en nuestro agarre de objetos secos at tener las manos arrugadas. Otra pregunta que nos podemos hacer es: si tener los dedos arrugados puede mejorar nuestro agarre en mojado, mientras que no lo perjudica estando en seco, ¿por qué nuestras manos no están siempre arrugadas? Una de las razones podría ser el cambio en la sensibilidad que también provocan las arrugas. Nuestras manos y, en especial, nuestras yemas de los dedos están llenas de nervios, y el cambio de morfología de nuestra piel afecta a la forma en que sentimos las cosas que tocamos. Así que, por un lado, las arrugas mejoran la sujeción, pero, por el otro, empeoran la sensibilidad. Por ello, el sistema nervioso simpático tiene un papel clave determinando cuándo, cómo y por qué hemos de transitar de un estado al otro.

Mas datos curiosos. Las arrugas de las manos y los pies también pueden revelar información clave sobre nuestra salud de formas sorprendentes. Las arrugas tardan más en formarse en personas con enfermedades de la piel como psoriasis y vitíligo. Los pacientes con fibrosis quística experimentan arrugas excesivas en las palmas de las manos y en los dedos, y esto se ha observado incluso en personas que son portadoras genéticas de la enfermedad. Los pacientes que sufren de diabetes tipo 2 a veces también muestran niveles notablemente reducidos de arrugas en la piel cuando se les mete las manos en el agua. De manera similar, se ha observado una reducción de las arrugas en personas que han sufrido insuficiencia cardíaca, quizás debido a alguna interrupción en el control de su sistema cardiovascular. Las arrugas asimétricas de los dedos, donde una mano se arruga menos que la otra a pesar del mismo tiempo de inmersión, incluso se ha sugerido como un signo temprano de la enfermedad de Parkinson, ya que indica que el sistema nervioso simpático no funciona correctamente en un lado del cuerpo.

Con todo esto ya sabemos que encontrar la respuesta a todas las preguntas sobre este tema es complicado e incluso la pregunta clave de por qué se arrugan las manos y pies en el agua permanece, en cierto modo, abierta. Pero, aun así, la investigación de un tema que parece tan banal, al final no lo es tanto porque nuestras manos y pies arrugados están demostrando ser útiles para los médicos de maneras sorprendentes. Y, al final de todo, cuando este verano caminemos sobre superficies resbaladizas sin arriesgar nuestra vida, ya sabemos a quién se lo tenemos que agradecer.

Arrugas en las palmas de las manos y los dedos
Arrugas en las palmas de los pies y los dedos
Esquema de la ósmosis
Diferencia entre difusión, ósmosis y diálisis
Nervios del brazo

PREGUNTAS CONCIENCIA #30: ¿Cuál es la estructura interna de la Tierra?

Por sorpresivo que parezca el interior de nuestro planeta Tierra se encuentra dividido en 4 capas: CORTEZA, MANTO, NÚCLEO EXTERNO Y NÚCLEO INTERNO.

Estructura interna de la Tierra (Fuente https://www.udc.gal/dep/dtcon/estructuras/ETSAC/Investigacion/Terremotos/tect%F3nica_de_placas.htm)

EL NÚCLEO: Localizado en el centro de la Tierra, el núcleo se subdivide en dos capas: núcleo externo y núcleo interno.

El núcleo interno tiene unos 1216 km de espesor y alcanza temperaturas superiores a los 5000ºC, se encuentra en estado sólido y está compuesto principalmente por hierro y níquel. Por su parte el núcleo externo rodea al núcleo interno, tiene un espesor de 2270 km y alcanza temperaturas de más de 3500ºC, a diferencia del núcleo interno este se encuentra en un estado líquido. Debido a la diferencia de presión entre estas dos capas el núcleo interno está rotando dentro del núcleo externo. Este movimiento de rotación de esta gran “bola” gigante de hierro y níquel es la responsable del capo magnético terrestre.

El MANTO: El manto rodea al núcleo externo y puede alcanzar hasta los 2900 km de espesor, es por lo tanto la capa más espesa del interior de la Tierra ocupa aproximadamente el 85% del volumen terrestre. El manto se encuentra en un estado semi-sólido y está compuesto por rocas de densidad muy alta a elevadas temperaturas (ricas en hierro, magnesio y silíceo).

LA CORTEZA: La corteza es la capa más externa de la Tierra, está compuesta por roca sólidas, rígidas y frías con un espesor variable que va desde los 5 hasta los 80 km (granito y basalto). Hay dos tipos de corteza, oceánica y continental. La Corteza oceánica es forma los fondos de los océanos y es la parte más fina y densa de esta capa (máximo 5 km de espesor). Por su parte la corteza continental, puede alcanzar hasta los 80 km de profundidad y está formada por rocas menos densas, principalmente granito.

La corteza en conjunto con la parte superior del manto constituyen lo que hoy conocemos como la litosfera, una capa rígida dividida en fragmentos que recubre a otra capa más plástica que se llama astenosfera.

PREGUNTAS CONCIENCIA #29

¿QUÉ SON LOS PLANETAS ENANOS? ¿POR QUÉ NO SON CONSIDERADOS PLANETAS “NORMALES”?

Hace poco más de un mes informábamos acerca de los planes que la NASA tiene para enviar una misión de exploración al planeta Urano. En esa publicación comentábamos que el sistema solar contaba con 8 planetas, los perfectamente conocidos (de más cerca a más lejos del Sol) Mercurio, Venus, la Tierra, Marte, Júpiter, Saturno, Urano y Neptuno. Sin embargo, es esta lista, para muchos de nosotros falta uno de los planetas que habíamos estudiado: Plutón. La cuestión es que, desde el año 2006, Plutón no es considerado un planeta, sino que se clasifica como “planeta enano” (dwarf planet en inglés). Pero, ¿por qué Plutón ya no es considerado un planeta “normal” (simplemente planeta a partir de ahora) sino que pertenece al grupo de planetas enanos? De hecho, ¿qué diferencia hay entre un planeta y un planeta enano?

Antes de entrar directamente en el tema de los planetas enanos, es importante conocer un poco más a fondo nuestro sistema solar y como se distribuyen en el los objetos astronómicos que lo forman. El sistema solar está formado por el Sol, que está situado en el centro, y todo lo que órbita a su alrededor, incluidos los planetas, las lunas, los asteroides, los cometas y los meteoritos. La distribución de los objetos en el sistema solar se puede definir, a grandes rasgos, bastante bien (ver imagen adjunta). Partiendo desde el Sol y alejándonoslos cada vez más de él, nos encontramos primero con los 4 primeros planetas: Mercurio, Venus, la Tierra y Marte. Estos son los llamados planetas interiores y tienes unas características morfológicas similares. Son conocidos también como planetas rocosos ya que su superficie está formada mayoritariamente por silicatos, es decir, los minerales que forman las rocas. Su densidad es bastante elevada, entre 3 y 5 g/cm³. Mas allá de Marte nos encontramos con el cinturón de asteroides. Los asteroides son restos rocosos que quedaron de la formación temprana de nuestro sistema solar hace unos 4.600 millones de años. Al principio de la vida del sistema solar, el polvo y la roca que giraban alrededor del sol fueron atraídos por la gravedad para formar planetas. Pero no todos los fragmentos se fusionaron para crear nuevos planteas. La presencia de Júpiter, justo después del cinturón donde se encuentran, y la acción de su gravedad, evitó que se fusionaran con otros planetas en crecimiento. Los asteroides varían en tamaño desde Vesta, el más grande con aproximadamente 530 kilómetros de diámetro, hasta cuerpos que tienen menos de 10 metros de ancho. La masa total de todos los asteroides combinados es menor que la de la Luna de la Tierra. Una vez cruzado este cinturón de asteroides nos encontramos con los denominados planetas gigantes gaseosos: Júpiter, Saturno, Urano y Neptuno (para hacernos una idea, Neptuno se encuentra aproximadamente a 30 veces la distancia Sol-Tierra). Estos son planteas mucho más grandes, más fríos y están hechos principalmente de gas, por lo que su densidad es mucho más baja (alrededor de 1 g/cm³). Después de estos 4 gigantes gaseosos entramos en la zona más desconocida del sistema solar. Mas allá de Neptuno tenemos el cinturón de Kuiper (ver imagen adjunta). Esta es una región del espacio llena de cuerpos helados. Esta zona fría del sistema solar (temperaturas de aproximadamente -240 °C) contiene billones de objetos, restos del sistema solar primitivo. Según el modelo más aceptado hoy en día, el cinturón de Kuiper puede haberse formado más cerca del sol, cerca de donde ahora órbita Neptuno. En este modelo, los planetas interactuaron entre si con sus respectivas fuerzas de gravedad hasta encontrar el equilibrio de cada órbita. Estos movimientos ocasionaron que Neptuno y Urano cambiasen de lugar y alejaran del Sol arrastrando con muchos de los objetos del Cinturón de Kuiper. La sección más poblada del Cinturón de Kuiper está entre 42 y 48 veces la distancia de la Tierra-Sol. Una vez sobrepasado el cinturón de Kuiper, llegaríamos a los confines del sistema solar que sería la llamada heliopausa. La heliopausa define el comienzo del espacio interestelar ya que, a partir de este punto, el flujo constante de material y el campo magnético del Sol dejan de afectar a sus alrededores. El Sol crea esta heliosfera enviando un flujo constante de partículas y un campo magnético al espacio a más de 1000000 de kilómetros por hora. Esta corriente se denomina «viento solar». Al igual que el viento en la Tierra, este viento opone resistencia a todo lo que hay a su alrededor. A lo que opone resistencia es a las partículas de otras estrellas, prácticamente todo lo que no viene de nuestro sistema solar. Dentro de la heliosfera, las partículas solares están calientes, pero menos concentradas. Fuera de la burbuja, están mucho más frías, pero más concentradas. Una vez que llegues al espacio interestelar, hay un aumento de partículas «frías» a tu alrededor. También hay un campo magnético que no se origina desde nuestro Sol. Los científicos estiman que el borde del sistema solar, la heliopausa, está a unos 15000 millones de kilómetros del sol. Más allá de la heliopausa se encuentra la gigante Nube de Oort esférica, que se cree que rodea el sistema solar, aunque todavía no ha sido vista. Puede haber miles de millones, incluso billones de cuerpos en él, y algunos son tan grandes que cuentan como planetas enanos. Esta descripción del sistema solar, nos va a servir de gran ayuda para explicar el concepto de planeta enano. En las imágenes adjuntas podéis ver esquemas y diagramas de la disposición de los distintas partes que acabamos de describir.

La discusión acerca de la posibilidad de hacer una discusión entre planetas y planetas enanos surgió en el año 2006. La cuestión es que, como veremos unas líneas más abajo, las características de Plutón son un tanto diferentes de las del resto de planetas. Por otro lado, en los primeros años del siglo XX se empezaron a descubrir objetos en la región de Plutón que presentaban características semejantes a él. Esto genero un fuerte debate porque, o bien se iba incrementando el número de planetas añadiendo los nuevos descubrimientos, o bien se clasificaban los mismos, incluyendo a Plutón, de otra manera. Como decimos, esto se llevó a debate en la asamblea de la Unión Astronómica Internacional (UAI, o en ingles International Astronomical Union o IAU) que se celebró en agosto de 2006. Pese a que un principio se había propuesto añadir los nuevos objetos a la lista de planetas, las quejas de muchos de los participantes hicieron que se descartara esta idea. Tras una intensa discusión, los astrónomos uruguayos Julio Ángel Fernández y Gonzalo Tancredi elaboraron una alternativa: propusieron una categoría intermedia para estos objetos denominada planetas enanos. Hoy en día, pese a que siguen las discusiones y algunos astrónomos de renombre siguen sin estar convencidos de esta nueva clasificación, esta denominación se ha impuesto como oficial y la misma NASA incluso a Plutón, entre otros, como planeta enano.

Pero, vayamos entonces al quid de la cuestión, ¿qué diferencia a los planetas de los planetas enanos? Veamos. Según la UAI un planeta es un cuerpo celeste que ha de cumplir tres requisitos: i) está en órbita alrededor del Sol, ii) tiene suficiente masa para que su propia gravedad haga que su forma sea redonda o casi redonda (¿Por qué los planteas son redondos? Próximo post en la sección “Preguntas ConCiencia”) y iii) ha despejado o limpiado la vecindad alrededor de su órbita. Los planetas enanos cumplen las dos primeras condiciones (orbitan al Sol y son redondos o casi redondos) pero no han despejado la vecindad de su órbita. Y es este tercer punto a la diferencia fundamental entre los planteas y los planetas enanos. Pero, ¿qué significa que no han despejado la vecindad de su órbita?

Para que un cuerpo celeste “despeje o limpie la vecindad alrededor de su órbita” (“cleared the neighbourhood around its orbit” en inglés y tal como viene escrito en el documento oficial), dicho cuerpo tiene que eliminar otros cuerpos más pequeños de su entorno mediante colisiones, capturas o interferencias en su órbita, es decir, que a su alrededor o “en su vecindad” no viajen o no le acompañen otros cuerpos celestes más pequeños. Sin embargo, el cómo distinguir cuan limpia es una órbita es bastante complicado. Pese a que es un tema que todavía crea controversia, hay tres criterios actualmente aceptados: el criterio lambda propuesto por los astrónomos Sol Alan Stern y Harold F. Levison, el criterio mu o del discriminante planetario propuesto por el astrofísico Steven Soter y el criterio pi propuesto por el astrónomo Jean-Luc Margot.Todos, en principio son válidos, pero quizás el más fácil de entender sea del discriminante planetario. El valor mu o discriminante planetario se calcula simplemente como división entre la masa del planeta que se está analizando y la masa de todos los demás cuerpos que comparten su zona orbital, es decir, que se mueven próximos a él (hay unos criterios establecidos para definir “próximos”, pero la explicación de estos criterios requeriría un post ella misma). Este valor mu es, por ejemplo, en el caso de Ceres, uno de los planetas enanos, de aproximadamente 0.3, lo que quiere decir que Ceres constituye un tercio de la masa total que “circula” en su zona orbital. Por otro lado, el discriminante planetario de la Tierra es de 1700000, es decir, la Tierra es un millón setecientas mil veces más masiva que todo lo demás que hay en su zona orbital. El criterio que propuse Soter es que, si el discriminante planetario es mayor a 100, el cuerpo celeste puede ser un planeta, pero si es menor, nunca sería un planeta.

Pues bien, ahora ya sabemos que la diferencia fundamental entre un planeta y un planeta enano es la “limpieza” de la vecindad de su órbita, es decir, más o menos cuan “solo” se desplaza el cuerpo celeste en cuestión. Ahora bien, conociendo las definiciones y los detalles de cada tipo de planeta, aparte de Plutón que ya sabemos que se ha eliminado de la lista de planetas para pertenecer a la lista de planetas enanos ¿cuántos planetas enanos existen hoy en día? La respuesta es cinco. Solo cinco cuerpos celestes cumplen los requisitos para ser considerados planetas enanos. Estos cinco son: Plutón, Ceres, Makemake, Haumea y Eris. No vamos a entrar en detalles de las características de cada uno, pero si dar algún dato curioso.

La mayoría de los planetas enanos se encuentran más allá de Neptuno, en la zona del cinturón de Kuiper, en una zona similar a la que ocupa Plutón. De hecho, los objetos que se encuentran más allá de Neptuno se suelen llamar transneptunianos y los planetas enanos de eso región se les conoce como plutoides. Sin embargo, tenemos uno, Ceres, que no es un plutoide y que de hecho se encuentra relativamente cerca de la Tierra ya que orbita en el cinturón de asteroides, entre Marte y Júpiter. Ceres fue el primer planeta enano que se descubrió. Ya en el año 1801 el astrónomo siciliano Giuseppe Piazzi había observado este planeta enano. Durante muchos años se consideró a Ceres como un asteroide más del cinturón de asteroides por su pequeño tamaño y masa (es 14 veces menos pesado que Plutón) pero el hecho de que sea casi redondo, le otorgó el título de planeta enano. Eris fue descubierto en 2003 y es casi un gemelo de Plutón. Tiene un tamaño casi igual y su órbita se cruza con la Plutón y casi con la de Neptuno. Su órbita es tres veces más grande que la órbita de Plutón y tarda 557 años en orbitar alrededor del Sol. Haumea fue también descubierto en 2003. Tarda 285 años terrestres en orbitar alrededor del Sol. Su mayor curiosidad es que gira sobre su eje una vez cada cuatro horas, el giro más rápido de cualquier objeto grande conocido en el sistema solar. Esta velocidad de giro hace que su forma sea “esferoide”, con una forma parecida a un balón de rugby. Esta particular forma hace que se presencia en la lista de planetas enanos este en continuo debate. Por último, tenemos a Makemake que fue descubierto en 2005 y que tiene aproximadamente dos tercios del diámetro de Plutón. Podéis ver las órbitas de los planetas enanos y más características de los mismos en las imágenes adjuntas.

El debate acerca de los planetas enanos y los nuevos descubrimientos de continúan. A medida que nuestro conocimiento se profundiza y se expande, el universo se vuelve más complejo e intrigante. Los investigadores han encontrado cientos de planetas extrasolares, o exoplanetas, que residen fuera de nuestro sistema solar; puede haber miles de millones de exoplanetas solo en la galaxia de la Vía Láctea, y algunos pueden ser habitables (tener condiciones favorables para la vida). Queda por ver si nuestras definiciones de planeta se pueden aplicar a estos objetos recién descubiertos.

Representación del Sistema Solar
Visión unidimensional del Sistema Solar donde se puede apreciar las distancias al Sol de los distintos cuerpos celestes y zonas características
Situación del cinturón de Kuiper (Kuiper Belt) en el Sistema Solar
Posición de la nube de Oort (Oort cloud) rodeando al Sistema Solar
Tabla comparando los planetas enanos (la Luna (Earth’s moon) a la izquierda nos da una idea del tamaño que tienen)
Comparación de las órbitas de los planetas con las de los planetas enanos

PREGUNTAS CONCIENCIA #28

¿Qué es la tabla periódica?

Un elemento químico es una sustancia que está compuesta por átomos con el mismo número de protones. Este hecho le confiere unas características físicas y químicas que le distingue del resto de elementos químicos. Ejemplos de elementos químicos son el oxígeno, el carbono, el hidrógeno o el uranio. La tabla periódica no es más que una ordenación de los elementos químicos conocidos en el universo, tanto naturales como hechos por el ser humano. Los elementos están ordenados por su número atómico, que es el número de protones que tienen en los átomos, así como su configuración electrónica (cuantos electrones tienen y como se ordenan alrededor del átomo). Al colocarlos de esta forma se puede observar que los elementos que están en la misma columna, llamada grupo, poseen propiedades químicas muy parecidas, lo que hace que sea muy útil para obtener relaciones entre los distintos elementos.

Foto: https://www.significados.com/tabla-periodica/

Hay diferentes formas de dividir en bloques la tabla periódica. La más útil probablemente sea la que la divide atendiendo a cómo se llenan las capas electrónicas de los elementos. En un átomo los electrones se disponen en capas, divididas en subniveles denominados orbitales, que se van llenando en orden creciente de energía. Las propiedades químicas de un determinado elemento dependen en gran medida de como de llenas estén esas capas y en qué tipo de orbitales. De esta forma los elementos de los dos primeros grupos se denominan bloque s, ya que sus electrones están ocupando orbitales tipo s. Si exceptuamos el hidrógeno (que tiene tan solo un electrón y es un gas), el resto de los elementos se comportan de una manera parecida. Son metales con una gran capacidad de ceder electrones. Esto hace que reaccionen de forma violenta con sustancias que tengan facilidad para captar electrones. Por eso el sodio o el magnesio reaccionan de forma explosiva con el agua. Una vez pierden esos electrones, son de los elementos más estables que hay, y los podemos encontrar en compuestos tan comunes como la sal o el bicarbonato.

Del grupo 3 al 12 tenemos el bloque d. Suelen ser átomos grandes con muchos electrones dispuestos en orbitales tipo d. Entre ellos se encuentran elementos tan comunes como el hierro o el cobre. Debido a las características especiales de las capas d y al número tan grande de electrones, estos compuestos suelen ser muy utilizados en química sintética (para preparar una gran variedad de productos químicos) ya que tienen una habilidad especial para forzar la formación y ruptura de enlaces químicos.

A continuación, están los grupos 13 al 18, que forman el bloque p. Como anteriormente, el nexo común entre elementos de este grupo es que los electrones que se encuentran más alejados del núcleo se encuentran en orbitales tipo p. Las propiedades químicas de este grupo no son tan homogéneas como en los casos anteriores. Por ejemplo, el aluminio tiene propiedades de metal mientras que el cloro es un gas en su estado elemental que se comporta de modo completamente diferente (el cloro tiene mucha avidez por captar electrones mientras que el aluminio por recibirlos). De forma general, elementos en este grupo son los que forman parte fundamental de la materia viva, especialmente el carbono, oxígeno y nitrógeno. Elementos en este grupo se caracterizan por ser muy versátiles y formar muchas formas diferentes de enlaces. Por ejemplo, el carbono puede formar enlaces consigo mismo para formar diamantes, o formar enlaces con átomos de oxígeno para formar el dióxido de carbono o CO2. Al final de este grupo se encuentran los gases nobles (grupo 18). Estos elementos tienen la capa p llena de electrones, lo que les confiere una estabilidad muy alta y, por tanto, son compuestos muy poco reactivos.

Finalmente tenemos el bloque f, constituido por elementos que tienen electrones en orbitales tipo f. Está formado por los lantánidos y los actínidos. Los lantánidos se llaman también tierras raras ya que su abundancia en la tierra es escasa. Algunos de ellos tienen propiedades químicas interesantes y se utilizan en dispositivos láser debido a sus propiedades fluorescentes. Los actínidos son un conjunto de elementos cuya característica principal es la inestabilidad derivada del gran tamaño de los átomos, lo que hace que la mayoría sean radiactivos. Algunos de ellos son de origen sintético como el Einstenio o el Nobelio y otros se encuentran en cantidades muy pequeñas en la Tierra, como el Uranio o el Plutonio.

Historia de la tabla periódica.

La tabla periódica va íntimamente ligada al descubrimiento de los diferentes elementos. Algunos como el oxígeno fueron descubiertos a finales del s XVIII (Priestley 1774) y otros como el Prometio no se descubrieron hasta bien entrado el s. XX (Marinsky, Glendenin, Coryell 1944). Sin embargo, ya desde finales del s. XVIII se plantearon diferentes formas para ordenar los elementos químicos conocidos en base a sus propiedades. A mediados del s XIX, el químico inglés John Newlands se dio cuenta que cuando los elementos químicos se ordenaban en base a su número atómico las propiedades de estos se repetían en intervalos de 8. En 1869, inspirado por esta apreciación, el químico ruso Dimitri Mendeléiev colocó de forma ordenada todos los elementos conocidos en ese momento por orden creciente de sus masas atómicas, agrupándolos en filas o periodos y situando en el mismo grupo elementos que tenían propiedades químicas similares. En ese momento eran conocidos 63 de los 92 elementos que existen de forma natural por lo que una de las claves para la aceptación de su tabla periódica fue que Mendeléiev dejó huecos en aquellos lugares donde debería de estar un elemento aún desconocido en la época. De hecho, de esta forma, no sólo se podría inferir el número atómico y configuración electrónica del elemento por descubrir, sino que también se podrían predecir sus propiedades químicas. El descubrimiento a lo largo del s XIX y XX del resto de elementos naturales y su encaje adecuado en la tabla hizo que este sistema, con sus posteriores adaptaciones derivadas de la mecánica cuántica y la síntesis artificial de nuevos elementos, se haya mantenido en el tiempo y sea una de las herramientas más utilizadas por estudiantes de ciencias a todos los niveles en la actualidad.

PREGUNTAS CONCIENCIA #27

¿Qué es una falla?

Las fallas son fracturas en la corteza a lo largo de las cuales ha tenido lugar un desplazamiento apreciable. A veces, pueden reconocerse pequeñas fallas en los taludes de las carreteras, observándose estratos sedimentarios desplazados unos pocos metros. Las fallas de esta escala normalmente aparecen como pequeñas rupturas aisladas. Por el contrario, las grandes fallas, como la de San Andrés en California, tienen desplazamientos de centenares de kilómetros y consisten en muchas superficies falladas interconectadas.

Las fallas se producen debido a las tensiones acumuladas del terreno, liberándose así esta tensión cuando se produce la rotura. Según la teoría de la tectónica de placas, estas se mueven y pueden chocar entre ellas, aunque los bordes de placas se sitúen a cientos de kilómetros, en cualquier lugar se puede producir una pequeña falla sin mayor relevancia. El vulcanismo también puede producir fallas ya que el material que intenta salir a la superficie empuja y desplaza a otras rocas. Por tanto podríamos decir que una falla constituye una zona de debilidad como consecuencia de las fuerzas internas de la tierra.

Existen 3 tipos de principales de fallas, seguro que alguna falla famosa conocéis (o habéis visto!) de al menos uno de los tipos.

Fallas normales: fallas normales cuando el bloque de techo se desplaza hacia abajo en relación con el bloque de muro.

La mayoría de las fallas normales son pequeñas, con desplazamientos más o menos de un metro. Pero hay algunas que se extienden decenas de kilómetros, dibujando sinuosamente el límite de un frente montañoso. Un ejemplo, en el oeste de Estados Unidos, las fallas normales a gran escala como éstas se asocian con estructuras denominadas montañas limitadas por fallas (Sierra Nevada, California).

Figura 1: falla normal.

Fallas inversas: son fallas con desplazamiento vertical en las cuales el bloque de techo se mueve hacia arriba con respecto al bloque de muro. Producen compresión en la corteza debido al sentido de su movimiento.

Figura 2: falla inversa.

Mientras que las fallas normales aparecen en entornos tensiónales, los cabalgamientos son resultado de fuertes esfuerzos compresivos. Las fuerzas compresivas producen generalmente pliegues además de fallas y provocan un engrosamiento y acortamiento del material implicado, de esta manera se forman algunas cordilleras como los Alpes, Pirineos o la Cordillera Cantábrica.

Fallas de desgarre o transformantes: el desplazamiento dominante es horizontal y paralelo a la dirección de la superficie de la falla, debido a su gran tamaño y a su naturaleza lineal, muchas fallas de desplazamiento horizontal tienen una traza que es visible a lo largo de una gran distancia.

Figura 3: falla de desgarre, antes (izquierda) y después (derecha) del movimiento en dirección.

Estas zonas de falla pueden tener una anchura de varios kilómetros y a menudo son más fáciles de identificar a partir de fotografías aéreas que a nivel del suelo.

Veamos ahora el caso particular de una falla muy famosa, la falla de San Andrés en California.

La falla de San Andrés es un borde transformante que separa dos placas que se mueven muy lentamente. La placa Pacífica, localizada al oeste, se mueve en dirección noroeste con respecto a la placa Norteamericana, provocando los terremotos a lo largo de la falla.

La falla de San Andrés discurre hacia el noroeste durante casi 1.300 kilómetros a través de gran parte del oeste de California. En sus extremos conecta con otras fallas y zonas de fractura, sin embargo en la sección central la falla de San Andrés es relativamente sencilla y recta. Sin embargo, en sus dos extremos varias ramas se extienden desde el trazado principal, de manera que en algunas áreas, la zona de falla tiene una anchura superior a los 100 kilómetros.

Figura 4: continente norteamericano con información tectónica de su margen oeste. Arriba a la derecha: Zoom en california con representación de las principales secciones de la falla de San Andrés.

Cuando el conjunto se mira desde el aire, cicatrices lineales, cauces desplazados y lagunas alargadas marcan su trazado. Sobre el terreno, sin embargo, las expresiones superficiales de esta falla son mucho más difíciles de detectar.

La falla de San Andrés es indudablemente la más estudiada de todos los sistemas de fallas del mundo. Aunque muchas preguntas siguen sin respuesta, los geólogos han descubierto que cada segmento de falla tiene un comportamiento algo diferente. Algunas porciones de la falla de San Andrés exhiben un lento deslizamiento con poca actividad sísmica apreciable.

Otros segmentos se deslizan de manera regular, produciendo terremotos pequeños, mientras que otros segmentos parecen almacenar energía elástica durante 200 años o más antes de romperse y generar un gran terremoto. Estos últimos son los más peligrosos ya que la acumulación de energía durante años podría liberar un terremoto de magnitud 8 o 9, lo que traería consecuencias nefastas a un área tan poblada como California. Allí, se le llama “the big one” y los científicos creen que es posible que algún día se produzca, pero a día de hoy es imposible predecir este terremoto tan potencialmente dañino y destructivo.

PREGUNTAS CONCIENCIA #26

¿ES REALISTA HABLAR DE LA CRIOGENIZACIÓN DE HUMANOS O ES SOLO CIENCIA FICCIÓN? ¿ES POSIBLE REVIVIR UN CUERPO TRAS HABER SIDO CRIOGENIZADO?

Ya habíamos anunciado en otro post anterior sobre la criopreservación de semillas que llegaría otro comentando el tema, pero esta vez con el foco en los seres vivos. Es este post donde vamos a profundizar más sobre el tema tratando de dar una respuesta lo más científica posible a las cuestiones arriba plantadas. Lo cierto es que las preguntas parecen un tanto chocantes y podemos pensar que casi rozan lo fantástico. Sin embargo, como podréis comprobar unas líneas más abajo, detrás de lo que aparentemente parece una ficción, hay un mucho más contenido de lo que se podría esperar. Y es que, desde que en 1962 el físico y matemático Robert Ettinger publicase su libro “The Prospect of Immortality” (“La perspectiva de la inmortalidad”), los avances en la llamada “criónica” no han dejado aumentar.

Comencemos primero definiendo el concepto de “criónica”. La criónica es una ciencia (según defienden sus adeptos) o pseudociencia (según la corriente mayoritaria en la comunidad científica hoy en dia) que estudia la preservación de seres vivos a bajas temperaturas cuando la medicina actual ya no puede hacer nada por ellos. Es bastante común confundir la criónica con otras disciplinas que también usan el prefijo “crio-“ (que por cierto, viene del griego κρύος [kryos] que significa frío, helado o gélido) como son la criobiología, la criogenia y la criopreservación. La criobiología es una especialidad de la biología que investiga el efecto que producen las bajas temperaturas en los organismos vivos. Por otro lado, la criogenia, como ya habíamos comentado en el post anterior, es el conjunto de técnicas utilizadas para enfriar un material a temperaturas menores o iguales a la de ebullición del nitrógeno (temperaturas criogénicas), es decir 77 K (K=grados Kelvin, una escala de temperaturas en la que los 0 °C equivalen a aproximadamente 273 K) o, lo que es lo mismo −196 °C. Por último, la criopreservación se basa en la preservación de tejido, material orgánico o células a temperaturas criogénicas. Por tanto, podríamos decir que la criónica utiliza los conocimientos de la criobiología como base y utiliza las técnicas de criogenia para preservar los seres vivos. Hasta aquí está claro, pero establecer la diferencia entra la criónica y la criopreservación es más complicado porque, en realidad, la diferencia es sutil. En la criopreservación se habla de conservar los tejidos y células a temperaturas criogénicas, pero en la criónica se suma la idea de preservar también la información almacenada en el cerebro del ser vivo. Y es, este último punto, el que hace a la criónica una disciplina muy controvertida y calificada por gran parte de la comunidad científica como pseudociencia. Como vemos, la criónica pretende preservar no solo el material orgánico del cuerpo sino también, por decirlo de alguna manera, aquello que nos hace ser quien somos y como actuamos y para ello se necesita salvar lo que tenemos almacenado en el nuestro cerebro. Pero, ¿cómo se conserva la personalidad, la conciencia, la inteligencia o los sentimientos? ¿Es posible hacer esto? Los estudiosos de la criónica afirman que sí.

Como comentamos, la idea de la criogenización de los humanos se plasmó en lo que podríamos considerar como el “acta fundacional de la criónica”, el libro de Robert Ettinger o “The Prospect of Immortality”. En este libro Ettinger afirma que «Es un hecho. Es posible conservar, a muy bajas temperaturas, a personas muertas sin deterioración alguna, de forma indefinida». La idea detrás de todo esto es que cuando una persona enferma y no puede ser ayudada de ninguna otra forma por la medicina actual, el cuerpo se congela hasta que el avance de la civilización, tecnología y la medicina avancen lo suficiente como para que curar la enfermedad que nos mataba en su momento. Ettinger argumentaba que «Si la civilización perdura, la ciencia médica debería permitirnos reparar cualquier daño al cuerpo humano, incluido el daño por congelación, la senilidad o cualquier causa de muerte… Por eso solo necesitamos almacenar nuestros cuerpos, tras nuestra muerte, en congeladores habilitados para ello, para esperar al día en que la ciencia pueda ayudarnos». Con estas firmes convicciones Ettinger, considerado el fundador de la criónica a raíz de su libro, fundó en 1976 el “Cryonics Institute” que ofrece desde entonces al público en general, por el módico precio de 28000 $, la posibilidad de ser criogenizado y preservado en sus estaciones de Clinton Township, Michigan (EEUU). Fue varios años antes, sin embargo, cuando el primer ser humano fue criogenizado. Se trató de James Hiram Bedford que fue criogenizado en 1967 y cuyo cuerpo todavía se conserva en las instalaciones de“Alcor Life Extension Foundation”, otra de las organizaciones líder en criogenia. Fue fundada en 1972 y sus instalaciones están en Scottsdale, Arizona (EEUU).

Ahora bien, ¿cuál es el procedimiento para conservar un cuerpo a tan bajas temperaturas? Lo primero que tenemos que decir es que, como ya vimos en el post anterior, la criopreservación de tejido orgánico es algo muy bien establecido. Por ejemplo, es de sobra conocido que los óvulos que después se utilizan para la reproducción asistida están criopreservados. También se mantienen con esta técnica los espermatozoides y los embriones que también se emplean en técnicas de reproducción asistida. Es, por tanto, la técnica de criopreservación de células algo de uso cotidiano. Sin embargo, este proceso no es nada trivial y requirió muchos años de investigación para solventar el principal problema de la criopreservación: la formación de cristales de hielo en las estructuras celulares. Por debajo de los 5 grados bajo cero, el agua dentro de sus células se congela y crea cristales de hielo. Como el hielo es menos denso que el agua líquida, ocupa más espacio, así que los cristales perforan las membranas celulares creando un daño severo. Para superar este obstáculo, la mayoría de procesos de criopreservación hoy en día se lleva a cabo mediante un proceso llamado vitrificación en el que el agua de los tejidos y células se sustituye por lo que se conocen como agentes crioprotectores o anticongelantes. Estos crioprotectores son sustancias orgánicas, como el glicerol, el propilenglicol o el sulfóxido de dimetilo (DMSO), que protegen a la célula durante el enfriamiento. Lo que se consigue con estas sustancias es reducir la temperatura de lo que se conoce como transición vítrea clave en el proceso de vitrificación. Y, ¿en qué consiste exactamente este proceso? Este proceso se define como la conversión de un material en un sólido amorfo similar al vidrio (di ahí su nombre), carente de toda estructura cristalina. Esto se consigue por medio de un rápido enfriamiento de un material en estado de fusión mediante la mezcla con un aditivo. El proceso debe ser lo más rápido o instantáneo posible. Cuando el material de partida es sólido, la vitrificación normalmente conlleva el calentamiento de la sustancia a muy altas temperaturas, entre 1100 y 1700 °C para después hacer un enfriado repentino. Pero cuando el material de partida es un líquido, necesitaremos un enfriamiento muy rápido o la introducción de agentes que impidan la formación de cristales. Es esto último, precisamente, lo que hacemos en la vitrificación de tejidos. Se añaden los crioprotectores y enfriamos muy rápido (hasta unos 23000 °C/min) impidiendo la formación de cualquier tipo de cristal que pueda dañar las células. De hecho, se forma un material totalmente amorfo que protege las células.

Así pues, el proceso de criogenización de un cuerpo es poco diferente porque el enfriamiento, por el tamaño del cuerpo humano, no se puede llevar a cabo tan rápido como óvulos o espermatozoides. El proceso comenzaría inmediatamente después de la muerte legal de la persona. Primero, el cuerpo se coloca inmediatamente en un baño de hielo y, al mismo tiempo, se usa una máscara de ventilación para continuar proporcionando oxígeno a los órganos del cuerpo, particularmente al cerebro para evitar el daño celular, y se sigue bombeando sangre con heparina (un anticoagulante) usando una máquina de reanimación cardiopulmonar automatizada RCP automatizada. En este punto, la temperatura corporal se controla con detalle para asegurar una reducción gradual. A continuación, el cuerpo se «vitrifica», reemplazando los fluidos del cuerpo con agentes crioprotectores. Una vez hecho esto, el cuerpo está preparado para el frío y comienza el proceso de enfriamiento controlado. Este es el paso final antes del almacenamiento a largo plazo e implica enfriar más el cuerpo lentamente. El cuerpo se coloca dentro de una bolsa aislante protectora y luego dentro de una caja de enfriamiento donde se alimenta nitrógeno líquido a un ritmo constante. Esto se lleva a cabo lentamente, durante varios días, hasta que el cuerpo alcanza una temperatura de -200 grados centígrados. Esta es la diferencia con la vitrificación convencional que se lleva a cabo a velocidades muy altas. Aquí la vitrificación se lleva a cabo controlando que los crioprotectores no formen cristales en ningún momento. A estas temperaturas toda actividad biológica se detiene y la muerte celular no tiene lugar.

Con este procedimiento, un cuerpo criogenizado puede permanecer intacto durante miles de años. La cuestión es, ¿se puede revivir el cuerpo años más tarde? Y la respuesta es clara y directa: con los medios y la tecnología actual NO. A día de hoy, no somos capaces de congelar y descongelar sin causar daños ni siquiera órganos aislados. Esto hace que las operaciones de trasplantes sigan llevándose a cabo a toda velocidad, con los riesgos extra que comportan, e incluso que muchos órganos se pierdan en el proceso. Por otro lado, está el daño que causan los crioprotectores que en muchos casos son irreversibles. Pero esto parecen detalles menores cuando abordamos la cuestión principal, ¿qué pasa con nuestro cerebro? ¿Seríamos la misma persona al despertarnos, con las mismas capacidades, los mismos recuerdos, la misma conciencia? Lo cierto es que, como comentábamos, esta es la parte más controvertida de la criónica y en la que todavía hay mucho escepticismo sobre un posible éxito. Hay neurocientíficos que aseguran que la identidad de una persona puede ser teóricamente mantenida en el futuro si los científicos encuentran cómo superar los efectos destructivos en las neuronas de la criopreservación. En un principio las conexiones neuronales deberían funcionar si realmente no hay daño en las mismas. Argumentan también que hay ejemplos de personas que han caído a aguas congeladas, perdido funciones vitales de respiración y pulso cardiaco y al volver en sí, regresan sin perder su identidad o su memoria.

Pero, el hecho de que hoy día, con los medios actuales, no sea posible revivir un cuerpo, ¿quiere decir que nunca va a ser posible? ¿O es, digamos, tecnológica y medicamente posible siquiera imaginárselo? Y en esta cuestión la respuesta es de nuevo clara y directa: SI es posible que un futuro seamos capaces de revivir cuerpos humanos que han sido criopreservados. Es, de hecho, este argumento uno de los más utilizados por la ciencia criónica. Argumentan que el hecho de que la tecnología de hoy en día no esté suficientemente madura en este campo no significa que en unos años vaya a ser así. Suelen decir que no hay nada que perder. Ya estás muerto y no pasa nada por ser criogenizado. Si en unos años se te puede revivir y curar, tendrás una segunda oportunidad. De hecho, recientes avances en criobiología, criopreservación y criónica indican que se están dando pasos para que todo esto deje ser ciencia ficción algún día.

Como decimos, es cierto que hoy en dia la criopreservación de personas o grandes animales no es reversible, pero no sucede lo mismo con organismos inferiores. Es el caso, por ejemplo, del gusano nematodo (vulgarmente conocidos como gusanos redondos o gusanos cilíndricos, son organismos esencialmente acuáticos con una forma muy similar a los gusanos, ver imagen adjunta) Caenorhabditis elegans. Un estudio publicado en 2015 revelo que los mecanismos que regulan la impresión de olores (una forma de memoria a largo plazo) en Caenorhabditis elegans jóvenes no han sido modificados ni por el proceso de vitrificación ni por la congelación lenta en la etapa adulta. Esta fue la primera evidencia de que la memoria después de la criopreservación puede ser conservada y rehabilitada. Por otro lado, es también conocido que otros animales como algunos tipos de ranas pueden sobrevivir durante algunos meses en un estado parcialmente congelado con ciclos sucesivos de congelación-descongelación. Es el caso, por ejemplo, de las ranas del bosque (Lithobates sylvaticus), la formación de núcleos de hielo en su piel induce rápidamente la producción endógena de glucosa, un crioprotector necesario para la tolerancia a la congelación. Esto les permite sobrevivir en condiciones naturales durante 7 meses a temperaturas inferiores a –18°C. Otro caso similar es el de la rana arbórea japonesa (Hyla japónica) que puede llegar a sobrevivir hasta 4 meses a temperaturas máximas de –30°C a -35°C. Otro estudio muy prometedor es el publicado en 2016 en la revista “Cryobiology” en el que, por primera vez, se pudo conservar la estructura detallada de un cerebro de mamífero, en este caso un conejo, y descongelarlo completamente intacto conservando todas sus conexiones sinápticas (las uniones de las células nerviosas) en perfecto funcionamiento. Para lograr esto, los investigadores utilizaron una nueva técnica química llamada crioconservación estabilizada con aldehídos, o ASC, que involucraba la combinación de procesos llamados de fijación química y enfriamiento criogénico. Primero, el glutaraldehído líquido aceitoso se usó para unir las proteínas en el cerebro y luego se usó etilenglicol, un poderoso anticongelante que se usa en la industria automotriz, para proteger el cerebro del frío extremo. Mas recientemente, en 2021, en otro estudio, investigadores de la Universidad de California Berkeley han conseguido hacer que muestras de tejido cardíaco vuelvan a latir después de estar sometidas a temperaturas bajo cero hasta tres días gracias a un proceso llamado congelación con el que se evita la formación de cristales de hielo en el tejido cardíaco y el daño posterior al descongelarlo que se mantenga en buena forma al descongelarlo. La congelación isocórica consiste en conservar los tejidos en un recipiente rígido y hermético que se llena de un líquido. En la congelación convencional, la isobárica, los tejidos se exponen al aire y se congelan a temperaturas inferiores a los 0 ºC. En la congelación isocórica, aunque el recipiente llega a la temperatura por debajo de cero, su interior no llega a congelarse del todo. La parte más exterior empieza a formar hielo y a crecer en volumen generando presión hidrostática en el interior hasta que el sistema alcanza un nuevo equilibrio termodinámico. De esta manera se producen dos fases dentro de la cámara, una sólida en la capa exterior y una líquida en la interior que es donde permanecen sumergidos los tejidos.

Como vemos, es un campo en el que los avances son continuos y prometedores. No es que estas investigaciones se realicen con el objetivo de congelar cuerpos completos, sino que más bien están enfocados en la preservación de órganos para trasplantes, pero de todos modos la criónica puede aprovecharse de ellos. Pero al margen de los avances que se puedan dar en la actualidad o en el corto plazo, algunos científicos creen que algunas técnicas de reanimación como la nanorreparación celular, las técnicas de computación avanzadas, el control detallado del crecimiento celular o la regeneración de tejidos van a ser mejoradas ostensiblemente a largo plazo posibilitando la reanimación de los cuerpos.

Sea como fuere, parece que cada vez son más las personas que contemplan la criogenización como una alternativa a considerar. Alcor y el Crionicis Instute cuentan ya con alrededor de 300 pacientes (así llaman a la gente actualmente criogenizada) y con más de 1000 personas esperando el momento para ser criogenizados. Por cierto, uno de ellos no es Walt Disney, cosa que algunos se creyeron durante largo tiempo. Walt Disney falleció el 15 de diciembre de 1966, a la edad de 65 años debido a un tumor en su pulmón izquierdo (fue un fumador de tres paquetes de tabaco al día durante toda su vida). Los cirujanos extirparon el pulmón izquierdo de Walt y pero le tuvieron que dar la mala noticia de que el tumor había hecho metástasis. Aunque le dieron de seis meses a dos años de vida, Walt duró solo 34 días y sucumbió al cáncer de pulmón el 15 de diciembre. Disney fue incinerado dos días después.

Caenorhabditis elegans
Secuencia de procesos seguidos para criogenizar un cuerpo humano

PREGUNTAS CONCIENCIA #25

¿QUÉ DIFERENCIA HAY ENTRE EL ADN Y EL ARN? ¿CUÁL ES LA FUNCIÓN DE CADA UNO DE ELLOS?

ADN y ARN son las abreviaturas de ácido desoxirribonucleico y ácido ribonucleico, respectivamente; dos moléculas imprescindibles para la vida. El ADN y el ARN tienen diferencias desde el punto de vista químico y estructural, pero las más interesantes son las que tienen que ver con su función.

En la inmensa mayoría de los organismos vivos, el ADN es la molécula que contiene la información genética, es decir, las instrucciones para construir lo que somos. El ADN se encuentra en el núcleo de las células y podríamos definirlo como una gran enciclopedia o manual de instrucciones para construir las proteínas, que son las que mayoritariamente llevan a cabo las funciones biológicas en nuestro cuerpo. La información contenida en esa enciclopedia es inmensa, y debe leerse de forma ordenada para que no ocurran errores de interpretación. Sería imposible leer toda la información del ADN a la vez, por lo que es necesario hacer “fotocopias” de aquellas páginas o capítulos que se necesiten en cada momento. Es aquí donde participa el ARN. Hay múltiples tipos de ARN, pero quizá el más importante sea el llamado ARN mensajero, que debe su nombre a que es el intermediario entre el ADN y proteínas. Las moléculas de ARN mensajero son esas fotocopias de la enciclopedia de ADN que llevan la información contenida en este hasta los lugares donde se sintetizan las proteínas. Este flujo de información, desde al ADN a las proteínas, pasando por el ARN mensajero constituye el dogma central de la Biología Molecular.

Como dato curioso, la mayoría de las vacunas contra la COVID-19 están compuestas por ARN mensajero con la información para fabricar la proteína S del coronavirus. Con esta estrategia, nuestras células aprenden a reconocer las proteínas del virus y se preparan inmunológicamente para cuando llegue el virus real.

Dogma Central de la Biología Molecular

PREGUNTAS CONCIENCIA #24

¿SE HA REALIZADO ALGÚN ESTUDIO DE LAS DISTINTAS MICROBIOTAS (Y SUS PERFILES) EN CASOS DE OTRAS DIETAS (VEGANAS, VEGETARIANAS, CARNÍVORAS)?

Sí, en los últimos años se han realizado numerosos estudios comparando los perfiles bacterianos asociados a las dietas más características, incluyendo omnívoras, veganas, vegetarianas, mediterránea… En este sentido se ha descrito que las dietas ricas en frutas, vegetales, granos integrales favorece la expansión de especies bacterianas beneficiosas para nuestra salud, reduciendo los riesgos cardiovasculares, promoviendo efectos anti-inflamatorios y protegiendo frente a infecciones.

Imagen de microscopía electrónica de la microbiota intestinal.

PREGUNTAS CONCIENCIA #23

¿QUÉ SON LAS PROTEÍNAS Y PARA QUÉ SIRVEN?

Las proteínas, del griego «proteios» que significa «fundamental» o «principal», son polímeros de aminoácidos que cumplen multitud de funciones esenciales para la vida. Para entenderlo mejor, si una proteína fuera una cadena de bicicleta, cada eslabón sería un aminoácido. En la mayor parte de seres vivos, existen 20 aminoacidos diferentes formando parte de las proteínas. Algunos de ellos los sintetiza nuestro propio cuerpo, aunque algunos los tenemos que consumir en la dieta. A éstos se les denomina aminoácidos esenciales.


Para hacernos una idea del papel central que tienen estas biomoléculas en la vida, toda la información guardada en nuestro ADN va dirigida exclusivamente a la síntesis de proteínas. Toda proteína está asociada a un gen, y la secuencia de nucleótidos de ese gen determina el número y orden de los aminoácidos de esa proteína.


Dentro de las funciones que cumplen las proteínas se encuentra la de transportar moléculas, como es el caso de la hemoglobina, que lleva el oxígeno desde los pulmones a diferentes partes del cuerpo. Otras tienen función reguladora, como la insulina, que se encarga de regular los niveles de glucosa en el cuerpo. Además, hay proteínas cuya función es almacenar energía (caseína), defender al cuerpo de agentes patógenos (inmunoglobulinas), estructural, o motora (miosina). Cabe destacar el papel que tienen algunas proteínas para catalizar reacciones químicas, los enzimas.

La mayor parte de los procesos metabólicos requieren de la intervención de un enzima para que éstos se produzcan de forma rápida y eficiente, y cada vez se usan más en procesos químicos industriales ya que, al ser proteínas, son biodegradables y provienen de fuentes renovables, entre otras ventajas.

PREGUNTAS CONCIENCIA #22

¿POR QUÉ EL CIELO ES AZUL?

Esta es seguramente una de las típicas preguntas que todos nos hemos planteado alguna vez y que en realidad tiene una respuesta no trivial en la ciencia. Existe una gran cantidad de sitios web que tratan esta cuestión, pero nosotros vamos a intentar explicarlo de la forma más detallada y didáctica posible. Esta pregunta, además, está muy relacionada, como veréis unas líneas más abajo, con la cuestión que se quedó pendiente en el post anterior sobre el eclipse solar del pasado 30 de abril. Los que nos seguís, ya os habíais dado cuenta de que la explicación de porque la Luna se ve de un color rojizo durante un eclipse lunar había quedado pendiente. Pues bien, en este post encontrareis la respuesta.

Pero antes de pasar a explicar el fenómeno en sí que causa ese color azul en el cielo, pensemos por un momento: vemos que el cielo es azul, pero ¿realmente sabemos que es el color en sí? Porque sin saber lo que es un color, difícilmente podríamos decir si es azul o cualquier otro. Así pues, empecemos por ahí.

Según la RAE, el color se define como “sensación producida por los rayos luminosos que impresionan los órganos visuales y que depende de la longitud de onda”. Visto así entendemos que el color depende de cómo los rayos de luz, de diferente longitud de onda, interactúan con nuestros ojos. Esta definición es un tanto antropocéntrica pues se centra en lo que percibimos, pero no en el origen del fenómeno. Este origen hay que buscarlo en la radiación que proviene del Sol. La radiación solar es la energía emitida por el Sol, que se propaga en todas las direcciones a través del espacio mediante ondas electromagnéticas. Esta energía proviene de las reacciones de fusión nuclear que ocurren en el Sol. Las ondas electromagnéticas emitidas provenientes del Sol son emitidas principalmente en la banda del ultravioleta, visible y el infrarrojo cercano, con longitudes de onda entre 0,2 y 3,0 micrómetros (ver espectro electromagnético adjunto para ver donde se sitúa dicha radiación). Dentro de este intervalo tenemos, como hemos dicho, lo que se conoce como radiación en la región visible. La región visible (entre 0,4 y 0,7 micrómetros) corresponde a la radiación que puede percibir la sensibilidad del ojo humano e incluye los colores: violeta (0,42 micrómetros), azul (0,48 micrómetros), verde (0,52 micrómetros), amarillo (0,57 micrómetros), naranja (0,6 micrómetros) y rojo (0,7 micrómetros). La luz de color violeta es más energética que la luz de color rojo, porque tiene una longitud de onda más pequeña.La radiación con las longitudes de onda más corta que la correspondiente a la luz de color violeta es denominada radiación ultravioleta.Por encima de la longitud de onda del rojo tendríamos la radiación infrarroja. Todas estas ondas electromagnéticas de distintas longitudes de onda nos vienen mezcladas y cuando esto pasa no somos capaces de distinguir ningún color, sino que lo vemos todo blanco. Es por ello que a los rayos de luz provenientes del Sol los llamamos “luz blanca”. Cuando esta luz blanca llega a la Tierra, empieza a interactuar con la materia aquí presente y empiezan a ocurrir ciertos fenómenos físicos que van a determinar el color de las cosas.

Para entender lo que ocurre en esta interacción de la luz con materia primero debemos conocer la naturaleza de las ondas electromagnéticas. En principio, podemos decir sin temor a equivocarnos, que una onda electromagnética consiste en un campo eléctrico y uno magnético perpendiculares entre sí, que oscilan en forma sinusoidal y que se trasladan en el espacio a la velocidad de la luz (300000 km/s). Esta definición es un poco compleja de entender, pero gracias a la mecánica cuántica (quien lo diría…) podemos, quizás, visualizar mejor las ondas electromagnéticas. Y es que según nos dice la llamada “dualidad onda-partícula”, la materia y la luz pueden exhibir comportamientos tanto de ondas como de partículas, dependiendo de las circunstancias del experimento. Este fenómeno, bien comprobado empíricamente, implica que muchas partículas pueden tener comportamientos típicos de ondas en unos experimentos mientras aparecen como partículas compactas y localizadas en otros. Casi increíble pero cierto. Pues bien, bajo esta premisa de la dualidad onda-partícula, la partícula asociada a las ondas electromagnéticas es el fotón. De este modo, podemos imaginar, no sin cierta lógica, que, en realidad, el Sol está emitiendo pequeñas partículas llamadas fotones que viajan por el espacio. Por lo tanto, desde esta perspectiva, la interacción de la luz con la materia seria mediante el choque de los fotones con la propia materia. Y en realidad esto es exactamente lo que ocurre. Es el choque de los fotones con la materia lo que produce el color. Pero, ¿por qué un color y no otro?

La interacción de los fotones con la materia tiene lugar a nivel atómico, es decir, los fotones interactúan directamente con los átomos. En los átomos, como bien sabemos, tenemos un núcleo formado por protones y neutrones y después tenemos los electrones girando en órbitas circulares alrededor del núcleo. Estas órbitas tienen tamaños y energías definidas por leyes cuánticas. Pues bien, cuando los fotones chocan contra los átomos, normalmente interacciona con los electrones. Lo que ocurre en esta interacción es que el fotón puede ser absorbido, reflejado o transmitido. Que ocurra uno u otro fenómeno depende del tipo de átomo en particular, pero todos ellos intervienen a la hora de explicar porque las cosas tienen cierto color. En la mayoría de los casos, el color de las cosas se debe a lo que se llama “absorción selectiva”. Absorción en este caso significa que un fotón interactúa con un electrón y ya no aparece más. Lo que ocurre es que ese fotón le cede la energía que transmite al electrón de tal forma que pasa a estar en un estado “excitado”. Cuando esto pasa con muchos electrones, el átomo tiene un exceso de energía que lo hace “vibrar”. Esta vibración se transmite a sus átomos vecinos y la “vibración” general provoca un aumento de la temperatura del cuerpo sobre el que la luz incide. Lo que ocurre es que no todos los fotones, cada uno con una longitud de onda distinta, serán absorbidos. Solo aquellos que tengan una longitud de onda similar al movimiento interno de los electrones podrán ser absorbidos, es decir, generar esta “vibración”. El resto de los fotones de otras longitudes de onda serán reflejados. La interacción fotón-electrón en la luz reflejada es muy parecido. El fotón “excita” al electrón que se queda con una energía extra. Pero en este caso, este estado no dura mucho y enseguida este electrón vuelve a su estado original reemitiendo un fotón de la misma energía (recordemos la ley de conservación de la energía, la energía ni se crea ni se destruye solo se transforma) y, por lo tanto, longitud de onda que el original. Así pues, en resumen, tenemos parte de los fotones que son absorbidos por el material y otra parte que son reflejados. Y, como ya supondréis, solo podemos ver los fotones reflejados. Es decir, el color no es más que la radiación solar reflejada por los distintos materiales que, dependiendo de su composición, absorberán y reflejarán fotones de distintas longitudes de onda. Pongamos un ejemplo. Una naranja es de este color porque de toda la luz blanca que impacta contra ella, solo los fotones con longitud de onda en el naranja son reflejados, el resto son absorbidos por ella.

A partir de aquí, la visión antropocéntrica nos dice que el color es como nosotros percibimos los rayos luminosos. Pues bien, pues esos fotones reflejados con cierta longitud de onda, llegan a nuestro ojo y ahí son procesados por los conos y los bastones que son células especializadas, llamadas células fotorreceptoras, que se encuentran en la retina. Estas células son capaces de convertir, a través de un complicado proceso, la luz en un impulso eléctrico que el cerebro usa para percibir imágenes. Los bastones funcionan en condiciones de baja intensidad y proporcionan imágenes en tonos de negro, gris y blanco. Esto se conoce como visión escotópica. Los conos procesan imágenes de alta intensidad en color, lo que se conoce como visión fotópica. Los conos vienen en tres variedades que corresponden aproximadamente a las sensibilidades azul, verde y roja; si los tres conos se excitan simultáneamente, la imagen aparecerá en blanco.

Bien, ahora ya sabemos que es el color, como se produce y como lo percibimos, luego estamos en condiciones de, finalmente, poder responder a la pregunta principal de este post, ¿por qué el cielo es azul? Explicar esto ahora que sabemos muchas cosas de la interacción de la luz y la materia es bastante sencillo, pero tiene algunas pequeñas diferencias con anteriormente explicado. Veamos. La atmósfera, como todos sabemos, es una capa gaseosa que envuelve la Tierra y está formada básicamente por aire y, en menor medida, por otros gases. Cuando la luz blanca llega a la atmósfera, esta va a interactuar con las moléculas de aire, pero, en este caso la interacción es diferente. Lo que ocurre es que, en este caso, la mayoría de los fotones atraviesan la atmósfera sin apenas interacción con el aire. Pero unos pocos, en concreto las de longitudes de onda más corta, es decir, las de tono azulado, si sufren interacción con las moléculas de aire. Sin embargo, en este caso, no es ni absorción ni reflexión sino dispersión. ¿Qué es la dispersión? Es muy similar a lo que veíamos antes. El fotón choca con los electrones de las moléculas de aire absorbe, pero inmediatamente se emite otro fotón de igual longitud de onda en todas las direcciones de forma aleatoria. Este proceso, al que se conoce como dispersión de Rayleigh, llamado así por Lord Rayleigh, quien lo descubrió por primera vez, se lleva a cabo en cadena en todas las moléculas de aire. Así pues, tenemos que a medida que la luz blanca del Sol llega a la atmósfera de la Tierra, gran parte de las longitudes de onda de luz roja, amarilla y verde pasan directamente a través de la atmósfera hacia nuestros ojos mientras que las ondas azul y violeta son dispersadas en la atmósfera. Esto hace que las ondas azul y violeta se separen del resto de la luz de tal forma que tenemos un conjunto de longitudes de onda que se mantienen juntas y otro conjunto azul-violeta que se dispersa. El conjunto del resto de fotones de distintas longitudes de onda se mantiene como un grupo y, por lo tanto, permanecen blancas. Todavía están mezclados, sin que la atmósfera los disperse, por lo que aún parecen blancos y no se perciben. Solo somos capaces de apreciar la luz azul (la luz violeta es absorbida más por la atmósfera superior y, además, nuestros ojos no son tan sensibles al violeta como al azul por eso lo vemos más azul que violeta).

Los hasta ahora comentado es la situación más común. Pero el color del cielo vemos que cambia dependiendo la hora que sea. Al atardecer vemos un cielo con tonos rojizos. Esto ocurre porque a medida que el Sol desciende, la cantidad de atmósfera que tendrá que atravesar la luz blanca aumenta (ver esquema adjunto). Cuando el sol se encuentra en el ocaso, sus rayos pasan por una cantidad de atmósfera terrestre diez veces superior a cuando se encuentra en el cénit (punto más alto). Al aumentar la distancia recorrida por la luz blanca, más oportunidades para la dispersión, lo que ocasiona se disperse aún más la luz azul y violeta e incluso empiecen a dispersarse otros fotones de longitud de onda más larga como los verdes. Esto permite que los rojos, naranjas y amarillos pasen directamente a tus ojos sin otra competencia de longitudes de onda más corta. Además, las partículas más grandes de polvo, contaminación y vapor de agua en la atmósfera reflejan y dispersan más rojos y amarillos, lo que a veces hace que todo el cielo occidental se ilumine en rojo.

Por último, comentar que la cuestión que quedaba abierta acerca del color de la Luna durante el eclipse lunar está totalmente relacionada con el tema del color azul del cielo. Y es que, la explicación es básicamente esta última dada para el color rojizo al atardecer. Durante un eclipse lunar, debido a la posición de la Luna, la única luz solar que le llega tiene que atravesar antes toda la atmósfera terrestre. Como los fotones de longitudes de onda más cortas son dispersados, la única luz que llega a la luna es la roja, la única capaz de atravesar toda la atmósfera.

Espectro electromagnético
Distancia recorrida por los rayos solares a mediodía y al atardecer
Posición de la Luna durante un eclipse lunar y como le llegan los rayos de luz
Esquema de la dispersión de la luz en el aire

PREGUNTAS CONCIENCIA #21

¿POR QUÉ SE LES CAEN LAS HOJAS A LOS ÁRBOLES DE HOJA CADUCA Y NO A LOS DE HOJA PERENNE?

En un post reciente acerca de las estaciones comentábamos que hace poco, en concreto, el pasado domingo 20 de marzo a las 16:33 h, habíamos dejado atrás el invierno y entrado en la primavera. Por lo tanto, estamos en una fecha muy apropiada para tratar el tema de la pregunta de hoy. Como bien sabemos, la primavera es la estación en la que los árboles que habían perdido sus hojas en otoño vuelven a recuperarlas. Dichos árboles, denominados de hoja caduca, se diferencian de los de hoja perenne precisamente en esto, en que los primeros pierden completamente la hoja durante el otoño y el invierno mientras que los segundos la conservan. Pero, ¿por qué ocurre esto? Veámoslo.

La primavera es una estación en la que, en general, la vida que parecía un poco “apagada” durante el invierno vuelve a renacer con energías renovadas. Sin duda, es la estación favorita de la naturaleza. Florecen las plantas, reverdece la vegetación, y empieza el cortejo de muchas especies animales. Este letargo y posterior renacer de la vida esta muy relacionado con la cuestión de la pérdida y recuperación de las hojas en los arboles de hoja caduca. Y es que, en realidad, la perdida de las hojas forma parte del proceso de “hibernación» que los arboles de hoja caduca llevan a cabo cada invierno.

Mas en concreto, la caída de hojas otoñales es una forma de autoprotección y de ahorro de energía. Echando un vistazo a los arboles de hoja caduca, nos damos cuenta que, generalmente, son originarios de regiones con climas templados, relativamente fríos en invierno, pero no en exceso (la temperatura media del mes más frío está comprendida entre -5 y +5ºC), como el tipo de clima continental húmedo de Norteamérica y Asia y Europa central y oriental. Suelen ser regiones lluviosas con veranos templados. Por lo tanto, si un árbol evoluciona en estas condiciones climáticas, está claro que, aunque puede tolerar inviernos fríos, no está adaptado a climas extremos con temperaturas muy bajas en invierno. También tenemos que tener en cuenta que, cuando cogemos una hoja, por ejemplo, de castaño, es evidente que son hojas con una gran superficie y delgadas, muy diferentes a las de las especies de hoja perenne como, por ejemplo, los pinos. Esta particular morfología de las hojas, las hace vulnerables a las bajas temperaturas. Esto ocurre porque al ser hojas delgadas y llenas de agua que transportan los nutrientes, si son sometidas a bajas temperaturas, el agua se congela, se expande debido a la congelación y las hojas se podrían romper y dejar de hacer su función. Recordemos que las hojas son vitales en las plantas ya que se encargan de realizar la fotosíntesis, respirar y producir los alimentos. Así que, básicamente, sin las hojas las plantas se mueren. Y por ello la rotura de las hojas sería fatal para los árboles. Además, como la superficie de estas hojas es grande, el viento que suele soplar con más fuerza en los meses de invierno y el peso de la nieve que se acumularía en todas esas hojas, supondrían un grave riesgo para la integridad del árbol pues se podrían producir roturas de ramas o incluso la fractura o arrancamiento del árbol. Finalmente, hay que tener en cuenta que, al vivir estos árboles en climas con veranos templados, existen multitud de insectos que se alimentan de las hojas con lo que, generalmente, al final del verano muchas hojas están comidas, enfermas o seriamente dañadas.

Por otro lado, hay que tener también en cuenta que, durante el invierno, pueden producirse heladas que dificultan a las raíces consiguen los nutrientes del suelo. Por lo tanto, sin nutrientes que circulen por el árbol, las hojas no tienen ninguna función que cumplir y simplemente están ahí consumiendo energía. Sin embargo, si el árbol las pierde y entra en estado latente, puede ahorrar energía y sobrevivir para producir nuevas hojas en la primavera.

Así pues, la autoprotección y el ahorro de energía son las razones por las que los arboles de hoja caduca pierden las hojas. Pero, ¿cómo hacen para perder las hojas justo en el momento que lo necesitan? ¿Qué mecanismo utilizan para deshacerse de las hojas? Pues esto ocurre mediante un proceso que se denomina abscisión y es un ejemplo de que, aunque pensemos que las plantas en general son unos seres vivos bastante simples, llevan a cabo elaborados y complejos procesos que nada tienen que envidiar a los que ocurren en el cuerpo humano.

Como decimos, la abscisión es un proceso complicado que consta de varias etapas (ver esquema muy sintetizado en la imagen adjunta). Este proceso se activa cuando la duración del día se acorta y las temperaturas bajan. En estas condiciones, se producen ciertos cambios químicos en los arboles derivados de la cambiante actividad hormonal. El proceso está controlado por la hormona vegetal auxina. A medida que bajan los niveles de luz y las temperaturas, el flujo de auxina hacia las hojas se ralentiza y aumentan los niveles de otra hormona, el etileno. Cuando esto ocurre, comienza propiamente dicha la abscisión y lo primero que hace el árbol es reabsorber valiosos nutrientes de sus hojas y los almacenan para su uso posterior en las raíces. La clorofila, clave en la fotosíntesis y que les da a las hojas su color verde, es una de las primeras moléculas que se descompone para obtener sus nutrientes. A medida que la clorofila se recupera de la hoja, otros químicos y pigmentos en las hojas se vuelven visibles. Esta recuperación de la clorofila es la que hace que las hojas cambien de color de verde a naranja y amarillo (cuando podemos ver pigmentos de caroteno), e incluso a rojo o púrpura (cuando podemos ver pigmentos de antocianina). A la vez, los vasos que llevan el agua a la hoja y los azúcares al resto de la planta se cierran y una capa de células, conocida como capa de abscisión, comienza a crecer entre el tallo de la hoja y la ramita que la sostiene. En estos momentos, la concentración de auxina en la región de abscisión disminuye con el aumento simultáneo de la producción de etileno. Esto también aumenta la sensibilidad de las células de la zona al etileno, que ahora sintetiza enzimas que degradan la pared celular, como celulasas y pectinasas. La actividad de estas enzimas da como resultado el aflojamiento de la pared celular y la separación de las células, lo que finalmente conduce a la abscisión de las hojas. A medida que caen las hojas, los arboles entran en letargo, ahorrando su energía para el gran brote de primavera. Al final del proceso de abscisión, cuando las hojas se han desprendido, una capa protectora de células crece sobre el área expuesta.

Esto es lo que ocurre con los arboles de hoja caduca, pero ¿Qué pasa con los de hoja perenne? ¿Por qué no se les caen las hojas? Los arboles de hoja perenne están mucho mejor adaptados a las bajas temperaturas. En general, generan ceras y resinas espesas para protegerse de la congelación y la fractura. En lugar de que las hojas se caigan, estas plantas desarrollaron un tipo de líquido anticongelante en su interior que resiste la congelación. Además, la forma alta, delgada y puntiaguda de la mayoría de estos árboles implica que son capaces de aguantar vientos fuertes y fuertes lluvias o nieve al dejar que la humedad o la nieve se deslice directamente.

En definitiva, tanto los arboles de hoja caduca como los de hoja perenne han evolucionado cada uno adaptándose a las condiciones climáticas en su alrededor. Ambas adaptaciones demuestran ser muy validadas para soportar climas adversos. Esto reverla que los árboles y, en general, las plantas son seres vivos mucho más complejos de lo que nos imaginamos y con una capacidad de adaptación al medio envidiable.

Hoja caduca
Hoja perenne
Dos árboles, uno de hoja caduca (sicómoro) y otro de hoja perenne (pino), en un día soleado de invierno
Síntesis del proceso de abscisión y el papel del etileno (C2H4)

PREGUNTAS CONCIENCIA #20

¿Cómo se formó la Cordillera Cantábrica?

La Cordillera Cantábrica es, junto a los Pirineos, el principal sistema montañoso del norte de la Península Ibérica. Se extiende paralela a la costa del Mar Cantábrico a lo largo de las regiones de Asturias, Cantabria y Castilla y León, con estribaciones en Galicia por el oeste y País Vasco por el este. Su extensión total es de 480 kilómetros en dirección este-oeste, mientras que su anchura oscila entre 65 y 120 kilómetros (norte-sur). Sus límites naturales son por el oeste el valle del río Sil y por el este la falla de Pamplona. Su cota más elevada es el Torre de Cerredo (2.648 m).

Imagen satelital del tercio norte de la península Ibérica. En el cuadro rojo se marca la posición de la cordillera Cantábrica.

Pero, ¿Cómo se formaron picos tan elevados y tan próximos al mar? La Cordillera Cantábrica, al igual que todas las montañas del Planeta surge como resultado del choque de dos o más placas tectónicas. El primer choque se produjo cuando todas las masas continentales se unieron formando un supercontinente llamado Pangea. La cordillera resultante fue la consecuencia de una fuerte compresión (Orogenia Hercínica) que generó pliegues y fracturas que terminaron levantando las rocas que se estaban depositando en el fondo del mar y en las zonas emergidas. Esta cordillera tuvo dimensiones colosales y alturas comparables a los actuales Himalayas, pero la erosión posterior la desmanteló y la antigua cordillera quedó arrasada.

Foto del macizo central de los Picos de Europa, en la parte asturiana de la cordillera Cantábrica

Con el paso de los millones de años los continentes se fueron separando y la placa ibérica, donde se sitúa parte de la Península Ibérica, viajaba como una isla que poco a poco se fue acercando hasta su posición actual. Hace unos 40-50 millones de años el empuje de la placa africana hacia el norte terminó por unirla a Europa y en la zona de colisión se formaron los Alpes, los Pirineos y la Cordillera Cantábrica volvió a levantarse para adquirir un aspecto similar al que observamos actualmente. Así la Cordillera Cantábrica es el resultado de dos Orogenias: la Hercínica o Varisca y la más reciente denominada Alpina por ser la responsable de la formación de los Alpes.

Algunos os podréis preguntar por qué los Picos de Europa resaltan tanto del resto de la cordillera. Pues bien, la respuesta es que en Picos de Europa las rocas más blandas del entorno se han ido erosionando y las calizas han “sobrevivido” resaltando en el paisaje. Así, en la periferia de los tres macizos que forman los Picos de Europa, se forman espectaculares pendientes de hasta 2000 m de desnivel. En estas vertiginosas laderas rocosas la acción de antiguos glaciares, y de los torrentes y aludes actuales, han ido excavando profundos, estrechos y empinados valles conocidos como “canales”.

Rango de actuación de la orogenia Alpina con información detallada en la zona mediterráneo – oriente medio.

En cuanto al resto de las grandes cordilleras europeas (Pirineos, Alpes, Cárpatos, Balcanes, Cáucaso) también se formaron debido a la orogenia alpina, durante la era Cenozoica. De hecho en esta orogenia fue cuando África y el subcontinente indio chocaron contra Eurasia por lo que también es la formadora de las grandes cordilleras de Asia (Montes Zagros, Pamir, Karakorum e Himalayas).

PREGUNTAS CONCIENCIA #19

¿CUÁL ES LA CAUSA DE QUE EL MAR MUERTO SEA UN LUGAR ÚNICO EN EL MUNDO?

El mar Muerto, situado en la frontera entre Israel, Cisjordania (Territorio de Palestina) y Jordania (ver mapa adjunto) es mundialmente conocido por una de sus principales singularidades: la capacidad de flotar en sus aguas sin dificultad. Este hecho es, sin duda, uno de los principales atractivos del lugar y por el que llegan multitud de turistas anualmente. Pero, ¿por qué se puede flotar en sus aguas sin esfuerzo? Trataremos de responder a esta cuestión y a su vez contaremos otros detalles que hacen de este lugar un enclave especial.

Pero, comencemos por el principio, ¿qué es el mar muerto? El mar Muerto no es en realidad un mar sino un lago. Las diferencias entre un lago y un mar son sutiles y a veces es difícil distinguir entre ambos. Las principales diferencias entre un lago y un mar son:

-Un lago está rodeado por tierra por todos lados y no se conecta a un cuerpo de agua más grande como un océano, mientras que un mar se conecta a un océano.

-Un mar es mucho más grande y más profundo que un lago.

-Un lago es natural o artificial, mientras que un mar solo se produce naturalmente

-Un mar contiene solo agua salada, mientras que un lago puede contener agua salada o dulce.

Si analizamos estas 4 diferencias, rápidamente nos damos cuenta de que, empezando por la primera diferencia, el mar Muerto no puede ser un mar porque está totalmente rodeado de tierra firme y no se conecta con ninguna masa de agua más grande. También es cierto que, pese a que tiene un tamaño considerable, no es tan grande y, sobre todo, tan profundo como un mar (su profundidad máxima es de 306 m). Respecto a los dos últimos puntos sí que se podría confundir con un mar pues es un lago natural y es de agua salada, como un mar.

Su nombre de mar Muerto se debe, indirectamente, a una de sus características más famosas:  su alta salinidad. El hecho de que sus aguas tengan una concentración de sales extremadamente alta, imposibilita que la mayoría de seres vivos puedan habitar en sus aguas. Digamos que, las formas de vida macroscópicas, las que podemos ver a simple vista, peces, crustáceos o incluso aves, no pueden vivir en ese ambiente. Y si alguno de ellos llega al mar Muero por error, muere en poco tiempo. De ahí su nombre. Sin embargo, no es estrictamente cierto que no haya vida en sus aguas. De hecho, existe un complejo y extenso ecosistema de microorganismos capaces de vivir en estas extremas condiciones. Como curiosidad, mencionar también que su nombre original en hebreo no es mar Muerto sino mar de Sal o mar Salado. La denominación de mar Muerto viene más de la tradición árabe que habito ese territorio durante siglos después de los primeros asentamientos judíos.

Como hemos dicho, se encuentra en la frontera entre Israel, Cisjordania y Jordania en una zona montañosa y desértica cerca del desierto de Judea y de los Montes de Judea. Es una zona esta del desierto muy escarpada y repleta de barrancos de gran profundidad (incluso de más de 300 m). El desierto esta precisamente delimitado por una escarpada pendiente que desciende hasta el Mar Muerto y el Valle del Jordán. Esta alimentado por diversos ríos entre los que destaca el rio Jordán. La geografía del lugar es muy llamativa por los barrancos y valles fruto de la erosión del agua a lo largo de miles de años. De hecho, el lugar donde se sitúa el mar Muerto, es la zona de tierra firme terrestre que se sitúa a más profundidad o, lo que es lo mismo, a más metros por debajo del nivel de mar. En concreto, la superficie del agua sitúa 427 m por debajo del nivel del mar. Si hacemos una comparación con la altitud de una montaña decimos, por ejemplo, que el Everest tiene 8849 m de altitud. Pues en el caso del mar Muerto, diríamos que se sitúa a -427 m, como decimos, el lugar más bajo en tierra firme (el lugar más profundo en la superficie terrestre contando también la superficie oceánica es el abismo Challenger, en la fosa de las Marianas, en el Pacifico que alcanza los 10935 m de profundidad).

Esta particular situación geográfica y su profundidad son clave para entender porque tiene una salinidad tan alta. Al estar encerrado en una zona profunda sin ninguna salida para el agua, las sales minerales que van llegando en los ríos se depositan en el fondo y se van acumulando. A ello se suma el clima de la zona en la que está situado que se caracteriza por su elevado calor, lo que favorece el proceso de evaporación de agua y, por lo tanto, un aumento de la concentración de sales (más sales en menos cantidad de agua). Estas condiciones hacen que sea una de las masas de agua con una mayor salinidad, llegando a un 34,2 % (no es del de mayor salinidad pues lago Vanda en la Antártida (35 %), el lago Assal en Djibuti (34,8 %), la laguna Garabogazköl en el mar Caspio (hasta 35 %) y algunos estanques y lagos hipersalinos de los valles secos de McMurdo en la Antártida como el estanque Don Juan (44 %) presentan valores más altos). Para poner este valor en perspectiva, podemos compararlo con la salinidad de los océanos que es del 3.1-3.8%, con lo que el mar Muerto tiene una concentración de sal aproximadamente 10 veces más elevada que los océanos.

La consecuencia más visible de esta elevada salinidad, al margen de hacer la vida en sus aguas casi imposible, es el aumento de la densidad se sus aguas. La densidad del agua corriente, de lo que consideramos agua dulce, es de aproximadamente 1000 kg/m3 (concretamente 998 kg/m3 a 20 °C) mientras que el agua de mar alcanza un valor de 1027 kg/m3 pues tiene más sal disuelta. Sin embargo, la densidad del agua del mar Muerto llega a los 1240 kg/m3, un valor muy superior a los dos ejemplos. Y este aumento de densidad es que nos permite flotar en sus aguas con total facilidad. Esta flotabilidad se debe al famoso principio de Arquímedes: “Un cuerpo total o parcialmente sumergido en el fluido en reposo experimenta un empuje vertical hacia arriba igual al peso del fluido desalojado”. Es decir, que cuando sumergimos un objeto en el fluido, el propio fluido tiende, en mayor a menor medida, a “empujarlo” hacia arriba. ¿Cómo estimamos este empuje para saber si vamos a flotar o no? Hagamos un sencillo ejercicio utilizando el cuerpo humano como ejemplo.

El cuerpo humano de una persona promedio de mediana edad (40-55 años) tiene una densidad de 1043 kg/m3 (considerando un porcentaje de grasa del 24.7%; la densidad corporal de las personas más jóvenes (18-22 años) es más elevada, alrededor de 1068 kg/m3, pues los jóvenes tienen más musculo (que es más denso que la grasa) y menos grasa (alrededor del 13.4%)). Sabiendo que la densidad = masa / volumen y considerando que dicha persona pesa unos 80 kilos, podemos calcular su volumen como: volumen = masa / densidad = 80 kg / 1043 kg/m3 = 0.0767 m3 = 76.7 litros. Ahora veamos que ocurre cuando esa persona se sumerge en diferentes tipos de agua:

-Si sumergimos a esta persona, por ejemplo, en el agua dulce de un río el empuje al que se vería sometido sería: Empuje = densidad del agua del río (998 kg/m3) x aceleración de la gravedad (g= 9.8 m/s2) x Volumen de fluido desplazado (= volumen de la persona = 0.0767 m3) = 750.16 N. Ahora bien, el peso de la persona sería: peso = masa x aceleración de la gravedad = 80 kg x 9.8 m/s2 = 784 N. Comparando ambos valores vemos que el peso de la persona es mayor al empuje que ejerce el agua del río y, por lo tanto, la persona se hunde.

-Si hacemos este mismo ejercicio con la misma persona y agua de mar, cuya densidad es de aproximadamente 1027 kg/m3, el empuje sería: Empuje = densidad del agua de mar (1027 kg/m3) x aceleración de la gravedad (g= 9.8 m/s2) x Volumen de fluido desplazado (= volumen de la persona = 0.0767 m3) = 771.95 N. De nuevo, el empuje es menor al peso de la persona y tiende a hundirse. Pero en este caso, empuje y peso son más parecidos y la persona tiene más facilidad para flotar.

-Por último, el empuje en el mar Muerto sería: Empuje = densidad del agua de mar (1240 kg/m3) x aceleración de la gravedad (g= 9.8 m/s2) x Volumen de fluido desplazado (= volumen de la persona = 0.0767 m3) = 932.06 N. En este caso vemos que el empuje es significativamente mayor que el peso de la persona (932.06 > 784) y por lo tanto la persona no se va a hundir, sino que flota sin dificultad alguna.

Como muchos de los lugares especiales, lamentablemente, el mar Muerto está pasando por dificultades debido a la acción humana. De hecho, el nivel de sus aguas se reduce en más de un metro cada año (ver foto adjunta). Teniendo en cuenta que, como ya hemos comentado, la superficie del Mar Muerto es el punto más bajo del planeta, entonces el punto más bajo del planeta se está revisando cada año. El principal problema es que la cantidad de agua que entra ha cambiado en las últimas décadas de forma espectacular, todo debido a la complicada política sobre el agua en Medio Oriente. Israel tiene una represa en la parte sur del Mar de Galilea, situado en la parte norte del país (sea of Galilee en el mapa adjunto), por la que controla la cantidad de agua que fluye hacia el Jordán. Y esto crea problemas para los granjeros tanto en Jordania como en el territorio palestino de Cisjordania, quienes necesitan agua para irrigar sus granjas y alimentar a su gente. Pero Israel también tiene problemas, a pesar de que tiene suficiente dinero y recursos técnicos para asegurarse de que sus ciudadanos tengan agua. El río Jordán se alimenta del río Yarmouk, que atraviesa Siria y durante los últimos 30 años, los sirios han construido más de 40 represas que afectan tanto el agua del Yarmouk como la que una vez alimentaba el Jordán. También hay otros factores que afectan el nivel del Mar Muerto. Por ejemplo, tanto Israel como Jordania utilizan inmensas cuencas de evaporación para extraer fosfatos del agua y exportarlos como fertilizantes (se aprecian perfectamente en la foto adjunta).

En definitiva, podemos decir que el mar Muerto es realmente es un lugar único gracias a sus particulares características geográficas que hacen que se acumule una cantidad enorme de sal. Esta extremadamente alta salinidad aumenta la densidad del agua y nos permite flotar sin dificultad. Pero espacio que está en peligro debido a la acción humana y más teniendo en cuenta la compleja situación política de la zona.

Localización del mar Muerto
Evolución del nivel del mar Muerto en las últimas décadas
Localización del mar de Galilea

PREGUNTAS CONCIENCIA #18

¿QUÉ ES (DESDE UN PUNTO DE VISTA MICROSCÓPICO) EL AGUA? ¿POR QUÉ ES TAN IMPORTANTE PARA LA VIDA? 

El pasado martes, y como cada 22 de marzo, se celebró el “Día Mundial del Agua”. La Organización de las Naciones Unidas (ONU) decidió instaurar un día de conmemoración del agua para recordar cada año la relevancia de este líquido esencial. Y es que a pesar de que todas las actividades sociales y económicas dependen en gran medida, directamente o indirectamente, del abastecimiento de agua dulce y de su calidad, a día hoy todavía hay 2200 millones de personas viven sin acceso a agua potable. Por ello, esta celebración ha de servir para concienciar acerca de la crisis mundial del agua y la necesidad de buscar medidas para abordarla de manera que alcancemos el objetivo de desarrollo sostenible n°6 (es uno de los 17 objetivos de desarrollo sostenible que la ONU ha establecido en la Agenda 2030 sobre Desarrollo Sostenible; (más información aquí https://www.un.org/sustainabledevelopment/es/) y que no es otro que “llevar agua y saneamientos a todos los habitantes del planeta antes de 2030”. Por lo tanto, no hay mejor fecha para tratar el tema de la pregunta de hoy. La intención es tratar de profundizar en lo que es el agua desde un punto de vista molecular y repasar que propiedades tiene que la hace fundamental para que exista la vida en la Tierra. 

Para empezar, definamos lo que es el agua. El agua es una sustancia que está formada por dos átomos de hidrógeno y uno de oxígeno que unidos dan lugar a una molécula cuya formula química es la famosa H2O. La composición química del agua fue descubierta por Henry Cavendish al estudiar cómo el hidrógeno reaccionaba con el aire. Para su sorpresa la reacción química generó agua descubriendo así que el agua estaba compuesta de dos partes de hidrógeno y una parte de oxígeno. Aunque la mayoría de las veces que pensamos en el agua se nos viene a la cabeza que es un líquido, también es de sobra conocido que puede existir en estado sólido (hielo) y gaseoso (vapor). La unión de los átomos de hidrógeno con el de oxígeno se da mediante lo que se conoce como enlace covalente. Este es un enlace químico entre átomos no metálicos al compartir uno o más electrones de la última capa electrónica para llegar a un estado mucho más estable que el del átomo por separado. Esta unión permite que átomos con electrones en la última capa “desparejados” se completen compartiendo los electrones del otro átomo. El resultado es un enlace bastante fuerte de tal forma que “romper” esta molécula es bastante difícil. 

La molécula de H2O (ver imagen adjunta) formada como resultado de este enlace tiene unas propiedades microscópicas muy particulares y que la hacen especial. Una de sus primeras características y probablemente la más importante es su polaridad. La polaridad hace referencia a que, en una molécula, pese que su carga total pueda ser neutra (mismas cargas positivas y negativas o, lo que es lo mismo, mismo número de electrones y de protones), existen distribuciones de carga asimétricas, es decir, en cada región de la molécula la carga local no es cero, sino que puede ser positiva o negativa. Esto ocurre por la diferencia de electronegatividad entre el oxígeno y el hidrógeno. La electronegatividad cuantifica la capacidad de un átomo para atraer los electrones compartidos cuando forma parte de una molécula. El oxígeno es más electronegativo que el hidrógeno y, por lo tanto, atrae hacia si los electrones de la unión por lo que tenemos más electrones, que poseen carga negativa, más cerca del átomo de oxígeno que del de hidrógeno. Esto provoca que, como no tienen electrones a su alrededor, cada átomo de hidrógeno tenga una cierta carga positiva. De este modo, tenemos una carga parcial negativa en el oxígeno y una carga parcial positiva en los hidrógenos. El resultado final es que tenemos una asimetría eléctrica y lo que se conoce como un momento dipolar (dipole moment en la imagen adjunta). Esto significa que el agua es una molécula polar, pues tiene una parte o polo negativa y otra positiva, aunque el conjunto de la molécula es neutro. Una de las primeras consecuencias de esta polaridad es la capacidad de “agrupación” que tienen las moléculas de agua. Como hay una parte de la molécula con carga parcial positiva y otra parte con carga parcial negativa, cuando tenemos dos moléculas de agua juntas, tienden a unirse aproximando los átomos de hidrogeno (carga parcial positiva) a los de oxígeno (carga parcial negativa) formando lo que se conoce como puentes de hidrógeno. De esta manera, las moléculas de agua se agrupan unas con otras y es muy difícil separarlas. Esta capacidad de unión de las moléculas de agua es una propiedad llamada cohesión y es muy importante en ciertos procesos fisiológicos. Lo cierto es que, al margen de la capacidad para formar los puentes de hidrógeno, esta polaridad le confiere casi todas sus propiedades fisicoquímicas y biológicas pues determina cómo el agua interacciona con otras moléculas. 

Una vez que conocemos sus propiedades moleculares, estamos en disposición de entender mejor porque el agua es tan importante para la vida. De hecho, el agua constituye el 60-75% del peso corporal humano. Una pérdida de solo el 4 % del agua corporal total conduce a la deshidratación, y una pérdida del 15 % puede ser mortal. Del mismo modo, una persona podría sobrevivir un mes sin comida, pero no sobreviviría 3 días sin agua. Todos estos datos hablan muy a las claras de la dependencia del agua de todas las formas de vida. Claramente, el agua es vital para la supervivencia, pero ¿qué la hace tan necesaria? Veámoslo.

Para empezar, el agua es el “disolvente universal”. Al ser una molécula polar, el agua interactúa mejor con otras moléculas polares, como ella misma. La mayoría de las moléculas biológicas también son polares y las moléculas de agua pueden formar enlaces con sus regiones positivas y negativas y “rodearlas”. Al rodearlas el agua es capaz de romper los enlaces de las moléculas consiguiendo disolverlas. Cuando pones cristales de azúcar en el agua, como tanto el agua como el azúcar son polares, las moléculas de agua individuales rodean a las moléculas de azúcar individuales, rompiendo el azúcar y disolviéndolo. Por otro lado, las moléculas que están hechas de iones o partículas con carga opuesta también se disuelven. El agua también rompe estas moléculas iónicas al interactuar con las partículas cargadas tanto positiva como negativamente. Esto es lo que sucede cuando pones sal en el agua, porque la sal está compuesta de iones de sodio (Na+) y cloruro (Cl-). La amplia capacidad del agua para disolver una variedad de moléculas le ha valido la designación de «disolvente universal», y es esta capacidad la que hace que el agua sea una fuerza tan valiosa para sustentar la vida. A nivel biológico, el papel del agua como disolvente ayuda a las células a transportar y utilizar sustancias como el oxígeno o los nutrientes. Las soluciones a base de agua, como la sangre, ayudan a transportar las moléculas a los lugares necesarios. Por lo tanto, el papel del agua como solvente facilita el transporte de moléculas como el oxígeno para la respiración y tiene un gran impacto en la capacidad de los medicamentos para alcanzar sus objetivos en el cuerpo.

El agua también tiene un papel estructural importante en la biología celular. Visualmente, el agua llena las células para ayudar a mantener la forma y la estructura de las células. El agua dentro de las células crea una presión que se opone a las fuerzas externas, similar a poner aire en un globo. El agua permite que todo dentro de las células tenga la forma correcta a nivel molecular. Dado que la forma es fundamental para los procesos bioquímicos, esta es también una de las funciones más importantes del agua. El agua también contribuye a la formación de membranas que rodean las células. Cada célula está rodeada por una membrana, la mayoría de las cuales están formadas por dos capas de moléculas llamadas fosfolípidos. Los fosfolípidos tienen dos componentes distintos: una «cabeza» polar y una «cola» no polar. Las cabezas polares interactúan con el agua, mientras que las colas no polares intentan evitar el agua e interactúan entre sí. Buscando estos “emparejamientos” favorables, los fosfolípidos forman espontáneamente bicapas con las cabezas mirando hacia afuera, hacia el agua circundante, y las colas hacia adentro, excluyendo el agua. La bicapa rodea las células y permite selectivamente que sustancias como sales y nutrientes entren y salgan de la célula. Sin agua, las membranas celulares carecerían de estructura, y sin una estructura de membrana adecuada, las células no podrían mantener moléculas importantes dentro de la célula y moléculas dañinas fuera de la célula. Además de influir en la forma general de las células, el agua también afecta a algunos componentes fundamentales de cada célula: el ADN y las proteínas. Las proteínas se producen como una larga cadena de bloques de construcción llamados aminoácidos y necesitan plegarse en una forma específica para funcionar correctamente. El agua impulsa el plegamiento de las cadenas de aminoácidos a medida que diferentes tipos de aminoácidos buscan y evitan interactuar con el agua. Las proteínas proporcionan estructura, reciben señales y catalizan reacciones químicas en la célula. De esta manera, las proteínas son los caballos de batalla de las células. En última instancia, las proteínas impulsan la contracción de los músculos, la comunicación, la digestión de los nutrientes y muchas otras funciones vitales. Sin la forma adecuada, las proteínas no podrían realizar estas funciones y una célula no podría sobrevivir. De manera similar, el ADN debe tener una forma específica para que sus instrucciones se decodifiquen correctamente. Las proteínas que leen o copian el ADN solo pueden unirse al ADN que tiene una forma particular. Las moléculas de agua rodean al ADN de forma ordenada para mantener su característica conformación de doble hélice. Sin esta forma, las células no podrían seguir las instrucciones detalladas codificadas por el ADN o transmitir las instrucciones a las células futuras, lo que haría inviable el crecimiento humano, la reproducción y, en última instancia, la supervivencia.

El agua está directamente involucrada en muchas reacciones químicas para construir y descomponer componentes importantes de la célula. La fotosíntesis, el proceso en que las plantas crean azúcares para todas las formas de vida, requiere agua. El agua también participa en la construcción de moléculas más grandes en las células. Las moléculas como el ADN y las proteínas están formadas por unidades repetitivas de moléculas más pequeñas. La unión de estas pequeñas moléculas ocurre a través de una reacción que produce agua. Por el contrario, se requiere agua para la reacción inversa que descompone estas moléculas, lo que permite que las células obtengan nutrientes o reutilicen piezas de moléculas grandes. Además, el agua protege a las células de los efectos peligrosos de los ácidos y las bases. Las sustancias muy ácidas o básicas, como la lejía o el ácido clorhídrico, son corrosivas incluso para los materiales más duraderos. Esto se debe a que los ácidos y las bases liberan hidrógenos en exceso o toman hidrógenos en exceso, respectivamente, de los materiales circundantes. Perder o ganar hidrógenos cargados positivamente altera la estructura de las moléculas. Como hemos aprendido, las proteínas requieren una estructura específica para funcionar correctamente, por lo que es importante protegerlas de ácidos y bases. El agua hace esto al actuar como ácido y como base. Aunque los enlaces químicos dentro de una molécula de agua son muy estables, es posible que una molécula de agua ceda un hidrógeno y se convierta en OH–, actuando así como una base, o acepte otro hidrógeno y se convierta en H3O+, actuando así como un ácido. Esta adaptabilidad permite que el agua combata cambios drásticos de pH debido a sustancias ácidas o básicas en el cuerpo en un proceso llamado amortiguación. En última instancia, esto protege las proteínas y otras moléculas en la célula.

Además, el agua facilita la eliminación de toxinas y el exceso de nutrientes por la orina; ayuda a mantener, la elasticidad, suavidad y tono de la piel; regula la temperatura corporal; mantiene hidratado el cerebro; funciona como lubricante y amortiguador en las articulaciones y ayuda a la normalización de la tensión arterial.

En definitiva y en resumen, el agua es vital para toda la vida. Pero no solo a nivel celular o del cuerpo humano. También para los ecosistemas y en las actividades económicas juega un papel fundamental. Y es que el conocido ciclo hidrológico o ciclo del agua es uno de los procesos bioquímicos más importantes y que determina en muchos casos que se puede hacer y que no en determinadas regiones. En este ciclo el agua sufre una serie de transformaciones y desplazamientos en los que va pasando por sus tres estados: solido, líquido y gaseoso (ver imagen adjunta del ciclo hidrológico). Este ciclo se compone de varias etapas, que se desarrollan de forma sucesiva y simultánea:

  • Evaporación. El sol calienta los océanos y del resto de superficies acuáticas. Se produce la evaporación y el aire se carga de humedad. En esta misma fase del ciclo hidrológico estarían incluidas la transpiración y sudoración de los seres vivos y la sublimación (paso de solido a gas directamente sin pasar por el líquido) que se produce en la superficie de los glaciares.
  • Condensación. Cuando las moléculas de agua reducen su movilidad y se unen sobre partículas sólidas suspendidas en el aire, se produce la condensación al enfriarse el agua. Así se forman las nubes.
  • Precipitación. Según se enfrían y condensan las gotas, crecen de tamaño y acaban cayendo debido a su peso, produciéndose las lluvias.
  • Derretimiento y y corrientes de agua. El agua que cae sobre tierra firme regresa a los ecosistemas acuáticos en forma de aguas filtradas hacia las superficies subterráneas, por medio del escurrimiento por acción de la gravedad y la topografía, o a través del derretimiento de los hielos en las estaciones cálidas

Todo esto nos debe servir para darnos cuenta que, aunque a veces podamos perder un poco la perspectiva considerando que el agua es infinita (en nuestro caso tenemos acceso a ella casi de forma ilimitada) el agua es un recurso extremadamente valioso pero que no es infinita y que debemos protegerla. De ello depende en gran manera en futuro de la civilización humana en los próximos siglos. 

Molécula del agua
Puentes de hidrógeno
Ciclo hidrológico o ciclo del agua

PREGUNTAS CONCIENCIA #17

¿CUÁL ES LA CAUSA DE LAS ESTACIONES? ¿POR QUÉ SE DELIMITAN CON LAS FECHAS QUE CONOCEMOS?

Hace pocos días, concretamente el pasado domingo 20 de marzo a las 16:33 h, cambiábamos de estación del invierno a la primavera. Aprovechando la cercanía de este cambio estacional, vamos a resolver una de las preguntas que nos han llegado sobre el tema de las estaciones.

Como todos sabemos, la Tierra se mueve de dos formas distintas: rota sobre si misma cada 24 h definiendo la duración de un día y se mueve alrededor del Sol completando una vuelta completa cada 365 días o, lo que es lo mismo, un año. Centrándonos en el movimiento de translación de la Tierra alrededor del Sol, este se produce en una órbita elíptica. La forma elíptica digamos que es como un círculo estirado por uno de sus ejes (ver elipse en la imagen adjunta) de tal forma que al final la distancia del centro al contorno no es la misma, sino que varía al cambiar de posición. En esta elipse, el Sol se sitúa en uno de los focos de la elipse. Esto significa que la distancia, medida sobre el eje mayor, a los dos vértices no es la misma. Cuando situamos al Sol en uno de los focos, la distancia al vértice más alejado se denomina afelio (unos 152000000 km) y al más cercano perihelio (unos 147000000 km). Una confusión muy común es asumir que es la distancia al Sol la que determina las estaciones. Por ejemplo, muchas veces se asume que el momento en el que la Tierra está en el afelio o perihelio determina cuando es invierno (cuanto más lejos del Sol, menos intensa la luz solar) o verano (cuanto más cerca del Sol, más intensa la luz solar), respectivamente. Pero nada más lejos de la realidad. De hecho, la distancia de la Tierra al Sol no tiene apenas influencia en las estaciones. Baste decir que cuando la Tierra está más cerca del Sol, en su perihelio, es invierno en el hemisferio norte y que cuando está más lejos, en su afelio, es verano en el mismo hemisferio.

Lo que realmente causa las estaciones es la inclinación del eje de la Tierra respecto a la vertical. La Tierra es una (cuasi)esfera que, como hemos dicho, rota sobre si misma alrededor de un eje que pasa por los polos. Sin embargo, dicho eje, no está, digamos, vertical (ver imagen adjunta). Ante esta afirmación alguien podría decir ¿pero que significa que no está en vertical? ¿Cómo definimos que es “vertical” cuando tenemos un objeto “flotando” en el espacio? Bien, para responder a esta pregunta debemos fijarnos en el plano y la dirección de la órbita. En la imagen adjunta se puede ver muy bien. Si definimos la dirección de translación, podemos ver que el eje perpendicular (que forma 90° o un ángulo recto) a dicha dirección no pasa por los polos. De hecho, el eje que pasa por los polos, el eje de rotación de la Tierra, forma un ángulo de aproximadamente 23.5° con el eje “vertical”. Esta diferencia es lo que se conoce como oblicuidad de la Tierra. Así pues, es la oblicuidad la que ocasiona las estaciones o, mejor dicho, los cambios de intensidad de la incidencia de los rayos solares que ocasionan las estaciones. Se cree que esta oblicuidad es el resultado del choque de un cuerpo celeste enorme cuando la Tierra era joven y estaba todavía en formación. Este choque provocó que el eje de rotación se desplazara respecto a la vertical. Por cierto, este cuerpo celeste que choco contra la Tierra se llama Tea y causó un gran orificio en la superficie terrestre a la vez que puso en órbita una gran cantidad de polvo y residuos. La mayoría de los científicos piensan que, con el tiempo, esos residuos se transformaron en nuestra Luna.

Para visualizar como la oblicuidad causa las estaciones veamos que ocurre en el hemisferio norte y en el sur a medida que la Tierra se mueve en la órbita (ver también imagen adjunta para seguir la secuencia). Cuando estamos en invierno en el hemisferio norte, la Tierra esta inclinada de tal manera que los rayos del Sol inciden de forma perpendicular en el hemisferio sur (verano) mientras que llegan oblicuos (formando un cierto ángulo respecto al eje de rotación) al norte (invierno). Esto implica que la intensidad de los rayos solares es menor en el hemisferio norte y eso hace que bajen las temperaturas. El momento en el que los rayos solares inciden de la forma más oblicua posible se conoce como solsticio de invierno y ocurre el 21-22 de diciembre. A medida que avanzamos en el tiempo y avanza el invierno, la Tierra sigue moviéndose en la órbita y en ángulo con el que inciden los rayos del Sol va disminuyendo en el norte y aumentando en el sur hasta que llegamos al equinoccio de primavera que ocurre el 19-21 de marzo. En este momento los rayos del Sol inciden de forma perpendicular al eje de rotación y por lo tanto no hay diferencia entre el hemisferio norte y el sur. Entramos en la primavera en el norte y en el otoño en el sur y las temperaturas son suaves en ambos hemisferios. Seguimos avanzando en la primavera, la Tierra sigue moviéndose en la órbita y llega un momento en el que ocurre la situación contraria a la del solsticio de invierno. Ahora es el hemisferio norte el que recibe los rayos perpendicularmente y el sur con una determinada inclinación que se hace máxima el día del solsticio de verano que ocurre el 20-21 de junio. En este momento la incidencia de los rayos es máxima en el norte y las temperaturas aumentan (verano) y es mínima y, por lo tanto, las temperaturas bajan en el sur (invierno). Seguimos avanzando en la orbita y en este caso la inclinación de los rayos solares empieza a aumentar en el norte y a disminuir en el sur hasta llegar al equinoccio de otoño y que tiene lugar el 21-24 de septiembre. Aquí ocurre la misma situación que en equinoccio de primavera, los rayos del Sol inciden de forma perpendicular al eje de rotación y por lo tanto no hay diferencia entre el hemisferio norte y el sur. Entramos en el otoño del norte y en la primavera del sur. Ya solo nos falta completar la vuelta completa y entrar de nuevo en el invierno. Ya hemos completado un año y hemos pasado por las cuatro estaciones.

Como hemos dicho antes, es curioso que el verano en el hemisferio norte ocurra durante el afelio y el invierno durante el perihelio, pero ya habíamos advertido que esta distancia no tenía casi influencia. Bueno, “casi” no tiene. Pero lo cierto es que, la luz solar reflejada sobre la Tierra es un 7 % más intensa durante el perihelio que durante el afelio y esto provoca que el invierno en el hemisferio norte y el verano en el hemisferio sur tengan una duración 4.7 días menor que las estaciones que ocurren en julio, durante el afelio. Luego, en realidad, sí que hay un pequeño efecto. Otro dato curioso es que, el afelio y el perihelio no están acompasados con el solsticio de verano e invierno. El afelio suele ocurrir entre el 4 y el 6 de julio mientras que el perihelio lo hace entre el 2 y el 4 de enero, es decir, unas dos semanas después del solsticio de verano y de invierno, respectivamente.

Elementos de una elipse
Oblicuidad de la Tierra
Movimiento orbital de la Tierra
Estaciones

PREGUNTAS CONCIENCIA #16: ¿Cómo y por qué se mueven las Placas Tectónicas?

Desde Villaviciosa ConCiencia hoy vamos a responder ¿Cómo y por qué se mueven las placas tectónicas?

Para ello es importante saber que el interior de la Tierra está divido en capas, dentro de las cuales la más externa es una capa rígida de espesor variable conocida como LITOSFERA, esta capa recubre a otra más plástica llamada ASTENOSFERA que llega hasta los 700 km de profundidad. La litosfera se encuentra dividida en fragmentos o “placas” separadas por tres tipos de márgenes que se conocen como constructivo (dorsal), destructivo (fosa) o conservativo (falla transformante).

Esquema de las placas que componen el interior de la Tierra (Fuente: https://www.udc.gal/dep/dtcon/estructuras/ETSAC/Investigacion/Terremotos/tect%F3nica_de_placas.htm)

Según la teoría de la TECTÓNICA de PLACAS, desarrollada en detalle entre los años 1950–1970, y formulada a raíz de la teoría de la deriva continental desarrollada por Alfred Wegener en 1921. Estas placas rígidas (placas LITOSFÉRICAS) se deslizan sobre la ASTENOSFERA, ocasionando el movimiento de las placas que componen la litosfera. Se cree que el principal mecanismo de que origina el movimiento de la “placas LITOSFÉRICAS” es la convección térmica, comúnmente conocido como transferencia de calor desde el interior terrestre hacia la superficie, es decir las corrientes de convección darían lugar al desplazamiento de las diferentes “placas LITOSFÉRICAS” que componen la LITOSFERA.

Esquema mostrando la creacción y destrucción de corteza terrestre (Fuente: Encyclopædia Britannica; https://www.britannica.com/science/plate-tectonics/Earths-layers#/media/1/463912/3161)

De una forma muy básica, el calor asciende por las dorsales oceánicas dando lugar a que las placas se separen allí y creando nueva corteza. Por su parte, y debido a un enfriamiento este calor desciende por las fosas o márgenes destructivos de las “placas LITOSFÉRICAS”. Este descenso puede dar lugar a choques entre i) océano–continente; en cuyo caso la placa oceánica desciende se sumerge sobre la continental; ii) océano–océano, en este caso daría lugar a la formación de un arco de islas sobre la placa superior; iii) continente–continente, ocasionando a que la corteza terrestre se doble formando cadenas montañosas como consecuencia de la colisión. Este último explica la situación que ha dado lugar a la formación de la cordillera del Himalaya hace 55 millones años aproximadamente como consecuencia de la colisión entre la placa Índica y la Asiática.

En resumen, ¿Cómo y por qué? Las placas tectónicas se mueven a causa del movimiento de las placas litosféricas sobre la Astenosfera, por las celdas de convección térmica, es decir por transferencia de calor desde el interior terrestre hacia el exterior.

Si quieres saber más sobre este tema, en el siguiente vídeo se explica de una forma muy animada más sobre la evolución de la Teoría de la Tectónica de Placas:

PREGUNTAS CONCIENCIA #15:

¿Qué son los biocombustibles?

Los biocombustibles son carburantes que, en vez de obtenerse a partir del petróleo, se obtienen a partir de materia orgánica de origen vegetal o animal (biomasa). Dependiendo del origen, se clasifican en diferentes generaciones. Los biocombustibles de primera generación se obtienen a partir de plantaciones para consumo humano como la caña de azúcar, maíz o palma. El hecho de que exista una competencia entre la producción de estos carburantes y la producción de comida hace que no sean una solución viable a largo plazo. Los biocombustibles de segunda generación se obtienen a partir de residuos agrícolas como la lignocelulosa, madera o también a partir de residuos industriales, como los aceites. Los biocombustibles de tercera generación se obtienen a partir de algas que se pueden cultivar en granjas marinas con un mínimo impacto ambiental. La producción de estos carburantes lleva asociados unos altos requerimientos energéticos, así como la necesidad de un uso importante de fertilizantes lo que hace que, al igual que los de primera generación, no sean una opción viable a gran escala. Finalmente, los biocombustibles de cuarta generación son aquellos que se producen a partir de energía eléctrica y solar. Entre estos combustibles cabe destacar el hidrógeno que se obtiene mediante la ruptura de moléculas de agua con energía eléctrica en un proceso que se llama electrólisis.

Además del hidrógeno, entre los biocombustibles actualmente disponibles, los más importantes son el bioetanol y el biodiesel. El bioetanol se obtiene principalmente a partir de plantaciones de azúcar y cereales mediante fermentación, de un modo parecido al proceso de producción de bebidas alcohólicas de alta graduación. El bioetanol de segunda generación se obtiene a partir de residuos agrícolas con un alto contenido en celulosa. En ambos casos, en un primer paso, se lleva a cabo una digestión enzimática para romper la complicada red de enlaces químicos que contienen estas estructuras biológicas. Una vez obtenida una mezcla de azúcares más sencillos, se lleva a cabo la fermentación alcohólica seguida del proceso de destilación para obtener etanol. Por otro lado, el biodiesel es una mezcla de ésteres de ácidos grasos de, generalmente, entre 8 y 20 carbonos de longitud que se obtiene a partir de aceites industriales de desecho. Estos aceites están formados principalmente por triglicéridos que consisten en ácidos grasos unidos a glicerol. Mediante un proceso enzimático, estos triglicéridos se pueden romper con etanol para liberar los correspondientes ácidos grasos esterificados.

PREGUNTAS CONCIENCIA #14:

¿Cómo construían los romanos sus icónicos arcos?

Todos conocemos al poderoso imperio romano que dominó Europa y parte de Asia hace más de 2000 años. En su máximo apogeo, llegaron a controlar una vasta extensión de terreno que abarcaba desde la península Ibérica en el oeste hasta Babilonia en el Este (lo que ahora seria Irak) y desde todo el norte de África en el sur hasta Gran Bretaña, la mitad de la actual Alemania, Austria y la parte sur de Hungría y Rumanía. Fundado como tal en el 27 AC (antes de Cristo), estuvo vigente como una unidad hasta el 395 DC (después de Cristo), en que se separó en dos imperios, el de Occidente (que duró hasta el 480 DC) y el de Oriente o Imperio Bizantino (que sobrevivió hasta el 1453 DC), y es la cuna de la civilización actual. Los romanos fueron pioneros en diversos aspectos desde en ciencia y tecnología hasta en derecho civil y penal. Fueron los inventores, por ejemplo, del hormigón o la calefacción, desarrollaron los primeros sistemas de saneamiento y alcantarillado o los primeros edificios de apartamentos, pusieron en marcha los primeros periódicos y servicios de mensajería y elaboraron el llamado “Derecho Romano” que aún hoy en día es la base del derecho contemporáneo y los códigos civiles. E incluso fueron los que implantaron el calendario actual, el conocido como calendario juliano. Pero quizás, si por algo destacaron especialmente fue por sus habilidades arquitectónicas. Fueron los primeros en construir estructuras de una altura considerable y desarrollaron técnicas pioneras para la época. Uno de los elementos que más nos llama la atención son los arcos. De hecho, fueron los romanos los que los idearon siendo una de las claves de su gran desarrollo arquitectónico. Pero, ¿cómo eran capaces de construirlos sin la maquinaria pesada de hoy en día?

Esta es una pregunta que todo el mundo se ha hecho alguna vez porque uno se da cuenta rápido que los arcos no se sostienen por si mismos hasta que todas las partes que lo componen están en posición. Por lo tanto, requieren de una planificación y diseño que los romanos fueron capaces de desarrollar. Desde un punto de vista técnico, los arcos son estructuras muy resistentes y que ayudan a sostener grandes pesos, permitiéndoles ser la base para seguir la construcción encima. Su particular forma permite distribuir las cargas aplicadas desde la parte superior a la inferior siguiendo la forma del arco como se puede ver en la imagen adjunta. Para sustentar todo el conjunto se suelen adosar otros arcos, para equilibrarlos, muros de suficiente masa en los extremos, o un sistema de compensación mediante contrafuertes o arbotantes.

Para construirlos los romanos comenzaban por los pilares o pies derechos. Para ello empleaban bloques grandes que escuadraban y colocaban formando los pilares. Si los pilares eran muy grandes y quedaba mucho hueco en el medio, rellenaban el interior con mortero cementado con puzolana (materiales silíceos o alumino-silíceos a partir de los cuales se producía históricamente el cemento, desde la antigüedad romana hasta la invención del cemento Portland en el siglo XIX). Los pilares  se elevaban hasta el nivel deseado cuando se colocaban las las impostas, repisas salientes que marcaban el comienzo de los arcos. En ese momento, los canteros que se dedicaban al  trabajo en piedra, dejaban paso a los carpinteros que colocaban las cimbras, pieza clave en la construcción de los arcos. La cimbra es una estructura semicircular, normalmente hecha de madera que servia de soporte a las piezas del arco hasta que este estaba completo (ver imagen adjunta). No debemos confundir la cimbra con los encofrados actuales (de hecho, en Latinoamérica se sigue llamando cimbra a lo que en España llamamos encofrado). El encofrado implica hacer un «molde» normalmente para el hormigón, es decir, se cierran varias superficies con estructuras metálicas o madera para que el hormigón quede encerrado dentro con la forma deseada. La cimbra, por otro lado, es simplemente un soporte en el que las piezas se van colocando hasta que el arco esta completo.  Haría las veces de «superficie de apoyo». Así pues, las  piezas curvas del arco, previamente talladas minuciosamente por los canteros y denominadas dovelas, se colocaban una a una sobre la cimbra. Finalmente, el arco quedaba terminado cuando se colocaba la ultima pieza, la central, llamada clave (ver imagen adjunta con las distintas partes del arco indicadas).  Posteriormente, se retiraba la cimbra y arco quedaba listo. 

Para izar los bloques empleaban grúas, movidas por esclavos, situados dentro de una rueda. Extraían la piedra en canteras próximas, donde cuadrillas de canteros especializados tallaban con cinceles los sillares. Otras cuadrillas de obreros se encargaban del transporte en carretas hasta la obra.  

PREGUNTAS CONCIENCIA #13:

¿Qué es la antimateria?

Seguro que muchos de vosotros recordáis la película “Ángeles y Demonios” dirigida por Ron Howard y protagonizada por Tom Hanks (Robert Langdon) y estrenada en 2009. Basada en una novela homónima de Dan Brown, en ella un grupo de “Illuminati” pretende vengarse por las afrentas pasadas de la iglesia católica eliminandola por completo destruyendo su centro neurálgico: San Pedro del Vaticano. Para ello cuentan con una poderosa bomba de antimateria o «partícula divina» que fue robada del CERN inmediatamente después de su producción. En la película, la antimateria es un gramo de sustancia peligrosa, depositada en una pequeña caja que sería capaz de hacer explotar a toda la Ciudad del Vaticano. Al final (alerta spoiler), como no podía ser de otro modo, Robert Langdon descubre dónde se esconde la bomba y la hace estallar de forma espectacular en el cielo por encima de la Basílica de San Pedro. Ahora bien, ¿hay algo de verdad en todo esto? ¿Es pura ficción o realmente existe la antimateria y podría usarse para fabricar bombas que aniquilarían ciudades enteras? Y lo que es más importante, si existe, ¿qué es la antimateria?

Empecemos por responder de forma rápida y orden a las preguntas anteriores antes de detenernos en la última y más importante. Si, hay parte de verdad en la película y no es todo ficción. Existe la antimateria y, de hecho, se produce rutinariamente en el CERN (Ginebra, Suiza). Pero no, no se puede usar para fabricar bombas (no, al menos, en las cantidades en que somos capaces de producirla hoy en día). Ahora bien, ¿qué es la antimateria?

Para entender el concepto de antimateria debemos entender primero lo que es la materia. Es difícil de explicar en pocas palabras lo que es la materia. Se podría decir que es todo aquello que nos rodea, aquello que podemos “tocar”. Mas en concreto aquello que ocupa un espacio y tiene masa, forma, peso y volumen, por lo tanto, se puede observar y medir. Es decir, todo lo que nos “rodea” es materia. Bueno, todo no, pues existen pequeñísimas cantidades de lo que conocemos como antimateria. El prefijo “anti-” ya nos indica que la antimateria es lo contrario de la materia. En este contexto “contrario” significa “carga opuesta”. Y es que las partículas de antimateria son idénticas en todos los sentidos a las de la materia, pero tienen carga eléctrica opuesta. Por ejemplo, la partícula de “materia” electrón tiene una masa de 9,1. 10-31 kg y una carga eléctrica negativa de −1,6.10−19 Culombios (C), mientras que su versión de antimateria, el positrón, tiene la misma masa, pero una carga positiva de +1,6.10−19 Culombios (C).

El descubridor de la antimateria, desde un punto de vista teórico, fue el físico inglés Paul Dirac que en 1928 desarrolló una teoría que combinaba la mecánica cuántica y la relatividad especial de Einstein para explicar de forma más completa las interacciones de los electrones cuando se mueven a velocidad relativista (cercana a la velocidad de la luz). La ecuación básica que derivó, denominada ecuación de Dirac (y que le valió el premio Nobel de Física en 1933), resultó tener dos soluciones, una positiva y otra negativa. Una de ellas era para el electrón (negativa) conocido ya en aquella época. Pero la positiva era un poco desconcertante pues parecía describir algo con carga positiva y por lo tanto implicaba la existencia de otra partícula contraria al electrón y con carga positiva, es decir, la partícula de antimateria positrón. Luego, en 1932, se demostró que estaba en lo cierto, pues este mismo año Carl Anderson descubrió el positrón cuando se encontraba estudiando los rayos cósmicos (lo que también la valió para ganar el premio Nobel de Física en 1936).  

Durante los últimos 50 años, laboratorios como el CERN han producido rutinariamente antipartículas siendo el CERN en 1995 el primer laboratorio en crear antiátomos artificialmente. Sin embargo, hay un hecho que realmente intriga a los científicos. La cuestión es que, hasta ahora, nadie ha producido jamás antimateria sin obtener también las correspondientes partículas de materia. Esto significa que, si es imposible producir antimateria sin a su vez producir materia y extrapolamos esta situación al origen del universo, el conocido como Big Bang, el escenario debería haber sido el mismo. Es decir, durante el nacimiento del Universo en el Big Bang, se habrían producido cantidades iguales de materia y antimateria. Sin embargo, como hemos dicho, existe mucha más materia que antimateria. Es precisamente esta falta de la esperada simetría materia-antimateria una de las cuestiones sin respuesta que los físicos tratan de resolver desde hace muchos años.

De hecho, podemos ir más allá con nuestras preguntas si atendemos al siguiente hecho. Las partículas de antimateria son muy escasas y muy difíciles de detectar. Esto ocurre porque cuando una partícula y su antipartícula se unen, ambas desaparecen, literalmente en un instante, ya que el proceso de aniquilación transforma su masa en energía. Si esto es así y la materia y la antimateria se aniquilan, y nosotros y todo lo demás estamos hechos de materia, ¿por qué seguimos existiendo? O sea, vivimos en un Universo hecho exclusivamente de materia, pero si al principio había la misma cantidad de ambas ¿Por qué no se aniquilaron por completo en el momento del Big Bang? ¿Quizás esta antimateria todavía existe en otro lugar? De lo contrario, ¿a dónde fue y qué le sucedió en primer lugar?

Tales preguntas han llevado a teorías especulativas, desde una ruptura en las reglas hasta la existencia de un anti-Universo completo en otro lugar. Otra posible explicación es que existe otra fuerza en la naturaleza, aún no descubierta, que no es simétrica entre materia y antimateria, es decir, tiene diferentes efectos sobre la materia y la antimateria. Sin embargo, la explicación quizás mas aceptada hoy en día sea la que dice que la interacción nuclear débil (interacción entre partículas que causa la desintegración de las partículas de los átomos (protones, neutrones y electrones) para dar otras partículas diferentes) en realidad puede distinguir entre partículas de materia y antimateria «favoreciendo» de algún modo a la primera. Los que parece que está claro a tenor de las evidencias observadas es que las leyes de la naturaleza no se aplican por igual a la materia y la antimateria y los físicos están ansiosos por descubrir las razones.

PREGUNTAS CONCIENCIA #12

¿Cuál es el origen de la diferencia de tamaño en los perros? Es decir, ¿porque hay razas de perros pequeños y otras de perros grandes?

Esta es una pregunta que muchos de nosotros nos hemos hecho alguna vez. Cuando vemos un chihuahua y lo comparamos con un gran danés, nos damos cuenta de que la diferencia de tamaño es enorme. Y esto no suele ser tan obvio en la mayoría de las especies de animales. Podemos pensar un muchos y llegaríamos a la conclusión de que las diferencias de tamaño entre razas no son tan abismales. De hecho, los perros difieren más en tamaño que cualquier otra especie de mamífero en el planeta.

Los perros antiguos, domesticados de los lobos en los últimos 30.000 años, diferían en tamaño hasta cierto punto. Pero las enormes diferencias de tamaño actuales (las razas más grandes son hasta 40 veces más grandes que las más pequeñas) surgieron en los últimos 200 años, cuando los humanos establecieron las razas modernas. Para explicar esta característica diferencial de los perros, un grupo de científicos liderados por Elaine Ostrander, genetista del Instituto Nacional de Investigación del Genoma Humano de EE. UU. en Bethesda (Maryland, EEUU), y por Jocelyn Plassais, genetista del INSERM-Universidad de Rennes (Francia), analizaron los genomas de más de 1400 cánidos, incluidos perros antiguos, lobos, coyotes y 230 razas de perros modernas.

Los científicos han rastreado una mutación detrás de la cual se esconde esta variación y han llegado a una conclusión inesperada: la mutación proviene de los antiguos lobos antiguos. Dicha mutación se encuentra cerca de un gen llamado IGF1, que los investigadores señalaron hace 15 años como un factor importante en la variación de tamaño de los perros domésticos. Fue el primero de alrededor de dos docenas de tales genes identificados. Pero los esfuerzos para identificar la variante genética responsable de las diferencias de tamaño no dieron resultado en un primer estudio llevado a cabo en 2007.

En este segundo estudio, cuando compararon la variación en la región alrededor del gen IGF1 con el tamaño corporal en perros y cánidos salvajes, se destacó una variante. Se encuentra en un tramo de ADN que codifica una molécula llamada ARN largo no codificante, que participa en el control de los niveles de la proteína IGF1, una potente hormona del crecimiento. Los investigadores identificaron dos versiones, o alelos, de la variante. En todas las razas, los perros con dos copias de un alelo tendían a pesar menos de 15 kilogramos, mientras que dos copias de la otra versión eran más comunes en perros que pesaban más de 25 kilogramos. Los perros con una copia de cada alelo tendían a ser de tamaño intermedio. Los perros con dos copias del alelo de cuerpo grande también tenían niveles más altos de la proteína IGF1 en la sangre, en comparación con los que tenían dos copias del alelo “pequeño». Cuando los investigadores observaron los genomas de otros cánidos, encontraron una relación similar. Por lo tanto, esta no era solo una historia de perros sino que se repite en el caso de los lobos, los zorros o los coyotes.

Los investigadores creen que el alelo vinculado a los cuerpos pequeños es, evolutivamente, mucho más antiguo que la versión de cuerpo grande. Los coyotes, chacales, zorros y la mayoría de los otros cánidos que analizaron tenían dos copias de la versión «pequeña», lo que sugiere que esta versión estaba presente en un ancestro común de estos animales. Lo que no está claro es cuándo evolucionó el alelo de cuerpo grande. Los investigadores encontraron que un antiguo lobo que vivió en Siberia hace unos 53.000 años portaba una copia de esta versión. Otros lobos antiguos y los lobos grises modernos tienden a tener dos, lo que sugiere que el alelo de cuerpo grande podría haber sido beneficioso para los lobos. La opinión predominante entre los científicos solía ser que el tamaño corporal pequeño probablemente estaba relacionado con cambios genéticos relativamente nuevos, potencialmente exclusivos de los perros doméstico pero este nuevo estudio le da la vuelta a toda la historia. El estudio podría ser una indicación de que los perros fueron domesticados a partir de lobos de cuerpo más pequeño, diferentes a las poblaciones actuales de lobos grises.

Los investigadores también advierten que la historia del tamaño del perro está lejos de ser completa. Plassais quiere averiguar cómo las variantes influyen en los niveles de la proteína IGF1. Y la variante no es el único determinante del tamaño en los perros: el gen IGF1 en sí mismo representa alrededor del 15 % de la variación entre razas. Al fin y al cabo, no es que una mutación haga que un lobo sea del tamaño de un chihuahua sino que es simplemente una de las muchas mutaciones que tiende a hacerte un poco más pequeño.

PREGUNTAS CONCIENCIA #11

Si como todo hace indicar el COVID-19 se va a convertir en una endemia, ¿significa esto qué va a ser inofensivo?

Hace unos días, en otro post comentábamos que muy probablemente la actual pandemia de COVID19 pasara a ser en un futuro cercano considerada como una endemia (enfermedad que permanece en el tiempo y afecta a una región o grupo de población claramente definidos, como por ejemplo la gripe estacional que aparece periódicamente y afecta a grupos grandes de población). Ahora bien, ¿el hecho de que sea considerada como endemia significa que deja de ser peligrosa? 

La respuesta a esta pregunta depende mucho de lo que consideremos como “peligroso”. Si catalogamos solamente como peligrosas aquellas enfermedades cuya tasa de mortalidad (número de personas que fallecen respecto al numero de infectados) es alta, entonces la respuesta es que si, el COVID19 dejara de ser peligroso porque matara a mucha menos gente que a día de hoy. Pero si definimos cómo peligrosas aquellas enfermedades que son potencialmente mortales, especialmente para determinados grupos de población, la respuesta cambia: el COVID19 seguirá siendo peligroso y preocupante. Esta ultima respuesta puede resultar un poco chocante máxime cuando todos estamos viendo la luz al final del túnel de la pandemia actual. Sin embargo, una solo tiene que mirar los datos de muertes anuales de enfermedades que consideramos “inofensivas” para darse cuenta que, en realidad, no lo son tanto. Por ejemplo, la gripe común, esa a la que todos le quitamos importancia mata anualmente a entre 290000 y 650000 personas al año. La malaria, que tampoco esta vista cómo algo preocupante mato a 600000 personas en 2020. Esto son solo dos ejemplos de que las endemias pueden resultar potencialmente mortales. Es cierto que muchas veces no les damos la importancia que merecen porque a las personas jóvenes y sanas no les afecta demasiado, pero eso no quita para que en ciertos grupos de población y en personas de riesgo puedan ser potencialmente mortales.

Este parece ser el camino del COVID19, convertirse en algo parecido a una gripe o a un resfriado común. Pero también, y no lo olvidemos, en algo parecido a fiebre de Lassa (fiebre hemorrágica causada por el Lassa virus que se transmite a los humanos a través del contacto con rata común africana u objetos domésticos que resulten ser contaminados por los excrementos de la misma o a través del contacto directo con sangre u otros líquidos corporales de los enfermos), la malaria o la poliomielitis, todas ellas también enfermedades endémicas. son endémicos Otras de las que era también endémica era la viruela, pero por suerte las vacunas la erradicaron. 

Afirmar que una infección se volverá endémica no dice nada sobre cuánto tiempo puede llevar alcanzar la estabilidad de casos, cuales serán las tasas de mortalidad o, lo que es más importante, qué parte de una población y qué sectores serán susceptibles. Tampoco sugiere una estabilidad garantizada a largo plazo: todavía puede haber oleadas de infecciones endémicas, cómo se vio con el brote de sarampión en EE. UU. en 2019. Las políticas de salud y el comportamiento individual determinarán qué forma, entre muchas posibilidades, adopta la COVID-19 endémica y cuánto tardamos realmente en alcanzar este estado. 

Obviamente la vida tiene que volver a la normalidad cuanto antes. Pero esta vuelta debe hacerse asumiendo que va a seguir habiendo cierto número de muertos y enfermedades graves como ocurre, por ejemplo, cada ano con la gripe. Pensar en un numero de muertos cero no es realista y significaría seguir viviendo con restricciones indefinidamente. Esto significa que los grupos de riesgo van a tener que tener precaución (de hecho, ya se hace hoy en día y las personas mayores evitar “coger frio” o estar en contacto con otros enfermos para evitar las gripes). Pero sobre todo lo que se debe de evitar es que aparezcan nuevas variantes más peligrosas que nos devuelvan a la casilla de salida. Y para ello debemos usar, a nivel mundial, las formidables armas disponibles de que disponemos: las vacunas y los medicamentos antivirales. El uso de las vacunas, las cuales mejorar con el tiempo para que protejan contra una gama más amplia de variantes, y los antivirales deben ser nuestro escudo contra nuevas y peligrosas variantes. 

Por último, vale la pena mencionar que la mejor manera de evitar que surjan más variantes, más peligrosas o más transmisibles es detener la propagación descontrolada y eso requiere, de manera crucial, la equidad de la vacuna. Cuanto más se replique un virus, mayor será la probabilidad de que surjan variantes problemáticas, muy probablemente donde la propagación sea mayor. La variante Alpha se identificó por primera vez en el Reino Unido, Delta se encontró por primera vez en India y Ómicron en el sur de África, todos los lugares donde la propagación era descontrolada. Por ello, cuanto antes hagamos llegar las vacunas a todos los rincones del mundo, menor será el riesgo. 

En definitiva, pronto volveremos a la vida sin restricciones asociadas al COVID-19, pero pensar que la enfermedad va a desaparecer o qué va a dejar de matar es engañarse a uno mismo. Debemos ser conscientes de que el paso a una endemia no implica que la enfermedad vaya a ser inofensiva. La protección de las personas de riesgo haciendo uso, como ya se hace hoy en día anualmente en el caso de la gripe, de las vacunas será fundamental para evitar tasas de mortalidad altas en los grupos de población de riesgo. Es muy importe que tengamos en cuenta que la endemia no significa riesgo cero. Pero implica una vuelta a la normalidad que todos ansiamos desde hace dos años. Y por supuesto, no olvidemos que hemos llegado a la situación actual gracias a las vacunas y que debemos seguir insistiendo en la vacunación global para que, aunque tengamos la endemia con nosotros, los riesgos para todo el mundo sean mínimos. 

PREGUNTAS CONCIENCIA #10

¿Cual es el cometido del telescopio espacial James Webb?

El Telescopio Espacial James Webb inicia una nueva era en la astronomía. Supone la mayor apuesta de la humanidad hasta el momento en su empeño por desentrañar los misterios del Universo. El telescopio fue lanzado al espacio a las 9:20 a. m. (hora local) del pasado 25 de diciembre desde el centro espacial que la Agencia Espacial Europea (ESA por sus siglas en inglés) posee en Kourou (Guayana Francesa). Este evento culmina décadas de trabajo de astrónomos de todo el mundo. De hecho, los primeros bocetos de lo que se convertiría en Webb surgieron en un taller del Instituto de Ciencias del Telescopio Espacial en Baltimore (Maryland, EEUU) en 1989. Esto era el año anterior al lanzamiento del Telescopio Espacial Hubble, y los científicos ya estaban pensando en cómo dar continuidad a este. Finalmente, estos primeros esbozos se convirtieron en planes sólidos para la construcción de un telescopio espacial con un espejo primario de 6,5 metros de ancho (casi tres veces el tamaño del Hubble), y compuesto por 18 segmentos hexagonales. Este espejo primario es tan grande que debió plegarse como origami durante el lanzamiento y deberá desplegarse una vez en el espacio. Para mantener el telescopio lo suficientemente frío como para que pueda operar, se incluyó un parasol en forma de cometa del tamaño de una cancha de tenis y hecho de cinco capas recubiertas de aluminio que bloquean el calor del Sol.

Inicialmente el proyecto para su construcción era de 1000 millones de dólares. Sin embargo, y como suele pasar en este tipo de proyectos, la evaluación de costos inicial fue muy inferior al costo final. Y es que el telescopio más los gastos operativos van a ascender a más 11000 millones de dólares, la mayor parte aportados por la NASA (hasta ahora 9700 millones + otros 800 millones en los próximos años para su operación) pero con participación de la ESA que aportó 700 millones de euros (810 millones de dólares al cambio) y de la Agencia Espacial Canadiense (CSA por sus siglas en ingles) que contribuyó con 200 millones de dólares canadienses (160 millones de dólares). Sin embargo, este enorme desembolso está totalmente justificado para la comunidad científica pues catalogan al Webb como “el comienzo de una de las misiones más asombrosas que la humanidad haya concebido”.

El Telescopio Espacial Hubble de la NASA ha estado estudiando el Universo desde 1990 y las imágenes que ha podido obtener han contribuido a transformar nuestra comprensión del cosmos en los últimos 31 años. El Webb fue concebido como el sucesor del Hubble y es, aproximadamente, 100 veces más poderoso que su predecesor. Por lo tanto, todas las esperanzas para seguir ampliando el conocimiento y revelar aspectos previamente ocultos del Universo están puestas en él. El Webb trabajara desde una posición muy especifica del espacio conocida como L2 y a la cual ha llegado el pasado 25 de enero. Esta posición denominada punto de Lagrange (uno de los 5 que hay) es particularmente buena para observatorios astronómicos. Esta posición permite mantener al Sol, la Tierra y la Luna detrás del telescopio todo el tiempo y no tener la vista tapada por la Tierra gran parte del tiempo como pasó con el Hubble. La otra gran ventaja de L2 es que hace frío. Las misiones en órbita terrestre entran y salen de la luz solar en cada órbita, experimentando grandes cambios de temperatura que hacen que los equipos se expandan y contraigan. Los instrumentos científicos que tienen que permanecer fríos para para ser precisos funcionan mejor en L2, donde la temperatura es mucho más estable. Los cuatro instrumentos científicos de Webb operan a temperaturas de alrededor de -233 °C, o 40 grados por encima del cero absoluto, para detectar débiles destellos de calor provenientes de estrellas, galaxias y otros objetos cósmicos. Estos denominados puntos de Lagrange llevan el nombre de su descubridor, el matemático Joseph-Louis Lagrange, quien en 1772 los descubrió como lugares donde un cuerpo pequeño puede orbitar junto con dos masas más grandes. Eso hace que L1 y L2, los puntos de Lagrange más cercanos a la Tierra, sean lugares obvios para explotar para la exploración espacial. Una vez en L2, el Webb continuará con un periodo de “aclimatación” pues sus equipos deben enfriarse a la temperatura de operación, proceso que durara unos 100 días. A continuación, se realizará el alineamiento del telescopio que tardara otros 20 días y después durante los siguiente 4 meses se irán calibrando los diferentes instrumentos de medida. Así pues, esperamos las primeras imágenes en unos 6 meses, para finales de junio o principios de julio.

El cometido científico del Webb se centrará en seguir avanzando en nuestra compresión del Universo y sus orígenes. Para ello, examinará cada fase de la historia cósmica: desde los primeros destellos luminosos después del Big Bang hasta la formación de galaxias, estrellas y planetas y la evolución de nuestro propio sistema solar. Sus objetivos científicos del Webb se pueden agrupar en cuatro temas:

-El fin de la edad oscura: la primera luz y la reionización. El Webb será una poderosa máquina del tiempo con visión infrarroja que mirará hacia atrás durante 13.500 millones de años para ver las primeras estrellas y galaxias formándose a partir de la oscuridad del universo primitivo. Después del Big Bang, el universo era como una sopa caliente de partículas (es decir, protones, neutrones y electrones). Cuando el universo comenzó a enfriarse, los protones y neutrones comenzaron a combinarse en átomos ionizados de hidrógeno (y eventualmente algo de helio). Estos átomos ionizados de hidrógeno y helio atrajeron electrones, convirtiéndolos en átomos neutros, lo que permitió que la luz viajara libremente por primera vez, ya que esta luz ya no dispersaba electrones libres y el universo dejara de ser oscuro. Sin embargo, todavía pasaría algún tiempo (quizás hasta unos pocos cientos de millones de años después del Big Bang) antes de que comenzaran a formarse las primeras fuentes de luz, poniendo fin a las edades oscuras cósmicas. Se desconoce cómo era esta primera luz que apareció en el universo (es decir, estrellas que fusionaron los átomos de hidrógeno existentes en más helio), y no se sabe exactamente cuándo se formaron estas primeras estrellas. Estas son algunas de las preguntas que Webb fue diseñado para ayudarnos a responder.

-Conjuntos de galaxias. La sensibilidad infrarroja sin precedentes de Webb ayudará a los astrónomos a comparar las galaxias más débiles y tempranas con las grandes espirales y elípticas actuales, ayudándonos a comprender cómo se ensamblan las galaxias durante miles de millones de años. Las galaxias nos muestran cómo se organiza la materia en el universo a gran escala. Para comprender la naturaleza y la historia del universo, los científicos estudian cómo está organizada actualmente la materia y cómo ha cambiado esa organización a lo largo del tiempo cósmico. De hecho, los científicos examinan cómo se distribuye la materia y cómo se comporta en múltiples escalas de tamaño. Desde observar la forma en que se construye la materia a nivel de partículas subatómicas hasta las inmensas estructuras de las galaxias y la materia oscura que se extienden por el cosmos, cada escala nos brinda pistas importantes sobre cómo se construye y evoluciona el universo.

-El nacimiento de las estrellas y los sistemas protoplanetarios. El Webb podrá ver a través y dentro de las enormes nubes de polvo que son opacas para los observatorios de luz visible como el Hubble, donde nacen las estrellas y los sistemas planetarios. Hay muchas estrellas que el Hubble no puede ver porque las nebulosas compuestas de polvo cósmico no permiten pasar la luz. Con la luz infrarroja se revela más estructura dentro de las nubes de polvo y ahora se hacen evidentes las estrellas ocultas.

-Los sistemas planetarios y los orígenes de la vida. Desde hace años se han ido encontrando miles de exoplanetas (y en todo tipo de sistema estelar imaginable), y continuamos acercándonos a planetas más pequeños y más parecidos a la Tierra. Por ello, uno de los principales usos del Webb será estudiar las atmósferas de los exoplanetas, para buscar los componentes básicos de la vida en otras partes del universo. Además de otros sistemas planetarios, el Webb también estudiará objetos dentro de nuestro propio Sistema Solar.

Se espera que Webb funcione durante al menos cinco años y quizás hasta diez, dependiendo de la cantidad de combustible que utilice para orientarse en el espacio. Después de muchos años de espera, los astrónomos están más que listos para que Webb recoja el testigo de los descubrimientos del Hubble.

PREGUNTAS CONCIENCIA #9

¿Cómo se hereda el color de los ojos?

Ejemplos de distintos colores de ojos en la especia humana.

Toda la información para construir un ser humano se almacena en una importante estructura presente en nuestras células y que se denomina núcleo. Así, en el núcleo celular están las instrucciones para ser lo que somos. Esta información, denominada “información genética” y que heredamos a partes iguales de nuestra madre y de nuestro padre, está codifica en el núcleo de las células por una molécula denominada ADN -abreviatura de ácido desoxirribonucleico-. La cantidad de información que porta el ADN es inmensa, y tiene que estar perfectamente organizada para ser correctamente interpretada por nuestras células. De esta manera, la información se estructura en genes, es decir, fragmentos de ADN que contienen las instrucciones para llevar a cabo una determinada función biológica.

La parte coloreada del ojo se denomina iris, y es una estructura que rodea la pupila y se encarga de filtrar la luz que penetra en nuestros órganos visuales. El color del iris, que va desde el azul claro al marrón oscuro, viene determinado por la cantidad, y calidad, del pigmento melanina que se almacena en el mismo. De esta manera, los ojos marrones tendrían alta cantidad de melanina y, por el contrario, los ojos azules claro tendrían muchísima menos cantidad de este pigmento.

A nivel molecular, el color del iris lo determinan los genes que se encargan de producir, transportar y almacenar la melanina en nuestros ojos. A modo de ejemplo, los genes OCA2 y HERC2, tienen un papel muy importante, pero se han identificado una gran cantidad de genes que también participan en el proceso. Es lo que se denomina, en términos técnicos, “herencia poligénica”, es decir, influenciada por muchos genes y no solamente por uno solo. Pero, ¿por qué existe todo un rango de colores del iris?, ¿por qué el color de los ojos cambia de una persona a otra? La respuesta a esta pregunta es sencilla: porque los genes de cada ser humano son diferentes. Cada uno de nosotros heredamos una combinación única de estos genes por parte de nuestros progenitores, que nos transmiten a través del óvulo y del espermatozoide, y es esa combinación específica la que determina el color de nuestros ojos. De esta manera, es muy difícil predecir el color de los ojos de un hijo a partir del de sus padres, ya que es un proceso complejo en el que participan muchos genes; y pequeños cambios en estos últimos pueden producir, en algunos casos, grandes variaciones en el color de los ojos.