LA TIERRA EN DIRECTO DESDE LA ESTACION ESPACIAL INTERNACIONAL

jueves, 25 de mayo de 2017

LHS 1140b es el mejor candidato para albergar vida

Un nuevo exoplaneta posiblemente representa el mejor caso conocido hasta la fecha para ser un planeta habitable.

Foto
El descubrimiento de planetas posiblemente habitables se está conviertiendo ya en algo rutinario.
El último caso que acabamos de conocer es el de LHS 1140b, una supertierra que orbita en la zona habitable de la enana roja LHS 1140. Esta estrella se encuentra en dirección a la constelación de Cetus a sólo 40 años luz de distancia a nosotros.
Como otros casos similares de enanas rojas, el planeta está muy cerca de su estrella, que es mucho más fría que el Sol. En este caso la distancia es de una décima de una unidad astronómica y su año dura sólo 25 días terrestres.
La presencia de este planeta se ha confirmado tanto por el método del tránsito como por el de velocidad radial. Esto significa que se cuenta con los parámetros astronómicos, su tamaño y su masa, con sus respectivas barras de error. Se calcula que tiene una masa de 6,65 ± 1,82 veces la de nuestro planeta y un radio 1,4 ± 0,10 veces el de la Tierra. Estos datos implican una alta densidad, por lo que podría ser un planeta rocoso que tuviera un alto contenido en hierro y níquel. Se calcula que este contenido metálico sería de un 70% en vez del 30% como en la Tierra. Debido al inevitable proceso de diferenciación el planeta tiene que tener un núcleo muy grande.
Según Jason Dittmann (Harvard-Smithsonian Center for Astrophysics) es el exoplaneta más excitante con el que se ha encontrado en los últimos 10 años. “No podríamos esperar mejor blanco para responder la gran pregunta de la ciencia, si hay vida más allá de la Tierra”, añade.
El lector se preguntará a qué viene tanta excitación si conocemos casos similares. La clave está en el tipo de estrella alrededor de la cual orbita: una enana roja. Este tipo de estrellas es abundante y, además, es relativamente fácil detectar planetas en este tipo de estrellas debido al sesgo que tienen los métodos de detección, que, recordemos, con ninguno se ve al planeta. Este tipo de estrellas tienen una vida muy larga que permitiría la habitabilidad durante billones de años, pero lo malo es que tienen infancias muy activas con fuertes tormentas que envían altas dosis de radiación y partículas al espacio. Un planeta situado además tan cerca puede quedarse incluso sin atmósfera debido a esta característica. La posible vida no resistiría tanta radiación, incluso aunque sobreviva la atmósfera.
Sin embargo, LHS 1140 rota despacio y emite menor radiación que otras estrellas de masa similar. Además, la alta densidad del planeta, deducida de los datos disponibles, sugiere que LHS 1140b tiene que tener un gran núcleo de hierro, como hemos mencionado antes, por lo que tendría un potente campo magnético que le protegería de las partículas cargadas del viento solar de la estrella. Así que su atmósfera podría sobrevivir, sobre todo si tenemos en cuenta su campo gravitatorio intenso, que ayudaría también a retener mejor los gases que la compongan. El gran tamaño del planeta permite una actividad tectónica muy extensa en el tiempo, por lo que se garantiza este campo, los ciclos de algunos elementos y el termostato de dióxido de carbono durante billones de años.
LHS 1140b entró, desde la zona demasiado cálida en la zona habitable unos cuarenta millones de años tras la formación del sistema, un tiempo corto, y no habría dado tiempo a la perdida de atmósfera y a un efecto invernadero descontrolado. Simplemente, la tectónica habría proporcionado otra vez los gases y agua suficientes en caso de pérdida. Por tanto, la vida podría haberse iniciado pronto. Encima el planeta tendría ya más 5000 millones de años, por lo que habría dado tiempo a esa vida a evolucionar sobre su superficie.
Pero hay muchos interrogantes sobre este caso. Al no tener datos espectrales no sabemos si tiene atmósfera y cuál es su composición. Si la rotación del planeta está sincronizada con su periodo orbital enfrentará una misma cara a su estrella. Este aspecto no se considera un problema, pues la circulación atmosférica puede repartir el calor, pero puede limitar y mucho la intensidad del campo magnético. A esto se suma que, más allá de los modelos computacionales, no tenemos ni idea de cómo son las supertierras, pues no contamos con ninguna en el Sistema Solar.
En estos casos siempre hay mucho optimismo al principio y al final estudios más detallados terminan siendo jarros de agua fría sobre ese optimismo. Recordemos que al principio se dijo que TRAPPIST-1 contenía tres o cuatro planetas en su zona de habitabilidad. Ahora parece que esa cifra se rebaja a sólo uno.
Próximas observaciones por parte del telescopio Hubble pueden aclarar mejor algunos aspectos de LHS 1140b, como la exacta actividad de radiación de alta energía que cae sobre él desde su estrella.
Los investigadores implicados esperan usar el VLT del ESO, que con sus 8 metros quizás permita tomar espectro de la atmósfera de LHS 1140b.
Cuando el Telescopio Extra grande del ESO entre en operación se podrá caracterizar su atmósfera en detalle, por lo que sabremos si hay posibilidades de vida o si se descarta este punto, si el Giant Magellan Telescope (GMT) no lo hace antes. El James Webb también ayudará en esta tarea. La presencia de oxígeno y otros bioindicadores sería una noticia estupenda.
¿Cuándo podremos decir algo sobre este asunto acerca de planetas que orbiten estrellas de clase espectral K o clase espectral G como el Sol? No los sabemos, pero la tecnología necesaria parece que, de momento, está lejos, sobre todo desde el punto de vista financiero.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=5485

Se está planeando una misión a Plutón

El equipo de Alan Stern se plantea diseñar una misión que envíe un orbitador e incluso un aterrizador a Plutón.

Foto
En un mundo falto de recursos parece un derroche la exploración espacial, pero sucede si sólo nos fijamos en presupuestos finales y no a lo que sale por habitante.
Al parecer a cada norteamericano le sale la exploración espacial al mismo precio que una o dos entradas de cine al año (posiblemente sin palomitas). También hay margen para el ahorro. La exitosa misión india a Marte costó menos que el presupuesto de la película “The martian”.
Puede que nos parezca precipitada una nueva misión a Plutón cuando aún estamos bajo la resaca de los resultados de la New Horizons. Pero puede que precisamente sea ahora, con la euforia, el mejor momento de planear algo así apara así conseguir la financiación. Al fin y al cabo, se tardan muchos años en diseñar y enviar una sonda de este estilo.
“La próxima misión a Plutón más apropiada es un orbitador, quizás equipado con un aterrizador si tuviéramos suficiente financiación”, ha dicho Alan Stern, investigador principal de la misión New Horizons.
El equipo de New Horizons se ha reunido para hablar sobre esa próxima (¡ojalá!) misión a Plutón. Hay otro grupo que también ha hecho lo mismo.
La realidad es que los resultados de esta misión nos dejaron con la boca abierta y sin saber cómo es la otra cara de Plutón.
Posiblemente Stern tenga razón y lo ideal sería enviar un orbitador. Lo malo es que Plutón está muy lejos y tiene un campo gravitatorio muy débil. Si se va rápido se llega antes, pero si la velocidad es muy elevada entonces ese campo no retiene la sonda lo suficiente como para que entre en órbita. Por tanto, hay que frenar antes de llegar y frenar mucho si se va muy deprisa. ¿Cómo se podría entonces enviar allí una misión en un tiempo razonable?
Una posibilidad es usar el futuro cohete SLS (Space Launch System) de la NASA, un lanzador pesado que en su versión más potente podría poner en órbita casi tanta carga (130 toneladas) como el Saturno V (sí, después de 50 años no hemos sido capaces de hacer algo mejor). La versión block 1, capaz de poner 70 toneladas en LEO, será la primera en entrar en servicio.
El SLS podría ser suficiente para este tipo de misión a Plutón. En este caso, podría llevar todo el combustible químico para acelerar y desacelerar con un lanzamiento, pero esta idea es tildada de demasiado cara por Stephen Fleming (inversor de XCOR Aerospace y Planetary Resources).
Stern estudia usar el SLS pero, para frenar, la nueva misión usaría motores iónicos alimentados eléctricamente por el plutonio de unos RTG (Radioisotope Thermoelectric Generator), pues a esas distancias la luz solar es tan débil que la energía fotovoltaica sería insuficiente. Este tipo de propulsión se ha usado con éxito en la misión Dawn a Ceres.
Pero el plutonio-238 para estos RTG es muy caro y escaso. De hecho, hasta hace poco EEUU no disponía de un reactor que lo produjera y “vivía” de las reservas del pasado. Algunas misiones se han visto abocadas a usar paneles solares incluso en donde llega poca luz solar, como Juno. Por otro lado, el róver Curiosity usa RTG, aunque a Marte llegue suficiente luz.
Stern calcula que con el SLS y este tipo de frenado, una misión a Plutón necesitaría de dos años para frenar. El tiempo total del viaje sería de 7,5 años, que serían dos años menos que lo que empleó la misión New Horizons que sólo efectuó un sobrevuelo.
Hay una propuesta de propulsión termonuclear actualmente en estudio en fase 1 en la NASA bajo el NIAC (Innovative Advanced Concepts). Es posiblemente la opción más excitante en cuanto a propulsión, pero también la menos realista. Un sistema DFD (Direct Fusion Drive) de este tipo permitiría el viaje a Plutón en sólo 4 años para una misión que colocase de 1000 a 8000 kilos en órbita del planeta enano. Este sistema se ha venido desarrollando durante 15 años en el Princeton Plasma Physics Laboratory. Pero, pese al optimismo de Universe Today, la posibilidad de fusionar nuclearmente un plasma de deuterio y helio-3 y usarlo como sistema de propulsión está muy lejos. Eso sí, sería estupendo que se consiguiera, tanto para una misión a Plutón como para una misión tripulada a Marte.
Otra manera exótica de llegar a Plutón, esta vez también sin parar, sería usar velas láser al modo de la propuesta Breakthrough Starshot. Láseres en Tierra podrían impulsar un cubesat a Plutón y otros lugares del Sistema Solar exterior. De nuevo, esto está lejos de poderse financiar.
Por tanto, que algunos lleguemos a ver la faz oculta de Plutón dependerá del SLS, de un poco de plutonio y mucha voluntad política para financiarlo.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=5493

Habitabilidad en luna heladas recalentadas

Calculan por cuánto tiempo mantendrían una atmósfera y océanos lunas como Ganimedes y Europa si se situaran más cerca del Sol.

Foto
En la película “2010: Odisea dos” se plantea la posibilidad de que si Júpiter se convirtiera en una estrella la vida podría florecer en su luna Europa.
A primera vista esa propuesta parece un absurdo. Dejando de lado que la masa de Júpiter no es suficiente como para sostener reacciones nucleares de fusión, Europa es aparentemente demasiado pequeña como para mantener una atmósfera durante un tiempo geológicamente considerable, por lo que a la posible vida no le daría tiempo evolucionar allí.
Las premisas de la película son meramente cinematográficas, pero la idea de lunas de planetas gaseosos gigantes como lugares interesantes para la vida está ahora de moda a raíz del descubrimiento de este tipo de planetas alrededor de otras estrellas. De hecho, se conocen cientos de planetas gigantes que se encuentran en la zona de habitabilidad.
Puede que haya vida bajo la corteza helada de lunas alejadas de su estrella. Puede que incluso en Europa o en Encélado haya esa vida y algún día la podamos estudiar, aunque las posibilidades de hacer algo así en otros sistemas planetarios son más bien nulas.
Pero, según ciertos modelos, muchos de estos planetas gigantes o jovianos sufren una emigración desde sus posiciones exteriores, en donde se formaron y en donde hay mucho hielo y otros volátiles, a órbitas más cercanas a su estrella. Si esto es así, puede que el joviano arrastre a sus lunas heladas hacia la zona de habitabilidad del sistema y que estas lunas se cubran con un gran océano de agua líquida y una atmósfera.
La pregunta es durante cuánto tiempo permanecerá estable ese océano y esa atmósfera. Al fin y al cabo, el vapor de agua puede escapar del débil campo gravitatorio de la luna en cuestión y, además, la radiación ultravioleta del Sol disociará las moléculas de este compuesto y el hidrógeno se perderá en el espacio.
Ahora, un nuevo estudio cuantifica durante cuánto tiempo durarán esas condiciones favorables a la vida y la respuesta es miles de millones de años si la luna tiene el tamaño adecuado.
Owen Lehmer (University of Washington) y sus colaboradores han calculado qué pasaría para lunas del tamaño de Ganimedes o Europa si fueran trasladas más hacia el interior de un sistema planetario con una estrella similar al Sol.
Han descubierto que hay un límite, calculado en 1,1 UA a partir del cual el efecto invernadero destruye en poco tiempo las posibilidades de habitabilidad, aunque esto depende del albedo, que en este caso se fija en 0,2. Alejándose de esa distancia límite han visto que hay una relación exponencial entre la masa de la luna en cuestión y la longevidad de su atmósfera y océanos.
Para el caso de Ganimedes se podría mantener las condiciones acuosas de modo indefinido, aunque sólo tenga un tamaño de sólo dos tercios el de Marte, siempre y cuando no estuviera más cerca que esas 1,1 UA.
Para el caso de Europa estas condiciones se mantendrían durante más de mil millones de años a una distancia de 1.5 UA, pero más cerca de eso sus condiciones de habitabilidad desaparecerían rápidamente, aunque, de nuevo, depende del albedo.
Para tamaños más pequeños el efecto invernadero y la baja gravedad harían que estas lunas se quedaran sin agua en poco tiempo por lo que serían inhabitables. Así que no habría una oportunidad para tamaños similares al de Encélado.
Las posibilidades son interesantes, pues los modelos de formación predicen la existencia de lunas incluso mayores que Ganimedes alrededor de este tipo de planetas.
Sin embargo, las inesperadas dificultades de observación y los problemas de orientación de la misión Kepler no han permitido todavía detectar este tipo de lunas, pese a que se predijo tal detección. Quizás en futuras misiones esto sí sea posible.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=5495

La cadena trófica oceánica colapsará

La cadena trófica oceánica colapsará antes de finales de siglo debido a nuestras emisiones de gases de efecto invernadero.

Foto
El cambio climático sigue adelante mientras que la gente dice pensar qué hacer con este y otros problemas ambientales.
Un estudio de investigadores de University of Adelaide muestra que la cadena trófica marina colapsará debido al cambio climático, lo que repercutirá en el suministro de comida al ser humano y sobre la biodiversidad marina.
Todos sabemos lo mala que es la acidificación del agua marina para el coral y otros organismos de los océanos terrestres. Pero también es verdad que ese dióxido de carbono extra podría aumentar la productividad a través de la fotosíntesis de los productores primarios fotosintéticos. Sin embargo, esto no ocurrirá porque el calentamiento del agua marina cancelará este efecto debido a que el estrés inducido sobre la vida animal evitará el crecimiento y desarrollo de numerosas especies. Por tanto, la cadena trófica colapsará. Al menos así se sostiene en este nuevo estudio.
Lo malo es que los humanos dependen en gran medida de los servicios que proporciona los océanos, incluida la comida que tomamos y la industria asociada a la misma, como bien recuerda Ivan Nagelkerken (University of Adelaide).
Mucho de lo que se sabe sobre el impacto del calentamiento global en los océanos proviene de modelos simplificados que tienen en cuenta sólo un nivel de la cadena trófica. En este estudio se han tenido en cuenta tres niveles de esta cadena trófica y se han tomado datos reales directamente durante muchos meses para comprender mejor el impacto del cambio climático.
En este caso han usado algas que usan la luz del sol, pequeños invertebrados que se alimentan de ellas y peces que depredan estos invertebrados. Los experimentos los han realizados en grandes acuarios simulando las corrientes marinas, el oleaje y los distintos ambientes. Además, sometieron a estos sistemas a distintos niveles de acidificación y temperatura.
Aunque el aumento de dióxido de carbono aumentaba la productividad, este beneficio se cancelaba por el aumento de temperatura. Los invertebrados eran menos eficientes a la hora de alimentarse y no eran capaces de asimilar la energía extra proporcionada por las plantas, por lo que esta energía extra no se propagaba por la cadena trófica. A la misma vez, los peces se tornaban más hambrientos con el aumento de temperatura y diezmaban la población de invertebrados, lo que provocaba, a su vez, la disminución de la población de peces al acabar con su comida.
Los investigadores alertan de que el estrés debido al cambio climático neutralizará cualquier subida en la productividad y romperá el frágil equilibrio entre depredadores y presas, con el consiguiente colapso.
“Las consecuencias para los ecosistemas marinos es probable que sean severas. Los océanos del futuro nos proporcionarán menos peces y moluscos para comer y menos animales en la cima de la cadena trófica, en particular sufriremos. Esperamos que este estudio proporcione una comprensión predictiva que es crítica para una administración efectiva de las reservas pesqueras”, dice Nagelkerken.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=5497

El nivel del mar subirá 2,5 metros para 2100

Nuevos estudios calculan que, si no se toman medidas frente a las emisiones de gases de efecto invernadero, el nivel del mar podría subir incluso por encima de los 3 metros para finales de siglo.

Foto
Es absurdo hacer una predicción catastrófica a unos 80 años vista, cuando mucho antes el colapso económico, ecológico y climático se haya llevado por delante a lo que llamamos civilización humana. No dará tiempo ni a que las religiones incluyan el pecado ecológico entre sus doctrinas.
Pero una predicción a largo plazo (desde el punto de vista humano) permite saber la magnitud de lo que vamos a vivir en poco tiempo o estamos viendo ya. Como ejemplo podemos mencionar la pérdida de todo tipo de cosechas en gran parte de España debido a un invierno demasiado cálido y a unas heladas más tardías. Pero mientras que haya gente que crea que la comida nace en los supermercados y que siempre la podrá pagar, no se dará importancia a este tipo de cosas.
El caso es que un equipo internacional de investigadores ha calculado la subida del nivel del mar hacia finales de siglo y arroja una terrorífica cifra cercana a los 3 metros. Esto supondrá la desaparición de litorales, playas, islas, países, deltas y ciudades en muchas costas a lo largo del mundo.
Este grupo de investigadores se preguntó qué pasará si seguimos con nuestras emisiones de gases de efecto invernadero. Se tuvo en cuenta las nuevas proyecciones sobre la pérdida de hielo Antárctica. En observaciones recientes se ha puesto de manifiesto que la fusión de la Antártida podría ser más rápida de lo que previamente se había pensado. Los investigadores tuvieron también en cuenta otros factores como el calentamiento del océano, la fusión de los glaciares o el almacenamiento de agua en Groenlandia. Además, revisaron los métodos estadísticos usados hasta el momento. Concluyen que es posible un escenario de subida de 2,5 metros para finales de siglo.
“Puede que no parezca un escenario probable, pero no podemos excluir la posibilidad de que el nivel del mar suba más de tres metros hacia el 2100”, dice Sybren Drijfhout (University of Southampton).
En unos pocos siglos calculan que la subida será de 10 metros, por lo que la catástrofe será general.
El resultado coincide con los recientes ajustes en sus proyecciones futuras realizadas por NOAA (National Oceanic and Atmospheric Administration), que también predicen unos 2,5 metros de subida, cuando antes la establecía en 2 metros. Las dos predicciones se basan en métodos distintos.
“Es importante para los políticos y el público en general saber qué consecuencias podrían tener que las emisiones de dióxido de carbono no se reduzcan, especialmente cuando hay un gran retraso entre las reducciones de nuestras emisiones y la respuesta del nivel del mar. Además, la construcción de defensas artificiales frente a las inundaciones necesita tener en cuenta eventos de baja probabilidad, incluida la posibilidad de que la comunidad internacional falle a la hora de tomar medidas para la reducción de emisiones. No deberíamos olvidarnos de que el acuerdo de París es sólo una declaración de intenciones y que ninguna medida adecuada se ha acordado aún para transformar estas intenciones en políticas reales”, dice Drijfhout.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=5499

Todavía sin éxito en SETI

Los últimos datos de la iniciativa Breakthrough para la búsqueda de señales extraterrestres no han proporcionado resultados positivos.

Foto
Desde hace tiempo está siendo cada vez más difícil conseguir dinero público para ciertas iniciativas, como escuchar posibles mensajes que puedan enviar civilizaciones extraterrestres avanzadas.
Por esta razón este tipo de proyectos tienen ahora que financiarse vía millonarios que ahora no saben qué hacer con su dinero. Así, por ejemplo, la iniciativa Breakthrough es financiada en gran parte por el millonario Yuri Milner y, al parecer, por el siniestro Mark Zuckerberg. Aunque también presta su nombre Stephen Hawking, sobre el que cada día es más difícil saber si le gusta o no la idea de que nos comuniquemos con otras civilizaciones.
Además de estudiar cómo podríamos enviar nanosondas impulsadas por velas láser a estrellas cercanas, también se ha estado investigando la posible recepción de mensajes SETI vía ondas de radio bajo este programa Breakthrough.
Yuri Milner y otros han puesto 100 millones de dólares para un proyecto SETI de 10 años de duración. El Breakthrough Listen project comenzó en 2015 y durante este tiempo ha usado los radiotelescopios Parkes Telescope (Australia), the Green Bank Telescope (EEUU) y el Automated Planet Finder del observatorio Lick en California. Estas observaciones han producido varios petabytes de datos correspondientes a la banda 1,1–1,9 GHz tras observar 692 estrellas a las que se ha dedicado 3 minutos de observación a cada una.
En principio hay 1709 estrellas diana de la secuencia principal para este estudio divididas en dos categorías: las situadas a menos de 16 años luz de nosotros y las que están entre esa distancia y 163 años luz. Entre los casos particulares que han estudiado está la estrella de Tabby, famosa porque se llegó a decir que quizás estuviera rodeada por una esfera Dyson en construcción. Cosa que al final quedó descartada.
“Es como encontrar una aguja en un pajar. Pero no sabemos cuántas agujas hay ahí”, dice Seth Shostak (SETI Institute, California).
Recordemos que las estrellas de la secuencia principal corresponden a las que están en la diagonal del diagrama Hertzsprung-Russell y en ese estadio es en el que pasan la mayor parte de sus vidas. Las estrellas en formación o en los últimos estadios de su evolución estelar están fuera de esta secuencia principal.
Los datos fueron procesados por un programa computacional que, entre otras cosas, trata de distinguir señales de origen artificial de fuentes naturales. En versiones futuras más avanzadas también tratará de discriminar las señales artificiales de origen terrestre.
De todos los datos disponibles, sólo 11 casos merecieron un estudio en detalle, pero al final no hubo éxito. Así que estos resultados preliminares no indican la presencia de civilización avanzada alguna.
Puede que este resultado negativo nos haga pensar que todo este esfuerzo no sirve para nada, pero es más útil de lo que parece. Entre otras cosas podría permitir calcular la probabilidad de existencia de civilizaciones extraterrestres de este tipo.
Foto
Representaciones 2D de la esfera de señal de supuestas civilizaciones avanzadas. Fuente: Claudio Grimaldi.
Normalmente los métodos para saber la posibilidad de detectar señales alienígenas empiezan asumiendo un determinado numero de fuentes. Claudio Grimaldi (Instituto federal Suizo de Tecnología de Lausana) ha hecho un cálculo al revés que quizás sirva para interpretar este y otros resultados de SETI. El nuevo método requiere menos hipótesis sobre la abundancia de planetas, vida o civilizaciones que otros métodos.
En sus cálculos tiene en cuenta que las señales enviadas por estas civilizaciones se hacen más débiles con la distancia, son bloqueadas por el camino o que no sean visibles desde la Tierra en ciertos momentos.
Llega a la conclusión de que, aunque la mitad de nuestra galaxia estuviera sumergida en ruido ambiental creado por estas civilizaciones, en promedio, el número de civilizaciones que detectaríamos sería sólo de una como máximo.
Esto viene a decir que incluso si hubiera muchas civilizaciones puede que nunca lleguemos a detectarlas.
Pero este cálculo de Grimaldi también asume ciertas presunciones. Al final todo dependerá de los datos experimentales, aunque estos sean negativos, para poder decir algo sobre la abundancia de civilizaciones avanzadas.
De momento tenemos otra nueva explicación a la paradoja de Fermi: son abundantes, están ahí, pero nos es muy difícil recibir sus señales.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=5503

Polémica sobre virus gigantes

El hallazgo de un nuevo virus gigante cuestiona la hipótesis del cuarto dominio de la vida.

Foto
Los virus siempre han sido una cosa un tanto rara. No encajan en la idea que tenemos de lo que es vivo, entre otras cosas porque necesitan de células de otros organismos para reproducirse. Tampoco sabemos cómo surgieron.
La situación empeoró cuando a partir de 2003 empezaron a descubrirse virus gigantes. Estos Mimivirus no sólo tenían un tamaño considerable, sino que, además, tenían 1018 genes, casi como una bacteria.
La inmensa mayoría de los virus son mucho más pequeños de las células y contienen muy pocos genes, básicamente los mínimos necesarios para replicarse y subyugar la maquinaria celular. Así, por ejemplo, algunos virus de aves y cerdos tienen sólo dos genes. Por otro lado, la bacteria Escherichia coli, muy usada como modelo de laboratorio, tiene cerca de 4400 genes.
Los Mimivirus miden unos 400 nanómetros de largo, o lo que es lo mismo, la mitad que una bacteria E. coli. Son los suficientemente grandes como para que se pueden ver con microscopio óptico. Algunos tienen más de 2500 genes, más que algunas bacterias. Además, poseen ADN que codifica las moléculas que traducen mensajes de ARN a proteínas, cuando normalmente los virus obligan a la célula que infectan a producir estas proteínas. Lo más sorprendente es que del 50 al 90 por ciento de los genes de los virus gigantes no se encuentran en ningún otro sitio y muchos ni siquiera están en otros virus gigantes.
A lo largo de estos últimos años se han ido descubriendo más casos de virus gigantes, algunos con un tamaño de una micra (1000 nm). En NeoFronteras hemos cubierto algunos de esos casos.
A raíz del descubrimiento de los virus gigantes, algunos científicos plantearon la revisión del árbol filogenético de la vida. Además de los tres dominios conocidos de bacterias, arqueas y eucariotas, propusieron que debía de haber habido otro dominio ya extinto del cual sólo quedarían los virus gigantes. Los precursores de estos virus sería microorganismos unicelulares que fueron simplificándose y perdiendo genes debido al parasitismo que ejercían.
Sin embargo, no todo el mundo estaba de acuerdo con esa seductora idea. Según otros investigadores, no habría necesidad para un cuarto dominio, pues los virus gigantes parecían pertenecer a un grupo de virus que también incluye a pequeños virus. Así que es muy posible que los virus gigantes evolucionaron a lo largo de millones de años a partir de virus pequeños incorporando más y más ADN de las células que invadían hasta hacerse así de masivos. Esto cambiaría nuestra noción de lo que son los virus, pero no habría que reescribir la historia de la vida como en el caso anterior.
La cuestión se podría resolver comparando los genomas secuenciados de estos virus y los de la célula eucariota que infecten. Pero, hasta ahora, los Mimivirus contenían muy pocos genes eucariotas para realizar un análisis estadístico fiable que pudiera determinar la relación evolutiva entre ambos. La dificultad está en que el genoma de los virus muta muy rápido.
Así estaban las cosas hasta que se ha hallado un nuevo virus en la planta de tratamiento de aguas residuales de la ciudad de Klosterneuburg, en el este de Austria. El virus gigante que han encontrado allí ha agitado la controversia sobre este asunto. Al parecer, su ADN parece apoyar la hipótesis de que estos virus ha crecido con el tiempo y que no son los descendientes de un cuarto dominio de la vida.
“Encuentro el trabajo convincente. Basándose en los datos disponible ahora, yo no pondría mi dinero en la hipótesis del cuarto dominio”, ha dicho Matthias Fischer, del Instituto Max Planck para la Investigación Médica de Heidelberg y no involucrado en este nuevo resultado.
Frederik Schulz (Department of Energy Joint Genome Institute) y sus colaboradores no pretendían poner a prueba esta hipótesis cuando colaboraron con científicos austriacos para investigar la microbiología de la planta de tratamiento residuales mencionada, sólo trataban de saber más sobre la microbiología del lugar y buscar bacterias que convirtieran compuestos amoniacales en nitratos.
Para ello, en lugar de identificar y aislar nuevos organismos, usaron una técnica metagenómica en la que se secuencia todo el ADN mezclado que hay en las muestras y luego se identifican los indicadores genéticos de nuevos organismos. De este modo, encontraron ciertas secuencias de un virus gigante al que denominaron Klosneuvirus. A partir de muestras de otras localizaciones lograron secuencias el genoma de tres de estos virus. Al comparar los genomas de este nuevo virus con los de otros virus gigantes colocaron a Klosneuvirus dentro de la familia de los Mimivirus.
Resultó que los genomas de este nuevo tipo de virus eran más parecidos al de las células que el de otros virus gigantes. Así, por ejemplo, las enzimas que son usadas por las células vivas para unir aminoácidos entre sí y de este modo formar proteínas son las mismas que estaban codificadas en estos genomas. La ventaja de Klosneuvirus era que podía hacer de eslabón perdido al contener todas estas enzimas. Así que estos genomas proporcionaron la oportunidad de comprobar si los Klosneuvirus, y en consecuencia los Mimivirus, descendían o no del cuarto dominio propuesto o si su ADN era robado de las células eucariotas.
La comparación de secuencias de genes indicó que estos virus gigantes habían tomado poco a poco los genes que codificaban sus enzimas de las células a las que infectaban. En total, hasta 700 genes de Klosneuvirus parecen tener un origen celular y están presentes en los protistas como amebas y ciliados. Por tanto, no había tal cuarto dominio.
Sin embargo, el microbiólogo Didier Raoult (Universidad Aix-Marsella), que fue el codescubridor del primer virus gigante, dice que basarse sólo en estas enzimas para decir que no existe ese cuarto dominio no es un fundamento sólido. Jean-Michel Claverie (Universidad Aix-Marsella) añade que los autores del estudio hallan partículas de virus muy grandes en las muestras, pero que no demuestran que los genomas que identifican pertenecen a esas partículas víricas. No hay virus que hayan sido aislados y analizados en este caso. Además, dice que el método usado puede haber producir una mezcla genética quimérica de varios genomas de distintos organismos.
También podría suceder que Mimivirus y Klosneuvirus se originaran de distinto modo y que ambas posturas fueran correctas. Para ello habrá que esperar a que salgan más estudios al respecto. De entrada, no parece que los Klosneuvirus infecten el mismo tipo de amebas que infectan los Mimivirus.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=5470

Hidrógeno molecular en Encélado

La presencia de hidrógeno molecular en Encélado reafirma la posible existencia de chimeneas hidrotermales en esta luna y favorece su habitabilidad.

Foto
Cuenta Sean Carroll en su último libro que en un vuelo a Montana estaba leyendo un artículo sobre la relación entre Física estadística y el origen de la vida. Entonces, el viajero del asiento de al lado, al verlo, hizo un comentario al respecto. Aún temiendo lo peor y que fuera un chalado, Carroll le preguntó sobre sus ideas al respecto.
El viajero dijo: “el propósito de la vida es hidrogenar dióxido de carbono”. Resultó que este señor era Michael Russell, un geoquímico del JPL de la NASA experto en el asunto que iba a dar una charla en el mismo congreso la que iba Carroll y que, accidentalmente, se había sentado a su lado.
Tuviera o no Russell razón sobre el “propósito” de la vida, la realidad es que la bioquímica se basa precisamente en añadir hidrógeno al carbono del dióxido de carbono para así producir largas moléculas orgánicas. Ahora, ese primer paso lo dan las plantas en la fotosíntesis al dividir el agua en hidrógeno y oxígeno. Todo ello gracias a la luz solar, pues romper la molécula de agua requiere de energía. Las plantas liberan el oxígeno a la atmósfera y el hidrógeno lo usan precisamente, para “hidrogenar”.
Antes de estas, las bacterias púrpuras del azufre obtenían este elemento del sulfuro de hidrógeno y la luz solar. Se especula que antes de estas últimas habría microorganismos que tomaban directamente el hidrógeno que emanaba de un planeta todavía muy activo geológicamente. Incluso en la actualidad hay microbios que obtiene su energía a partir de hidrógeno y dióxido de carbono, produciendo metano en el proceso.
Todo esto viene a cuento porque los científicos de la misión Cassini han publicado un artículo en el que se demuestran la presencia de hidrógeno molecular en las plumas de vapor o geiseres que salen de Encélado, la famosa luna de Saturno. Este dato se obtuvo gracias al instrumento INMS (Ion Neutral Mass Spectrometer) que porta la sonda. Se descarta que se trate de hidrógeno primordial porque este no viene acompañado de helio.
También se ha confirmado que el océano de Encélado es muy alcalino, pues tiene un pH comprendido entre 9 y 11, tal y como se había propuesto hace unos años.
La presencia de hidrógeno sería una prueba más de que, bajo la corteza de hielo y bajo el océano global oculto por ella, habría chimeneas hidrotermales similares que las que hay en el lecho marino de los océanos terrestres. En este caso, la energía provendría del efecto de las fuerzas de marea, que calentarían el interior de esta luna, aunque, según algunos modelos, parece que este mecanismo no sería suficiente.
Ya en 2015 el instrumento CDA (Cosmic Dust Analyser) de Cassini detectó partículas de dióxido de silicio de entre 6 y 9 nanómetros de tamaño. En las fuentes hidrotermales de la Tierra se forman precisamente este tipo de partículas, por lo que es de esperar que en Encélado tengan el mismo origen. Esto obligó a proponer la presencia de estas chimeneas hidrotermales en esa luna.
El nuevo resultado se suma a las pruebas que ya había sobre la presencia de las chimeneas hidrotermales en Encélado. En la Tierra el agua a alta temperatura que emana de estas fuentes reacciona con las rocas ricas en minerales ferrosos del entorno produciendo hidrógeno molecular.
Además, en las fuentes hidrotermales de la Tierra hay microorganismos que viven a partir del hidrógeno y dióxido de carbono y que generan metano como subproducto. Este proceso es denominado metanogénesis.
Foto
Precisamente, Cassini ya había detectado metano y dióxido de carbono en los chorros de los famosos geiseres de Encélado. Ya no se trata solamente de agua líquida, sino que además hay un gradiente de energía a partir del cual la vida podría sobrevivir. De hecho, algunos microorganismos terrestres podrían prosperar allí, no les faltaría energía y comida.
Según los análisis, el 98% de las plumas de Encélado está compuesto por agua, un 1% por hidrógeno y el resto sería una mezcla de otros compuestos como dióxido de carbono, metano y amoniaco. Tal cantidad enorme de hidrógeno indica que este gas es generado de forma continua bajo la corteza de hielo.
Cassini habría demostrado que Encélado tiene casi todos los ingredientes de la vida, aunque todavía no haya encontrado si hay fósforo y azufre disueltos en el océano global de esta luna. Sin embargo, los expertos sospechan que sí están presentes, dada la abundancia de estos elementos en las rocas del interior de este satélite que no tienen que tener una composición muy distinta a la de los meteoritos.
Obviamente, todo esto no significa que haya vida allí, pero sí que hay condiciones necesarias y suficientes para que la haya. Los optimistas creen que, si se dan la condiciones para la vida, esta tiene que darse. Los pesimistas creen que no necesariamente es así y que abiogénesis puede requerir de un golpe de suerte.
Las plumas de Encélado se descubrieron en 2005 gracias a esta misión. De hecho, Cassini no se diseñó para encontrar vida en Encélado. Incluso el instrumento INMS no se diseñó para estudiar esta luna, sino para saber la composición de las altas capas de la atmósfera de Titán.
No sabemos si Encélado está habitado, aunque sólo sea por microbios. Sería necesario el envío de otra misión para esta tarea. Según Christopher Glein (grupo SwRI), el mensaje estaría en las moléculas. “Sólo necesitamos ir midiendo las moléculas de las plumas y eso nos dirá lo que no podemos ver”, sostiene.
Como Cassini será inmolada en septiembre, nos quedaremos con ganas de saber más sobre Encélado. Incluso si una misión a Encélado es aprobada en 2019 en la próxima ronda de misiones New Frontiers, habría que sumarle el tiempo de diseño y desarrollo, así como el tiempo necesario para llegar allí. Si todo sale bien se podría saber más sobre este asunto a principio de los años treinta de este siglo.
Pero el valor de la misión sería enorme, tanto si se detectase vida como si no. Si el resultado fuera positivo, la suma de un caso más a la estadística del, hasta ahora, único caso conocido, nos diría que la vida es abundante en el Universo. Si el resultado fuera negativo, entonces nos diría que la vida no aparece tan fácilmente como creemos, incluso aunque se den las condiciones, entonces la responsabilidad sobre nuestras espaldas sería también enorme.
Aunque podemos seguir gastando tiempo, recursos y dinero en misiones a Marte, en donde no hay manera de hidrogenar nada.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=5474

Actualidad sobre agujeros negros

Noticias variadas sobre física observacional en agujeros negros.

Foto
En días recientes se han publicado varios resultados sobre física de los agujeros negros.
El primero de ellos proviene del Instituto Tata de Investigación Fundamental de India. Un grupo de físicos teóricos proponen un sistema para distinguir las singularidades desnudas de los agujeros negros que sólo muestran el horizonte de sucesos.
Normalmente se dice que, según la Relatividad General (RG), los agujeros negros no tienen pelos porque sólo la masa, momento angular y carga eléctrica definen a cualquier agujero negro. Pero confirmar experimentalmente esta afirmación es muy complicado.
Además, como todos sabemos, la RG predice que en el centro de un agujero negro habría un punto de curvatura y densidad infinita en donde la Física se rompería al que se denomina singularidad. Aunque hay que matizar que la Gravedad Cuantica posiblemente elimine estos infinitos y sólo haya un lugar con una densidad increíblemente alta. Los “males” de las singularidades quedarían ocultos porque no habría singularidades desnudas, sino que estas estarían siempre ocultas detrás del horizonte de sucesos. Pero trabajos ya bastante antiguos indican que, para ciertos agujeros negros, como los que tienen una alta rotación, esta singularidad sí que se vería desde el exterior. La cuestión es cómo distinguir observacionalmente un caso del otro.
Según la RG el espacio-tiempo cercano a un objeto en rotación tiene que estar retorcido y tiene que provocar una especie de precesión en los giróscopos. Así que, según estos físicos, sería fácil para un astronauta en órbita medir este efecto. Si el astronauta orbita un agujero negro entonces habría dos posibilidades: la precesión en la frecuencia del giróscopo cambia en una cantidad arbitrariamente grande o bien esta cambia sólo en una pequeña cantidad y de una manera regular y sólo lo haría del modo anterior en el ecuador. En el primer caso se trataría de un agujero negro cubierto por su horizonte de sucesos que no enseña su singularidad y en el segundo se trataría de una singularidad desnuda.
Pero lanzar un astronauta hasta un agujero negro está fuera de nuestro alcance, así que este grupo está buscando un método alternativo basado en medidas de rayos-X emitidos por la materia que cae en el agujero negro.
Otro estudio distinto parece que lo tiene mejor en el asunto experimental, pues, según dicho estudio, los datos de LIGO permitirían saber si los agujeros negros tienen o no tienen pelos.
Un grupo de investigadores norteamericano ha calculado que la información de agujeros negros peludos puede extraerse gracias a la observación de las ondas gravitacionales que emite justo en el choque de una agujero negro con otro. Ya hemos visto que este tipo de sucesos sí se producen y pueden registrarse gracias a LIGO.
El nuevo agujero negro que surge de este tipo de colisiones es una esfera distorsionada que cambia de forma hasta que se estabiliza, tiempo durante el cual se emite gran cantidad de intensas ondas gravitacionales. Estas ondas proporcionan información de la masa, momento angular y carga del agujero negro. Cualquier desviación sobre los valores esperados sería un indicador de que los agujeros negros tienen pelos, algo plausible si los fenómenos cuánticos de la gravedad existen, por ejemplo.
De momento, los datos existentes de LIGO sobre estos eventos son demasiado ruidosos como para dar una respuesta definitiva, pero la reciente actualización de este y otros observatorios de ondas gravitacionales y la acumulación de muestra estadística de muchos casos resolverán estas dudas.
La tercera noticia es más bien un rumor. Desde hace un tiempo se trabaja en el Event Horizon Telescope. Un sistema coordinado de varios radiotelescopios terrestres en la gama milimétrica que trabajando al unísono tendría una apertura del diámetro terrestre, lo que incrementaría mucho su resolución.
Este sistema sería capaz de resolver el horizonte de sucesos del agujero negro supermasivo que hay en el centro de nuestra galaxia: Sagitario A* (Sgr A*). Es decir, podremos contar con la imagen de un agujero negro. Este tipo de agujero negros, a diferencia de los pequeños horizontes de los agujeros negros estelares, tiene tanta masa que el tamaño de su horizonte es colosal, para el caso de Sgr A* su masa es de 4 millones de soles. Aun así, sería como tratar de ver una rosquilla sobre la Luna, pues mide sólo 150 UA de ancho y está 36000 años luz de nosotros, por lo que se necesitaría 1000 veces el poder de resolución del Hubble.
La tarea se facilita porque el propio campo gravitatorio del agujero negro funcionaría como una lente ampliando la imagen.
Hay agujeros negros más masivos, como el de M87 que pesa 6000 millones de soles. Así que si hay éxito con Sgr A* se intentará también con M87*.
Los radiotelescopios de la gama milimétrica implicados en este proyecto han estado ya trabajando en esta tarea en espera de buenas condiciones meteorológicas, algo no tan sencillo cuando se requiere que se den en ocho localizaciones distintas a la vez.
El horizonte de suceso sería negro y, por tanto, no visualizable, si no fuera porque su forma quedaría revelada por el disco de acreción que lo rodea, que estaría compuesto por el plasma de las estrellas que caen en él. Este plasma emite luz que se podría ver con el Event Horizon Telescope. El disco tendría una forma similar a los anillos de Saturno, pero no verían así, sino que la distorsión del espacio-tiempo permitiría ver el otro lado del disco, tal y como se muestra en la película “Interestelar”, como en la imagen de cabecera.
Pues bien, el rumor es que ha habido suerte y ya cuentan con esa imagen. Imagen que todavía nadie podemos ver, a la espera, presumiblemente, de que salga publicada el artículo correspondiente.
Así que, si esto es cierto, hay personas que ya pueden contemplar el horizonte de sucesos y el disco de acreción que rodea a Sgr A*.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=5483

Sobre la retirada del glaciar Columbia


El glaciar Columbia de Alaska ha llegado a su nivel más bajo de los últimos 900 años como consecuencia del calentamiento global.

Foto
Donald Trump enseñaba orgulloso el otro día el decreto ley (executive order) mediante el cual revocaba las medidas que había tomado Obama para invertir la tendencia en las emisiones de dióxido de carbono de EEUU.
Al parecer quiere que su país queme carbón para así crear puestos de trabajo. Es de suponer que habrá desesperados que quieran bajar a picar carbón y morir jóvenes de silicosis, pero la escena no deja de ser triste y patética.
Además, la actual administración se lo está poniendo complicado a los climatólogos al hacer el acceso a los datos y a la financiación cada vez más difícil. La NASA ya ni podrá lanzar satélites de vigilancia del clima. Así, por ejemplo, es de suponer que si ya no hay imágenes de satélite de cómo los glaciares se retiran, estos no lo estén haciendo en el imaginario colectivo, aunque a nivel de suelo sí se vea que lo hacen. A este paso el Glacier National Park en Montana puede que termine llamándose No Glacier National Park anymore por razones obvias y según un mal chiste que circula en algunos ámbitos. El asunto recuerda a lo que dijo otro ser inteligente de lógica aplastante acerca de que la mejor manera de evitar los incendios forestales era talar los bosques.
Mientras tanto, los científicos norteamericanos siguen intentando estudiar el cambio climático y la fusión de los glaciares como pueden, entre ellos los de Alaska, que son mucho más importantes que los del resto del país. Anders Carlson (Oregon State University) y sus colaboradores llegan a la conclusión en un estudio publicado recientemente que los glaciares de Alaska han llegado a su nivel más bajo de los últimos 900 años como consecuencia del calentamiento global.
Los glaciares están en retirada a lo largo de todo el mundo por culpa del cambio climático provocado por el ser humano. Un caso que podría tener consecuencias dramáticas son los glaciares del Himalaya, que surten de agua a los grandes ríos de Asia en la estación seca. Esto podría llegar a afectar a más de mil millones de personas en un momento dado, por poner una cota inferior conservadora.
En Alaska los casos de retirada de glaciares son numerosos. Hay más de 50 glaciares que descienden por este estado de los EEUU hasta el mar. Así, por ejemplo, el glaciar Columbia (en las fotos) es un caso bien documentado, siendo uno de los grandes contribuidores al aumento del nivel del mar.
Este equipo de investigadores ha puesto en contexto el comportamiento de este glaciar en un lapso de tiempo que engloba las contribuciones humanas al cambio climático y también mucho antes, cuando estas eran despreciables.
Estos investigadores perforaron en 2004 el limo del fondo de la bahía Principe William que es donde descarga este glaciar. La idea era recolectar los sedimentos depositados en el lecho marino durante los últimos 1600 años.
Este glaciar retrocedió recientemente hasta más atrás de una falla geológica en donde las rocas de a cada lado de la falla poseen una orientación magnética distinta y diferente composición. Así que buscaron en esos sedimentos las marcas de cuando el glaciar cruzó esa falla.
Además, el número y grosor de los anillos de los troncos de los árboles que el glaciar descubre proporcionó una línea temporal dendrocronológica para el avance del hielo y la climatología de cada momento.
Relacionar el comportamiento de los glaciares que terminan en el mar con el clima es difícil, especialmente en áreas activas geológicamente. Pero este equipo de investigadores, cruzando estos dos tipos de distintos datos, ha llegado a esta conclusión de que la retirada actual del glaciar es la peor de los últimos 900 años y que se debe al calentamiento global.
Foto
Los cálculos revelan que la temperatura del aire en verano en la región ha aumentado un grado centígrado entre 1910 y 1980, lo que llevó a la inestabilidad del glaciar en los años ochenta y disparó la rápida retirada del mismo que se ha observado en las últimas tres décadas. El equipo atribuye el efecto a causas antropogénicas, en concreto al cambio climático producido por nuestras emisiones de gases de efecto invernadero.
“Lo que fue sorprendente es el fuerte acoplamiento entre la temperatura de la superficie y la respuesta del glaciar”, dice Carlson.
El resultado muestra que un pequeño aumento de temperatura, incluso por debajo de los 2 grados, es suficiente para desestabilizar un glaciar. Por esta razón, las medidas tomadas para mantener el límite de aumento de la temperatura global por debajo de los dos grados, en consonancia con los acuerdos de París, puede que sean insuficientes. Además, muchos expertos coindicen en que esas medidas que se están tomando no serán suficientes como para impedir que el clima terrestre cruce ese límite.
Según Alberto Reyes (University of Alberta), otro de los coautores, es improbable que este sea un caso aislado, sobre todo en Canadá, en donde la retirada de los glaciares está dejando expuestos árboles de hace 7000 años, lo que indicaría que esos glaciares son ahora mucho menores de lo que han sido durante miles de años en el pasado.
Así que, amigo lector, dejando de lado la economía y la supervivencia futura del ser humano, tenga en cuenta que, cuando lleva a los niños al cole en su 4×4 de alta cilindrada, está destruyendo directamente la belleza que observa en la foto de cabecera, algo que sus nietos posiblemente nunca lleguen a ver, salvo en las fotos de una futurista tablet, justo al lado de ejemplos de las plantas y animales extintos en estos tiempos tan egoístas.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=5446

Sobre el caliente futuro de la Tierra

La temperatura terrestre en el siglo XXIII será la más alta de los último 420 millones de años.

Foto
Una hoja de Ginkgo actual y su contrapartida fósil. La densidad de estomas permite inferir la concentración de dióxido de carbono del pasado. Fuente: Dana Royer.
Estamos embarcados en un experimento climático que, a veces, se hace en contra de nuestro deseo.
Todo empezó cuando empezamos a quemar combustibles fósiles de manera masiva, lo que va introduciendo dióxido de carbono en la atmósfera. Este gas de efecto invernadero va calentando cada vez más el planeta y acidifica el agua del mar. Este calentamiento alimenta ciclos de retroalimentación, como, por ejemplo, la reducción del hielo, lo que reduce el albedo y aumenta el calentamiento producido por la luz del Sol.
Todos los estudios científicos apuntan a que esta tendencia nos lleva al desastre, pero los poderes económicos han estado ahogando esta voz y comprando a los políticos. Ahora Trump incluso pretende quemar carbón en centrales térmicas.
Un estudio reciente apunta a que a mediados de este siglo las concentraciones de dióxido de carbono serán las más altas de los últimos 50 millones de años (600 partes por millón). En los próximos 100 o 200 años las concentraciones de dióxido de carbono en la atmósfera terrestre no tendrán parangón en los últimos 200 millones de años. Como consecuencia, para el siglo XXIII la temperatura media del planeta será la más alta de los últimos 420 millones de años.
El estudio está basado en la recopilación de 1200 estimaciones de concentraciones de dióxido de carbono del pasado realizadas en otros estudios. Existe un registro continuo de la concentración de este gas sobre los últimos 500 millones de años. Las burbujas de aire atrapadas en el hielo antártico sólo nos permiten remontarnos hasta hace 80.000 años. Así que también hay que basarse en fósiles de plantas (ver foto de cabecera), composición isotópica de carbono en rocas y océanos y en los isótopos de boro de las conchas marinas.
Los investigadores implicados llegan a la conclusión de que, si la humanidad sigue quemando combustibles fósiles, la concentración de este gas producirá un temperatura media que no se habrá visto en los últimos 420 millones de años.
También han descubierto que en muchos estudios se sobrestimó la concentración de dióxido de carbono en algunos momentos del pasado, con una cifra que llegaba a 5000 ppm. Sin embargo, descubrieron que nunca se sobrepasaron las 3000 ppm de dióxido de carbono.
Pudieron comprobar que los niveles de dióxido de carbono fluctúan de forma natural en una escala de millones de años a lo largo del periodo analizado, desde las 200-400 partes por millón en periodos fríos a las 3000 ppm en periodos de efecto invernadero. Sin embargo, estas fluctuaciones son muy diferentes a lo que estamos sufriendo en la actualidad, como han podido comprobar en los datos. Básicamente, la velocidad de cambio en esta concentración de dióxido de carbono es muy inusual ahora por ser muy alta.
Desde que hace 150 años la humanidad empezó con la revolución industrial, hemos pasado de 280 ppm de dióxido de carbono a 405 ppm en la actualidad. El calentamiento depende de esta concentración de dióxido de carbono y de otros factores como la luz solar incidente.
El Sol ha estado calentándose cada vez más desde que se formó, por lo que la concentración de dióxido de carbono posiblemente fue alta hace miles de millones de años para compensar un Sol más frío.
Los datos del estudio indican que, en promedio, la concentración de dióxido de carbono ha estado declinando de 3 a 4 ppm por millón de años. A pesar de que la irradiación solar ha estado creciendo lentamente a lo largo del tiempo, esto no ha tenido un efecto apreciable sobre el calentamiento climático.
Según Dan Lunt (University of Bristol) esto no parece que sea mucho, pero es justo lo que permite cancelar el calentamiento extra causado por un Sol cada vez más brillante a lo largo del tiempo. Así que, a largo plazo, el efecto neto de ambos, del dióxido de carbono y de la irradiación solar, mantiene el clima constante en promedio a lo largo del tiempo.
“Nuestro hallazgo de un cambio neto pequeño sobre clima fuerza a ofrecer una explicación sobre por qué el clima de la Tierra ha permanecido relativamente estable y dentro de los márgenes propicios para vida todo este tiempo”, dice Dana Royer (Wesleyan University).
Las plantas y la meteorización ayudan a descomponer las rocas y estas reaccionan con el dióxido de carbono para formar compuestos que terminan en el mar y formando de rocas sedimentarias. Esto elimina el dióxido de carbono de la atmósfera, pero es un proceso muy lento. Esta actividad es más vigorosa cuanto más cálido es el clima. Si el clima se enfría, este proceso se hace más lento.
“La meteorización dirigida o ayudada por las plantas es demasiado lenta para salvarnos del calentamiento global, pero puede ser acelerado mediante la aplicación de silicatos triturados a las tierras de cultivo para así capturar dióxido de carbono”, dice David Beerling (University of Sheffield).
Como estamos emitiendo gases de efecto invernadero a un ritmo sin precedentes en la escala geológica, esto nos obliga a revisar, una vez más, las perspectivas del clima futuro. Si fallamos a la hora de reducir nuestras emisiones de dióxido de carbono, para el año 2250 habrá 2000 ppm de dióxido de carbono, algo nunca visto en los últimos 200 millones de años.
Pero como hace 200 millones de años el Sol era más débil, el efecto de esta concentración de dióxido de carbono sólo puede producir un gran aumento de la temperatura hasta un punto nunca visto, por lo menos, en los últimos 420 millones de años.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=5451

Sobre la supertierra GJ 1132b

Publican resultados sobre la atmósfera de la supertierra GJ 1132b.

Foto
Hace unos meses nos hacíamos eco en NeoFronteras de la noticia sobre la detección de la atmósfera de la supertierra GJ 1132b cuando sólo estaba publicado en los ArXiv de Cornell. Ahora se publica el resultado en una revista con revisores por pares.
Aprovechando esta circunstancia podemos revisar el hallazgo e interpretarlo un poco mejor. Aunque la noticia de haber detectado una atmósfera de supertierra no parece gran cosa e incluso parece que se había logrado con anterioridad, no es así.
Un planeta gaseoso gigante es eso: gigante, además tiene una atmósfera considerable. Si uno de estos planetas se sitúa delante del disco de su estrella, según nuestra perspectiva, entonces dicha atmósfera filtrará una parte pequeña pero apreciable de la luz que procede de la estrella, también reflejará una parte de la luz de la estrella en otras configuraciones, aunque no lo podamos ver directamente. En ambos casos se puede apreciar una diferencia entre la estrella a solas y cuando está presente el planeta.
Hace ya tiempo que se detectó atmósferas de gigantes gaseosos e incluso se ha podido tomar espectros y saber algo de su composición. Por otro lado, una supertierra es un exoplaneta rocoso, o telúrico, que es un poco más grande y un poco más masivo que la Tierra. Son planetas pequeños comparados con los gigantes gaseosos. Además, aunque la masa del planeta crezca bastante, la capacidad que tenga su atmósfera de alterar la luz de su estrella crece muy poco. Así que la señal de la posible atmósfera que podamos apreciar en sus espectros o en lo datos fotométricos es muy débil.
El equipo de investigadores involucrado en el descubrimiento ha conseguido detectar la atmósfera de GJ 1132b usando el telescopio MPG de 2,2 metros y el instrumento GROND que el ESO tiene en Chile. GJ 1132b orbita la estrella enana roja GJ 1132, que se encuentra a 39 años luz de nosotros en la región del cielo que llamamos constelación de Vela. Este planeta tiene 1,6 masas terrestres y un diámetro de 1,4 veces el terrestre. La detección de su atmósfera es la primera que se consigue de una supertierra y se ha podido hacer durante los tránsitos del planeta, que se producen cada 1,6 días terrestres.
Durante estos eventos, el planeta y su atmósfera substraen algo de luz de la estrella de su sistema. Además, esto fue observado simultáneamente en 7 bandas distintas del espectro electromagnético, por lo que se puede considerar que es un espectro de muy baja resolución.
Los astrofísicos se dieron cuenta de que en la banda del infrarrojo el tránsito parecía más potente, como si el planeta fuera más grande. Esto lo atribuyen, precisamente, a la presencia de una atmósfera. La atmósfera sería más opaca (o menos transparente) al infrarrojo que a otras frecuencias. Según los modelos de atmósferas, esto sería compatible con una atmósfera rica en agua y metano, pero no han detectado ni agua ni metano directamente.
Hay que recalcar que no hay espectros de alta definición, ni agua líquida, ni biomarcadores, ni vida, ni nada por el estilo. Sólo es la detección de una atmósfera. Quizás en el futuro, cuando se cuente con telescopios adecuados, se puedan obtener espectros de la atmósfera de este planeta y saber más acerca de su composición. El gordo de la lotería sería detectar biomarcadores en ese espectro, lo que indicaría que hay vida, aunque su cercanía a la estrella lo hace muy difícil.
Pero hay lugar para un optimismo general. Además de que todo esto indicaría que la detección y estudio de atmósferas de planetas similares a la Tierra será posible y común en el futuro, nos dice que la pérdida de atmósfera de los planetas que orbiten enanas rojas no es tan intensa como se creía.
Las enanas rojas, sobre todo en su juventud, son estrellas muy activas con muchas tormentas que envían gran cantidad de radiación y viento estelar hacia el espacio. Esto puede barrer la atmósfera de los planetas de su sistema, sobre todo si no tienen un campo magnético potente. Este descubrimiento nos dice que al menos no siempre es así o que persiste suficiente atmósfera a lo largo del tiempo (miles de millones de años) pese a las pérdidas. Esto haría posible que en la zona de habitabilidad la vida pudiera darse.
Todo esto aumenta las posibilidades de vida en la galaxia, pues las enanas rojas son las estrellas más comunes.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=5459

¿Elementos de la isla de estabilidad en una estrella?

Proponen que una estrella podría tener elementos pertenecientes a la hipotética isla de estabilidad.

Foto
El Universo no tiene un plan un objetivo o una meta. No está determinado por su final, sino por su comienzo: el Big Bang.
Todo lo que nos rodea es una consecuencia última de lo que pasó durante el Big Bang. Ese estado de baja entropía que es lo que parece que ha permitido la evolución hacia la complejidad del Cosmos.
Al poco de darse en Big Bang se puso en marcha la maquinaria nuclear y empezaron a formase elementos más pesados que el hidrógeno, principalmente helio. Esta producción de elementos se detuvo cuando la expansión del Universo diluyó y enfrío la materia que contenía. A partir de ahí las reacciones de fusión sólo se dieron en las estrellas.
Somos cenizas de estrellas. El carbono o el nitrógeno de las proteínas de nuestros cuerpos se sintetizaron en algún momento en el horno nuclear de alguna antigua estrella. Los elementos más abundantes del Universo son también los elementos de los que está hecha la vida, salvo el helio, que al ser noble, no es usado por la vida. Al fin y al cabo, la vida no es más que química auto-organizada.
En el interior de las estrellas sólo se llega a sintetizar hasta el hierro, los elementos de número atómico superior no son producidos allí. Esos elementos se producen en las explosiones de supernovas y en la colisión de estrellas de neutrones.
Algunos de esos elementos tienen vidas cortas y se desintegran al cabo de un tiempo. Pero las leyes de la física son generosas y nos proporcionan métodos para sintetizar elementos con alto número atómico. Algunos transuránidos se pueden sintetizar por captura de neutrones en un reactor nuclear. Otros, los más pesados, como los elementos transactínidos, sólo si se hacen chocar iones contra blancos de elementos pesados específicos.
Algunos de los elementos transactínidos han sido nombrados recientemente. Esta es la lista de los elementos con número atómico más alto encontrados hasta el momento: rutherfordio (Rf 104), 105 dubnio (Db 105), seaborgio (Sg, 106), bohrio (Bh 107), hassio (Hs 108), meitnerio (Mt 109), darmstadtio (Ds 110), roentgenio (Rg 111), copernicio (Cn 112), nihonio (Nh 113), flerovio (Fl 114), moscovio (Mc 115), livermorio (Lv 116), teneso (Ts 117) y oganesón (Og 118).
Estos elementos son todos radiactivos y con vidas medias muy cortas, aunque esta depende mucho del isótopo del que se trate. Para hacernos una idea, se cree que el isótopo 114Fl289 tiene una vida media de 66 segundos y sería de los más longevos. El 108Hs269 tiene un periodo de semidesintegración de 9,7 segundos. Mientras que el isótopo 112Cn285 tiene una vida media de sólo 0,24 ms. La vida media del moscovio es de 100 ms y el isótopo 118Og293 tiene un periodo de semidesintegración de menos de un milisegundo, pero aun así se considera que su núcleo es ligeramente más estable de lo predicho por situarse cerca de la isla de estabilidad. Este último elemento fue sintetizado con iones de calcio impactando sobre un blanco de californio.
La isla de estabilidad es una propuesta teórica según la cual ciertos isótopos de algunos elementos superpesados podrían tener vidas mucho más largas de lo esperado (ver imagen de cabecera). Aunque este es un tema en el que los expertos no ponen de acuerdo a falta de pruebas experimentales que lo confirmen.
Ahora, un trío de astrofísicos sugiere que se deberían buscar estos elementos “estables” con número atómico 114 o mayor en ciertas estrellas. Según Vladimir Dzuba (University of New South Wales) y sus colaboradores, la estrella de Przybylski o HD 101065 podría tener este tipo de elementos.
Esta estrella fue descubierta por Antoni Przybylski en 1961 y se encuentra a 370 años luz de nosotros en la región del cielo que denominamos constelación de Centauro. Es una estrella rara por contener poco hierro y níquel, pero mucha cantidad de elementos pesados.
Esta estrella es la única conocida que parece contener cantidades apreciables de elementos actínidos cuyos números atómicos van de 89 a 103, como el plutonio, americio o el einstenio. Sólo la estrella HD 25354 se le acerca en este aspecto al tener un poco de americio y curio, pero en menor cantidad. Sin embargo, la presencia de estos elementos está todavía por confirmar.
Pero explicar la presencia de estos elementos en esta estrella ya es de por sí complicado. Una hipótesis es que HD 101065 tuviera una estrella de neutrones por compañera que bombardeara su superficie con elementos con partículas y que así se generasen estos elementos pesados. Lo malo es que todavía no se ha encontrado a tal estrella de neutrones, si es que existe.
Según Dzuba la presencia de estos actínidos podría ser la pista sobre la predicha isla de estabilidad y estos elementos serían precisamente los subproductos del lento decaimiento de otros más pesados. Básicamente, los actínidos tienen vidas cortas y se desintegrarían en su totalidad al cabo de un tiempo. Como la estrella tiene, como mínimo, millones de años, entonces debe de haber un mecanismo que los reemplace y este sería la desintegración de elementos aún más pesados de la isla de estabilidad con vidas muy largas. Los elementos de la isla de estabilidad habrían sido generados por algún mecanismo en el pasado y serían los únicos supervivientes de una gran producción de elementos pesados por tener vidas medias muy largas.
Pero para poder demostrar esta afirmación habría que encontrar en el espectro de esta estrella las líneas del nobelio, lawrencio, nihonio y flerovio, que serían los pasos intermedios de decaimiento radiactivo desde la isla de estabilidad. Lo malo es que estas líneas no se conocen experimentalmente porque, aunque se ha logrado sintetizar estos elementos, sus periodos de semidesintegración son muy cortos y su cantidad tan escasa que no permiten tomar un espectro.
Para rematar, la atmósfera de esta estrella es altamente magnética, estratificada y químicamente complicada, así que la interpretación de los espectros es muy difícil. Incluso podría ser que la supuesta presencia de actínidos no fuera más que un espejismo producido por estas características.
Otro problema sería explicar cómo, en primer lugar, se sintetizaron esos elementos de la isla de estabilidad.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=5422

Portales hacia el sector oscuro

Proponen la existencia de un nuevo portal que permite la interacción de partículas de materia visible con las del sector oscuro.

Foto
Muchas observaciones que se realizan sobre el Universo indican que debe existir la materia oscura, ya sea en las curvas de rotación de las galaxias, las lentes gravitacionales o incluso en la propia formación de las estructuras a gran escala del Universo.
Como alternativa se propusieron en su día las teorías de gravedad modificadas. Teorías que, a su vez, se han ido modificando a conveniencia de sus proponentes. Los últimos resultados sobre rotación de galaxias primitivas posiblemente acaben de una vez con estas teorías, afortunadamente.
En los años ochenta se pensó que estas partículas que componen la materia oscura podrían ser WIMPs o partículas débilmente interactuantes. Las WIMPs tendrían una masa de cientos de veces la de un protón. Estas partículas interaccionarían con la materia ordinaria sólo a través de la fuerza de gravedad y de la fuerza débil.
Las WIMPS aparecían de manera natural en distintas versiones de las teorías de supersimetría que se inventaron para solucionar ciertos problemas del modelo estándar de partículas. Concepto este que también se introdujo en las ideas de cuerdas.
Lo malo es que las partículas que conforman esta materia oscura sigue sin detectarse directamente, pese a los grandes esfuerzos realizados hasta el momento. No sólo eso, en las colisiones del LHC no aparecen indicios de supersimetría o de las WIMPs. Así que muchos físicos piensan que ya va siendo hora de abandonar la idea de las WIMPs y pensar en otra alternativa (las cuerdas, al no ser falsables y, por tanto, no científicas, posiblemente no sean abandonadas por los físicos más recalcitrantes).
Como alternativa se ha propuesto el sector oscuro, una suerte de copia de todas o parte de las partículas del modelo estándar que se comunicarían con las partículas de materia ordinaria a través de lo que se ha denominado “portales” (algunos son imaginativos a la hora de buscar nombre con gancho). Estas partículas del sector oscuro serían además más ligeras, en general, que sus contrapartidas ordinarias.
Así, por ejemplo, si el fotón es la partícula que porta la fuerza electromagnética en las partículas de sector visible, en el sector oscuro habría fotones oscuros que serían los responsables de la particular versión del electromagnetismo en su sector y actuarían entre partículas cargadas con su propia versión de la carga eléctrica.
La existencia de los portales es fundamental a la hora de poder detectar partículas del sector oscuro, porque si la interacción es sola y únicamente gravitatoria, las posibilidades de detección directa son prácticamente nulas. Además, gracias a estos portales, el universo primigenio que surgió tras el Big Bang pudo producir las proporciones adecuadas de materia oscura y ordinaria para que así encaje con las proporciones observadas en el Cosmos.
Los teóricos han identificado varios portales de comunicación entre el sector visible y oscuro. Uno de ellos (el portal vector) supondría la mezcla sutil entre fotones ordinarios y oscuros. Esto permitiría cierta interacción entre ellos y, de vez en cuando, en lugar de producirse un fotón de alta energía se produciría un fotón oscuro. Esto abriría una vía de detección.
El bosón de Higgs o los neutrinos se conectarían de modo similar con el sector oscuro. También habría un portal que comunicaría los axiones con los fotones.
Lo interesante es que cada portal es una herramienta teórica y experimental que puede que ayude en la identificación de partículas del sector oscuro.
Pues bien, hace unos días se publicaba un estudio en el que se identificaba un nuevo portal: el de los axiones oscuros. Este portal permitiría la interacción entre axiones y fotones oscuros. Esta idea teórica proviene de que los quarks pesados, axiones, fotones y fotones oscuros pueden interaccionar unos con otros.
La ventaja de esta nueva idea es que permite conectar, desde el punto de vista teórico, la línea de puntos que había entre diversas versiones de la teoría e interpretar mejor los datos que se puedan obtener en los experimentos.
Es aquí, en la parte experimental, en donde se tienen depositadas ciertas esperanzas. Al ser estas partículas más ligeras que las WIMPs, con una masa inferior a la del protón, no se necesita la energía del LHC o superior para producirlas. A una energía mucho más baja bastaría un haz de electrones incidiendo sobre un blanco para generarlas de una forma mucho más barata. Esa configuración produciría muchos fotones, pero gracias al portal vector también se generarían fotones oscuros.
El ya existente CEBAF (Continuous Electron Beam Accelerator Facility) que está en el Thomas Jefferson National Accelerator Facility de Newport News (Virginia) permite realizar ese tipo de experimentos (en la foto de cabecera). De hecho, ya se están realizando experimentos al respecto allí, de momento sin resultados.
Esta semana se ha celebrado un congreso en University of Maryland (College Park) organizado por el Departamento de Energía de los EEUU. El objetivo era buscar ideas en las que gastar 10 millones de dólares que ayuden a buscar la dichosa materia oscura. Se hicieron varias propuestas, sobre todo encaminadas a la detección de axiones, pero también alguna imaginativa.
Algunos físicos esperan que el Departamento de Energía financie un programa a un plazo mayor, a 10 o 15 años, que permita explorar mejor esta idea del sector oscuro. No sólo está el uso de los aceleradores de electrones antes mencionados para producir estas partículas, del que se espera construir alguno específico para la tarea, sino también la detección directa de partículas ligeras ya existentes del sector oscuro.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=5426

Restos de la primera corteza terrestre

Encuentran lo que parecen ser restos de la primera corteza terrestre de hace 4200 millones de años que indican que sería basáltica, como lo es ahora la corteza oceánica.

En los más de 4500 millones de años de historia geológica de la Tierra han pasado muchas cosas.
Entre ella está una actividad tectónica y una erosión que ha borrado gran parte de la memoria de su pasado que tenía este planeta. Tratar de recuperar rocas de la antigua corteza terrestre que se formó tras la colisión que dio lugar a la luna parece una tarea casi imposible.
Sin embargo, es posible encontrar todavía muestras muy antiguas, incluso más antiguas que hace 4000 millones de años. Muestras que nos permiten recrear la antigua corteza terrestre.
En este caso se trata de circones que contienen lo que parecen restos de la corteza terrestre de hace 4200 millones de años, lo que constituye un nuevo record.
De lo que se trata aquí no es de rocas que se hayan conservado incólumes desde entonces, sino de circones, que son cristales muy resistentes a los avatares de la geología.
Richard W. Carlson (Carnegie Institution for Science) y Jonathan O’Neil (University of Ottawa) encontraron estos circones dentro de rocas de graníticas de 2700 millones de años de antigüedad procedentes de la costa este de la bahía del Hudson en Quebec.
Lo interesante quizás no sea el establecimiento de esta nueva marca, sino qué nos pueden contar muestras tan antiguas.
En este caso se ha usado un análisis que usa las abundancias relativas de isótopos de neodimio y samario. El samario-146 tiene una vida media de sólo 103 millones de años y decae en neodimio-142. Todo el samario-146 que hubiera al formarse la Tierra desapareció hace mucho tiempo. Pero el neodimio presenta otros isótopos que no son el resultado de esta desintegración del samario.
La cantidad de neodimio-142 respecto a la de los otros isótopos del mismo elemento reflejan los procesos químicos que se dieron en las rocas y que cambiaron la razón entre samario y neodimio, cuando todavía quedaba samario-146, hace más de 4000 millones de años.
Las proporciones encontradas indican que las muestras provienen de rocas mucho más antiguas (de hace 4200 millones de años) que fueron refundidas y que tenían una composición rica en magnesio similar al basalto, que es el tipo de roca que forma la corteza oceánica actual.
En el presente esta corteza oceánica sobrevive menos de 200 millones de años antes de subducir al interior debido a la tectónica de placas. Pero el resultado obtenido indica que esas rocas antiguas sobrevivieron sin fundirse durante 1500 millones de años antes de fundirse en las rocas del cratón superior norte, una formación que va de la bahía del Hudson al actual Lago Hurón en Ontario.
Esto indicaría que esas rocas originarias no pueden formar parte de la corteza oceánica o que, entonces, la tectónica operaba a un ritmo distinto al actual. Quizás, en su lugar, tal y como parecen proponer los autores del estudio, las muestras encontradas corresponderían entonces a la corteza continental joven de aquel de esa época.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=5428

miércoles, 24 de mayo de 2017

LOS ANILLOS DE SATURNO FOTOGRAFIADOS POR LA SONDA CASSINI EL 17 MAYO 2017


N00281727.jpg fue tomada el 17/05/2017 a las 23:29 (PDT) y recibido en la Tierra el 18/05/2017 a las 11:29 (PDT). La cámara estaba apuntando hacia los ANILLOS DE SATURNO, y la imagen fue tomada usando los filtros CL1 y CL2. Esta imagen no se ha validado o calibrado. Una imagen validada y calibrada será archivada con el Sistema de Datos Planetarios de la NASA
Para obtener más información sobre las imágenes en bruto, la comprobación en nuestra sección de preguntas frecuentes.
Crédito de la imagen: NASA / JPL-Caltech / Instituto de Ciencias del Espacio
FUENTE

NUEVAS PISTAS SOBRE EL MISTERIO DE LA ESTRELLA TABBY


cb1

En los próximos días sabremos si la misteriosa pérdida de luminosidad de la estrella es un fenómeno periódico. Un grupo de astrónomos y podcasters españoles ha observado por primera vez cambios en el espectro justo en el momento en que vuelve a perder luz.



Escrito por Aberrón 

FUENTE

CYGNUS A, UNA DE LAS GALAXIAS MAS FAMOSAS ESCONDIA UNA SORPRESA EN SU INTERIOR


Cygnus A es una de las galaxias más conocidas debido a numerosas razones. Pero todavía nos guarda sorpresas, como el segundo agujero negro, un fenómeno que había pasado desapercibido hasta ahora.

Cygnus A, una de las galaxias más famosas, escondía una sorpresa en su interior
Constelación de Cygnus. Fuente: Ken Crawford

Desde que John Mitchell propusiera la existencia de semejantes cuerpos celestes en el siglo XVIII, los agujeros negros han permanecido en el imaginario de los físicos a la espera de ser desvelados. Fue el mismísimo Einstein quien consiguió demostrar la posibilidad real de la existencia de estos fenómenos tan extraños. Pero hasta la fecha, los agujeros negros siguen siendo uno de los elementos más misteriosos y fascinantes de nuestro universo. Recientemente, un equipo de investigadores del Research Institute of Liverpool, de la John Moores University, se ha topado con otro de estos gigantescos elementos en un sitio más que inesperado: la famosa galaxia conocida como Cygnus A.

La galaxia más brillante

¿De dónde proviene la fama de Cygnus A? Esta radio galaxia es una de las fuentes más brillantes del universo visible. Descubierta en 1939, Cygnus A permitió hacer descubrimientos fundamentales para la astronomía actual. Entre ellos, en 1984 permitió entender qué son los jets energéticos, descomunales chorros de partículas que se mueven a velocidades impresionantes. Estos jets se asocian con los fenómenos más energéticos del universo y son extremadamente brillantes. La observación de Cygnus A permitió marcar la capacidad técnica de la época, allá por los años ochenta. "Debido a ello, no volvimos a mirar hacia Cygnus A hasta 1996, cuando los nuevos componentes del VLA (del inglés, Very Large Array, el observatorio radioastronómico dónde se ha producido el descubrimiento) proporcionaron un nuevo rango de radiofrecuencias que observar", explicaba para la prensa Rick Perley, del National Radio Astronomy Observatory, o NRAO, y que participó en las observaciones originales de Cygnus A. Pero el nuevo agujero negro no aparecía entonces.

NASA mide por primera vez la velocidad de rotación de un agujero negro

Ni tampoco años después cuando nuevas investigaciones buscaban más información sobre esta galaxia. La brillantez de sus elementos dejaba claro que algo muy energético, un agujero negro, se situaba en su centro. Sin embargo, ni con las renovaciones se pudo observar este segundo agujero negro, cuya presencia ha surgido hace muy poco. La importancia de Cygnus A ha sido recogida tanto a nivel divulgativo como en obras de ficción. Por ejemplo, Carl Sagan ya habló de esta galaxia, que se sitúa a 800 millones de años luz de nuestro planeta. Esto es sólo una manifestación del impacto mediático (y científico) que tuvo en su momento Cygnus A, una galaxia cuyos jets "brillan" lejanos mientras su centro puede observarse en las longitudes de onda visibles. Pero, si llevamos tanto tiempo observando este punto en el cielo, ¿por qué no habíamos visto el nuevo agujero negro en su interior?