lunes, 26 de febrero de 2018

Plutón como mundo océano.


En el lejano futuro, el Sol se convertirá en una estrella gigante roja y la Tierra dejará de ser un planeta habitable. El aumento de brillo del sol desplazaría la zona habitable hasta limites muy alejados, hasta Plutón.
El sol comenzará a aumentar su luminosidad y a expandirse al acumular helio en el núcleo como resultado de la fusión del hidrógeno. Tras abandonar la secuencia principal para transformarse en una estrella gigante, el sol sufrirá un episodio de aumento de brillo súbito al fusionarse el helio del núcleo para dar carbono y oxígeno. El flash del helio, como se conoce a este fenómeno, será relativamente muy breve al estar el núcleo en forma de materia degenerada y supondrá el fin del aumento continuado de la luminosidad de nuestra estrella como gigante roja.
Puede parecer que Plutón se halla demasiado lejos para que la metamorfosis de nuestra estrella en una gigante roja pueda afectarlo de forma significativa. Pero al parecer, justo antes de producirse el "flash del helio" el Sol será tan grande que la temperatura superficial de Plutón alcanzará valores nunca vistos.
Plutón estará brevemente dentro de la zona habitable del sistema solar del futuro, es decir, la región donde puede existir agua líquida de forma estable en la superficie de un planeta. Claro que “brevemente” significa en realidad varios millones de años. Un periodo de tiempo insignificante en términos geológicos, pero una verdadera eternidad para un ser humano.
¿Qué pasaría con plutón?
Pues los hielos de nitrógeno, monóxido de carbono y metano que cubren la superficie se sublimarán y se convertirán en gases que formarán una nueva atmósfera. Y no solo eso. La corteza de hielo de agua se derretirá para formar un océano global profundo. 
Una vez pasada la fase del flash del helio, Plutón se volverá a convertir en una bola de hielo.

lunes, 19 de febrero de 2018

Planeando el regreso a Saturno. Parte IV


Volviendo a lo grande.

Anteriormente hemos hablado de las propuestas más 'realistas' para volver a Saturno. Pero ¿Y si queremos enviar una sonda más avanzada que la Cassini? Desde el punto de vista científico sería lo ideal. Aunque los presupuestos no son muy esperanzadores, aun así veamos a la más firme propuesta para regresar al reino de Saturno por todo lo alto.

Suponiendo que el dinero no fuera un problema, lastimosamente si lo es, lo mejor ería enviar una misión del tipo Flagship. Las misiones de este tipo, como la Cassini, son las más caras (por encima de 3000 millones de dólares) pero son las más rendidoras y seguras para explorar los planetas exteriores. La propuesta más prometedor es una misión conjunta de la NASA y la ESA, llamada Titan Saturn System Mission (TSSM).

TSSM usaría un enfoque similar a la misión Cassini-Huygens. Es decir, tendríamos una sonda principal para Titán y el sistema de Saturno (Titan Orbiter, una especie de Cassini II pero con tecnología del siglo XXI), construida por la NASA, junto a dos subsondas europeas. Una subsonda consistiría en un aterrizador destinado a investigar los “lagos titánicos” y otra sería un globo. El globo sería más concretamente una montgolfiera, pues usaría aire caliente para flotar.

El orbitador de la NASA tendría una masa total de 6203 kg e incorporaría un radar para cartografiar la superficie de Titán con una resolución de 50 m, frente a los 500 m de Cassini. Antes de entrar en órbita alrededor de Titán, el Titan Orbiter realizará 16 sobrevuelos de Titán y 7 de Encélado. La órbita final se lograría gracias al uso de aerofrenado.

El lander, de 190 kg, tardaría 6 horas en descender a través de la atmósfera y podría aguantar hasta 3-4 horas flotando en las frías aguas (¿o sería “metanaguas”?) de los lagos del hemisferio boreal (72º latitud norte) analizando sus características. El globo, de 10,5 m de diámetro y 571 kg, flotaría a una altura de 10 km y funcionaría de seis a doce meses (!!!). Estudiaría las zonas situadas a 20º N, obteniendo imágenes con una resolución de 10 m. Tanto el orbitador principal como el globo usarían RTGs (en este caso, el calor de los radioisótopos también servirá para calentar el aire), mientras que el lander haría uso de baterías (el uso de paneles solares a la distancia de Saturno no es una opción).

La sonda tardaría 9 años en llegar a Saturno (una de las desventajas de esta misión). La principal novedad consiste en el uso de una etapa SEP (Solar Electric Propulsion), que impulsará la sonda mediante propulsión iónica durante cinco años y evitará el uso de asistencias gravitatorias. La SEP usará dos paneles solares similares a los de la nave Orión. El Titan Orbiter tendría un coste de 3700 millones de dólares. El explorador de los lagos de la ESA no debe superar los 650 millones de euros y el globo correría a cargo del CNES francés.

El orbitador también llevaría instrumentos para estudiar el océano de encélado, al pasar varias veces a través de los chorros de agua de está luna. De esta manera la misión estudiaría a fondo los mundos oceánicos más accesibles del sistema solar exterior.

De momento esta misión no ha sido aprobada y nada indica que lo será en un futuro próximo.

viernes, 16 de febrero de 2018

El sueño del Avión espacial


Alcanzar el espacio con un avión. Es el sueño de cualquier ingeniero aeroespacial, un sueño tan difícil de hacer realidad que muchos lo tachan de simple fantasía. Y eso que la idea es, en teoría, sorprendentemente sencilla. ¿Por qué no usar el oxígeno del aire y la fuerza de sustentación de las alas para alcanzar el espacio, adelgazando así la tremenda masa de los cohetes? De este modo tendríamos a nuestra disposición un sistema barato y reutilizable para alcanzar el espacio. 

Obviamente, en el vacío no hay aire, así que para el último empujón hasta la órbita se debería usar un motor cohete convencional. El problema consiste en alcanzar la velocidad mágica de Mach 25 (29000 km/h), la ansiada velocidad orbital. 

Construir un sistema de propulsión atmosférico capaz de alcanzar estas velocidades es algo así como el Santo Grial de los constructores de motores. Pero hasta la fecha nadie ha logrado construir un motor capaz de viajar a dicha velocidad. 

Ahora debemos añadir otra dificultad que resulta tanto o más importante: el calor. A las altísimas velocidades de un avión espacial, la fricción con el aire y las ondas de choque ocasionan que la temperatura del fuselaje se dispare. A pesar de que un avión espacial sólo pasará unos minutos en la atmósfera, es más que suficiente para requerir el uso de un pesado y complejo escudo térmico, escudo que deberá usar también durante la reentrada. 

La capacidad de aguantar altas temperaturas está ligada a la velocidad máxima del avión. De nada sirve tener un motor capaz de alcanzar Mach 25 si la nave se nos derrite por el camino. Tanto EE UU como la URSS han estudiado este concepto pero está claro que el desafío ha resultado ser mucho más complicado de lo que esperábamos. ¿Veremos en este siglo el primer avión espacial de la historia o se trata en realidad de un concepto totalmente inviable?

miércoles, 14 de febrero de 2018

Alcanzado el espacio desde un avión.


La idea de usar un avión como primera etapa de un lanzamiento orbital es tan antigua como la era espacial. Por aquel entonces los EEUU aún no se reponían del impacto que supuso el lanzamiento del Sputnik por parte de la unión Soviética. El que la URSS pudiese sobrevolar el territorio Norteamericano con total impunidad era algo que el ejército no podía pasar por alto. 

Inmediatamente, el Pentágono inició varios programas de armas antisatélites para intentar neutralizar la nueva amenaza al mismo tiempo que creó varias iniciativas para situar satélites de forma rápida e independiente. Uno de estos proyectos, que en su momento era alto secreto, fue el proyecto Pilot.

Su objetivo era diseñar un pequeño cohete capaz de ser lanzado desde un avión de combate que pudiera situar en órbita pequeños satélites.


El avión escogido sería el Douglas F4D-1 Skyray y como lanzador se diseñó un pequeño cohete de combustible sólido de cinco etapas (seis contando al avión). El lanzador fue bautizado como NOTS-EV1 o Pilot. Se trataba de un cohete de 950 kg de masa con una longitud de 4,38 metros y 0,75 metros de diámetro (1,65 metros con las aletas estabilizadoras). El proyecto Pilot recibió un presupuesto de 300 000 dólares y un plazo de cuatro meses para su desarrollo.

El Skyray con el pilot debía despegar desde una pista del ejército en California y dirigirse hacia una zona predeterminada sobre el canal de Santa Bárbara. Allí el piloto tiraría de los mandos del aparato para subir a una altura de 12,5 kilómetros mientras mantenía una trayectoria que formaba un ángulo de 58º con la horizontal. A la altura prevista soltaría el Pilot a una velocidad de 742 km/h y con un ángulo de 50º. El Pilot iría montado en el ala izquierda del Skyray y para equilibrar el aparato se decidió añadir un depósito de combustible en el ala derecha. El Skyray había sido modificado para aligerar su peso.

Se realizaron 10 vuelos de prueba de los cuales solo uno de ellos, aparentemente, tuvo éxito. Lamentablemente, solo una estación fue capaz de recibir esta señal y hoy en día se considera que los técnicos de dicha estación escucharon simplemente ruido. El resto de vuelos experimentarían fallos de ignición de las etapas cuando no explosiones directamente. 

Tras estos intentos infructuosos, los militares estadounidenses no lograron desarrollar ningún sistema de lanzamiento aéreo. El Proyecto Pilot permanecería en secreto hasta una fecha tan tardía como 1994. De haber logrado sus objetivos, los EEUU habrían podido orbitar satélites mediante aviones menos de un año después de que la Unión Soviética lanzase el Sputnik.

martes, 13 de febrero de 2018

¿Dónde comienza el espacio?


La atmósfera no termina abruptamente a una altura determinada, sino que se hace cada vez más tenue con la altitud. Eso a pesar de que cerca del 75% de la masa de la atmósfera se halla por debajo de los primeros 11 km de altura.

En astronáutica y aviación se usa el concepto de la linea de Von Kárman como frontera arbitraria entre la atmósfera y el espacio exterior. Básicamente es la altura en la cual para mantenerse volando un avión necesitaría moverse a la misma velocidad orbital requerida para dicha altura. 

Gracias a la sustentación de la atmósfera un avión puede moverse a muy bajas velocidades, pero a medida que aumenta la altura la sustentación disminuye y para compensarla el vehículo aéreo debe moverse más rápido.

Eso no quiere decir tampoco que la atmósfera termine a los 100 km, pues si contamos hasta las capas más tenues nuestra atmósfera se extendería hasta unos 10.000 km.

lunes, 12 de febrero de 2018

Viajando a las estrellas con el poder del átomo.


Naves de fusión nuclear.

Forzar, mediante altas temperaturas, a dos núcleos atómicos poco densos a unirse y formar un núcleo más pesado y de paso liberar una enorme cantidad de energía, esta es una descripción simple y breve de la fusión nuclear. Una descripción que, sin embargo, esconde la elevada complejidad asociada al funcionamiento de un reactor de Fusión nuclear.

La fusión nuclear es uno de los sistemas de propulsión preferidos para los viajes interestelares, tanto en la realidad como en la ficción. Los famosos proyectos Daedalus e Icarus se basan en este sistema. Otras propuestas, como el Proyecto Longshot de los años 80, usan un diseño de nave de fusión junto con otros sistemas.

No obstante, y por mucha fama que tengan, lo cierto es que nadie sabe cómo construir un motor de fusión operativo. Diseños hay muchos (motores de fusión continua, fusión por pulsos, fusión mediante haces láser o haces de electrones, fusión por confinamiento magnético, etc.), pero ninguno ha pasado de la fase conceptual sobre el papel.

Al igual que la fusión controlada en reactores terrestres, los motores de fusión parecen estar a la vuelta de la esquina, pero nada indica que sea así. Para complicar las cosas, la eficiencia de un motor de fusión depende fuertemente del combustible usado: deuterio, tritio o helio-3. Las reacciones de deuterio con helio-3 son las más eficientes, pero el problema radica en que el helio-3 es un isótopo muy, pero que muy escaso. Extraer el helio-3 de Júpiter o la Luna, como se ha propuesto en repetidas ocasiones, no parece ser una opción práctica, ni tampoco barata.

Los reactores de fusión terrestres usan deuterio y tritio como combustible, pero esta reacción genera neutrones que no pueden ser dirigidos para propulsar un vehículo espacial, además de crear un serio problema de radiactividad inducida (las reacciones He3-deuterio generan protones, cuya carga eléctrica los hace más dóciles).

A pesar de estas dificultades, las promesas de la fusión nuclear como propulsor de naves espaciales son tan grandes que se continua investigando en ella. En algunas versiones se podría alcanzar un 'fantástico' 13% de la velocidad de la luz. Con estas especificaciones, una nave de fusión por etapas, como la Daedalus de los años 70, tardaría tan solo unos 30 años en llegar a Alfa Centauri, el sistema estelar más cercano.

domingo, 11 de febrero de 2018

¿Cómo evitamos que otros mundos se contaminen con microbios terrestres?


Aunque son muy pocos los organismos que podrían sobrevivir a una exposición de meses o años a las duras condiciones del espacio exterior, se toman algunas acciones para disminuir aun más esta posibilidad.

Los requisitos varían de intensidad de acuerdo al destino de una sonda espacial siendo estos más estrictos que sondas que viajen a lugares potencialmente habitables (Marte, Europa, Encélado etc)

Como si se tratase de una unidad de medida, se contabiliza la cantidad de ‘esporas bacterianas’ en todo el sistema de vuelo (la sonda en sí, la etapa de descenso, el escudo térmico, rovers etc.). Las esporas bacterianas son muchísimo más resistentes que las bacterias normales, de ahí que se consideren un estándar a la hora de certificar la esterilización de un medio.

Pero, ¿cómo se garantizan estos niveles de esterilización?

Pues mediante dos técnicas muy simples. La primera consiste en limpiar repetidamente las superficies de la nave con alcohol y otros disolventes, mientras que la segunda pasa por calentar el equipo hasta temperaturas lo suficientemente altas. Los técnicos encargados de montar la nave se encargan de esterilizar las superficies regularmente con alcohol, mientras que las piezas y equipos capaces de soportar altas temperaturas (no todos) se calientan a temperaturas que oscilan entre los 110º C y los 146º C durante largos periodos de tiempo (con un máximo de 144 horas). 

La temperatura y la duración del ‘horneo’ dependerá del instrumento o parte de la nave. Por ejemplo, las 'patas' de una sonda de aterrizaje o las 'ruedas' de un rover son partes muy delicadas desde el punto de vista de la contaminación biológica.

Está claro que descontaminar una nave espacial no es un proceso trivial. Y si esto ocurre con asépticos robots de metal y plástico, no me quiero imaginar la pesadilla que supondrá certificar la seguridad biológica de una misión tripulada a Marte en el futuro.

Categorías de protección planetaria.


La contaminación de otros mundos con microorganismos terrestres es un tema muy serio que preocupa a la comunidad científica internacional. La NASA cuenta incluso con la Oficina de Protección Planetaria, encargada de dictar las normas de esterilización de los vehículos espaciales que estudian los cuerpos del Sistema Solar potencialmente habitables (Marte, Europa, Encélado, Titán, etc.). En este caso, ‘habitable’ hace referencia obviamente a las formas de vida terrestres, los 'polizones' de nuestras misiones espaciales.

De acuerdo con la Oficina de Protección Planetaria, existen cinco categorías de misiones según el peligro de contaminación biológica. Las categorías I y II abarcan todo tipo de misiones a cualquier lugar del Sistema Solar donde exista nulo o poco riesgo de contaminación por parte de microorganismos terrestres, como la luna, mercurio o los asteroides ( sondas como Dawn, MESSENGER, etc.). 

La Categoría III afecta a sondas que sobrevuelen u orbiten lugares con un riesgo potencial de contaminación, como pueden ser varias lunas de Júpiter o Saturno ( sondas Galileo o Cassini).

La Categoría IV queda reservada para sondas de superficie que estudien esos mismos lugares que la Categoría III pero con misiones de aterrizaje. Huelga decir que todas las misiones a Marte, Europa o Encélado son de Categoría III o IV.

Por último, la Categoría V engloba las sondas que traigan muestras de cualquier punto del Sistema Solar a la Tierra (en este último caso el objetivo es evitar una posible contaminación por parte de posibles organismos alienígenas).

Límites de los cohetes.


Una característica que limita bastante nuestras exploraciones espaciales es el hecho de que un pequeño aumento de la carga útil a ser lanzada al espacio, requiere un aumento enorme en el combustible disponible para el lanzamiento, aumentando el tamaño de nuestro cohete. 

Esto es debido a la pobre eficiencia de los combustibles químicos tradicionales. Es por eso que necesitamos cohetes 'gigantes' para lanzar cargas relativamente pequeñas al espacio. Por poner un ejemplo: el Saturno V era capaz de colocar 110 toneladas métricas en una orbita de 300 km de altura. Pero la masa del cohete cargado de combustible superaba las 3000 toneladas!!! Por ello, una regla de oro en la astronáutica dice 'reduce tu masa' todo lo que puedas.

Para poder mantener la capacidad de carga útil de un vehículo espacial y al mismo tiempo reducir la masa de nuestro lanzador deberemos buscar nuevas formas de propulsión más eficientes.

sábado, 10 de febrero de 2018

El atlas de Farnese.


Permítanme hablarles del, posiblemente, atlas estelar más antiguo que ha sobrevivido hasta la actualidad. El Atlas de Farnese.

El Atlas de Farnese data del siglo II d.C., el mismo es la representación de la figura de Atlas sosteniendo la esfera celeste. En esta esfera aparecen representadas 41 constelaciones clásicas (en realidad son 42, pero la mano de Atlas tapa una de ellas), aunque no las estrellas individuales.

Se trata del mapa celeste más antiguo de las constelaciones occidentales que ha llegado hasta nosotros. Probablemente, el original es en realidad una copia realizada durante el periodo romano de una obra más antigua, quizás del siglo II a.C. Recientemente se ha sugerido que en realidad se trata de las constelaciones del desparecido catálogo de Hiparco (siglo II a.C.), catálogo que sería usado por Ptolomeo como base de su trabajo.

En los dibujos de las constelaciones no aparecen las constelaciones tardías de Equuleus, Coma Berenices o Antinous. Además, Hércules es representado como "el Arrodillado", sin ningún atributo que lo identifique con el héroe griego, tal y como lo describe Arato en sus Fenómenos. Pegaso aparece con alas, aunque en los Catasterismos se rechaza que se trate de esta figura mitológica. Curiosamente, encima de Cáncer aparece un pequeño rectángulo, quizás representando una constelación desconocida que no ha llegado hasta la actualidad y cuyo significado se ha perdido en la noche de los tiempos. Las regiones polares de la esfera celeste están dañadas, por lo que no aparece la Osa Menor.

viernes, 9 de febrero de 2018

Explorando los mares de Titán.


Mandar un submarino a Titán, la gran luna de Saturno, es una idea recurrente desde que se confirmó la existencia de lagos y mares en esta luna. Se han propuesto decenas de diseños de submarinos y barcos para surcar los mares de Titán, pero la más audaz viene de la mano del Instituto de Conceptos Avanzados (NIAC) de la NASA. A diferencia de proyectos anteriores que sugerían pequeñas naves, el NIAC propone con una sonda de gran tamaño, de casi una tonelada, que pueda recorrer en 90 días dos mil kilómetros.

El objetivo del submarino sería lógicamente el Kraken Mare, el mayor mar de Titán. La sonda usaría generadores termoelectricos de radioisótopos (RTG) para proporcionar hasta 1 kW de electricidad a los sistemas de la nave, pero los mayores desafíos tecnológicos son aquellos derivados de las comunicaciones y el control de la misión. Obviamente, es imposible dirigir en tiempo real desde la Tierra una sonda situada a 1500 millones de kilómetros, así que es necesario incluir avanzados sistemas de navegación autónoma así como garantizar una comunicación estable con la tierra, preferentemente a través de un orbitador.

El problema de un submarino en Titán es que la baja densidad de los mares de esta luna repercute negativamente en su flotabilidad. Si, por ejemplo, los mares son de metano puro su densidad sería de 450 kg por metro cúbico, menos de la mitad de la del agua. Otro problema sería el aislamiento del submarino y la evacuación del calor extra producido por los generadores nucleares.

Ahora bien, ¿cómo trasladar esta enorme sonda hasta allí? Habría que introducir el submarino en un pequeño transbordador espacial similar en dimensiones al X-37B del Pentágono, para garantizar la suavidad y precisión del aterrizaje. Es decir, estaríamos ante una sonda gigantesca para los parámetros actuales.

Una misión de este tipo solo sería posible durante el verano del hemisferio norte de Titán. Por lo tanto, y teniendo en cuenta que las estaciones en este satélite duran 29,5 años, no podría llevarse a cabo hasta 2040 aproximadamente.

jueves, 8 de febrero de 2018

La fotografía más lejana.


La sonda New Horizons rompe el récord de las Voyager al tomar las fotografías más lejanas capturadas por una sonda espacial.

Son también las imágenes más cercanas de la historia de los objetos del cinturón de Kuiper. A través de su cámara de reconocimiento de largo alcance (LORRI), New Horizons ha observado varios objetos del Cinturón de Kuiper (KBO) y planetas enanos en ángulos de fase imposibles de ver desde la tierra. También ha estudiado a los Centauros para buscar en ellos rastros de anillos o pequeñas lunas.


Estas son imágenes de diciembre de 2017 en falso color de los KBO 2012 HZ84 (izquierda) y 2012 HE85 (derecha). La sonda se encontraba a 6.120 millones de kilómetros de la tierra al momento de tomar las fotografías. Es decir, más lejos de casa de lo que la sonda Voyager 1, de la NASA, se encontraba cuando capturó el famosa imagen de la tierra conocida como 'punto azul pálido' (6.060 millones de kilómetros).

Este récord no está destinado a durar, pues a lo largo del año New Horizons seguirá estudiando a los KBO, hasta que en menos de un año realice un sobrevuelo cercano al KBO MU69 (a unos 6.500 millones de kilómetros) este será el sobrevuelo más lejano realizado por un artefacto humano.

lunes, 5 de febrero de 2018

La atmósfera perdida.


Desde que la sonda espacial Mariner 4 sobrevoló Marte por primera vez se hizo evidente que el planeta rojo distaba mucho de como los humanos lo habían imaginado: Nada del mundo habitado por una raza avanzada sino mucho más parecido a la luna que a la propia tierra. Pero ¿Siempre fue así? Aparentemente, no. Todo indica que Marte tuvo una atmósfera más gruesa en el pasado, cuya desaparición sigue siendo investigada.

Si observamos a los planetas del sistema solar interior encontramos que Mercurio casi no tiene atmósfera, Venus tiene una densa y ardiente, la de La Tierra tiene una composición única gracias a que la vida la transformó (y no al revés) y resulta maravillosamente templada en comparación a la de sus compañeros planetarios, mientras que la de Marte es muy fina, apenas equivalente al 1% de la terrestre, y por ello muy fría. Pero en la superficie de este mundo hay evidentes señales, físicas y químicas, del fluir del agua, y el trabajo de exploradores como Curiosity apuntan a un largo periodo de clima templado y húmedo.

Eso necesitó una atmósfera mucho más densa, ahora desaparecida ¿Dónde fue? Algunos científicos creen que el viento solar, al desaparecer el campo magnético global, la fue erosionando lentamente a lo largo de cientos y miles de millones de años. Esta incertidumbre disminuyó bastante con el trabajo de la sonda MAVEN, de la NASA, que desde 2013 ha estado estudiando al planeta rojo.

MAVEN pudo determinar la cantidad de atmósfera que el viento solar arrancaba a Marte, de esta manera se pudo reconstruir (parcialmente al menos) la historia geológica de este mundo. Marte habría comenzado a perder muy pronto su campo magnético, debido al enfriamiento de su núcleo. Esa circunstancia motivó el escape progresivo de los gases de su atmósfera, fundamentalmente dióxido de carbono, por el influjo del viento solar.

Se estima que, en la actualidad, los gases escapan al espacio a una media de 100 gramos por segundo, si bien los ritmos se intensifican conforme las tormentas solares se tornan más virulentas. Sin la protección de su atmósfera, la superficie se fue esterilizando y las temperaturas bajando al no provocarse un efecto invernadero que retuviera el calor. Mares y ríos se evaporaron a lo largo de ese proceso.

Cabe mencionar que, con su campo magnético actual, la Tierra está a salvo de un deterioro similar.

domingo, 4 de febrero de 2018

Asteroides cercanos.


Asteroides conocidos que se aproximarán bastante a la tierra en los próximos 200 años.

Buscando vida en Europa.


Una de las principales propuestas de exploración para el futuro consiste en hacer aterrizar una sonda en la luna Europa de Júpiter. Dicha sonda debe determinar de una vez por todas si existe un océano (o lagos) bajo la corteza de hielo y, con suerte, aclarar si puede existir o no alguna forma de vida. 

El problema es que aterrizar en Europa resulta fácil sobre el papel, pero en la realidad su superficie (especialmente las zonas más llamativas para los científicos) está repleta de surcos, zanjas, desniveles y demás topografía enemiga de vehículos espaciales provenientes de otro planeta. La sonda deberían estar equipada con un avanzado sistema de inteligencia artificial para escanear el terreno mediante radar para decidir por sí mismas el mejor lugar para aterrizar. 

No hace falta decir que esto es muy complicado, especialmente si tenemos en cuenta que determinadas zonas de Europa son impracticables para esta misión por culpa de las altas dosis de radiación.

La mancha menguante.


El tamaño de la gran mancha roja ha ido disminuyendo con los años. En 1880 abarcaba casi 40.000 kilómetros de diámetro siendo muy ovalada, como un dirigible, casi 100 años después en 1979 su diámetro se había reducido a 25.000 kilómetros. Hacia 2003 18.000 kilómetros y para diciembre de 2013 solo 15.000 kilómetros. 

De hecho este es un motivo por el cual la gran mancha roja ya no están visible con telescopios pequeños como en el pasado. Evidentemente la mancha cambia su tamaño a lo largo del tiempo, pues en época de Cassini (mediados del siglo 17) la mancha tenía el tamaño y aspecto similar al actual.

sábado, 3 de febrero de 2018

Viajando a ninguna parte.


Más allá de las disputas económicas, el principal responsable del retraso del programa lunar soviético fue el propio gobierno de la URSS. Mientras el proyecto Apolo de la NASA pronto contó con una organización centralizada y recursos financieros más que adecuados para el programa lunar, a principios de 1964 la Unión Soviética aún carecía de un plan oficial para alcanzar la Luna. La financiación del programa N1 (el equivalente al Apolo) era claramente insuficiente comparada con el Apolo, pero lo peor fue que el gobierno permitió que otras oficinas de diseño siguieran adelante con planes lunares alternativos, derrochando así los escasos recursos disponibles y creando una enorme confusión en el plano organizativo. En un momento dado existieron hasta 3 programas lunares ¿Cómo iba la URSS a adelantar al programa Apolo si ni siquiera se comprometía firmemente con un solo programa lunar? Evidentemente, así no podía.

Efecto Oberth


O como aprovechar al máximo el combustible de una nave espacial usando la gravedad.

El efecto Oberth, también llamado sobrevuelo propulsado (powered flyby), es como se conoce en astronáutica al aprovechamiento de la gravedad de un cuerpo para aumentar bastante la eficiencia de un motor cohete, varios órdenes de magnitud en algunos casos. 

Un cohete produce la misma fuerza independientemente de su velocidad. Pero la variación de la velocidad o Delta-V, cambia dependiendo de en que lugar de una órbita se encuentre nuestra nave espacial.

Básicamente podremos variar mucho más nuestra velocidad (aumentándola o disminuyéndola) si nos encontramos en el punto con mayor velocidad de nuestra órbita. Ese punto es llamado periapsis o periastro y es cuando la distancia al cuerpo celeste es mínima. 

Usemos como ejemplo a la sonda Juno. Cuando fue enviada con destino a júpiter, se hallaba cerca del periastro terrestre (perigeo). Luego de 5 años al llegar al planeta gigante realizó el encendido de sus motores principales para frenar lo suficiente cuando se encontraba en el periastro de Júpiter (informalmente llamado perijovio), si hubiese usado su motor en otro momento no habría podido disminuir lo suficiente su velocidad y hubiera pasado de largo.

Una propuesta de la NASA para un misión precursora interestelar es utilizar está técnica junto a una tecnología emergente como lo es una vela solar. Básicamente necesitamos una sonda que realice una maniobra de asistencia gravitatoria con el Sol desplegando su vela solar durante su paso por el periapsis (llamado perihelio en este caso) para acelerar drásticamente aprovechando el efecto Oberth. 

Con una vela extremadamente fina, tanto que su masa por metro cuadrado no debería superar el gramo y un sobrevuelo a muy corta distancia del sol aproximadamente 2-3 millones de kilómetros de la fotosfera se lograría una velocidad tremenda para un sistema que no transporta combustible, como una vela solar (otra cuestión es si la tecnología actual puede construir una vela tan ligera y resistente a las altas temperaturas).

De esta manera conseguiríamos alcanzar una velocidad de aproximadamente 1000 km por segundo, un 0,3% de la velocidad de la luz!!!

viernes, 2 de febrero de 2018

En las afueras de la galaxia.


Nuestra galaxia se extiende más allá de los clásicos brazos espirales. En la afueras de la misma y tomando la forma de una nube esférica que envuelve a la vía láctea se halla el 'halo galáctico'.

En esta región habitan estrellas que no están insertadas en el disco de la galaxia (como es el caso de nuestro sol) sino que siguen órbitas transversales que las hacen entrar y salir del mismo.

El halo se halla compuesto por estrellas muy antiguas, verdaderos fósiles de la evolución estelar, posibles remanentes de galaxias que fueron absorbidas por la vía láctea hace eones.

Muchas de estas estrellas se mueven juntas, no formando cúmulos precisamente, sino siguiendo la misma trayectoria por lo que posiblemente sean lo que queda de galaxias satélites de la vía láctea que fueron canibalizadas. Estás estrellas se han dispersado con el tiempo pero aun no han roto los lazos que tenían cuando formaban la galaxia original.

¿Cuales serían las posibilidades de vida en estas regiones externas de la galaxia?

Al ser estrellas muy antiguas tienen una metalicidad baja (es decir que son pobres en otros elementos aparte del hidrógeno y el helio) por lo que los planetas rocosos deben ser poco frecuentes. así que si las comparamos con las estrellas de los brazos galácticos su potencial astrobiológico sería bajo.

Aun así, si la vida ha surgido en alguna de estas estrellas (sería muy antigua) los hipotéticos seres disfrutarían de una magnifica vista de nuestra galaxia.

¿Por qué es tan difícil comunicarse con las sondas distantes?




La comunicación con los exploradores robóticos más alejados es dificil. Además de debilitarse la señal, los datos tardan mucho en llegar. Las señales de radio son señales electromagnéticas, igualmente la luz son "señales" electromagnéticas. Para entender las diferentes frecuencias, los colores son la herramienta perfecta. Si nuestra radio escucha el color rojo ¿cómo es posible que otra radio no genere interferencias? porque la otra radio transmite en azul, de esa forma si estás en una habitación y te envían un mensaje en código morse por colores, puedes ignorar los colores que no te interesan y escuchar el color que sí te interesa. Tomemos como ejemplo a las legendarias sondas Voyager.

Las sondas voyager transmiten a 25W aproximadamente así que piensen en un foco transmitiendo a 25W, eso sí con un foco enorme (la antena de la voyager mide 3.7m de diametro) y es igual que un espejo pero no para la luz visible sino para la frecuencia de las voyager (banda X, en torno a los 8GHz). Es fácil de entender que una bombilla de 25W se ve cada vez más "tenue" a medida que se aleja, verdad? ahí tenemos la atenuación.

En tierra, tenemos telescopios enormes que trabajan en la banda X, lo que pasa es que los llamamos "radiotelescopios" porque trabajan a frecuencias más bajas que las de la luz visible. Estas enormes antenas (72m!!!) son como antenas reflectores (tipo cassegrain) pero nuevamente para las frecuencias más bajas, para nosotros no parecen espejos pues no reflejan la luz visible pero las hemos construido para que sean espejos en la frecuencia señalada.

Muy bien ¿pero porque transmiten tan lento? Si nuestra señal es débil se puede suplir la falta de potencia reduciendo la velocidad de las comunicaciones. Por ejemplo las antenas más grandes de la NASA fueron actualizadas de 62 a 70m (o algo así) para aumentar la recepción de las señales de las Voyager en su llegada a Urano y Neptuno. Esto no es porque las Voyager no podrían ser escuchadas a esas distancias si no que la emisión de datos serían muy lenta.

La sonda New Horizons, que en 2015 sobrevoló Plutón, tiene una antena mas pequeña y para garantizar una correcta recepción de los datos, estos fueron enviados a una velocidad de 1 kilobyte tal que solo las antenas de 70 metros de la Red de Espacio Profundo detectan tal señal.

Una imagen promedio de Plutón tomada por la cámara LORRI pesa 2,5 Megabytes, haciendo unos pocos cálculos: Cada foto tardaba cerca de 42 minutos en descargarse. Para el 2019 la New Horizons se encontrará con un pequeño objeto del cinturón de Kuiper, MU69, y la descarga de datos promete ser más lenta aun.

jueves, 1 de febrero de 2018

WFIRST, el 'sucesor del Hubble'.


WFIRST (Wide Field Infrared Survey Telescope) será el siguiente gran observatorio de la NASA luego del James Webb, tendrá un espejo de 2,4 metros de diámetro, similar al del Hubble pero con una focal más corta lo que le permitirá observar un campo amplio del cielo.

Mientras que el Hubble puede ver hasta diez mil galaxias al mismo tiempo, WFIRST captará un millón (!). Gracias a esto WFIRST observará un total de 2700 supernovas lejanas de Tipo Ia con un corrimiento al rojo de hasta 1,7 para determinar la naturaleza de la energía oscura. También podrá obtener el espectro de veinte millones de galaxias y, atención, será capaz de detectar nada más y nada menos que 2600 exoplanetas gracias al método de la microlente gravitatoria. El método de la microlente también permitirá levantar detallados mapas de la distribución de la materia en el Universo, incluida la materia oscura.


Además estará dotado de un coronógrafo. El uso del coronógrafo permitirá visualizar de forma directa decenas de gigantes gaseosos y de hielo alrededor de otras estrellas, así como discos protoplanetarios o cinturones de Kuiper. El coronógrafo ampliaría las capacidades del telescopio de forma increíble, pero tiene un coste adicional de unos 270 millones de dólares, una cifra nada despreciable en una misión que ya tiene un presupuesto bien justo.

La cuestión ahora es si la NASA podrá reunir el dinero para construir este observatorio y lanzarlo la próxima década (2026), algo que no está nada claro teniendo en cuenta que el James Webb se ha tragado casi todos los recursos disponibles para la división astrofísica de la agencia espacial norteamericana.

¿Porqué fracasaron los transbordadores?




Por supuesto, hablamos de un fracaso relativo, pues no cabe duda de que fue una de las naves más hermosas para viajar al espacio, inspirando a varias generaciones de científicos e ingenieros. Pero también tuvo sus deficiencias.
El transbordador había sido la gran esperanza de la NASA y posteriormente de la URSS para abaratar los costes de acceso al espacio mediante una nave reutilizable y dejar atrás los tremendos gastos de la Era Apolo. Pero la realidad se impuso. Como todo sistema reutilizable, es más complejo que uno desechable y complejo equivale a más caro por lo que serían necesarios numerosos vuelos para rentabilizar el proyecto. El 28 de enero de 1986 el transbordador espacial Challenger se desintegraba 73 segundos después del despegue. Además de perder a siete astronautas, la tragedia se saldó con una víctima más: el propio programa de la lanzadera espacial. Tras el accidente, la NASA abandonó la idea de lanzar todos los satélites y sondas espaciales con el transbordador: no habría más misiones para poner en órbita cargas comerciales. No quedó más remedio además que reconocer la imposibilidad de lanzar más de 10 misiones al año, cuando el objetivo inicial habían sido unas 24.
¿Qué fue lo que salió mal? pues no es una pregunta facil de resolver pero los principales motivos son los siguientes.
-Elevado costo de la reutilización: poner a punto para una nueva misión al transbordador costaba mucho más que construir un cohete desechable para lanzar la misma carga útil.
-limitada capacidad de carga útil: un sistema tan complejo no era capaz de llevar cargas pesadas al espacio por lo que era poco practico (y nada barato).
-Falta de un sistema de escape para la tripulación, la inclusión de un sistema similar era posible pero hubiera limitado aun más la carga útil.
-El escudo térmico del Transbordador, la experiencia ha demostrado que no es buena idea llevar las cargas al costado del lanzador, pues eventuales desprendimientos de materiales pueden dañar el escudo del transbordador (caso del Columbia)
-La premisa básica del transbordador era que el alto número de misiones harían rentable su desarrollo, pero pronto quedó claro que no había entonces (ni ahora) una demanda que justificase un ritmo de lanzamientos tan elevado.