Un equipo de investigadores del Instituto Tecnológico de Massachussets (MIT) ha mostrado su temor ante un problema inesperado: algunos de los modelos que necesitamos para interpretar los datos del Telescopio Espacial James Webb (JWST) podrían no estar a la altura de los datos con los que deben trabajar. El margen de error, según los cálculos de los científicos podría ser de todo un orden de magnitud.
Un "muro de precisión". El telescopio más caro y preciso de la historia, el James Webb, puede acabar topándose con lo que el equipo del MIT ha denominado un “muro de precisión”. Se trata un problema que en realidad tiene poco que ver con el telescopio en sí (a diferencia de otros sustos a los que nos tiene ya acostumbrados) no que viene originado con el trabajo realizado aquí en la Tierra a partir de los datos que el instrumento envía.
El enorme potencial del JWST viene también asociado a la necesidad de enormes trabajos para interpretar sus datos. El problema es que los modelos con los que interpretamos estos datos pueden acabar ejerciendo de cuello de botella inesperado en el análisis de nuestro universo.
Prajwal Niraula, quien lidera la publicación en la revista Nature Astronomy en la que se da cuenta del problema, resume la cuestión: “Hoy en día, el modelo que utilizamos para desencriptar la información espectral no está a la par con la precisión y calidad de datos que tenemos del telescopio James Webb.”
El problema de la opacidad. La opacidad es una medida de la capacidad que tiene la luz de traspasar materia. Algunas ondas lumínicas lo tienen más fácil para “traspasar” la materia (como es el caso de las infrarrojas en las que está especializada el Webb), pero las interacciones entre luz y objetos pueden ser variadas.
La luz puede ser también absorbida o reflejada. Esta interacción depende no solo del tipo de luz sino también de la materia (cada elemento y molécula responde de una forma) y del estado de la materia (como su temperatura o presión). Gracias a esta información los astrónomos pueden, por ejemplo, averiguar qué elementos hay en la atmósfera de un exoplaneta y a que temperatura se encuentran.
Modelar la opacidad. Tener una idea de la opacidad de la materia en nuestro universo es por ello clave a la hora de dar sentido a los datos que nos manda el JWST. Pero no es fácil. Para Julien de Wit, estos modelos son traductores “piedras Rosetta” que hasta ahora han cumplido con creces su misión de explicarnos los mensajes visuales que captaban telescopios como el Hubble.
“Pero ahora que estamos yendo al siguiente nivel con la precisión del Webb, nuestro proceso de traducción nos evitará captar importantes sutilezas, como esas que marcan la diferencia entre un planeta habitable y uno que no lo es” explica de Witt en una nota de prensa.
Un error de magnitud. Esto se debe en parte a la magnitud del error que han estimado a estos modelos, de aproximadamente un orden de magnitud. Y estos errores pueden afectar a varios aspectos del planeta, como su composición, temperatura y presión atmosférica.
Los investigadores ponen el agua como ejemplo. En términos interpretativos, hay una diferencia importante entre un planeta en cuyo exterior haya un 25% de agua a uno donde la concentración sea del 5%. Sin embargo los modelos presentes no permiten alcanzar ese grado de distinción.
De estos datos dependen muchos de nuestros conocimientos sobre astrofísica y astrobiología. Es decir, nos permiten entender mejor cómo y dónde se forman los planetas y en qué casos podrían llegar a contener vida. “Esa diferencia importa para que podamos constreñir los mecanismos de formación planetaria e identificar biosignaturas fiablemente” explica Niraula.
Peor que estar equivocado. El problema no acaba ahí. Y es que las equivocaciones son siempre más graves cuando no sabemos que estamos equivocados. Eso es precisamente lo que ocurre según las pruebas a las que este equipo sometió a los modelos.
Cuando los investigadores generaron modelos de opacidad basados en el estándar empleado por la comunidad científica pero alterando parámetros. Generaron así modelos a los que denominaron “perturbados”. Observaron que estos modelos alterados ofrecían resultados incorrectos pero plausibles. Es decir, si no supieran de antemano las variables con las que se operaban habría sido imposible percatarse de que los resultados eran erróneos.
“Descubrimos que hay suficientes parámetros que retocar, incluso con un modelo erróneo, para seguir obteniendo resultados con un buen encaje, lo que quiere decir que no sabrías que tu modelo es erróneo y qué es lo que te dice que lo es” explica de Wit.
Los datos planetarios. James Webb es uno de los instrumentos de exploración espacial más precisos (y caros) que ha creado la humanidad. Un logro tan grande que ha podido dejar desfasados otros elementos necesarios para entender nuestro cosmos como algunos modelos físicos.
En cualquier caso, la buena noticia es que conocer los posibles errores es el primer paso para solucionarlos. Es posible que así pueda superarse este muro de precisión del que alertan los expertos. Entretanto el telescopio sigue recopilando datos. Cuándo seamos capaces de leerlos es ya otra historia.
Imagen | NASA
Ver 10 comentarios
10 comentarios
Antonio
Es como la ufología con la cara de Marte. Cuando tenía un cuerno de definición y parecía una cara: no había duda, están ahí fuera y construyen caretos en Marte. Llegó la Mars Global Surveyor, le hizo una foto en buenas condiciones de iluminación, con una resolución de 13 metros por pixel y parecía lo que era, una montaña que no tenía nada que ver con una cara.
Con los modelos que hay actualmente pues igual se estaba usando un margen muy generoso para detectar planetas habitables.
gaboPen
No tenemos un problema con el JWebb, lo tenemos con el modelo para analizar los datos.
Una cosa es una cosa y otra cosa es otra cosa. Son dos cosas diferentes
jackues
Aunque es cierto que es un problema actual, es de hecho una bendición para el futuro de la física y la astronomía. Quiere decir que tenemos una máquina que trabaja por encima de nuestras posibilidades.
El trabajo ahora va a ser mejorar nuestros modelos de trabajo, darles un margen óptimo y crear mecanismos de análisis acorde al James Webb.
El James Webb se ha retrasado y ha costado un precio desorbitado ( bueno en realidad orbitado claro, está en el espacio, no sé que me pasa con el humor ) pero nadie podrá decir nunca que no es una proeza humana para la exploración y el estudio del universo.
skanskan_1
Eso no es un problema, es ciencia.
Se mejoran los instrumentos, entonces hay que mejorar los modelos, entonces hay que volver a mejorar los instrumentos y otra vez los modelos... y así sucesivamente, así es como avanzan la ciencia y la tecnología.
Y no debemos hacerlo tan mal cuando hemos creado cosas como la electrónica, Internet, el GPS, las vacunas, resonancias magnéticas, aviones, helicópteros, naves espaciales, láseres, la criptografía,...