¿Como se hacen las fotografías de La NASA?




Como probablemente sepas, los colores que vemos en las fotos de muchas de las imágenes procedentes de la NASA, la ESA, y otras agencias espaciales, no son exactamente reales. No es que quieran engañarnos, es que tienen buenos motivos para retocarlas desde la original.

Nebulosas extremadamente coloridas, que nos permiten apreciar los pequeños detalles de sus estructuras, o lo que está sucediendo en su interior y cómo están siendo erosionadas por las estrellas que se han formado en su interior, supernovas, planetas.

Podría seguir con la lista, porque todos hemos visto, en algún momento, alguna imagen del espacio que nos ha resultado muy llamativa. En todos esos casos, lo cierto es que hay un grado de mentira. Es cierto, con un telescopio, no verías la nebulosa con esos colores.



Pero empecemos por lo esencial. Los telescopios y lo que hacen para obtener estás imágenes. Especialmente aquellos que tienen una cámara digital. Un telescopio no es más que un conjunto de tubos, espejos y lentes que permiten que el instrumento capture tanta luz como sea posible.

Tiene la capacidad de capturar mucha más luz que el ojo humano, y por tanto, no sorprende que sea capaz de captar cosas que nunca llegaríamos a ver a simple vista. A menos que nos embarcásemos en un viaje de unos cuantos millones de años de duración. Es la primera diferencia.

La segunda tarea del telescopio es recoger toda esa luz procedente del espacio y concentrarla en un pequeño punto. Esa acción de enfoque también amplía el tamaño de las imágenes, hace que veamos cosas con un tamaño más grande del que tienen en la vida real. Segunda diferencia.


Es decir, en el nivel más esencial del arte de enseñarnos el firmamento, ya estamos percibiendo una construcción artificial de la realidad. Porque lo que podemos percibir por nosotros mismos no es lo mismo que lo que puede percibir ni interpretar un telescopio.

Nuestras retinas tienen sensores especiales (bastones y conos) que son capaces de captar diferentes colores. Los sensores digitales (en los que se incluyen las cámaras), por contra, no son sensibles a los colores. Solo pueden medir la cantidad de luz que les llega.

Así que para corregirlo se utilizan filtros, y o bien se utilizan diferentes conjuntos de sensores, o se combinan diferentes lecturas procedentes del mismo sensor. En cualquier caso, el resultado es el mismo. Una avalancha de datos sobre las propiedades de la luz.




Que el dispositivo ha obtenido en el mismo momento en que tú estabas capturando la imagen. Por medio de algoritmos de software, es posible reconstruir todos esos datos y transformarlos en una imagen que, hasta cierto punto, se aproxima a lo que tus ojos verían sin esa ayuda. 

Para bien o para mal, la exposición y la iluminación tal y como los entiende un ordenador no son iguales a lo que nosotros captamos. Si alguna vez has jugado con los filtros antes de hacer una foto, lo estás haciendo por un simple motivo: quieres que la foto salga mejor.

Los científicos persiguen, precisamente, ese mismo objetivo. En tu caso, seguramente lo haces por un motivo artístico. Ellos, sin embargo, lo hacen por un motivo científico. Las imágenes obtenidas del espacio les permiten descubrir cosas sobre su funcionamiento.



Un poco de contraste aquí, o un poco de brillo allí, puede ser suficiente para comprender las estructuras complejas que observan, y su funcionamiento. La NASA no retoca la foto simplemente para darle un aspecto más artístico, sino para que sea útil científicamente hablando.

Pero ¿qué colores se usan? En el universo, de forma natural, no es descabellado decir que los dos colores más comunes son el rojo y el azul. Si estás viendo una imagen del telescopio espacial Hubble con esos dos colores, seguramente sea bastante aproximado a lo que verías.

Suponiendo que pudieses ir hasta ese lugar y observarlo por tus propios medios. ¿Qué pasa con el verde, el naranja o el morado que se pueden ver en algunas fotos? Los mecanismos astrofísicos no suelen dar como resultado estos colores. Se suelen añadir, de manera artificial.




Así se puede distinguir algún elemento o alguna zona compleja que los científicos están intentando estudiar. Cuando los elementos se calientan, brillan en una longitud de onda de luz específica. A veces, esa luz está dentro de la percepción del ojo humano:

Pero quizá aparezca obstruido por otros colores de la imagen. En otros casos, directamente, la onda de luz no sería visible porque es demasiado corta o larga para lo que podemos ver (y no es parte de la franja de luz visible dentro del espectro electromagnético).

En cualquier caso, lo que se busca es dónde está un elemento en particular en una nebulosa o en un disco protoplanetario. Así que los científicos usan esta característica para poder conseguir indicios sobre el origen y estructura de algo complejo. Es frecuente con las nebulosas.

A menudo, se suelen usar filtros de tres colores, verde, azul y rojo, por ejemplo, para resaltar la presencia de hidrógeno, oxígeno y azufre. Para nosotros puede ser un simple color, pero para los investigadores puede dar información muy valiosa en su estudio.

Inmensos agradecimientos a: Alex Riveiro

0 comentarios:

Publicar un comentario