Día Mundial de la Fotografía: ¿Qué tienen en común una cámara fotográfica y un satélite?

Fernando Hisas, Gerente de Proyectos Satelitales de la CONAE, explica el funcionamiento de los dispositivos.

TECNO Y CIENCIA Por: Rossana Longo 19 de agosto de 2020
DIA DE LA FOTOGRAFIA
Día de la fotografía y satélites. Foto: Gobierno de Nación

Fernando Hisas, Gerente de Proyectos Satelitales de la  Comisión Nacional de Actividades Espaciales, CONAE, explicó el funcionamiento de las imágenes satelitales. Hoy es  el Día Mundial de la Fotografía, y desde Nación aprovecharon para difundir conocimiento sobre el tema.

“Las cámaras ópticas tienen mucho en común con los sensores ópticos que se utilizan en el espacio. En rigor, básicamente son la misma cosa”, afirmó Fernando Hisas, declarándose un fanático de la fotografía desde toda su vida.

“Siempre me fascinó el mundo de la fotografía y el cine, sobre todo la parte técnica. Mis viejos me compraron la primera cámara cuando estaba en la escuela primaria y en quinto grado de la escuela primaria ya tenía mi propio laboratorio donde revelaba mis fotos”, comentó.

fotos

Con respecto a las imágenes satelitales, Hisas explica: “Si sacamos la limitación del ojo humano, podemos observar y analizar imágenes en un espectro mucho más amplio del visible”.

Por ejemplo, las imágenes que proporcionaba el SAC-C, el primer satélite argentino de observación de la Tierra, puesto en órbita en el año 2000, contaban con una Cámara Multiespectral de Resolución Media, que consistía en un sensor capaz de captar imágenes tanto en el rango visible como en el infrarrojo. Esto permitía observar características del planeta invisibles al ojo humano.

sac

“El instrumento del SAC-C tenía un diseño particular de bandas en la zona del azul y podía distinguir muchas tonalidades en el mar que a simple vista no se veían,  representándolo con una variedad de gamas para distinguir, por ejemplo, alimento en suspensión y contribuir a la actividad de la pesca y el cuidado del recurso”. cuenta el profesional.

La evolución de estas tecnologías se trasladó al SABIA-Mar, concebido como una misión de Observación de la Tierra con aplicaciones prioritarias en el estudio del mar y costas, cuya puesta en órbita está prevista para el año 2022.

Hisas destacó que el sensor superespectral de este satélite podría ver cosas a las que nuestros ojos no podrían acceder. Por ejemplo, el infrarrojo cercano provee información sobre el estrés hídrico de las plantas. Antes de que la vegetación se ponga amarilla, en el rango infrarrojo el sensor acusa un impacto de falta de agua que no se observaría a simple vista”, dijo el ingeniero de la CONAE.

Cambia el fenómeno físico para producir la imagen, pero el concepto es el mismo. El radar genera fotos como resultado de la interacción de un pulso electromagnético con la materia, y a través de un proceso de reconstrucción genera una imagen.

En la cámara óptica, donde el sol ilumina, la energía electromagnética también interactúa con la materia que está en “el pixel”, igual que el radar. De esa interacción se retrodispersa luz que capto desde la cámara del satélite, igual que la cámara de fotos común, y la analizo con los filtros arriba en la cámara y luego mando a tierra esa información.

“Desde el punto de vista de la imagen, tanto una como la otra son representaciones de un fenómeno físico que se produce en cada pixel de la imagen, ya sea por la luz solar o por el pulso de microondas. Lo que pasa es que la imagen óptica es mas común para las personas porque desde que nacemos identificamos las cosas visualmente. Para nosotros decir que la planta es verde es una obviedad. Lo que pasa es que el ojo no tiene la experiencia de ver como un radar”, concluyó en sus declaraciones a prensa de Nación.

Para vos