Fotografía Computacional: El futuro fotográfico que estamos viviendo desde un pasado

3 minutos de lectura

Fotografía Computacional: El futuro fotográfico que estamos viviendo desde un pasado

 

Los límites físicos de las cámaras son complementados por las tecnologías de procesamiento de imágen de los dispositivos. Gracias a estas tecnologías, los fotógrafos podemos ampliar nuestra gama de posibilidades a la hora de hacer una captura. Sin embargo, los procesos tradicionales cambian con los avances tecnológicos. Y tal vez es hora de entender que la fotografía está evolucionando y así mismo nosotros.

Una imagen creada por unos y ceros

Tal vez, la imágen más importante capturada en la historia de la humanidad en los últimos años es aquél capturado por el Telescopio del Horizonte de Sucesos (EHT). Esta red de radiotelescopios tuvieron que ser sincronizados de manera muy precisa para conseguir captar la radiación que emite los alrededores del agujero negro y de esa manera conseguir esa masa que representa la sombra del agujero negro. Es la fotografía más esperada del universocomo lo comentaban nuestros compañeros de Xataka.

Y la palabra clave en estos procesos es ‘representar’. No es una imagen óptica lo que estamos capturando en esa toma. Es radiación que estimula una serie de dispositivos electrónicos, los cuales pasan por un sistema de procesado de imagen cuyo código ocupa media tonelada de discos duros y produce una imagen de 7416 x 4320 píxeles a 16 bits de profundidad. Es un proceso que si hubiéramos tratado de capturar con una imagen óptica, tendríamos que haber construido un telescopio del tamaño de la tierra.

Así mismo, si bien nuestros sistemas fotográficos siguen siendo en su mayoría ópticos, el rol que juega la computación es cada vez mayor. El color de los sensores no es una mezcla y filtrado especial de haluros de plata que se revelan en un químico, es un estudio hecho por cada casa productora para que el computador de la cámara determine que estimular un pixel verde y un pixel rojo al mismo tiempo produce un color amarillo. Nuestros reveladores tienen versiones de procesado de imagen que permiten conseguir reducir más el ruido, recuperar más información y ajustar mejor los colores. Trabajamos en un flujo de trabajo alimentado por la interpretación de las máquinas.

En un estudio que hace sobre la fotografía computacional, Vasily Zubarev menciona que Marc Levoy, pionero de la imagen computacional, define estos procesos como “técnicas que mejoran o extienden las capacidades de la fotografía digital en las cuales el resultado es una fotografía ordinaria; sin embargo una que no hubiera podido ser capturada con una cámara tradicional”. Aquí es donde los límites físicos de las cámaras terminan y los algoritmos y la computación entran.

En el mundo de la fotografía móvil es mucho más visible: los filtros reemplazan o aceleran nuestra necesidad de editar imágenes; compensando por elementos como nitidez, control de sombras, control de altas luces, mejora del color e incluso mejorando nuestras pieles en las selfies. Actualmente Apple cuenta con un móvil capaz de iluminar la escena y hacerla sentir como una imagen de estudio: toma información representada en una toma, y la modifica para resignificar su contexto y sus propiedades; y seguimos dándole el valor de una fotografía.

Google lanza un móvil capaz de capturar escenas muy oscuras y hacer astrofotografía. Esto lo hace por un proceso de captura de video y luego, mediante un proceso de apilado de imágenes, logra obtener la información completa de la escena. Está interpretando una imagen a partir de comparar puntos de luz y puntos de ruido entre cientos de imágenes en simultáneo.

Al abrir nuestra cámara, el móvil está tomando mil imágenes y entran en el ciclo de reciclado de información de imagen. Al ‘obturar’, lo que estamos haciendo es decirle que nos de la última imagen de ese ciclo. Pero la cámara constantemente está trabajando en conseguir la información de la pila de capturas que está procesando, donde las capas se dividen en balance de blanco, foco, reducción de ruido, mapa de tonos, mapa de luz, detalles de altas luces, detalles de sombra, detección de rostros, detección de metadata de geolocalización, estructura, exposición y segmentación: al menos 12 fotografías están siendo procesadas en milisegundos para producir una sola imágen, que luego va a formar parte de una fila de imágenes en un ciclo de búfer para que una de esas quede seleccionada para subir a Facebook o Instagram.

Aquello que no podemos lograr en una sola imagen con la fotografía tradicional es un proceso común para la fotografía digital moderna.

Redes y más redes

El futuro próximo es la inteligencia artificial, como hemos hablado en ocasiones anterioresLas redes neuronales están modificando nuestra percepción de todo el proceso fotográfico, desde la captura al revelado. Un ejemplo de ello es la implementación de IA en los reveladores modernos como Adobe con Sensei aplicado a Camera Raw y Skylum con su plataforma de Luminar

Continúa leyendo en Xataka Foto aquí

Deja un comentario

Your email address will not be published.

Recientes de Blog