HDR: ROMPIENDO BARRERAS
El manejo de Imágenes de Alto Rango Dinámico o High Dinamic Range Images -HDRI- nos trae al mundo de la fotografía una serie de técnicas nacidas en los 90 para aplicar iluminaciones complejas sobre objetos 3D. La poca eficacia de las cámaras digitales a la hora de capturar escenas con grandes contrastes de luminosidad se resuelve combinando varias tomas en una imagen única, con una escala de valores numéricos virtualmente infinita.
En la anterior entrega comentábamos varias de las técnicas que ayudan a solucionar el problema del exceso de contraste, a partir de una toma única, con ajuste selectivo o doble revelado RAW.
Actualmente se están popularizando las imágenes HDR, aunque desgraciadamente se limitan a escenas estáticas, ya que requieren la posibilidad de hacer varias tomas diferentes del mismo sujeto.
La idea básica es la combinación de varias tomas idénticas con diferentes exposiciones, en una imagen única que debe reflejar los detalles de cada zona, como lo hubiese hecho una película o sensor capaz de abarcar todo el rango de luminosidades de la escena.
Las tomas deben hacerse variando únicamente el tiempo de exposición, ya que variar el diafragma hará que muestren diferencias en la profundidad de campo. Todas ellas captarán el mismo rango de luminosidades real, pero la diferencia de tiempo hará que cada una registre de forma óptima una parte de este rango.
La diferencia no debe ser tan exagerada como muestra el gráfico. Usualmente el tiempo de cada toma es doble o triple de la anterior, de manera que se solapan mucho, y son más numerosas. Algunos programas que realizan procesos hdr agradecen que el número de tomas sea impar, de forma que haya una toma "central" de referencia.
Cuantificación exponencial
Para combinar las tomas sin perder información, hay que utilizar una escala de valores ampliada. Es frecuente que se duplique la profundidad de bit. Así se hace en los cálculos de renderizado con imágenes 3D y realidad virtual:
Un punto P presenta unas características de color, opacidad y reflectancia, que son su información propia. Pero la luminosidad recibida desde cada dirección es diferente, y varía cuando el punto de vista V se desplaza. Es preciso registrar, según coordenadas esféricas, la iluminación recibida en P desde diferentes direcciones.
Estos datos se asignan a P en un segundo paquete de bits, que actúa como exponente al que se eleva su valor propio.
En fotografía hdr, esta información añadida se utiliza para relacionar el valor del píxel con el nivel de exposición de la toma. La técnica es reciente y no se puede aún hablar de una manera estándar de gestión de datos por parte de los programas. A simple vista parece excesivo duplicar una imagen de 16 bits a 32 cuando no hay que hacer cálculos espaciales ni considerar diferentes iluminaciones, sinó sólo la variación de exposición.
En todo caso, la escala ampliada establece un rango dinámico teórico muy superior al de cualquier espacio de color usual, para introducir en él la información de todas las tomas y calcular cuál es el valor de cada píxel.
La primera dificultad es el control visual del proceso, ya que ningún monitor puede visualizar todos los valores que hay en la imagen combinada. Lo que vemos habitualmente es una fotografía demasiado dura y contrastada.
Así pues, un poco "a ciegas" debemos pedirle al programa que haga un mapeado tonal de la imagen, para adaptarla a una escala visible en el monitor. En teoría, lo único que está pasando es que, de una escala muy graduada, hay que convertir a otra con menos valores discretos:
Sin embargo, a nuestros ojos, lo que se hace es reducir el alto rango dinámico al de los espacios de color habituales, adaptados a las limitaciones de monitores e impresoras. Esto es lo que se llama convertir una imagen de alto rango -HDR-, en una de bajo rango -LDR-.
En la primera fase el usuario casi no interviene. El programa puede leer los datos exif de las foto y actuar en consecuencia. Sin embargo, en la segunda se nos permite un control sobre la compresión del rango.
Algunos aspectos son los habituales controles sobre recorte de negros y blancos, curva tonal o profundidad de bits de salida. Otros, más característicos de este tipo de procesos, regulan la proporción de contraste local frente al zonal o global.
Sin mejorar el contraste local, perderíamos en muchos puntos gran parte del detalle que alguna de las tomas fue capaz de registrar, y que no tendríamos dificultad en ver con nuestros propios ojos en la escena. Los operadores del mapeado tonal tienen en cuenta la dinámica de la adaptación visual, actuando tanto en el dominio de las frecuencias como en el del gradiente.
Una forma, quizás muy simple, de entender el gradiente es pensar en valores relativos, en lugar de absolutos. Veamos una secuencia de valores en una escala de 0 a 10:
La primera fila de números muestra los valores absolutos, y la segunda los relativos. Si vemos éstos últimos como absolutos, tendremos un mapa de gradiente -segunda fila de píxeles-, que también se puede visualizar invertido -tercera fila-.
Podemos, por tanto, tener una segunda imagen en la que el valor del píxel refleja cuánto destaca en su entorno. Es parecido a lo que hace un filtro de hallar bordes:
Esta información puede influir en el mapeado tonal conservando el detalle fino, pero lo hace potenciando el contraste local, siempre en detrimento del global, indispensable para que percibamos correctamente el espacio, los volúmenes y distancias de la escena. Precisamente, si algo hemos visto en exceso al popularizarse el proceso hdr, son fotografías planas e irreales, en las que se ha destacado el contraste fino de forma indiscriminada.
|