RAW. RAZONES DE PESO
No hace mucho era una de esas palabras que esconden
quién sabe qué sofisticaciones tecnológicas, y hoy
marca la frontera entre la fotografía digital de uso inmediato
y la avanzada o profesional. Decir RAW es hablar de flexibilidad en la
toma, exigencia en el procesado y búsqueda de la máxima
calidad en los resultados. Una manera de hacer fotografía digital
que está socavando muchas de las reticencias de los fotógrafos
químicos.
El concepto de raw (datos en bruto) existía ya
en el viejo sofware para imagen digital, como forma de exportar una imagen
con los únicos datos imprescindibles, es decir, los valores de
píxel. Para poder abrirla después, había que saber
el número de filas y columnas, el número de canales, y si
el orden de anotación era píxel por píxel o canal
por canal, entre otras cosas. Era algo así como exportar texto
limpio, sólo con saltos de párrafo, sin más atributos
de carácter o formato.
Este tipo de archivo aún sobrevive, aunque hoy
la compatibilidad se soluciona estableciendo formatos estándar,
que reconocen todos los programas. Sin embargo la idea del formato en
bruto ha emergido con un sentido diferente: el de anotar los datos de
la captura, previos al proceso necesario para su interpretación
y visualización como imagen.
La necesidad de esta traducción viene del funcionamiento
de los sensores de cámaras y escáneres. Sus células
fotosensibles reaccionan a la luz, generando una carga eléctrica
proporcional (respuesta analógica) que se puede medir y convertir
en información de imagen. No es exacto que sólo distingan
intensidad de luz y no las longitudes de onda que caracterizan los colores,
ya que su sensibilidad espectral no es homogénea, pero al superponerse
con la intensidad lumínica, es imposible extraer la información
cromática del recuento de electrones.
En busca del color
Se recurre entonces a medios ópticos, mecánicos o electrónicos
para discriminar longitudes de onda. Un simple prisma de vidrio puede
descomponer un rayo de luz, desviando cada longitud de onda en un ángulo
diferente. Se aplica este sistema óptico en ciertos escáneres
y cámaras de video, pero requiere el uso simultáneo de tres
sensores, por lo que no es precisamente el más habitual.
Otras soluciones mecánicas, como hacer tres capturas
sucesivas mediante prismas o filtros intercambiables, tampoco son operativas
porque no sirven para fotografiar sujetos en movimiento.
Dejando aparte los sensores Foveon, que aprovechan el
hecho de que las distintas longitudes de onda penetran a diferentes profundidades
en el silicio, la solución adoptada por aplastante mayoría
es anteponer filtros fijos a los fotodiodos, para que cada uno reciba
una franja limitada del espectro visible.
Del fotón al píxel
Así pues, las células de un sensor se dividen
en grupos especializados, como ocurre con los conos en la retina. La distribución
geométrica suele seguir un patrón regular, pero no es equitativa
como en los monitores, porque está condicionada por la necesidad
de transmitir con precisión el claroscuro de la escena, al cual
somos bastante más sensibles que al matiz, y que se capta en el
rango de los verdes de forma mucho más fiable que en los extremos
rojo o azul.
De
izquierda a derecha y de arriba abajo: retículas hexagonal
y rectangular en
monitores rgb, el popular patrón Bayer rggb,
rgbe de Sony, células octogonales
de Fuji, mosaicos gggrgggb,
rgbw y gwwrgwwb. Los 3 últimos se usan en aplicaciones no
fotográficas y pueden integrar células sin filtros
de color, incluso sin filtrado IR o UV.
La consecuencia de interponer filtros es que cada fotodiodo captura uno
de los tres primarios, y por tanto la tercera parte de la información
necesaria para describir la porción de escena que le toca. Para
completarla, se calculan para cada píxel los dos primarios que
restan, promediando los valores adyacentes, o lo que es lo mismo, por
interpolación lineal.
Aspecto
de una fotografía tal como la "ve" un sensor,
tras pasar el mosaico de filtros rggb.
La
misma imagen descrita con un tercio de información procedente
de la captura y dos tercios deducidos por interpolación de
datos (zoom al 300%)
Quisiera puntualizar que se cita mucho la "interpolación
bayer", pero realmente el patrón rggb de bayer es sólo
la geometría, no una técnica de interpolación. Lo
importante es tener en cuenta que este paso, necesario para la visualización,
aumenta los datos de la captura.
Simplificando diríamos que se triplican, aunque cuantitativamente
no tiene por qué ser así. De hecho, es habitual que los
datos de la toma se midan y cuantifiquen a 12 bits, pero que después,
en el proceso automático, se reduzca cada canal a 8.
Entre el fotón y el píxel intervienen otras funciones que
modulan los valores de tono, según los parámetros manuales
o automáticos configurados en la cámara. El resultado es
una imagen rgb a 24 bits, lista para su visualización y uso, guardada
en un formato estándar, normalmente jpg.
Inconvenientes del proceso automático
Esta secuencia es la adecuada para el usuario que necesita un proceso
fácil, inmediato y normalizado, que requiera pocos recursos y rentabilice
además el espacio de almacenamiento. Sin embargo, si lo que más
valoramos es la calidad y flexibilidad, incurre en contradicciones muy
claras:
En lo dimensional se aumentan primero los datos, después se reduce
la profundidad de bits y se somete todo a una compresión que en
cualquier cámara es bastante agresiva e irreversible. En lo tonal,
se aplica un determinado balance de blancos, saturación y enfoque,
que tras la reducción a 8 bits no será nada fácil
corregir.
Algunas réflex digitales y compactas de gama alta empezaron ofreciendo
el formato tif. Se evita así la compresión, que ya es algo,
pero no el resto de inconvenientes tonales y dimensionales, agravando
la ocupación en memoria.
RAW como alternativa
Con el formato raw este problema se suaviza, ya que en general contiene
la mitad de datos que un tif (un canal de 12 bits en lugar de 3 x 8) que
se puede reducir más con un método de compresión
sin pérdidas. Las ventajas saltan a la vista: datos de toma limpios,
con la posibilidad de intervenir y controlar todo su proceso externo.
¿Son realmente datos limpios? maticemos ésto, recordando
en qué parte del proceso están los principales factores
que afectan a los datos.
En una primera fase, la óptica (lentes y filtros), iluminación,
diafragma y obturación mecánica o electrónica condicionan
la cantidad, energía, ángulo y distribución de fotones
sobre el sensor.
En una segunda, entre la célula fotosensible y el conversor analógico/digital,
se da la captación y transporte de electrones, su conversión
a voltaje y un tratamiento de la señal eléctrica (ganancia,
offset) en el que estoy bastante seguro de que interviene el valor ISO
y que se aplican funciones de corrección sobre los datos arrojados
por cada grupo de fotodiodos. La sensibilidad de éstos a diferentes
partes del espectro no es exactamente la misma, ni es homogéneo
el comportamiento de los filtros, por lo que es deseable que el fabricante
rectifique las desviaciones sobre el proceso de fotodetección ideal
de su sensor, sin que ésto se interprete como alteración
de los datos.
Finalmente, y ya a partir de los datos discretos o digitales, se elabora
la imagen según los parámetros establecidos de formato,
tamaño en píxeles, calidad o nivel de compresión,
balance de blancos, saturación y enfoque.
Esta tercera fase, que puede resolver automáticamente la cámara,
es la que se suprime al guardar los datos raw. La gran diferencia es que,
si nos equivocamos en la temperatura de color, o nos pasamos en el enfoque
en un proceso automático, no es fácil arreglarlo después
en un programa de retoque. Sin embargo, si la conversión raw no
es acertada, podemos retomar los datos iniciales, disponibles en 12 bits
y manejables en una escala de 16. Incluso un error de sobre o subexposición
se puede compensar mucho más fácilmente, por lo que se suele
decir que en raw se dispone de mayor latitud. Es una forma incorrecta
de decirlo, pero es cierto que hay un mayor margen de error, mientras
no se llegue a la saturación en la toma.
Otro argumento a favor es la buena costumbre de guardar una copia de
cada fotografía tal como la entrega la cámara, y otra después
de ajustarla y retocarla a nuestro gusto. En este caso, obviamente, es
mucho más coherente guardar los datos raw.
La búsqueda del estándar
A medida que se propaga el uso del raw, se plantea el problema de que,
al estar tan relacionado con el funcionamiento del sensor, no se trata
de un formato universal, sinó que cada marca ha denominado raw
a su forma particular de disponer los datos de toma previos al proceso
automático, y por tanto se requiere un software específico
para cada formato.
Aunque hablar de la caducidad de los actuales raw o de los necesarios
conversores me parece innecesariamente alarmista, sería beneficioso
establecer un estándar para la notación y lectura de datos
raw. La primera propuesta seria la ha hecho recientemente Adobe con el
formato dng, que quiere imponerse como negativo digital universal. Aún
es pronto para predecir el éxito o el fracaso de esta idea, pero
es un primer paso al que seguramente seguirá la integración
de la conversión raw en todos los programas de retoque digital.
|