Las cámaras actuales, el soporte sensible a la luz que emplean es el sensor digital, vamos a repasar las principales características de estos y los tipos existentes así como sus particularidades:

1. Comportamiento lineal: la señal eléctrica que producen es proporcional a la luz que incide sobre él.
2. Donde no incide luz el valor de lectura no es cero, sino el denominado black level, nivel de negro.
3. Para una determinada cantidad de luz el sensor ya no es capaz de seguir dando una señal eléctrica proporcional a la luz que incide sobre él, se dice que el sensor se ha saturado y el valor al que se satura se denomina nivel de saturación, saturation level.
4. Los captores saturados pueden desbordar sobre los adyacentes, produciendo el efecto denominado blooming, siendo las cámaras CCD más proclives a producir este fenómeno.
5. Existen sensores que devuelven datos de 10 (entre 0 y 1023), de 12 (entre 0 y 4095) y de 14 (entre 0 y 16383) bits (los primeros se usan en compactas y los últimos en cámaras de alta gama), aunque el rango viene limitado por los parámetros anteriores; nivel de negro y de saturación.
6. En general a mayor tamaño (superficie) del sensor, mejor calidad de imagen.
7. Aumentar el ISO de la cámara equivale a aumentar la amplificación electrónica de la lectura del sensor, no aumenta su sensibilidad real, por eso más ISO implica más ruido, pues se amplifican por igual señal y ruido. Eso no quiere decir que no debamos usar ISO altas cuando sea conveniente, de hecho es la mejor opción si no podemos bajar más la velocidad o abrir más el diafragma.
8. Cada sensor presenta un rango dinámico característico, que podemos definir como la relación entre los valores más altos que puede registrar sin saturarse y las sombras más profundas en las que el sensor registra algo distinguible del ruido de fondo.

Popularmente existe confusión sobre la resolución de los sensores, la llamada carera de megapíxeles; se tiende a asociar calidad de imagen con una cifra elevada de píxeles, cuando como norma general, para un tamaño de sensor dado, es precisamente lo contraria: empaquetar muchos megapíxeles en un tamaño concreto de sensor (especialmente si es pequeño, como los móviles y compactas) suele llevar aparejado mayor nivel de ruido e intervalo tonal reducido (rango dinámico), produciendo luces quemadas y aparición de artefactos y blooming.

Hay que considerar que obtener imágenes de alta calidad depende mucho de la naturaleza del sujeto fotografiado; las escenas de alto contraste requieren, por parte del sensor, una alta capacidad de intervalo tonal, mientras que las de bajo nivel de iluminación necesitarán un rendimiento de alta sensibilidad, limpio de ruido, una escena de iluminación controlada y cargada de detalles finos, como un paisaje o un retrato (finos detalles del pelo de la modelo) se benefician de una alta resolución.

Sensores CCD y CMOS

El filtro de Bayer es un tipo de matriz de filtros, rojos, verdes y azules, que se sitúa sobre un sensor digital de imagen (CCD o APS) para hacer llegar a cada fotodiodo la información de luminosidad correspondiente a una sección de los distintos colores primarios. Interpolando las muestras de cuatro fotodiodos vecinos se obtiene un píxel de color. Se llama así por su creador, Bryce Bayer, de la empresa Eastman Kodak.

El mosaico Bayer lo forman un 50% de filtros verdes, un 25% de rojos y un 25% de azules. Interpolando dos muestras verdes, una roja, y una azul se obtiene un pixel de color. En la patente de Bryce Bayer, se llama elementos sensores de luminosidad a los verdes, y elementos sensores del color a los rojos y azules. La razón de usar mayor cantidad de verdes es que el ojo humano es más sensible a ese color. La disposición suele ser rojo-verde-rojo-verde en una fila, y verde-azul-verde-azul en la siguiente fila paralela.

Los ficheros RAW de las cámaras digitales guardan la información del patrón de Bayer (y cualquier otro formato de sensor) de forma directa, sin interpolaciones, para posteriormente con programas de revelado digital decodificar con mayor calidad que la que permiten los algoritmos internos presentes en las cámaras.

Delante del filtro de Bayer se antepone otro filtro denominado filtro de antialiasing (AA filter) que básicamente elimina las frecuencias más altas de la imagen, es decir, que emborrona los detalles que son más finos que el propio filtro de Bayer, con el fin de reducir los artefactos de aliasing en la imagen captada. Generalmente también se incluye un filtro infrarrojo, IR Cut Filter (ICF), para reducir la sensibilidad del conjunto sensor al infrarrojo (los CCD son fruto de la investigación militar y se diseñaron originalmente para ser muy sensibles al infrarrojo y poder usarse en visión nocturna).

Sensor Super CCD de Fuji

Este sensor se sale de la anterior pauta Bayer convencional y lo que hace es parear dos píxeles contiguos, que en lugar de ser de colores distintos, son del mismo color, se disponen en diagonal, y su forma en vez de cuadrada es octogonal, aprovechando más el espacio entre celdas dejado para cableado.

Con este diseño, sin los errores de color antes mencionados, se dobla el área sensible y reduce drásticamente el ruido, sin reducir la resolución que supondría distribuir píxeles de mayor tamaño en un captor de idénticas dimensiones. Esta distribución la han llamado EXR. Fujifilm ya usaba dos tecnologías para conseguir una amplia gama tonal. La más revolucionaria y única fue la del captor tipo Super CCD SR, que utilizaba dos fotodiodos de distinto tamaño (S y R) para cada píxel o punto de imagen, estando especializado cada píxel para luces y sombras, con un solapamiento para las zonas medias. Con este sensor se alcanza una mejora en la escala tonal de dos puntos respecto a la gama normal. Este captor es el empleado en cámaras Fujifilm como las S3 Pro y S5 Pro. La segunda tecnología es la empleada en el captor Super CCD HR, en el que se amplifica de forma gradual la señal de las sombras al tiempo que se suavizan las luces generando un hombro similar a la curva característica de las películas fotoquímicas. Este captor es el empleado en cámaras como las Fujifilm F50fd y F100fd.

El nuevo sensor Super CCD EXR funciona de forma similar al Super CCD SR, pero en lugar de los fotodiodos de distinto tamaño, realiza el equivalente a dos exposiciones a sensibilidades distintas, controlando el tiempo de exposición a la luz de los fotodiodos, esto es, controlando el tiempo durante el cual se acumula carga en los fotodiodos, asimilables a píxeles en todos los casos excepto el Super CCD SR.

En este modo de Dual Exposure Control, se permite que píxeles contiguos del mismo color adquieran cargas de distinta intensidad (exposición), y los dos canales o exposiciones para sombras y luces resultantes se combinan en una única imagen de un mejorado intervalo tonal (rango dinámico).

Los fotodiodos son de mayor tamaño que los del Super CCD SR, y el intervalo tonal es aún más amplio y facilita el conseguir una amplia gama de transiciones tonales. Esta estructura aprovecha más todos los píxeles en la capa situada bajo la matriz de color, distinta de la Bayer, para crear una imagen de mayor resolución. En este sentido se comporta en lo que respecta a resolución, al nivel del sensor Super CCD anterior de 12 Mpx, gracias a los nuevos filtros y el diseño de cada fotodiodo.

Sensor FOVEON de Sigma

Es un sensor CMOS de la marca Foveon, que apila sensores rojo, verde y azul, uno sobre otro en lugar de colocarlas lado a lado como en el filtro Bayer. En lugar de limitarse a una componente de color, cada elemento del sensor puede resolver todo un color, suprimiendo la interpolación de los datos de color. Una propiedad interesante es que un mayor porcentaje de los fotones que entran en la cámara serán detectados por un fotosensor; en principio lo serán casi todos frente al tercio que los sensores Bayer.

Cada una de las diferentes longitudes de onda de los colores primarios se absorbe en distintas capas, pues las ondas más largas (rojas) tienen mayor profundidad de penetración en el silicio que las más cortas (azules). Mediante el uso de un filtro que bloquea la luz infrarroja se consigue en las capas del sensor una sensibilidad al color similar a la de los conos del ojo humano. En la película fotográfica de color se emplea el mismo principio, que también emplea distintas capas sensibles al color, unas sobre otras.

Mientras los sensores CCD y CMOS de filtro Bayer tienen teóricamente mayor resolución de luminancia que de color (captan mejor los matices de iluminación que de color), el Foveon las dos resoluciones son teóricamente iguales. Así por ejemplo, la cámara Sigma SD10, produce ficheros RAW de 3.4 Mpx RGB (2268×1512), es anunciada como una cámara equivalente a 10.2 Mpx (2268×1512×3), algunas veces con la aclaración 3.4 Mpx Rojo + 3.4 Mpx Verde + 3.4 Mpx Azul; sin embargo una cámara de mosaico Bayer de 8 Mpx podría del mismo modo aclarar: 2 Mpx Rojo + 4 Mpx Verde + 2 Mpx Azul. El caso es que el archivo RAW final para este tipo de sensores, queda reducido a 1/3 del número de sensores reales, aunque teniendo en cuenta que no hay interpolación, es decir, cada píxel corresponde a la información real de 3 fotodiodos; uno por cada color primario de cada una de las tres capas de este sensor. Tiene las ventajas de producir imágenes con menos artefactos, un color más real y un detallado de texturas más ajustado. Según algunos como desventaja tiene una alta producción de ruido en fotografías de exposiciones largas, pero otros análisis parecen concluir que tanto su rango dinámico, su riqueza cromática y la producción de ruido son mejores en este tipo de sensor. Y sobre todo tienen mayor costo de producción al incluir tres capas de sensores (RGB) para una resolución de imagen de 1/3 del número de sensores reales.

A principios de 2010 las únicas cámaras fotográficas que equipaban sensor Foveon X3 eran las Sigma SD14 réflex y las compactas Sigma DP1 y DP2. En septiembre de 2008 Sigma anunció el desarrollo del modelo SD15, que sucede al SD14 y también equipa sensor Foveon.

RAW vs JPG

Cuando una cámara digital hace una exposición, el sensor graba la cantidad de luz que llega a cada píxel como un nivel de voltaje. Un conversor analógico/digital convierte esta tensión en un valor digital. Dependiendo de la cámara ese valor constará de 10 a 16 bits, como se ha visto al tratar los sensores. Un archivo RAW es comparable a la imagen latente que contiene la película expuesta sin revelar, contiene exactamente lo que recoge el sensor, no es un archivo de imagen.

No hay un estándar y cada fabricante utiliza un formato distinto, incluso entre distintos modelos de la misma marca. Algunos intentos por crear un estándar como el formato DNG de Adobe para normalizar el RAW tampoco están teniendo mucho éxito porque al fin y al cabo es un formato creado por una empresa de software, con sus intereses, y entran en juego estrategias y guerras comerciales, por lo que hasta la fecha cada fabricante tiene su propio formato, se pueden identificar por la extensión del archivo, de qué fabricante es el RAW.

Si disparamos dos fotos idénticas (mismo motivo, encuadre, exposición) una en JPG con baja compresión de datos (alta calidad) y otra en RAW, seguramente verás mejor la primera: Tendrá mayor nitidez/enfoque, mejor contraste, mejor iluminación, colores mejor representados. Esto es debido a que una cámara digital aplica distintos filtros digitales para finalizar la imagen. Sin embargo, el formato RAW nos muestra lo que el sensor capturó, sin ningún filtro ni ajuste; colores neutros, menos saturados, enfoque más blando (debido al filtro Bayer y la pérdida de información/definición que supone) y una iluminación que dependerá de la exposición que hicimos (más visiblemente sobre o sub expuesta si fuera el caso).

Por contra la foto en JPG, al estar en modo RGB tiene 24 bits/píxel (se convierten a solo 8 bits por canal, R, G y B) frente a los 30 a 48 bits/píxel (10 a 16 bits por canal) que contiene el archivo RAW. Los 24 bits del RGB suelen ser suficiente para ver toda la gama de colores posibles en la mayoría de situaciones, pero son claramente insuficientes cuando vayamos a realizar ajustes en la imagen (iluminación, corrección de tonalidades, curvas, enfoques, etc.).

Por otro lado, una imagen en formato RAW, solo en apariencia resulta más pobre, pues contiene muchísima más información (en inglés, crudo, es decir, contiene la información en bruto tal cual lo capta el sensor) y es muy manipulable al ajustar luces y colores. Los problemas son su tamaño, ya que ocupa sensiblemente más que su equivalente en JPG, y precisar un revelado antes de poder tan siquiera visualizar la imagen. Otros formatos de compresión sin pérdida de datos (típicamente TIFF, algunas cámaras de gama alta permiten disparar directamente en este formato) básicamente no resultan prácticos en ningún caso, puesto que si no vamos a manipular la foto, estas nos ocupan mucho más espacio, y si pensamos manipularla, siempre nos ofrece mucha más precisión el formato RAW, que únicamente hemos de añadir un revelado.

Por el contrario, esta necesidad del revelado nos permite un ajuste manual muy preciso y sin deterioro en cuanto a luz, tonos, enfoque, etc, a la vez que mantenemos siempre el original intacto para futuros posibles revelados alternativos con nuevas herramientas que permitan otros ajustes.

Hay fotógrafos que muestran imágenes presumiendo ser directos del RAW sin procesar, como valor añadido en cuanto a saber hacer. Generalmente esto revela un desconocimiento de cómo funciona la imagen digital y la fotografía en sí (aparte el desconocimiento del manejo de las herramientas adecuadas hoy en día), pues como se ha visto, un archivo RAW por sí solo no es una imagen, precisa de ese procesado que incluye una máscara de enfoque que corrija el efecto del filtro Bayer, un ajuste de curvas que compense los valores neutros del fabricante, un ajuste de tonos que haga lo mismo, una compensación de exposición si es el caso (técnicas de derecheo en sensores digitales), un correcto ajuste de blancos, etc, y todo esto trabajando con una resolución de 10 a 16 bits por canal, frente a los 8 bits por canal del JPG, que sin duda ofrecerán una imagen de mucha mayor calidad que el simple JPG directo de cámara, todo ello sin tener aun porqué haber pasado por un retoque digital, pero en cualquier caso, sí por un procesado para obtener la fotografía final y por tanto nunca directo del RAW.

Haciendo una analogía con la fotografía química, se podría comparar a utilizar un carrete genérico y revelar en un minilab de barrio, con valores estándar (generalmente sobre saturaban los colores para hacer las imágenes más llamativas al usuario medio) y en papel estándar (disparar en JPG), o utilizar un carrete específico según el tipo de imagen que buscamos (color o b/n, grano, saturación, sensibilidad), revelar y positivar manual e individualmente cada imagen (ajustando exposición por cada canal, enfoque y encuadre, máscaras, etc) utilizando distinto tipo y calidad de papel según la necesidad (disparo en RAW y procesado posterior).

En resumen, siempre que no pretendamos manipular una imagen y nos baste una calidad estándar (típicas fotos de recuerdos familiares y similares) nos resultará más práctico (menos espacio de almacenamiento, menos trabajo y tiempo) disparar directamente en formato JPG. Por el contrario cuando no sean muchas las fotografías que vamos a seleccionar, necesitemos un control lo más preciso posible (ajuste de blancos, curvas, tonos, máscara de enfoque, etc) y una calidad superior, se hace imprescindible utilizar formato RAW.

© 2007-2017 AD Fotografía Optimizado para