El Sensor

colorize  Técnica

El sensor es uno de los componentes principales de la cámara fotográfica. Su función es transformar la imagen óptica creada por el objetivo en una serie de señales eléctricas que darán lugar a la imagen digital.

El sensor está formado por una matriz de de millones de diminutas celdas llamadas fotositos. Dentro de cada una de estas celdas se encuentra un fotodiodo, que es un componente electrónico sensible a la luz.

Sensor CMOS de la cámara Nikon D600

Sensor CMOS de la cámara Nikon D600

Durante la exposición, cada fotodiodo convierte la energía presente en la luz (fotones), en corriente eléctrica (electrones). De esta forma, los fotositos almacenan una mayor o menor carga eléctrica en función de la intensidad lumínica que reciben.

El valor de carga acumulado por cada fotosito es bastante pequeño, por lo que debe ser amplificado antes de su digitalización. Un amplificador PGA (Programable Gain Amplificator) se encarga de esta función, aumentando la tensión de salida del sensor.

El nivel de amplificación depende la sensibilidad ISO seleccionada en la cámara. Cuanto mayor es la sensibilidad ISO, más debe ser amplificada la señal.

Una vez amplificada la señal, un convertidor analógico/digital cuantifica su valor, convirtiéndolo en un número ADU (Analog to Digital Unit). Éste valor indica el nivel de brillo capturado por cada fotosito.

El convertidor analógico/digital se encarga de cuantificar el valor que proporciona la carga de cada fotosito

El convertidor analógico/digital se encarga de cuantificar el valor que proporciona la carga de cada fotosito

El rango de valores que puede tomar el número ADU depende de la profundidad de bits del convertidor analógico/digital. La mayoría de cámaras réflex ofrecen la posibilidad de trabajar con 12 bits (4.096 niveles de brillo) o 14 bits (¡16.384 niveles!)

Por convención, a la relación entre el número de electrones capturados por cada fotosito y su correspondiente número ADU se denomina ganancia del sistema. Este valor es realmente la ganancia inversa, ya que cuanto menor es el valor de ganancia (menos electrones corresponden a cada número ADU) más se ha tenido que amplificar la señal.

Una vez finalizado el proceso de digitalización, la información de los números ADU, sus coordenadas en el sensor y una serie de metadatos adjuntos, son almacenados en forma de imagen RAW en el buffer (memoria interna) de la cámara.

Filtro Bayer

La imagen RAW contiene información del nivel de brillo que corresponde a cada fotosito, pero no de su color. Esto es debido a que los fotodiodos no son capaces de discriminar la longitud de onda de la radiación luminosa.

Para poder capturar imágenes en color, sobre cada fotosito del sensor se coloca un filtro que sólo permite el paso de un determinado color. Las celdas adyacentes tienen filtros de diferente color, siguiendo un patrón de alternancia.

El tipo más común de matriz de filtro de color se llama matriz de Bayer. Las celdas situadas en las filas impares del sensor alternan filtros para producir colores rojos y verdes, mientras que las celdas de las filas pares alternan filtros para producir verdes y azules.

Matriz de Bayer

Matriz de Bayer

El motivo por el cual el filtro verde se utiliza dos veces más que los azules y rojos es que los fotodiodos, como nuestros ojos, son más sensibles a la luz de las longitudes de onda en el rango de 500 a 600 nanómetros (al color verde).

Como resultado de colocar los filtros de color, cada fotosito sólo recibe la luz de uno de los tres colores primarios, desechándose un promedio de 2/3 de la radiación luminosa.

Para obtener una fotografía a todo color, la imagen RAW capturada bajo la matriz de Bayer deberá ser procesada. Esto se hace mediante una serie de algoritmos matemáticos que se conocen como demosaico de Bayer, que consisten en analizar los valores de un bloque de celdas contiguas para interpolar (deducir) el valor de color RGB que corresponde a cada pixel de la imagen.

La mayoría de los procesos de demosaico de Bayer analizan un bloque 5 x 5 celdas adyacentes (o mayor) para establecer el valor RGB que corresponde a cada uno de los píxeles de la imagen. Esta es la razón que explica la diferencia entre el número de píxeles efectivos y píxeles reales que encontramos habitualmente en las especificaciones de las cámaras. En los bordes del sensor hay celdas que se utilizan únicamente para que la rutina de demosaico pueda calcular el color de los píxeles situados en borde de la imagen.

Microlentes

Los fotodiodos del sensor no se encuentran completamente unidos. Entre ellos hay un espacio destinado dar cabida a otros componentes electrónicos.

Esto podría ocasionar que parte de la luz que llega al sensor no fuera captada por los fotodiodos y se perdiera. Para evitarlo, encima de cada fotosito se coloca una microlente, cuyo fin es mejorar su capacidad de recolección de luz. Estas microlentes redirigen al fotodiodo los rayos de luz que reciben desde diferentes ángulos.

Microlentes

Microlentes

Filtro Antialiasing

El efecto de aliasing se produce cuando en una imagen hay detalles muy pequeños que el sensor no es capaz de registrar correctamente. Se puede apreciar cuando ampliamos mucho la fotografía o en imágenes con patrones repetitivos, en las que se observa una interferencia entre las formas del patrón que se llama efecto moire.

Para corregir este problema, es habitual que los sensores incluyan un filtro que se conoce como filtro anti-aliasing (AA filter) o filtro de paso bajo (low pass filter). Este filtro produce inevitablemente una pequeña perdida en la nitidez de la imagen final.

Filtro Infrarrojo

Los fotodiodos del sensor son sensibles a rangos del espectro luminoso que van más allá del rango visual humano. En concreto, son capaces de detectar una parte de las longitudes de onda que corresponden la luz ultravioleta (UV) e infrarroja (IR).

La luz infrarroja es especialmente problemática, ya que su captura afectaría a los colores finales de la imagen. Por este motivo, generalmente se coloca encima del sensor un filtro infrarrojo (IR filter) que no deja pasar este tipo de luz.

Revelado Digital

Como hemos visto, la imagen RAW contiene (en bruto) los datos capturados por el sensor de la cámara. Podemos decir que la imagen RAW es el negativo digital.

Una imagen RAW contiene, básicamente, la siguiente información:

  • Los metadatos del sensor, incluyendo su tamaño y las características del filtro de color
  • Los metadatos de la imagen, como pueden ser los ajustes de exposición, el modelo de cámara y objetivo, la fecha de disparo, el balance de blancos, etc.
  • Los datos capturados por el sensor: el nivel de brillo correspondiente a cada pixel y sus coordenadas en la imagen

Al proceso de transformar una imagen RAW en una fotografía digital, lo llamaremos revelado digital.

El revelado digital incluye diferentes operaciones. Las más relevantes son las siguientes:

  • Descomprimir los datos de la imagen RAW
  • Realizar el demosaico de Bayer, interpolando los datos capturados por el sensor en una matriz de píxeles de colores
  • Ajustar el balance blancos
  • Codificar los niveles de brillo capturados por el sensor, convirtiéndolos en los valores RGB de cada pixel de la imagen
  • Mejorar el contraste y la saturación
  • Reducir el ruido
  • Eliminar las aberraciones cromáticas de los objetivos
  • Mejorar la nitidez de la imagen aplicando una máscara de enfoque

Cuando disparamos en formato .jpg, la propia cámara se encarga de hacer el revelado digital (nada más tomar la fotografía). De esta forma, en la tarjeta de memoria se registra la imagen ya revelada.

Si disparamos en formato RAW, la cámara no realiza el revelado de la fotografía. En la tarjeta de memoria se registra la imagen RAW, por lo que será necesario hacer posteriormente el revelado en el ordenador utilizando un software especializado como Adobe Camera RAW.

Este artículo ha sido publicado el día 1 de diciembre de 2012 en la sección