Sensor de imagen

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar

Un sensor de imagen es un sensor que detecta y transmite información utilizada para crear una imagen. Lo hace convirtiendo la atenuación variable de las ondas de luz (a medida que atraviesan o se reflejan en los objetos) en señales, pequeñas ráfagas de corriente que transmiten la información. Las ondas pueden ser luz u otra radiación electromagnética. Los sensores de imagen se utilizan en dispositivos de imágenes electrónicas tanto de tipo analógico como digital, que incluyen cámaras digitales, módulos de cámara, teléfonos con cámara, dispositivos de mouse óptico, equipos de imágenes médicas, equipos de visión nocturna como dispositivos de imágenes térmicas, radar, sonar y otros. A medida que cambia la tecnología, las imágenes electrónicas y digitales tienden a reemplazar las imágenes químicas y analógicas.

Los dos tipos principales de sensores de imagen electrónicos son el dispositivo de carga acoplada (CCD) y el sensor de píxeles activos (sensor CMOS). Los sensores CCD y CMOS se basan en tecnología de semiconductores de óxido de metal (MOS), con CCD basados ​​en condensadores MOS y sensores CMOS basados ​​en amplificadores MOSFET (transistor de efecto de campo MOS). Los sensores analógicos para radiación invisible tienden a involucrar tubos de vacío de varios tipos, mientras que los sensores digitales incluyen detectores de panel plano.

Sensores CCD frente a CMOS

Los dos tipos principales de sensores de imágenes digitales son el dispositivo de carga acoplada (CCD) y el sensor de píxeles activos (sensor CMOS), fabricados en tecnologías complementarias MOS (CMOS) o N-type MOS (NMOS o Live MOS). Tanto los sensores CCD como CMOS se basan en la tecnología MOS, siendo los condensadores MOS los componentes básicos de un CCD y los amplificadores MOSFET los componentes básicos de un sensor CMOS.

Las cámaras integradas en productos de consumo pequeño generalmente usan sensores CMOS, que suelen ser más baratos y tienen un menor consumo de energía en dispositivos alimentados por batería que los CCD. Los sensores CCD se utilizan para cámaras de video de calidad de transmisión de gama alta, y los sensores CMOS dominan en fotografía fija y bienes de consumo donde el costo general es una preocupación importante. Ambos tipos de sensores cumplen la misma tarea de capturar la luz y convertirla en señales eléctricas.

Cada celda de un sensor de imagen CCD es un dispositivo analógico. Cuando la luz incide en el chip, se mantiene como una pequeña carga eléctrica en cada fotosensor. Las cargas en la línea de píxeles más cercana a los (uno o más) amplificadores de salida se amplifican y emiten, luego cada línea de píxeles desplaza sus cargas una línea más cerca de los amplificadores, llenando la línea vacía más cercana a los amplificadores. Luego, este proceso se repite hasta que todas las líneas de píxeles han tenido su carga amplificada y salida.

Un sensor de imagen CMOS tiene un amplificador para cada píxel en comparación con los pocos amplificadores de un CCD. Esto da como resultado menos área para la captura de fotones que un CCD, pero este problema se ha superado mediante el uso de microlentes delante de cada fotodiodo, que enfocan la luz en el fotodiodo que, de lo contrario, habría golpeado el amplificador y no habría sido detectada. Algunos sensores de imágenes CMOS también usan iluminación trasera para aumentar la cantidad de fotones que golpean el fotodiodo. Los sensores CMOS pueden implementarse potencialmente con menos componentes, usar menos energía y/o proporcionar una lectura más rápida que los sensores CCD. También son menos vulnerables a las descargas de electricidad estática.

Otro diseño, una arquitectura híbrida CCD/CMOS (vendida bajo el nombre "sCMOS") consta de circuitos integrados de lectura CMOS (ROIC) que se unen por golpes a un sustrato de imágenes CCD, una tecnología que se desarrolló para matrices de observación infrarrojas y se ha adaptado a la tecnología de detección basada en silicio. Otro enfoque es utilizar las dimensiones muy finas disponibles en la tecnología CMOS moderna para implementar una estructura similar a CCD completamente en tecnología CMOS: tales estructuras se pueden lograr separando puertas de polisilicio individuales por un espacio muy pequeño; aunque sigue siendo un producto de investigación, los sensores híbridos pueden aprovechar los beneficios de los generadores de imágenes CCD y CMOS.

Actuación

Hay muchos parámetros que se pueden usar para evaluar el rendimiento de un sensor de imagen, incluido el rango dinámico, la relación señal-ruido y la sensibilidad con poca luz. Para sensores de tipos comparables, la relación señal-ruido y el rango dinámico mejoran a medida que aumenta el tamaño.

Control del tiempo de exposición

El tiempo de exposición de los sensores de imagen generalmente se controla mediante un obturador mecánico convencional, como en las cámaras de película, o mediante un obturador electrónico. El obturador electrónico puede ser "global", en cuyo caso la acumulación de fotoelectrones en toda el área del sensor de imagen comienza y se detiene simultáneamente, o "en movimiento", en cuyo caso el intervalo de exposición de cada fila precede inmediatamente a la lectura de esa fila, en un proceso que "enrolla" en el marco de la imagen (normalmente de arriba a abajo en formato apaisado). El obturador electrónico global es menos común, ya que requiere circuitos de "almacenamiento" para mantener la carga desde el final del intervalo de exposición hasta que llega el proceso de lectura, generalmente unos pocos milisegundos más tarde.

Separación de colores

Hay varios tipos principales de sensores de imagen en color, que se diferencian por el tipo de mecanismo de separación de color:

  • Sensor de filtro Bayer, de bajo costo y el más común, que utiliza una matriz de filtros de color que transmite luz roja, verde y azul a sensores de píxeles seleccionados. Cada elemento sensor individual se hace sensible al rojo, verde o azul por medio de un gel de color hecho de tintes químicos estampados sobre los elementos. La matriz de filtro más común, el patrón de Bayer, utiliza dos píxeles verdes para cada rojo y azul. Esto da como resultado una menor resolución para los colores rojo y azul. Las muestras de color que faltan pueden interpolarse utilizando un algoritmo de demostración o ignorarse por completo mediante una compresión con pérdida. Para mejorar la información del color, las técnicas como el muestreo co-sitio de color utilizan un mecanismo piezoeléctrico para cambiar el sensor de color en pasos de píxeles.
  • El sensor Foveon X3, que utiliza una matriz de sensores de píxeles en capas, separa la luz a través de la propiedad inherente de absorción dependiente de la longitud de onda del silicio, de modo que cada ubicación detecta los tres canales de color. Este método es similar a cómo funciona la película de color para fotografía.
  • 3CCD, usando tres sensores de imagen discretos, con la separación de color hecha por un prisma dicroico. Los elementos dicroicos proporcionan una separación de color más nítida, mejorando así la calidad del color. Debido a que cada sensor es igualmente sensible dentro de su banda de paso y en resolución completa, los sensores 3-CCD producen una mejor calidad de color y un mejor rendimiento con poca luz. Los sensores 3-CCD producen una señal completa de 4:4:4, que se prefiere en la transmisión de televisión, la edición de video y los efectos visuales de clave de croma.

Sensores especiales

Los sensores especiales se utilizan en diversas aplicaciones, como la termografía, la creación de imágenes multiespectrales, los videolaringoscopios, las cámaras gamma, los conjuntos de sensores para rayos X y otros conjuntos de sensores de alta sensibilidad para la astronomía.

Si bien, en general, las cámaras digitales usan un sensor plano, Sony creó un prototipo de sensor curvo en 2014 para reducir/eliminar la curvatura de campo de Petzval que ocurre con un sensor plano. El uso de un sensor curvo permite un diámetro de la lente cada vez más pequeño con elementos y componentes reducidos con mayor apertura y caída de luz reducida en el borde de la foto.

Historia

Los primeros sensores analógicos de luz visible eran tubos de cámaras de video. Se remontan a la década de 1930 y se desarrollaron varios tipos hasta la década de 1980. A principios de la década de 1990, habían sido reemplazados por modernos sensores de imagen CCD de estado sólido.

La base de los sensores de imagen de estado sólido modernos es la tecnología MOS, que se origina a partir de la invención del MOSFET por Mohamed M. Atalla y Dawon Kahng en Bell Labs en 1959. Investigaciones posteriores sobre la tecnología MOS llevaron al desarrollo de la imagen de semiconductores de estado sólido. sensores, incluido el dispositivo de acoplamiento de carga (CCD) y más tarde el sensor de píxeles activos (sensor CMOS).

El sensor de píxeles pasivos (PPS) fue el precursor del sensor de píxeles activos (APS). Un PPS consta de píxeles pasivos que se leen sin amplificación, y cada píxel consta de un fotodiodo y un interruptor MOSFET. Es un tipo de matriz de fotodiodos, con píxeles que contienen una unión pn, un condensador integrado y MOSFET como transistores de selección. G. Weckler propuso una matriz de fotodiodos en 1968. Esta fue la base para el PPS.Estas primeras matrices de fotodiodos eran complejas y poco prácticas, y requerían que se fabricaran transistores de selección dentro de cada píxel, junto con circuitos multiplexores en el chip. El ruido de las matrices de fotodiodos también fue una limitación para el rendimiento, ya que la capacitancia del bus de lectura de fotodiodos resultó en un aumento del nivel de ruido. El muestreo doble correlacionado (CDS) tampoco podría usarse con una matriz de fotodiodos sin memoria externa. Sin embargo, en 1914, el cónsul general adjunto Carl R. Loop informó al departamento de estado en un informe consular sobre el sistema Televista de Archibald M. Low que "se afirma que el selenio en la pantalla de transmisión puede ser reemplazado por cualquier material diamagnético".

En junio de 2022, Samsung Electronics anunció que había creado un sensor de imagen de 200 millones de píxeles. El ISOCELL HP3 de 200 MP tiene píxeles de 0,56 micrómetros y Samsung informa que los sensores anteriores tenían 064 píxeles de micrómetro, una disminución del 12 % desde 2019. El nuevo sensor contiene 200 millones de píxeles en una lente de 2 x 1,4 pulgadas.

Dispositivo de carga acoplada

El dispositivo de carga acoplada (CCD) fue inventado por Willard S. Boyle y George E. Smith en Bell Labs en 1969. Mientras investigaban la tecnología MOS, se dieron cuenta de que una carga eléctrica era la analogía de la burbuja magnética y que podía almacenarse en un pequeño condensador MOS. Como era bastante sencillo fabricar una serie de capacitores MOS en una fila, les conectaron un voltaje adecuado para que la carga pudiera pasar de uno a otro. El CCD es un circuito semiconductor que luego se usó en las primeras cámaras de video digitales para la transmisión de televisión.

Los primeros sensores CCD sufrían de retraso del obturador. Esto se resolvió en gran medida con la invención del fotodiodo con clavijas (PPD). Fue inventado por Nobukazu Teranishi, Hiromitsu Shiraki y Yasuo Ishihara en NEC en 1980. Era una estructura de fotodetector con bajo retraso, bajo ruido, alta eficiencia cuántica y baja corriente oscura. En 1987, el PPD comenzó a incorporarse en la mayoría de los dispositivos CCD, convirtiéndose en un accesorio en las cámaras de video electrónicas de consumo y luego en las cámaras fotográficas digitales. Desde entonces, el PPD se ha utilizado en casi todos los sensores CCD y luego en los sensores CMOS.

Sensor de píxeles activos

El sensor de píxeles activos (APS) NMOS fue inventado por Olympus en Japón a mediados de la década de 1980. Esto fue posible gracias a los avances en la fabricación de dispositivos de semiconductores MOS, con la escala de MOSFET alcanzando niveles de micrones más pequeños y luego de submicrones. El primer NMOS APS fue fabricado por el equipo de Tsutomu Nakamura en Olympus en 1985. El sensor CMOS de píxeles activos (sensor CMOS) fue desarrollado posteriormente por el equipo de Eric Fossum en el Laboratorio de Propulsión a Chorro de la NASA en 1993. En 2007, las ventas de sensores CMOS habían superado Sensores CCD. En la década de 2010, los sensores CMOS desplazaron en gran medida a los sensores CCD en todas las aplicaciones nuevas.

Otros sensores de imagen

La primera cámara digital comercial, la Cromemco Cyclops en 1975, utilizó un sensor de imagen MOS de 32×32. Era un chip de memoria RAM dinámico (DRAM) MOS modificado.

Los sensores de imagen MOS se utilizan ampliamente en la tecnología de ratones ópticos. El primer ratón óptico, inventado por Richard F. Lyon en Xerox en 1980, utilizaba un chip sensor de circuito integrado NMOS de 5 µm. Desde el primer mouse óptico comercial, el IntelliMouse presentado en 1999, la mayoría de los dispositivos de mouse óptico utilizan sensores CMOS.

En febrero de 2018, los investigadores de Dartmouth College anunciaron una nueva tecnología de detección de imágenes que los investigadores llaman QIS, por Quanta Image Sensor. En lugar de píxeles, los chips QIS tienen lo que los investigadores llaman "jots". Cada jota puede detectar una sola partícula de luz, llamada fotón.

Contenido relacionado

Transclusión

Departamento de Transporte de California

Laminación

La laminación es la técnica/proceso de fabricación de un material en múltiples capas, de modo que el material compuesto logre una mayor resistencia...
Más resultados...
Tamaño del texto: