Píxel
En imágenes digitales, un píxel (abreviado px), pel o elemento de imagen es el más pequeño elemento direccionable en una imagen de trama, o el punto más pequeño en un dispositivo de visualización direccionable de todos los puntos. En la mayoría de los dispositivos de visualización digital, los píxeles son el elemento más pequeño que se puede manipular a través del software.
Cada píxel es una muestra de una imagen original; más muestras suelen proporcionar representaciones más precisas del original. La intensidad de cada píxel es variable. En los sistemas de imágenes en color, un color suele representarse con intensidades de tres o cuatro componentes, como rojo, verde y azul, o cian, magenta, amarillo y negro.
En algunos contextos (como las descripciones de los sensores de la cámara), píxel se refiere a un solo elemento escalar de una representación de varios componentes (llamado fotosito en el sensor de la cámara contexto, aunque a veces se usa sensel), mientras que en otros contextos (como MRI) puede referirse a un conjunto de intensidades de componentes para una posición espacial.
Etimología
La palabra pixel es una combinación de pix (de "imágenes", abreviado como "fotos") y el (para "elemento"); formaciones similares con 'el' incluyen las palabras voxel y texel. La palabra pix apareció en los titulares de la revista Variety en 1932, como abreviatura de la palabra pictures, en referencia a las películas. En 1938, "pix" estaba siendo utilizado en referencia a imágenes fijas por fotoperiodistas.
La palabra "píxel" fue publicado por primera vez en 1965 por Frederic C. Billingsley de JPL, para describir los elementos de imagen de las imágenes escaneadas de las sondas espaciales a la Luna y Marte. Billingsley había aprendido la palabra de Keith E. McFarland, en la División de Enlace de General Precision en Palo Alto, quien a su vez dijo que no sabía dónde se originaba. McFarland dijo simplemente que estaba "en uso en ese momento". (alrededor de 1963).
El concepto de un "elemento de imagen" data de los primeros días de la televisión, por ejemplo como "Bildpunkt" (la palabra alemana para píxel, literalmente 'punto de imagen') en la patente alemana de 1888 de Paul Nipkow. De acuerdo con varias etimologías, la primera publicación del término elemento de imagen fue en la revista Wireless World en 1927, aunque se había utilizado anteriormente en varias patentes de EE. UU. 1911.
Algunos autores explican pixel como celda de imagen ya en 1972. En gráficos y en el procesamiento de imágenes y videos, pel se usa a menudo en lugar de píxel. Por ejemplo, IBM lo usó en su Referencia técnica para la PC original.
La pixelación, deletreada con una segunda i, es una técnica cinematográfica no relacionada que data de los inicios del cine, en la que los actores en vivo posan cuadro por cuadro y se fotografían para crear animación stop-motion. Una palabra británica arcaica que significa "posesión por espíritus (pixies)", el término se ha utilizado para describir el proceso de animación desde principios de la década de 1950; a varios animadores, incluidos Norman McLaren y Grant Munro, se les atribuye su popularización.
Técnico
Por lo general, se considera que un píxel es el componente individual más pequeño de una imagen digital. Sin embargo, la definición es muy sensible al contexto. Por ejemplo, puede haber "píxeles impresos" en una página, o píxeles transportados por señales electrónicas, o representados por valores digitales, o píxeles en un dispositivo de visualización, o píxeles en una cámara digital (elementos fotosensores). Esta lista no es exhaustiva y, según el contexto, los sinónimos incluyen pel, sample, byte, bit, dot y spot. Los píxeles se pueden utilizar como unidad de medida, por ejemplo: 2400 píxeles por pulgada, 640 píxeles por línea o separados por 10 píxeles.
Las medidas de puntos por pulgada (dpi) y píxeles por pulgada (ppi) a veces se usan indistintamente, pero tienen significados distintos, especialmente para dispositivos de impresora, donde dpi es una medida de la densidad de puntos de la impresora (por ejemplo, gota de tinta) colocación. Por ejemplo, una imagen fotográfica de alta calidad se puede imprimir con 600 ppp en una impresora de inyección de tinta de 1200 ppp. Incluso números de dpi más altos, como los 4800 dpi citados por los fabricantes de impresoras desde 2002, no significan mucho en términos de resolución alcanzable.
Cuantos más píxeles se utilicen para representar una imagen, más se parecerá el resultado al original. La cantidad de píxeles en una imagen a veces se denomina resolución, aunque la resolución tiene una definición más específica. Los recuentos de píxeles se pueden expresar como un solo número, como en una imagen de "tres megapíxeles" cámara digital, que tiene tres millones de píxeles nominales, o como un par de números, como en una 'pantalla de 640 x 480', que tiene 640 píxeles de lado a lado y 480 de arriba a abajo (como en una pantalla VGA) y, por lo tanto, tiene un número total de 640 × 480 = 307 200 píxeles, o 0,3 megapíxeles.
Los píxeles, o muestras de color, que forman una imagen digitalizada (como un archivo JPEG utilizado en una página web) pueden o no tener una correspondencia uno a uno con los píxeles de la pantalla, dependiendo de cómo una computadora muestre un imagen. En informática, una imagen compuesta de píxeles se conoce como imagen de mapa de bits o imagen de trama. La palabra ráster tiene su origen en los patrones de exploración de televisión y se ha utilizado ampliamente para describir técnicas similares de impresión y almacenamiento de semitonos.
Patrones de muestreo
Por comodidad, los píxeles normalmente se organizan en una cuadrícula bidimensional regular. Al usar esta disposición, se pueden implementar muchas operaciones comunes aplicando uniformemente la misma operación a cada píxel de forma independiente. Son posibles otras disposiciones de píxeles, con algunos patrones de muestreo que incluso cambian la forma (o núcleo) de cada píxel en la imagen. Por este motivo, se debe tener cuidado al adquirir una imagen en un dispositivo y mostrarla en otro, o al convertir datos de imagen de un formato de píxel a otro.
Por ejemplo:
- Las pantallas LCD suelen utilizar una cuadrícula escalonada, donde los componentes rojo, verde y azul se muestra en lugares ligeramente diferentes. Subpixel rendering es una tecnología que aprovecha estas diferencias para mejorar la reproducción de texto en pantallas LCD.
- La gran mayoría de las cámaras digitales de color utilizan un filtro Bayer, dando lugar a una rejilla regular de píxeles donde color de cada píxel depende de su posición en la cuadrícula.
- Un clipmap utiliza un patrón de muestreo jerárquico, donde el tamaño del soporte de cada pixel depende de su ubicación dentro de la jerarquía.
- Las cuadrículas se utilizan cuando la geometría subyacente no es plana, como imágenes de la tierra desde el espacio.
- El uso de cuadrículas no uniformes es un área de investigación activa, tratando de evitar el tradicional límite de Nyquist.
- Los píxeles en los monitores de ordenador son normalmente "cuadrados" (es decir, tienen un campo de muestreo horizontal y vertical igual); los píxeles en otros sistemas son a menudo "rectangular" (es decir, tienen un campo de muestreo horizontal y vertical desigual – oblong en forma), así como formatos de vídeo digital con diversas ratios de aspecto, como los formatos de pantalla anafórfica del estándar de vídeo digital Rec. 601.
Resolución de monitores de computadora
Las computadoras pueden usar píxeles para mostrar una imagen, a menudo una imagen abstracta que representa una GUI. La resolución de esta imagen se llama resolución de pantalla y está determinada por la tarjeta de video de la computadora. Los monitores LCD también usan píxeles para mostrar una imagen y tienen una resolución nativa. Cada píxel se compone de tríadas, y el número de estas tríadas determina la resolución nativa. En algunos monitores CRT, la velocidad de barrido del haz puede ser fija, lo que da como resultado una resolución nativa fija. La mayoría de los monitores CRT no tienen una velocidad de barrido de haz fija, lo que significa que no tienen una resolución nativa; en cambio, tienen un conjunto de resoluciones que son igualmente compatibles. Para producir las imágenes más nítidas posibles en una pantalla LCD, el usuario debe asegurarse la resolución de pantalla de la computadora coincide con la resolución nativa del monitor.
Resolución de telescopios
La escala de píxeles utilizada en astronomía es la distancia angular entre dos objetos en el cielo que se separan un píxel en el detector (CCD o chip infrarrojo). La escala s medida en radianes es la proporción del espacio entre píxeles p y distancia focal f de la óptica anterior, s = p/f. (La distancia focal es el producto de la relación focal por el diámetro de la lente o espejo asociado).
Porque s generalmente se expresa en unidades de segundos de arco por píxel, porque 1 radián equivale a (180/π) × 3600 ≈ 206 265 segundos de arco, y debido a que las distancias focales a menudo se dan en milímetros y los tamaños de píxeles en micrómetros, lo que produce otro factor de 1000, la fórmula a menudo se cita como s = 206 p / f .
Bits por píxel
La cantidad de colores distintos que puede representar un píxel depende de la cantidad de bits por píxel (bpp). Una imagen de 1 bpp usa 1 bit para cada píxel, por lo que cada píxel puede estar activado o desactivado. Cada bit adicional duplica la cantidad de colores disponibles, por lo que una imagen de 2 bpp puede tener 4 colores y una imagen de 3 bpp puede tener 8 colores:
- 1 bpp, 21 = 2 colores (monocromo)
- 2 bpp, 22 = 4 colores
- 3 bpp, 23 = 8 colores
- 4 bpp, 24 = 16 colores
- 8 bpp, 28 = 256 colores
- 16 bpp, 216 = 65,536 colores ("Highcolor")
- 24 bpp, 224 = 16,777,216 colores ("Truecolor")
Para profundidades de color de 15 o más bits por píxel, la profundidad suele ser la suma de los bits asignados a cada uno de los componentes rojo, verde y azul. Highcolor, que generalmente significa 16 bpp, normalmente tiene cinco bits para el rojo y el azul cada uno, y seis bits para el verde, ya que el ojo humano es más sensible a los errores en el verde que en los otros dos colores primarios. Para aplicaciones que involucran transparencia, los 16 bits se pueden dividir en cinco bits cada uno de rojo, verde y azul, quedando un bit para la transparencia. Una profundidad de 24 bits permite 8 bits por componente. En algunos sistemas, la profundidad de 32 bits está disponible: esto significa que cada píxel de 24 bits tiene 8 bits adicionales para describir su opacidad (para efectos de combinación con otra imagen).
Subpíxeles
Muchos sistemas de visualización y adquisición de imágenes no son capaces de mostrar o detectar los diferentes canales de color en el mismo sitio. Por lo tanto, la cuadrícula de píxeles se divide en regiones de un solo color que contribuyen al color mostrado o detectado cuando se ve a distancia. En algunas pantallas, como las pantallas LCD, LED y de plasma, estas regiones de un solo color son elementos direccionables por separado, que se conocen como subpíxeles, en su mayoría colores RGB. Por ejemplo, las pantallas LCD suelen dividir cada píxel verticalmente en tres subpíxeles. Cuando el píxel cuadrado se divide en tres subpíxeles, cada subpíxel es necesariamente rectangular. En la terminología de la industria de las pantallas, los subpíxeles a menudo se denominan píxeles, ya que son los elementos básicos direccionables desde el punto de vista del hardware y, por lo tanto, circuitos de píxeles en lugar de subpíxeles Se utilizan circuitos.
La mayoría de los sensores de imagen de las cámaras digitales utilizan regiones de sensor de un solo color, por ejemplo, utilizando el patrón de filtro de Bayer, y en la industria de las cámaras se conocen como píxeles al igual que en la industria de las pantallas, no subpíxeles.
Para los sistemas con subpíxeles, se pueden tomar dos enfoques diferentes:
- Los subpixeles pueden ser ignorados, con píxeles de color completo que se tratan como el elemento de imagen más pequeño abordable; o
- Los subpixeles se pueden incluir en los cálculos de renderización, que requieren más tiempo de análisis y procesamiento, pero pueden producir imágenes aparentemente superiores en algunos casos.
Este último enfoque, denominado representación de subpíxeles, utiliza el conocimiento de la geometría de píxeles para manipular los tres subpíxeles de colores por separado, lo que produce un aumento en la resolución aparente de las pantallas en color. Si bien las pantallas CRT usan áreas de fósforo enmascaradas en rojo, verde y azul, dictadas por una cuadrícula de malla llamada máscara de sombra, requeriría un paso de calibración difícil para alinearse con el ráster de píxeles mostrado, por lo que los CRT no usan representación de subpíxeles.
El concepto de subpíxeles está relacionado con las muestras.
Píxel lógico
En gráficos, diseño web e interfaces de usuario, un "píxel" puede referirse a una longitud fija en lugar de un píxel real en la pantalla para adaptarse a diferentes densidades de píxeles. Una definición típica, como en CSS, es que un elemento "físico" el píxel es 1⁄96 pulgadas (0,26 mm). Al hacerlo, se asegura de que un elemento dado se muestre con el mismo tamaño sin importar la resolución de pantalla que lo vea.
Sin embargo, puede haber algunos ajustes adicionales entre un "físico" píxel y un píxel lógico en pantalla. Dado que las pantallas se ven a diferentes distancias (considere un teléfono, una pantalla de computadora y un televisor), la longitud deseada (un "píxel de referencia") se escala en relación con una distancia de visualización de referencia (28 pulgadas (71 cm)) en CSS). Además, dado que las densidades de píxeles de la pantalla real rara vez son múltiplos de 96 ppp, a menudo se aplica cierto redondeo para que un píxel lógico sea una cantidad entera de píxeles reales. Al hacerlo, se evitan los artefactos de renderizado. El último "píxel" obtenido después de estos dos pasos se convierte en el "ancla" en el que se basan todas las demás medidas absolutas (por ejemplo, el "centímetro").
Ejemplo práctico, con un televisor de 2160p de 76 cm (30 pulgadas) colocado a 140 cm (56 pulgadas) de distancia del espectador:
- Calcular el tamaño de píxel escalado como 1.96 en × (56/28) = 1.48 pulgada (0,53 mm).
- Calcular el DPI de la TV como 2160 / (30 en / √9^2 + 16^2 × 16).
- Calcular el conteo real-pixel por lógica-pixel como 1.48 en × 82.61 dpi ♥ 1.721 píxeles.
Un navegador elegirá usar el tamaño de píxel de 1.721× o redondearlo a una proporción de 2×.
Megapíxeles
Un megapíxel (MP) es un millón de píxeles; el término se utiliza no solo para el número de píxeles de una imagen, sino también para expresar el número de elementos sensores de imagen de las cámaras digitales o el número de elementos de visualización de las pantallas digitales. Por ejemplo, una cámara que crea una imagen de 2048 × 1536 píxeles (3 145 728 píxeles de imagen final) generalmente usa algunas filas y columnas adicionales de elementos sensores y se dice comúnmente que tiene "3.2 megapíxeles" o "3,4 megapíxeles", dependiendo de si el número informado es el "efectivo" o el "total" conteo de píxeles
Pixel se utiliza para definir la resolución de una foto. La resolución de la foto se calcula multiplicando el ancho y la altura de un sensor en píxeles.
Las cámaras digitales utilizan componentes electrónicos fotosensibles, ya sea dispositivos de carga acoplada (CCD) o sensores de imagen de semiconductores de óxido de metal complementarios (CMOS), que consisten en una gran cantidad de elementos sensores individuales, cada uno de los cuales registra un nivel de intensidad medido. En la mayoría de las cámaras digitales, la matriz de sensores está cubierta con un mosaico de filtros de colores estampados que tiene regiones rojas, verdes y azules en la disposición de filtros de Bayer para que cada elemento del sensor pueda registrar la intensidad de un solo color primario de luz. La cámara interpola la información de color de los elementos sensores vecinos, a través de un proceso llamado demostración, para crear la imagen final. Estos elementos sensores a menudo se denominan "píxeles", aunque solo registran un canal (solo rojo, verde o azul) de la imagen en color final. Por lo tanto, dos de los tres canales de color para cada sensor deben interpolarse y una cámara llamada N-megapixel que produce una imagen de N-megapixel proporciona solo un tercio de la información que una imagen del mismo tamaño podría obtener de un escáner. Por lo tanto, ciertos contrastes de color pueden parecer más borrosos que otros, según la asignación de los colores primarios (el verde tiene el doble de elementos que el rojo o el azul en la disposición de Bayer).
DxO Labs inventó el megapíxel perceptual (P-MPix) para medir la nitidez que produce una cámara cuando se combina con una lente en particular, a diferencia del MP que establece un fabricante para un producto de cámara, que se basa solo en la cámara. 39;s sensor. El nuevo P-MPix afirma ser un valor más preciso y relevante para que los fotógrafos lo consideren al evaluar la nitidez de la cámara. A mediados de 2013, el objetivo Sigma 35 mm f/1.4 DG HSM montado en una Nikon D800 tiene la P-MPix medida más alta. Sin embargo, con un valor de 23 MP, aún borra más de un tercio del sensor de 36,3 MP de la D800. En agosto de 2019, Xiaomi lanzó el Redmi Note 8 Pro como el primer teléfono inteligente del mundo con cámara de 64 MP. El 12 de diciembre de 2019, Samsung lanzó el Samsung A71 que también tiene una cámara de 64 MP. A fines de 2019, Xiaomi anunció el primer teléfono con cámara con sensor de 108 MP y 1/1,33 pulgadas de ancho. El sensor es más grande que la mayoría de las cámaras puente con un sensor de 1/2,3 pulgadas de ancho.
Se ha introducido un nuevo método para agregar megapíxeles en una cámara del sistema Micro Four Thirds, que solo usa un sensor de 16 MP pero puede producir una imagen RAW de 64 MP (40 MP JPEG) al hacer dos exposiciones, desplazando el sensor una medio píxel entre ellos. Usando un trípode para tomar tomas múltiples niveladas dentro de una instancia, las múltiples imágenes de 16 MP luego se generan en una imagen unificada de 64 MP.
Contenido relacionado
Banda de parada
Fuente monoespaciada
451 (No disponible por razones legales)