Video
Video es un medio electrónico para la grabación, copia, reproducción, transmisión y visualización de medios visuales en movimiento. El video se desarrolló primero para sistemas mecánicos de televisión, que fueron rápidamente reemplazados por sistemas de tubo de rayos catódicos (CRT) que, a su vez, fueron reemplazados por pantallas planas de varios tipos.
Los sistemas de video varían en resolución de pantalla, relación de aspecto, frecuencia de actualización, capacidades de color y otras cualidades. Existen variantes analógicas y digitales y se pueden transmitir en una variedad de medios, que incluyen transmisiones de radio, cintas magnéticas, discos ópticos, archivos de computadora y transmisión en red.
Historia
Vídeo analógico
La tecnología de video se desarrolló primero para los sistemas de televisión mecánica, que fueron rápidamente reemplazados por sistemas de televisión de tubo de rayos catódicos (CRT), pero desde entonces se han inventado varias tecnologías nuevas para dispositivos de visualización de video. El video originalmente era exclusivamente una tecnología en vivo. Charles Ginsburg dirigió un equipo de investigación de Ampex que desarrolló una de las primeras grabadoras de cinta de video (VTR) prácticas. En 1951, el primer VTR capturó imágenes en vivo de cámaras de televisión escribiendo la señal eléctrica de la cámara en una cinta de video magnética.
Las grabadoras de video se vendían por 50 000 dólares estadounidenses en 1956, y las cintas de video costaban 300 dólares estadounidenses por rollo de una hora. Sin embargo, los precios bajaron gradualmente a lo largo de los años; En 1971, Sony comenzó a vender casetes y cintas para grabadoras de videocasete (VCR) en el mercado de consumo.
Vídeos digitales
El video digital es capaz de ofrecer una mayor calidad y, finalmente, un costo mucho menor que la tecnología analógica anterior. Después de la invención del DVD en 1997, y luego del Blu-ray Disc en 2006, las ventas de cintas de video y equipos de grabación se desplomaron. Los avances en la tecnología informática permiten que incluso las computadoras personales y los teléfonos inteligentes de bajo costo capturen, almacenen, editen y transmitan videos digitales, lo que reduce aún más el costo de la producción de videos y permite a los creadores de programas y las emisoras pasar a la producción sin cinta. El advenimiento de la transmisión digital y la subsiguiente transición a la televisión digital están en proceso de relegar el video analógico al estado de una tecnología heredada en la mayor parte del mundo. El desarrollo de cámaras de video de alta resolución con gamas de color y rango dinámico mejorados, junto con la introducción de formatos de datos intermedios digitales de rango dinámico alto con profundidad de color mejorada, ha provocado que la tecnología de video digital converja con la tecnología cinematográfica. Desde 2013, el uso de cámaras digitales en Hollywood ha superado el uso de cámaras de película.
Características de las transmisiones de video
Número de fotogramas por segundo
Velocidad de fotogramas, el número de imágenes fijas por unidad de tiempo de vídeo, oscila entre seis u ocho fotogramas por segundo (fotograma/s) para las cámaras mecánicas antiguas hasta 120 o más fotogramas por segundo para cámaras profesionales nuevas. Los estándares PAL (Europa, Asia, Australia, etc.) y SECAM (Francia, Rusia, partes de África, etc.) especifican 25 fotogramas/s, mientras que los estándares NTSC (EE. UU., Canadá, Japón, etc.) especifican 29,97 fotogramas/s. La película se filma a una velocidad de fotogramas más lenta de 24 fotogramas por segundo, lo que complica un poco el proceso de transferencia de una película cinematográfica a un video. La velocidad de fotogramas mínima para lograr una ilusión cómoda de una imagen en movimiento es de unos dieciséis fotogramas por segundo.
Entrelazada vs progresiva
(feminine)El vídeo puede ser entrelazado o progresivo. En los sistemas de escaneo progresivo, cada período de actualización actualiza todas las líneas de escaneo en cada cuadro en secuencia. Cuando se muestra una transmisión progresiva nativa o una señal grabada, el resultado es una resolución espacial óptima de las partes estacionaria y móvil de la imagen. El entrelazado se inventó como una forma de reducir el parpadeo en las primeras pantallas mecánicas y de video CRT sin aumentar la cantidad de cuadros completos por segundo. El entrelazado conserva los detalles y requiere un ancho de banda menor en comparación con el escaneo progresivo.
En el video entrelazado, las líneas de exploración horizontales de cada cuadro completo se tratan como si estuvieran numeradas consecutivamente y se capturan como dos campos: un campo impar (campo superior) que consiste de las líneas impares y un campo par (campo inferior) que consiste en las líneas pares. Los dispositivos de visualización analógicos reproducen cada fotograma, duplicando efectivamente la velocidad de fotogramas en lo que respecta al parpadeo general perceptible. Cuando el dispositivo de captura de imágenes adquiere los campos uno a la vez, en lugar de dividir un cuadro completo después de capturarlo, la velocidad de cuadro para el movimiento también se duplica de manera efectiva, lo que da como resultado una reproducción más fluida y realista de las partes de la imagen que se mueven rápidamente. cuando se ve en una pantalla CRT entrelazada.
NTSC, PAL y SECAM son formatos entrelazados. Las especificaciones abreviadas de resolución de video a menudo incluyen una i para indicar entrelazado. Por ejemplo, el formato de video PAL a menudo se describe como 576i50, donde 576 indica el número total de líneas de exploración horizontales, i indica entrelazado y < i>50 indica 50 campos (medios cuadros) por segundo.
Cuando se muestra una señal entrelazada de forma nativa en un dispositivo de escaneo progresivo, la resolución espacial general se ve degradada por la simple duplicación de líneas: artefactos como parpadeo o "peine" Efectos en las partes móviles de la imagen que aparecen a menos que un procesamiento de señal especial los elimine. Un procedimiento conocido como desentrelazado puede optimizar la visualización de una señal de video entrelazada de una fuente analógica, DVD o satelital en un dispositivo de escaneo progresivo como un televisor LCD, un proyector de video digital o un panel de plasma. Sin embargo, el desentrelazado no puede producir una calidad de video que sea equivalente al verdadero material fuente de exploración progresiva.
Relación de aspecto
La relación de aspecto describe la relación proporcional entre el ancho y el alto de las pantallas de video y los elementos de la imagen de video. Todos los formatos de video populares son rectangulares y, por lo tanto, pueden describirse mediante una relación entre ancho y alto. La relación entre el ancho y el alto de una pantalla de televisión tradicional es de 4:3, o alrededor de 1,33:1. Los televisores de alta definición utilizan una relación de aspecto de 16:9, o alrededor de 1,78:1. La relación de aspecto de un fotograma completo de una película de 35 mm con banda sonora (también conocida como relación de la Academia) es de 1,375:1.
Los píxeles de los monitores de computadora suelen ser cuadrados, pero los píxeles que se usan en el video digital a menudo tienen relaciones de aspecto no cuadradas, como las que se usan en las variantes PAL y NTSC del estándar de video digital CCIR 601, y los formatos anamórficos de pantalla ancha correspondientes. La trama de 720 por 480 píxeles utiliza píxeles delgados en una pantalla con una relación de aspecto de 4:3 y píxeles gruesos en una pantalla de 16:9.
La popularidad de ver videos en teléfonos móviles ha llevado al crecimiento de los videos verticales. Mary Meeker, socia de la firma de capital de riesgo de Silicon Valley Kleiner Perkins Caufield & Byers, destacó el crecimiento de la visualización vertical de videos en su Informe de tendencias de Internet de 2015, que aumentó del 5 % de la visualización de videos en 2010 al 29 % en 2015. Los anuncios de video verticales como los de Snapchat se ven en su totalidad nueve veces más frecuentemente que los anuncios de video horizontales.
Modelo de color y profundidad
El modelo de color, la representación de color del video y asigna valores de color codificados a colores visibles reproducidos por el sistema. Hay varias representaciones de este tipo de uso común: normalmente, YIQ se usa en televisión NTSC, YUV se usa en televisión PAL, YDbDr se usa en televisión SECAM y YCbCr se usa para video digital.
La cantidad de colores distintos que puede representar un píxel depende de la profundidad de color expresada en la cantidad de bits por píxel. Una forma habitual de reducir la cantidad de datos necesarios en el vídeo digital es mediante el submuestreo de croma (por ejemplo, 4:4:4, 4:2:2, etc.). Debido a que el ojo humano es menos sensible a los detalles en color que al brillo, se mantienen los datos de luminancia para todos los píxeles, mientras que los datos de crominancia se promedian para una cantidad de píxeles en un bloque y se usa el mismo valor para todos ellos. Por ejemplo, esto da como resultado una reducción del 50 % en los datos de crominancia utilizando bloques de 2 píxeles (4:2:2) o del 75 % utilizando bloques de 4 píxeles (4:2:0). Este proceso no reduce la cantidad de valores de color posibles que se pueden mostrar, pero reduce la cantidad de puntos distintos en los que cambia el color.
Calidad de vídeo
La calidad del video se puede medir con métricas formales como la relación señal/ruido máxima (PSNR) o mediante una evaluación subjetiva de la calidad del video mediante la observación de expertos. Muchos métodos subjetivos de calidad de video se describen en la recomendación ITU-T BT.500. Uno de los métodos estandarizados es la Escala de deterioro de doble estímulo (DSIS). En DSIS, cada experto ve un video de referencia sin problemas seguido de una versión con problemas del mismo video. Luego, el experto califica el video deteriorado usando una escala que va desde "las deficiencias son imperceptibles" a "las deficiencias son muy molestas".
Método de compresión de video (solo digital)
El vídeo sin comprimir ofrece la máxima calidad, pero a una velocidad de datos muy alta. Se utiliza una variedad de métodos para comprimir flujos de video, y los más efectivos usan un grupo de imágenes (GOP) para reducir la redundancia espacial y temporal. En términos generales, la redundancia espacial se reduce al registrar diferencias entre partes de un solo cuadro; esta tarea se conoce como compresión intraframe y está estrechamente relacionada con la compresión de imágenes. Asimismo, se puede reducir la redundancia temporal registrando diferencias entre tramas; esta tarea se conoce como compresión entre fotogramas, incluida la compensación de movimiento y otras técnicas. Los estándares de compresión modernos más comunes son MPEG-2, utilizado para DVD, Blu-ray y televisión por satélite, y MPEG-4, utilizado para AVCHD, teléfonos móviles (3GP) e Internet.
Estereoscópico
El video estereoscópico para películas en 3D y otras aplicaciones se puede mostrar usando varios métodos diferentes:
- Dos canales: un canal derecho para el ojo derecho y un canal izquierdo para el ojo izquierdo. Ambos canales pueden ser vistos simultáneamente usando filtros de poliarización ligera 90 grados de eje fuera uno del otro en dos proyectores de vídeo. Estos canales polarizados por separado se ven usando gafas de ojos con filtros de polarización iguales.
- Anaglyph 3D donde un canal se superpone con dos capas codificadas por colores. Esta técnica de capa izquierda y derecha se utiliza ocasionalmente para la transmisión de red o versiones recientes de anaglyph de películas 3D en DVD. Las gafas plásticas simples rojas/cianas proporcionan los medios para ver las imágenes de forma discreta para formar una vista estereoscópica del contenido.
- Un canal con alternancia de marcos izquierdo y derecho para el ojo correspondiente, utilizando gafas de obturador LCD que se sincronizan con el vídeo para bloquear alternativamente la imagen a cada ojo, por lo que el ojo adecuado ve el marco correcto. Este método es más común en aplicaciones de realidad virtual informática, como en un entorno virtual automático de la Cueva, pero reduce el marco de vídeo efectivo por un factor de dos.
Formatos
Cada una de las diferentes capas de transmisión y almacenamiento de video proporciona su propio conjunto de formatos para elegir.
Para la transmisión, existe un conector físico y un protocolo de señal (ver Lista de conectores de video). Un enlace físico dado puede llevar ciertos estándares de visualización que especifican una frecuencia de actualización, una resolución de pantalla y un espacio de color en particular.
Se utilizan muchos formatos de grabación analógicos y digitales, y los videoclips digitales también se pueden almacenar en un sistema de archivos de computadora como archivos, que tienen sus propios formatos. Además del formato físico utilizado por el dispositivo de almacenamiento de datos o el medio de transmisión, el flujo de unos y ceros que se envía debe estar en un formato de codificación de video digital particular, del cual hay un número disponible.
Vídeo analógico
El video analógico es una señal de video representada por una o más señales analógicas. Las señales de video en color analógicas incluyen luminancia, brillo (Y) y crominancia (C). Cuando se combina en un solo canal, como es el caso, entre otros, con NTSC, PAL y SECAM, se denomina video compuesto. El video analógico puede transportarse en canales separados, como en S-Video (YC) de dos canales y formatos de video componente multicanal.
El vídeo analógico se utiliza tanto en aplicaciones de producción de televisión profesional como de consumo.
Vídeos digitales
Se han adoptado formatos de señal de video digital, incluida la interfaz digital en serie (SDI), la interfaz visual digital (DVI), la interfaz multimedia de alta definición (HDMI) y la interfaz DisplayPort.
Medio de transporte
El video se puede transmitir o transportar de varias maneras, incluida la televisión terrestre inalámbrica como señal analógica o digital, cable coaxial en un sistema de circuito cerrado como señal analógica. Las cámaras de estudio o de transmisión usan un sistema de cable coaxial simple o doble que usa una interfaz digital en serie (SDI). Consulte la Lista de conectores de video para obtener información sobre los conectores físicos y los estándares de señal relacionados.
El video se puede transportar a través de redes y otros enlaces de comunicaciones digitales compartidos utilizando, por ejemplo, flujo de transporte MPEG, SMPTE 2022 y SMPTE 2110.
Estándares de visualización
Televisión digital
Las transmisiones de televisión digital usan MPEG-2 y otros formatos de codificación de video e incluyen:
- ATSC – Estados Unidos, Canadá, México, Corea
- Radiodifusión digital de vídeo (DVB) – Europa
- ISDB – Japón
- ISDB-Tb – utiliza el formato de codificación de vídeo MPEG-4 – Brasil, Argentina
- Radiodifusión digital multimedia (DMB) – Corea
Televisión analógica
Los estándares de transmisión de televisión analógica incluyen:
- Sistema de color secuencial de campo (FCS) – Estados Unidos, Rusia; obsoleto
- Componentes de analógico múltiple (MAC) – Europa; obsoleto
- Múltiple encoding de muestreo sub-nívoco (MUSE) – Japón
- NTSC – Estados Unidos, Canadá, Japón
- EDTV-II "Clear-Vision" - extensión NTSC, Japón
- PAL – Europa, Asia, Oceanía
- PAL-M – Variación PAL, Brasil
- PAL-N – Variación PAL, Argentina, Paraguay y Uruguay
- PALplus – PAL extension, Europe
- RS-343 (militar)
- SECAM – Francia, ex Unión Soviética, África Central
- CCIR System A
- CCIR System B
- CCIR System G
- CCIR System H
- CCIR System I
- CCIR System M
Un formato de video analógico consta de más información que el contenido visible del cuadro. Antes y después de la imagen hay líneas y píxeles que contienen metadatos e información de sincronización. Este margen circundante se conoce como intervalo de supresión o región de supresión; el porche delantero horizontal y vertical y el porche trasero son los bloques de construcción del intervalo de obturación.
Pantallas de computadora
Los estándares de pantalla de computadora especifican una combinación de relación de aspecto, tamaño de pantalla, resolución de pantalla, profundidad de color y frecuencia de actualización. Una lista de resoluciones comunes está disponible.
Grabación
La televisión temprana era casi exclusivamente un medio en vivo con algunos programas grabados en película para su distribución con fines históricos usando Kinescope. La grabadora de cinta de video analógica se introdujo comercialmente en 1951. La siguiente lista está en orden cronológico aproximado. Todos los formatos enumerados fueron vendidos y utilizados por emisoras, productores de video o consumidores; o fueron importantes históricamente.
- 2" Videotape Quadruplex (Ampex 1956)
- VERA (BBC experimental format ca. 1958)
- 1" Tipo A videotape (Ampex)
- EIAJ (1969)
- U-matic 3/4" (Sony)
- 1/2" Cartrivision (Avco)
- VCR, VCR-LP, SVR
- 1" Tipo B videotape (Robert Bosch GmbH)
- 1" Tipo C videotape (Ampex, Marconi y Sony)
- Betamax (Sony)
- VHS (JVC)
- Video 2000 (Filipinas)
- 2" Videotape de escaneo helicoidal (IVC)
- CVC de 1/4" (Funai)
- Betacam (Sony)
- HDVS (Sony)
- Betacam SP (Sony)
- Video8 (Sony) (1986)
- S-VHS (JVC) (1987)
- VHS-C (JVC)
- Pixelvision (Fisher-Price)
- UniHi 1/2" HD (Sony)
- Hi8 (Sony) (mid-1990s)
- W-VHS (JVC) (1994)
Las grabadoras de cinta de video digital ofrecían una calidad mejorada en comparación con las grabadoras analógicas.
- Betacam IMX (Sony)
- D-VHS (JVC)
- D-Teater
- D1 (Sony)
- D2 (Sony)
- D3
- D5 HD
- D6 (Filipinas)
- Digital-S D9 (JVC)
- Betacam digital (Sony)
- Digital8 (Sony)
- DV (incluyendo DVC-Pro)
- HDCAM (Sony)
- HDV
- ProHD (JVC)
- MicroMV
- MiniDV
Los medios de almacenamiento óptico ofrecieron una alternativa, especialmente en aplicaciones de consumo, a los formatos de cinta voluminosos.
- Blu-ray Disc (Sony)
- China Blue High-definition Disc (CBHD)
- DVD (Fue Super Density Disc, DVD Forum)
- Disco profesional
- Universal Media Disc (UMD) (Sony)
- Disco Versátil mejorado (EVD, patrocinado por el gobierno chino)
- DVD HD (NEC y Toshiba)
- HD-VMD
- Concitancia Disco electrónico
- Laserdisc (MCA y Philips)
- Disco electrónico de televisión (Teldec y Telefunken)
- VHD (JVC)
Formatos de codificación digital
Un códec de video es software o hardware que comprime y descomprime video digital. En el contexto de la compresión de video, códec es una combinación de codificador y decodificador, mientras que un dispositivo que solo comprime se suele llamar codificador, y uno que solo descomprime es un descodificador. El formato de datos comprimidos generalmente se ajusta a un formato de codificación de video estándar. La compresión suele tener pérdida, lo que significa que el video comprimido carece de cierta información presente en el video original. Una consecuencia de esto es que el video descomprimido tiene una calidad más baja que el video original sin comprimir porque no hay información suficiente para reconstruir con precisión el video original.
- CCIR 601 (ITU-T)
- H.261 (UIT-T)
- H.263 (ITU-T)
- H.264/MPEG-4 AVC (ITU-T + ISO)
- H.265
- M-JPEG (ISO)
- MPEG-1 (ISO)
- MPEG-2 (UIT-T + ISO)
- MPEG-4 (ISO)
- Ogg-Theora
- VP8-WebM
- VC-1 (SMPTE)
Contenido relacionado
Steyr-Puch Haflinger
Altoparlante
Barcaza