Medios electrónicos


medios electrónicos son medios que utilizan medios electrónicos o electromecánicos para que la audiencia acceda al contenido. Esto contrasta con los medios estáticos (principalmente medios impresos), que hoy en día se crean con mayor frecuencia digitalmente, pero no requieren que el usuario final acceda a los dispositivos electrónicos en forma impresa. Las principales fuentes de medios electrónicos familiares para el público en general son grabaciones de vídeo, grabaciones de audio, presentaciones multimedia, presentaciones de diapositivas, CD-ROM y contenido en línea. La mayoría de los nuevos medios se encuentran en forma de medios digitales. Sin embargo, los medios electrónicos pueden estar en formato de datos electrónicos analógicos o de datos electrónicos digitales.
Aunque el término generalmente se asocia con contenido grabado en un medio de almacenamiento, las grabaciones no son necesarias para transmisiones en vivo y redes en línea.
Cualquier equipo utilizado en el proceso de comunicación electrónica (por ejemplo, televisión, radio, teléfono, consola de juegos, dispositivo portátil) también puede considerarse medio electrónico.
Historia del desarrollo
Transmisión
Los cables y las líneas de transmisión surgieron como herramientas de comunicación, comenzando con el telégrafo a finales del siglo XVIII. Samuel Morse inventó el telégrafo en 1832, introduciendo cables para transmitir señales eléctricas a largas distancias. En 1844, se estableció con éxito la primera línea telegráfica en los Estados Unidos y, en la década de 1850, se tendieron cables telegráficos a través del Atlántico que conectaban América del Norte y Europa. Al mismo tiempo que el telégrafo se estaba generalizando, surgió la necesidad de transmitir imágenes por cable. La primera máquina de fax comercialmente exitosa fue desarrollada por Elisha Gray en 1861, permitiendo la transmisión de imágenes impresas a través de un cable.
El teléfono fue otro gran avance en la comunicación electrónica, ya que permitió a las personas comunicarse mediante mensajes de voz en lugar de mensajes escritos. Alexander Graham Bell fue pionero en la primera transmisión telefónica exitosa en 1876 y, en la década de 1890, se estaban instalando líneas telefónicas en todo el mundo. Dado que todos estos importantes avances se basaron en líneas de transmisión para las comunicaciones, el ingeniero inglés Oliver Heaviside realizó una pequeña mejora, quien patentó el cable coaxial en 1880. El cable coaxial permitió un mayor ancho de banda y distancias de transmisión más largas.
En los últimos setenta años se realizaron mejoras significativas en el modo de transmisión con la introducción de la fibra óptica, la transmisión inalámbrica, la transmisión por satélite, Free Space Optics e Internet. La fibra óptica se desarrolló por primera vez en la década de 1950, pero se volvió comercialmente viable en la década de 1970. Por otro lado, la comunicación inalámbrica supuso una importante mejora en el modo de transmisión, eliminando los cables e introduciendo ondas electromagnéticas. Guglielmo Marconi inventó la transmisión de radio en 1897 y, en el siglo XX, la transmisión de radio se había convertido en una fuente principal de noticias, entretenimiento y comunicación militar. La comunicación por satélite permitió transmitir datos a distancias mucho más largas de lo posible. Estados Unidos fue pionero en las comunicaciones por satélite en 1958, cuando lanzó por primera vez el Explorer 1.
La óptica del espacio libre (FSO), que utiliza láseres para transmitir datos a través del aire, se desarrolló por primera vez en la década de 1960. Sin embargo, no fue hasta la década de 1990 que la tecnología avanzó lo suficiente como para volverse comercialmente viable. Internet, en cambio, surgió en la segunda mitad del siglo pasado. En la década de 1960 se desarrollaron los primeros protocolos para transferir archivos, que permitieron transferir archivos entre computadoras. En 1989, Tim Berners Lee creó la World Wide Web, haciendo mucho más fácil compartir información a través de hipervínculos. En 1996, se introdujo el Protocolo de transporte en tiempo real (RTP), que permitía la transmisión de audio y vídeo en directo a través de Internet. RTP supuso un gran avance en el entretenimiento en línea, al permitir que eventos en tiempo real se transmitieran en vivo a audiencias de todo el mundo.
Visualización y salida
La historia de la tecnología de visualización y salida es larga y fascinante, y comenzó a principios del siglo XIX con el desarrollo del galvanómetro, que se utilizaba para detectar y medir pequeñas corrientes eléctricas. En 1844 se desarrolló la sonda telegráfica, que utilizaba un electroimán para producir un sonido de clic que correspondía a la transmisión de señales eléctricas a través de una línea telegráfica. Le siguió el auricular del teléfono, que utilizaba un diafragma para convertir las señales eléctricas en sonido. A finales del siglo XIX y principios del XX, se desarrollaron las primeras formas de luz artificial, incluidas la luz roja y el neón. Estos se utilizaron en diversas aplicaciones, incluida la iluminación de carteles y carteles.
En 1910, se inventó el teleimpresor, que permitía la transmisión de mensajes de texto a través de un cable. Le siguió el desarrollo del tubo de rayos catódicos (CRT) por William Crookes, pero estuvo ampliamente disponible en la década de 1920. El CRT se utilizó en las primeras pantallas de televisión y computadoras. El sintonizador de radio y televisión también se desarrolló a principios del siglo XX, permitiendo a las personas recibir y sintonizar señales de transmisión. El altavoz y los auriculares se inventaron a finales del siglo XIX y principios del XX y se utilizaban para escuchar señales de audio de radios, fonógrafos y, más tarde, dispositivos electrónicos.
En las décadas de 1950 y 1960, se desarrollaron LED y LCD, lo que permitió la producción de pantallas más compactas y eficientes para diversas aplicaciones, como iluminación y monitores de televisión. En la década de 1970, se introdujeron los espectáculos de luz láser, que utilizaban láseres para producir efectos visuales espectaculares para conciertos y otros eventos. El primer monitor de computadora se desarrolló en la década de 1950 y el primer monitor de PC comercial se introdujo en 1976. En 1985 se introdujeron pantallas electrónicas de gran tamaño, lo que permitió la producción de pantallas de gran escala para su uso en estadios, arenas y otros espacios públicos. HDTV se propuso por primera vez como término en 1936, pero fue en la década de 1990 cuando se establecieron estándares para producir y transmitir señales de televisión de alta definición. La pantalla montada en la cabeza (HMD) se introdujo en 1968 y continúa desarrollándose y mejorándose hasta el día de hoy, permitiendo experiencias inmersivas de realidad virtual y otras aplicaciones.
Procesamiento de señales eléctricas
La historia del procesamiento de señales eléctricas está estrechamente ligada al desarrollo de la tecnología de las comunicaciones electrónicas, comenzando a mediados del siglo XVIII con la invención del condensador, que permitió la captura y almacenamiento de cargas eléctricas. En la década de 1830, se desarrollaron métodos de codificación analógica, como el código Morse, que permitían transmitir información a largas distancias mediante señales eléctricas. La modulación electrónica se desarrolló entre 1832 y 1927 y fue un avance crucial en la historia de las telecomunicaciones.
La multiplexación electrónica, que permitía la transmisión de múltiples señales a través de un solo canal, se desarrolló por primera vez en 1853 utilizando una técnica llamada multiplexación por división de tiempo (TDM). La digitalización, o conversión de señales analógicas en formato digital, se desarrolló por primera vez en 1903 con la invención de la modulación de código de impulsos (PCM) para las comunicaciones telefónicas. El cifrado electrónico, que permitía la transmisión segura de información a través de canales electrónicos, se desarrolló entre 1935 y 1945 y jugó un papel crucial en el desarrollo de las comunicaciones electrónicas durante la Segunda Guerra Mundial. El enrutamiento en línea, o la capacidad de dirigir señales electrónicas a destinos específicos, se desarrolló por primera vez en 1969 con la creación de ARPANET, precursora de la Internet moderna. La programación electrónica, o la capacidad de utilizar señales electrónicas para controlar y automatizar procesos, se ha desarrollado desde la década de 1940 y sigue siendo un área importante de investigación y desarrollo en el procesamiento de señales eléctricas.
Almacenamiento electrónico de información
La historia del almacenamiento electrónico de información se remonta al siglo XVIII, con la invención de las tarjetas perforadas y la cinta de papel en 1725 y 1846, respectivamente. Las primeras formas de almacenamiento electrónico se utilizaron para almacenar texto simple y datos numéricos. A finales del siglo XIX, la invención del cilindro y el disco del fonógrafo en 1857 y 1877, respectivamente, permitió la grabación y almacenamiento de datos de audio. En 1876, la invención de la película permitió grabar y almacenar imágenes en movimiento.
En 1941, la invención de la memoria de acceso aleatorio (RAM) permitió almacenar y recuperar datos digitales a altas velocidades y todavía se utiliza en la actualidad. Los códigos de barras se inventaron por primera vez en 1952 para su uso en tiendas de comestibles. El Código Universal de Producto (UPC) se estandarizó en 1973, lo que permitió almacenar y recuperar información del producto en formato digital.
En 1969, la invención de los discos láser permitió el almacenamiento y reproducción de datos de audio y vídeo de alta calidad, pero el formato duró poco y su vida comercial terminó en 1978. Los discos compactos (CD) se inventaron en 1982 y rápidamente se convirtió en un medio popular para almacenar y reproducir datos de audio digital. Los DVD se introdujeron en 1993 y ofrecían mayor capacidad de almacenamiento y la posibilidad de almacenar datos de vídeo.
Formatos de contenido
Contenido o medios se refiere a los diferentes tipos de información digital que pueden almacenarse, transmitirse y consumirse a través de dispositivos electrónicos. La historia de los formatos de contenidos se remonta a finales del siglo XIX, cuando se creó la primera grabación de audio.
- Grabación de audio: En 1877, Thomas Edison inventó el fonógrafo, la máquina que podía grabar y reproducir audio. La invención comenzó la grabación de audio y creó diferentes formatos de audio, incluyendo discos de vinilo, cinta magnética y archivos de audio digitales. Los discos Vinyl fueron introducidos a finales del siglo XIX y fueron el formato principal para la música hasta finales del siglo XX cuando se presentaron formatos de audio digitales como MP3 y AAC. El vinilo, sin embargo, sigue siendo un icono cultural a pesar de su obsolescencia, y conserva un aura de santidad inmune a la contaminación simbólica. El MP3, por otro lado, fue inventado por Karlheinz Brandenburg del Instituto Fraunhofer. El software de encoder MP3 desarrollado por el instituto permitió a los individuos digitalizar sus archivos de audio usando un algoritmo de compresión llamado MPEGI-Layer III. Los archivos comprimidos fueron almacenados en CDs, a la vez que costaron $250.
- Video Grabación: La tecnología de grabación de vídeo se introdujo por primera vez en 1952 cuando Charles Ginsburg creó el primer grabador de video en Ampex Corporation. La tecnología de grabadora de vídeo se refina posteriormente, introduciendo diferentes formatos de vídeo, como Betamax, VHS y DVD. Betamax fue lanzado por Sony en 1975 y fue un grabador de vídeo analógico del formato de cassette. Sin embargo, no sobrevivió por mucho tiempo. El Video Home System (VHS), desarrollado por la Compañía Victor de Japón en 1976, ganó las guerras de formato de vídeo que superan a Betamax y ganando un uso generalizado en todo el mundo. La principal diferencia entre VHS y Betamax fue que Betamax tenía imágenes más nítidas y más claras mientras que VHS tenía un tiempo más largo. En el siglo XXI, sin embargo, estos dos son ahora parte de las épocas pasadas. Los formatos de vídeo digitales como MPEG-4 y H.264 se han convertido en los formatos dominantes de grabación y reproducción de vídeo.
- Formatos de archivo digitales: La introducción de formatos de archivos digitales marcó un cambio significativo en cómo se almacenaba y transmitía el contenido. En los primeros días de computación digital, se utilizaron formatos basados en texto como ASCII y RTF para almacenar y transmitir contenido textual. La ASCII se basó en código telegráfico y tenía un alcance muy estrecho de uso, considerando que sólo tenía 128 puntos de código. RTF, por otro lado, representa Rich Text Format. Microsoft lo desarrolló en 1987. El formato permite compartir documentos a través de plataformas. RTF se valoró especialmente porque podría almacenar información importante de documentos como el formato, la fuente y el estilo. Posteriormente, se introdujeron formatos de imagen como JPEG y PNG, permitiendo el almacenamiento y transmisión de imágenes digitales. La introducción de formatos digitales de audio y vídeo amplió aún más la gama de formatos de archivos digitales disponibles.
- Contenido de la base de datos y formatos: Las bases de datos se han utilizado para almacenar y gestionar el contenido digital desde la década de 1960. E.F. Codd conceptualizó el modelo de base de datos relacional en 1970. El modelo requiere aplicaciones para buscar datos sin seguir enlaces y buscar por el contenido. El modelo se basa en la teoría predicada y establecida y establecería el escenario para futuras bases de datos. El primer sistema de gestión de bases de datos disponible comercialmente (DBMS) fue introducido en 1979 por Relational Software, Inc. (más tarde renombrado Oracle Corporation). Desde entonces se han introducido diferentes sistemas de bases de datos, incluyendo bases de datos relacionales, orientadas a objetos y NoSQL.
Interactividad
La interactividad se refiere a la capacidad de los medios electrónicos para responder a las aportaciones del usuario, lo que permite una experiencia más inmersiva y atractiva. La historia de la interactividad se remonta al desarrollo de dispositivos de entrada como el panel de control.
- Panel de control: Los paneles de control fueron introducidos por primera vez en los primeros días de computación para interactuar con los sistemas informáticos. Estos paneles normalmente consistían en una serie de interruptores y botones que podrían utilizarse para introducir datos y comandos en el ordenador.
- Dispositivo de entrada: El desarrollo de dispositivos de entrada como el teclado y el ratón marcó un avance significativo en el campo de la interactividad. La introducción de interfaces gráficas de usuario (GUIs) permitió una interacción más intuitiva con los sistemas informáticos.
- Controlador del juego: El controlador de juego fue introducido a finales de la década de 1970 con la introducción de la consola de videojuegos Atari 2600. La consola Atari 2600 no tenía espacio en disco y sólo tenía una RAM de 128 bytes. Su reloj gráfico corrió 12 MHz, mientras que su ROM sólo tenía 4 kilobytes. A pesar de estas limitaciones, el dispositivo permitió a los usuarios interactuar con videojuegos más inmersivamente, pavimentando el camino para desarrollar controladores de juego más avanzados en el futuro.
- Handheld: La introducción de dispositivos portátiles como el Nintendo Game Boy y el Sony PlayStation Portable permitió jugar de forma interactiva. Nintendo fue lanzado en 1989 en Japón, y fue criticado por no tener ninguna retroiluminación o gráficos. La primera Sony PlayStation también fue lanzada en Japón en 1994. Los dispositivos iniciales fueron videojuegos portátiles; sin embargo, también se han lanzado consolas de videojuegos más sofisticadas como PlayStation 3, 4 y 5. Los dispositivos manuales iniciales incluían controladores incorporados y pantallas pequeñas, permitiendo a los usuarios jugar juegos en cualquier lugar y en cualquier momento.
- Guante de alambre: El guante cableado fue introducido por primera vez a principios de los años 80 para interactuar con entornos de realidad virtual. Estos guantes estaban equipados con sensores para detectar movimientos manuales, permitiendo a los usuarios manipular objetos virtuales y navegar entornos virtuales. Guantes anchos mejoraron significativamente usando el ratón, joystick o trackball durante interacciones virtuales. Eran caros, limitando su propagación y expansión.
- Interfaz de computación cerebral (BCI): La interfaz cerebro-computer (BCI) es el último desarrollo en interactividad. La tecnología permite a los usuarios controlar dispositivos electrónicos utilizando sus ondas de cerebro, superando la necesidad de dispositivos de entrada física como teclados o controladores. Mientras todavía en la etapa experimental, la tecnología BCI tiene el potencial de revolucionar la forma en que interactuamos.
Desglose de medios electrónicos
|
|
Contenido relacionado
Historia de la cámara
Tubo de vacío
Señales de humo