Procesamiento de señales de audio

Ajustar Compartir Imprimir Citar
Manipulación electrónica de señales de audio

Procesamiento de señales de audio es un subcampo del procesamiento de señales que se ocupa de la manipulación electrónica de señales de audio. Las señales de audio son representaciones electrónicas de ondas de sonido, ondas longitudinales que viajan a través del aire y consisten en compresiones y rarefacciones. La energía contenida en las señales de audio normalmente se mide en decibelios. Como las señales de audio pueden representarse en formato digital o analógico, el procesamiento puede ocurrir en cualquier dominio. Los procesadores analógicos operan directamente sobre la señal eléctrica, mientras que los procesadores digitales operan matemáticamente sobre su representación digital.

Historia

La motivación para el procesamiento de señales de audio comenzó a principios del siglo XX con inventos como el teléfono, el fonógrafo y la radio que permitieron la transmisión y el almacenamiento de señales de audio. El procesamiento de audio era necesario para las primeras transmisiones de radio, ya que había muchos problemas con los enlaces entre el estudio y el transmisor. La teoría del procesamiento de señales y su aplicación al audio se desarrolló en gran medida en Bell Labs a mediados del siglo XX. Los primeros trabajos de Claude Shannon y Harry Nyquist sobre la teoría de la comunicación, la teoría del muestreo y la modulación de código de pulso (PCM) sentaron las bases para este campo. En 1957, Max Mathews se convirtió en la primera persona en sintetizar audio de una computadora, lo que dio origen a la música por computadora.

Los principales avances en la codificación de audio digital y la compresión de datos de audio incluyen la modulación de código de pulso diferencial (DPCM) de C. Chapin Cutler en Bell Labs en 1950, la codificación predictiva lineal (LPC) de Fumitada Itakura (Universidad de Nagoya) y Shuzo Saito (Nippon Telegraph and Telephone) en 1966, DPCM adaptativo (ADPCM) por P. Cummiskey, Nikil S. Jayant y James L. Flanagan en Bell Labs en 1973, codificación de transformada discreta de coseno (DCT) por Nasir Ahmed, T. Natarajan y K. R. Rao en 1974, y la codificación de transformada de coseno discreta modificada (MDCT) por J. P. Princen, A. W. Johnson y A. B. Bradley en la Universidad de Surrey en 1987. LPC es la base para la codificación perceptiva y se usa ampliamente en la codificación del habla, mientras que la codificación MDCT se usa ampliamente en formatos de codificación de audio modernos como MP3 y codificación de audio avanzada (AAC).

Señales analógicas

Una señal de audio analógica es una señal continua representada por un voltaje o corriente eléctrica que es análoga a las ondas de sonido en el aire. El procesamiento de señales analógicas implica alterar físicamente la señal continua cambiando el voltaje, la corriente o la carga a través de circuitos eléctricos.

Históricamente, antes del advenimiento de la tecnología digital generalizada, lo analógico era el único método para manipular una señal. Desde entonces, a medida que las computadoras y el software se han vuelto más capaces y asequibles, el procesamiento de señales digitales se ha convertido en el método de elección. Sin embargo, en las aplicaciones musicales, la tecnología analógica sigue siendo deseable, ya que a menudo produce respuestas no lineales que son difíciles de replicar con filtros digitales.

Señales digitales

Una representación digital expresa la forma de onda de audio como una secuencia de símbolos, generalmente números binarios. Esto permite el procesamiento de señales utilizando circuitos digitales como procesadores de señales digitales, microprocesadores y computadoras de propósito general. La mayoría de los sistemas de audio modernos utilizan un enfoque digital, ya que las técnicas de procesamiento de señales digitales son mucho más potentes y eficientes que el procesamiento de señales de dominio analógico.

Aplicaciones

Los métodos de procesamiento y las áreas de aplicación incluyen almacenamiento, compresión de datos, recuperación de información musical, procesamiento de voz, localización, detección acústica, transmisión, cancelación de ruido, huellas dactilares acústicas, reconocimiento de sonido, síntesis y mejora (por ejemplo, ecualización, filtrado, compresión de nivel, eliminación o adición de eco y reverberación, etc.).

Transmisión de audio

El procesamiento de señales de audio se utiliza cuando se transmiten señales de audio para mejorar su fidelidad u optimizar el ancho de banda o la latencia. En este dominio, el procesamiento de audio más importante tiene lugar justo antes del transmisor. El procesador de audio aquí debe evitar o minimizar la sobremodulación, compensar los transmisores no lineales (un problema potencial con la transmisión de onda media y onda corta) y ajustar el volumen general al nivel deseado.

Control de ruido activo

El control de ruido activo es una técnica diseñada para reducir el sonido no deseado. Al crear una señal que es idéntica al ruido no deseado pero con la polaridad opuesta, las dos señales se cancelan debido a la interferencia destructiva.

Síntesis de audio

La síntesis de audio es la generación electrónica de señales de audio. Un instrumento musical que logra esto se llama sintetizador. Los sintetizadores pueden imitar sonidos o generar otros nuevos. La síntesis de audio también se utiliza para generar voz humana mediante la síntesis de voz.

Efectos de audio

Los efectos de audio alteran el sonido de un instrumento musical u otra fuente de audio. Los efectos comunes incluyen distorsión, a menudo utilizada con guitarra eléctrica en blues eléctrico y música rock; efectos dinámicos como pedales de volumen y compresores, que afectan el volumen; filtros como pedales wah-wah y ecualizadores gráficos, que modifican los rangos de frecuencia; efectos de modulación, como chorus, flangers y phasers; efectos de tono tales como cambiadores de tono; y efectos de tiempo, como reverberación y retardo, que crean ecos y emulan el sonido de diferentes espacios.

Músicos, ingenieros de audio y productores de discos usan unidades de efectos durante presentaciones en vivo o en el estudio, generalmente con guitarra eléctrica, bajo, teclado electrónico o piano eléctrico. Si bien los efectos se usan con mayor frecuencia con instrumentos eléctricos o electrónicos, se pueden usar con cualquier fuente de audio, como instrumentos acústicos, batería y voces.

Audición por computadora

La audición de la computadora (CA) o la escucha de la máquina es el campo general de estudio de algoritmos y sistemas para la comprensión de audio por máquina. Dado que la noción de lo que significa que una máquina "audir" es muy amplia y un tanto vaga, la audición de la computadora intenta reunir varias disciplinas que originalmente trataban de problemas específicos o tenían una aplicación concreta en mente. El ingeniero Paris Smaragdis, entrevistado Technology Review, habla de estos sistemas -- "software que utiliza el sonido para localizar a las personas que se mueven a través de las habitaciones, monitorear maquinaria para los colapsos inminentes, o activar cámaras de tráfico para registrar accidentes".

Inspirado en modelos de audición humana, CA se ocupa de cuestiones de representación, transducción, agrupación, uso de conocimiento musical y semántica de sonido general para realizar operaciones inteligentes en señales de audio y música por el ordenador. Técnicamente esto requiere una combinación de métodos de procesamiento de señales, modelado auditivo, percepción musical y cognición, reconocimiento de patrones y aprendizaje automático, así como métodos más tradicionales de inteligencia artificial para la representación del conocimiento musical.