Efectos Digitales Básicos Emilia Gómez Gutiérrez Síntesi i Processament del So I Departament de Sonologia Escola Superior de Musica de Catalunya Curso 2009-20010 emilia.gomez@esmuc.cat 30 de noviembre de 2009 Índice 1. Introducción 3 2. Procesado de la Dinámica 2.1. Modificadores de envolvente: Envelop shapers 2.2. Ecualizadores . . . . . . . . . . . . . . . . . . 2.3. Puertas de ruido: Noise Gates . . . . . . . . . 2.4. Compresores, expansores y limitadores . . . . 2.4.1. Compresores . . . . . . . . . . . . . . 2.4.2. Expansores . . . . . . . . . . . . . . . 2.4.3. Limitadores . . . . . . . . . . . . . . . 2.4.4. Companders . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3. Convolución 3 4 4 5 5 5 7 7 8 8 4. Retardo 4.1. Los retardos fijos: filtrado LP, comb y echo . . . . . . . . . . . . . 4.1.1. Retardos fijos de duración inferior a 10 ms: efecto de filtro LP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1.2. Retardos fijos de duración entre 10 y 40 ms: efecto de filtro en peine . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1.3. Retardos de duración superior a 50 ms: efecto de echo . . 4.2. Los retardos variables: flanging, phasing y chorus . . . . . . . . . 4.2.1. Flange . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.2. Phasing . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.3. Chorus . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.4. Transposición . . . . . . . . . . . . . . . . . . . . . . . . . 9 11 11 11 12 12 13 15 15 16 5. Modificación del contenido frecuencial 16 5.1. Transposición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 5.2. Desplazamiento en frecuencia . . . . . . . . . . . . . . . . . . . . 16 5.3. Morphing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 1 6. Reverberación 17 6.1. Fenómeno acústico . . . . . . . . . . . . . . . . . . . . . . . . . . 17 6.2. La reverberación artificial . . . . . . . . . . . . . . . . . . . . . . 18 7. Espacialización 7.1. Utilización musical de la espacialización 7.2. Los índices perceptuales . . . . . . . . . 7.3. La panoramización . . . . . . . . . . . . 7.4. HRTF : Head-Related Transfer Function 8. Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 20 21 22 23 23 2 1. Introducción El objetivo de este tema es el de repasar los conceptos básicos que hay detrás de los algoritmos de procesado de audio más utilizados. Dichos efectos podemos clasificarlo según su función: modificación del rango dinámico, filtrado (que ya vimos anteriormente), convolución, efectos de retardo temporal, modificación de la altura y de la escala temporal. Existen algoritmos de transformación de audio que trabajan en el dominio temporal, es decir, trabajan directamente sobre la modificación de las muestras de audio para generar la transformación. Un ejemplo de estes tipo de algoritmos serían los retardos. Otros métodos requieren un análisis previo de la señal, como los que trabajan en el dominio frecuencial. En este tipo de métodos, se realiza primero un análisis espectral de la señal (para obtener su representación frecuencial). A continuación se implementa una transformación en el dominio frecuencial. Por último se requiere una etapa de síntesis que convierte la representación frecuencial transformada de nuevo al dominio temporal para generar la señal de audio transformada. Este proceso se ilustra en la figura 1. Figura 1: Transformaciones en dominio frecuencial Por último, existen muchas transformaciones que se pueden realizar al sonido aplicando técnicas de análisis y modelado del sonido (modelado espectral o físico), las cuales incluyen algoritmos de estimación de parámetros tales como el pitch (o frecuencia fundamental), decomposición en parte harmónica/ruido, reconocimiento de timbre o reconocimiento de ritmo. Este tipo de sistemas tienen un comportamiento que se podría resumir en la figura 2. Todos estos efectos pueden utilizarse dentro de un entorno de postproducción o como herramientas de creación musical. 2. Procesado de la Dinámica Las técnicas de modificación de la dinámica transforman la amplitud o el volúmen de la señal de audio. Este tipo de técnicas son la base de diversos dispositivos: modificadores de envolvente (envelop shapers), puertas de ruido (noise gates), compresores (compressors), limitadores (limiters), expansores (expanders), unidades de reducción de ruido (noiser reduction units), y compresores/expansores (companders). Las aplicaciones que tiene el procesado de 3 Figura 2: Transformaciones basada en la extracción de parámetros la dinámica van desde algunas aplicaciones prácticas, como por ejemplo la eliminación de ruido, hasta aplicaciones más creativas como la modificación de la envolvente de un sonido instrumental o vocal. 2.1. Modificadores de envolvente: Envelop shapers La mayoría de sistemas de edición de audio permiten modificar la amplitud de una señal de forma global o mediante una envolvente. Se puede implementar mediante una ganancia (en dB) o un rediseño de la envolvente del sonido. Esta transformación se puede aplicar a un único objeto sonoro o a toda la mezcla. 2.2. Ecualizadores Los ecualizadores constan de varios filtros que permiten amplificar o atenuar distintas bandas de frecuencia. Existen dos tipos de ecualizadores: paramétricos y gráficos. Los ecualizadores paramétricos suelen constar de tres o cuatro filtros que corresponden a frecuencias graves, medias y agudas. Cada uno tiene 3 controles: un potenciómetros para controlar la frecuencia central (entre 125 Hz y 2 Khz por ejemplo), otro para la ganancia (normalmente entre los -12 dB y +12 dB) y otro para controlar el ancho de banda, que suele variar ente 14 y 4 octavas. Los ecualizadores gráficos constan de varios filtros del tipo anterior pero con frecuencias fijas. Cada uno tiene un fader con el que amplificamos o atenuamos la banda correspondiente. Un efecto que hemos visto que tiene mucha relación con el ecualizador es el vocoder, que es un instrumento que permite aplicar la evolución espectral de un sonido a otro, con lo que se realizaría una síntesis cruzada. Para ello, se divide la señal en varias bandas de frecuencia y mediante un seguidor de envolvente en cada banda, se analiza cómo evoluciona su amplitud. La otra señal a modificar se pasa por un ecualizador gráfico con las mismas bandas de frecuencia cuyos faders repdroducen automáticamente las evoluciones de los seguidores de envolvente. Vimos un esquema del vocoder al estudiar la síntesis subsctractiva. 4 2.3. Puertas de ruido: Noise Gates La puerta de ruido interviene cuando tenemos una señal con un ruido de fondo muy importante. El objetivo de la puerta de ruido no es el de limpiar de ruido la señal (lo cual sería muy complejo), sino sólo los instantes de silencio. La puerta de ruido es un commutador que se activa cuando el volúmen de la señal pasa por debajo de un umbral determinado que se denomina noise gate threshold. Cuando se activa, la puerta de ruido atenúa la señal de entrada (la apaga). Este hecho se muestra en la figura 3. Figura 3: Puerta de ruido Una puerta de ruido dispone generalmente de un tiempo de ataque y de caída que se pueden regular, ajustando así la progresividad del corte. Una aplicación típica de la puerta de ruido es la mejora de las bandas sonoras de las películas antiguas. 2.4. 2.4.1. Compresores, expansores y limitadores Compresores La compresión de la que hablaremos se realiza sobre la dinámica de la señal. No tiene nada que ver con la compresión de datos de los formatos de audio comprimidos, como por ejemplo mp3. La utilidad principal de un compresor audio es la de restringir el rango dinámico de una señal para pasarla por un conducto con una capacidad menor. El compresor es, por tanto, un amplificador cuya ganancia está controlada por 5 la señal de entrada. La utilización típica de un compresor es la de reducir la ganancia del amplificador cuando la señal excede de un cierto límite. Un compresor se caracteriza por su función de transferencia, que nos muestra como un valor de amplitud de entrada se relaciona con un determinado valor de salida. La figura 4 muestra ejemplos de funciones de transferencia de compresores. Figura 4: Procesado del rango dinámico. La columna de la izquierda muestra la función de transferencia asociada con los diversos métodos de procesado. (a) Señal original, es un sonido crash cymbal al que aplicamos una función de transferencia lineal. (b) Compresión suave de los picos que los baja algunos dB. (c) Compresión abrupta de los picos para mantenerlos dentro del umbral definido por T. (d) Expansión que exagera los picos, creando algunos picos nuevos. En el interior de un compresor, un circuito detector monitoriza la amplitud de la señal de entrada. Este circuito puede responder a picos o al promedio de la amplitud de entrada. Un detector de picos reacciona a picos de amplitud, aunque éstos sólo ocurran durante un instante. Los procesadores de rango dinámico de la figura 4 están basados en detección de picos. Por el contrario, los detectores de promedio responden más lentamente a la amplitud global de la señal, típicamente a lo largo de un período de 1 o 2 segundos. Los detectores de pico reaccionan muy rápido, lo que proporcina seguridad frente a las cargas de amplitud. Por el contrario, los detectores de promedio proporcionan respuestas suaves a los cambios de la señal de entrada. 6 El factor de compresión (o compression ratio) es la relación de cambio entre la señal de entrada y la de salida. Un amplificador ordinario tendrá un factor de 1:1. Un factor de 4:1 significa que un cambio de 4 dB en la señal de entrada proporciona un cambio de 1 dB en la señal de salida. La alta compresión es un cliché común en la producción de música popular. Por ejemplo, factores en el rango 10:1 hacen que las voces pop suenen más íntimas debido a la exageración de las gesticulaciones de la lengua, del chasquido de los labios, del ruido de la saliva y de la respiración. Esta exageración se produce cuando todos los sonidos vocales se escalan al mismo rango de amplitud. En cuanto a los instrumentos de cuerda punteada como las guitarras eléctricas, una compresión extrema causa efectos de sostenuto. Es decir, el compresor reduce el transitorio del punteo mientras que multiplica el nivel global por un factor elevado. Cuando esta señal comprimida sufre una fuerte amplificación, como por ejemplo en guitarras eléctricas, refuerza las oscilaciones sostenidas de la cuerda. 2.4.2. Expansores El expansor es el dispositivo inverso del compresor. El expansor exagera los cambios pequeños de su señal de entrada y los convierte en cambios amplios de la señal de salida. El factor de expansión determina el grado de expansión. Por ejemplo, un radio de expansión de 1:5 significa que un cambio de 1 dB en la señal de entrada se convierte en 5 dB a la salida. La mayor aplicación es la restauración de viejas grabaciones. Las unidades de reducción de ruido contienen a veces pares de compresores-expansores. La figura 4 (d) muestra un efecto de expansión de picos que se aplica a la señal de entrada de la figura (a). 2.4.3. Limitadores El limitador tiene una acción mucho más radical que el compresor, ya que el factor entre el nivel de entrada y de salida es del orden de 100:1 (mayor que 10:1), lo que significa que para 100 dB más allá del valor del umbral no hay más que un dB de salida. Por tanto, un limitador evita que el volúmen de la señal sea mayor que un cierto umbral, lo cual puede ser utilizado para evitar las saturaciones cuando no sabemos el volúmen máximo que tendremos a la entrada. El limitador se utiliza en todas las situaciones donde es crítica un valor máximo de tensión, por ejemplo en transmisión radiofónica, etc. También se utiliza en grabación de conciertos en directo, donde es imperativo no cargar el rango dinámico absoluto de ningún componente de la cadena de grabación. Por ejemplo, los grabadores digitales tienen un nivel umbral absoluto de entrada a partir del cual se produce distorsión. Un ingeniero de grabación puede insertar un limitador antes de la entrada del grabador para asegurar que el umbral del mismo nunca se supera. Para evitar un efecto similar a la saturación, la acción del limitador se realiza gradualmente, aunque utilizando un tiempo de ataque y de bajada más cortos que para la compresión. 7 2.4.4. Companders En la práctica se utilizan conjuntamente compresores y expansores (companders) con el objetivo de contener la dinámica sonora al interior de límites precisos. El compresor/expansor se utiliza en todas las situaciones donde la dinámica de la señal tiene que ser reducida a unos niveles medios, como para la transmisión radiofónica o la grabación destinada al mercado comercial. Figura 5: Companders para la reducción de ruido Las técnicas de reducción de ruido que se han desarrollado para los sistemas de grabación analógica sobre banda utilizan los companders. Una etapa de compresión se aplica a la señal antes de la grabación, y una etapa de expansión por la función inversa se aplica a la salida. La etapa de compresión amplifica las señales débiles, que se ven menos afectadas por el ruido de fondo del soporte una vez que se graban sobre el mismo. La expansión tiene el efecto de reestablecer el nivel inicial de las señales débiles, lo que tiene también el efecto de reducir el nivel de ruido. La relación señal/ruido se mejora considerablemente. Esta técnica de reducción de ruido se ilustra en la figura 5. El sistema de reducción de ruido Dolby funciona de esta manera, pero con una etapa suplementaria que consiste en dividir la señal en diversas bandas frecuenciales diferentes, sobre las cuales aplicamos factores de compresión diferentes según la banda (ver figura 6). 3. Convolución La convolución es una operación fundamental en el procesado de señales de audio digital. Cualquier filtro, por ejemplo, convoluciona su respuesta impulsional con la señal de entrada para producir una señal de salida filtrada. La convolución de una señal con una respuesta impulsional puede generar variedad de efectos. Por ejemplo, podemos implementar un efecto de reverberación (reverberator), que es un filtro complejo, mediante la obtención de la 8 Figura 6: Dolby respuesta impulsional de una sala, y luego convolucionar la señal de entrada con esa respuesta impulsional. Cuando el sonido convolucionado se suma al original, suena como si la señal de entrada se hubiera tocado en dicha sala. Además de los efectos de reverberación, los cuales veremos más adelante en el punto 6, la respuesta impulsional de cualquier procesador de audio (micrófono, altavoz, filtro, distorsión, efecto, etc.) puede convolucionarse con una señal de entrada y tener en cuenta las características de dicho procesador. Esto nos lleva a aplicaciones musicales de la convolución: la síntesis cruzada o cross-synthesis se puede implementar también a través de la convolución de dos sonidos arbitrarios. Si los sonidos de entrada son instrumentales, puede sonar como si un instrumento estuviera tocando a otro (ejemplo de una campana tocando un gong). Varias transformaciones puede explicarse matemáticamente a través de la convolución, incluyendo filtrado, efectos temporales (echo, time-smearing y reverberación) y modulación. 4. Retardo Los retardos temporales, como vimos con los filtros, son la fuente de la mayoría de los efectos musicalmente útiles sobre las señales de audio. En el caso de los filtros, la aplicación repetida de retardos nos permite obtener un efecto directo sobre el espectro del sonido, mediante la manipulación de los valores de las muestras de diferentes maneras. 9 Figura 7: Línea de retardo De hecho, la única diferencia entre los circuitos que vimos en los filtros FIR (de respuesta impulsional finita) y los circuitos de base que se utilizan en los retardos digitales temporales (figura 7) es la duración del retardo implicado, así cómo el carácter fijo o variable en el tiempo. En el caso de los filtres en peine (comb filters), como vimos en el capítulo de filtros, utilizamos retardos más largos que para los filtros paso bajo o paso alto. Los efectos obtenidos por los retardos temporales se sitúan, de hecho, en una línea contínua de los efectos espectrales de filtros digitales. Un retardo digital puede considerarse de forma general como un espacio de memoria que contiene un número de casillas para guardar muestras de audio. Figura 8: 2 Tap Delay line 10 Este tipo de estructura se denomina generalmente FIFO (First In First Out). Podemos representarlo como un buffer o espacio de memoria circular (figura 8). En la representación circular, podemos distinguir puntos de entrada (posición 3), donde se escribe la señal en la línea de retardo, y puntos de salida (posición 2 y 8) donde la señal se lee. Podemos imaginar que las muestras recibidas en la posición 3 se desplazan una casilla a la siguiente, a la velocidad de la frecuencia de muestreo. Cuando una muestra llega a la posición 8, es leída, y cuando llega a la 3, es reemplazada por una nueva muestra. Si la línea de retardo presenta varios puntos de lectura, diremos que se trata de una línea de retardo multi-tap. La duración del retardo depende de la posición del puntero de lectura en la memoria circular. Por otro lado, el número de posiciones en la línea de retardo circular determina el retardo máximo posible. 4.1. Los retardos fijos: filtrado LP, comb y echo Los retardos fijos son esencialmente obtenidos cuando los punteros de lectura de la memoria están siempre en la misma posición cuando se introduce la señal. Los efectos obtenidos varían si la duración del retardo es corta o larga. 4.1.1. Retardos fijos de duración inferior a 10 ms: efecto de filtro LP En el caso de los retardos cortos, del orden de menos de 10 ms, cuando la señal retardada se mezcla con la original obtendremos el efecto de filtro FIR LP, como vimos en el capítulo de filtros digitales FIR. 4.1.2. Retardos fijos de duración entre 10 y 40 ms: efecto de filtro en peine Cuando la duración del retardo se aleja de 10 ms, se genera un filtro en peine FIR, como vimos en el capítulo de filtros digitales. Las duraciones mayores entre 10 y 50 ms dan a la señal una impresión de crecimiento y, según el caso, de duplicación de la señal original. También se habla de efectos de coloración, ya que se refuerzan ciertas frecuencias en relación armónica. El efecto de filtro en peine introduce la anulación y el refuerzo de fase entre la señal retardada y la original. Este efecto se explica de la forma siguiente: en las bajas frecuencias, el retardo no tiene ningún efecto sobre la fase, y las dos señales (original y retardada) se suman, lo que amplifica la señal de salida. A las frecuencias más elevadas, el retraso ocasiona un desfase que se aproxima progresivamente a los 180o . Por ejemplo: a 2 KHz, un retardo de 0.25 ms genera un desfase de 180 grados. Cuando se suma con la versión original, las dos señales se anulan a esta frecuencia. Cuando el desfase es de 360 o , tenemos otro pico de refuerzo (4 KHz), y así sucesivamente. Para poner un ejemplo, veamos las frecuencias del primer pico de resonancia de un filtro en peine para diferentes valores de tiempo de retardo. Las frecuencias corresponden también a la distancia en Hz entre dos picos sucesivos. 11 Tiempo de regardo 20 ms 10 ms 2 ms 1 ms 0.500 ms 0.250 ms 0.125 ms 0.100 ms 4.1.3. Frecuencia 50 Hz 100 Hz 500 Hz 1 KHz 2 KHz 4 KHz 8 KHz 10 KHz Retardos de duración superior a 50 ms: efecto de echo Cuando el retardo excede aproximadamente los 50 ms, comenzamos a diferenciar las distintas señales retardadas, lo que según la aplicación nos sugerirá la presencia de un muro reflectante a una distancia determinada de la fuente. Figura 9: Echo Si sabemos que la velocidad del sonido es aproximadamente 340 m/s, un muro situado a 7 m de la fuente, por ejemplo, reenvía una señal reflejada 50 ms después de haber sido emitida por la fuente. Este efecto de eco es esencial en la simulación de espacios acústicos reales y para la localización de una fuente sonora en el plano cartesiano (figura 9). Podemos simular la procedencia de una fuente de la izquierda aplicando un ligero retardo a la señal del canal derecho. Es el efecto psicoacústico denominado efecto de procedencia o efecto Haas (aunque las dos señales tengan igual amplitud). 4.2. Los retardos variables: flanging, phasing y chorus Mediante la modulación de la posición de los punteros de lectura en la memoria circular, podemos obtener efectos de retardos variables, es decir, variando 12 la duración del retardo. Los efectos obtenidos son el flanging, el phasing, chorus y toda una gama de efectos de transposición. 4.2.1. Flange Figura 10: Flange El flanging electrónico (figura 10) deriva de un fenómeno acústico natural que se produce cuando se escucha un ruido de espectro en medio de una mezcla de sonido directo y retardado. Fue descubierto por el matemático y físico holandés Christiaan Huygens en 1693. Diferentes situaciones conducen a la percepción de este efecto. Un ejemplo clásico es el de la fuente y la escalera. El ruido de una fuente se refleja en los escalones de una escalera y un receptor que se coloque entre la fuente y los escalones puede percibir el filtrado resultante de la suma del sonido directo y reflejado por los escalones, que llegan con un cierto retardo a los oidos del receptor. Otro ejemplo es el del avión que despega. El sonido directo emitido por el avión se suma con el sonido reflejado por el suelo, en el que el retardo cambia contínuamente a medida que el avión toma altitud. El guitarrista Les Paul fue el primero en utilizar el efecto de flanging como efecto sonoro en un estudio de grabación. Su sistema de flanging, puesto en marcha en 1945, empleaba dos grabadores a disco en el que uno tenía un control variable de la velocidad. En los años 60, el flanging se implementaba en estudios con dos grabadores de banda analógicos y una consola de mezcla, como ilustra la figura 10. Los grabadores recibían la misma señal y el ingeniero controlaba su salida combinada presionando de vez en cuando sobre el borde (flange) de una de las bobinas para disminuir su velocidad. De aquí el nombre del efecto. Este efecto fue utilizado notablemente en mezcla del album Sergent Pepper de los Beatles (While my guitar gently weeps por ejemplo). Más recientemente, 13 lo encontramos en el solo de guitarra de Lenny Kravitz en Are you gonna go my way?). El flanging digital utiliza una línea de retardo en la que el retardo puede variar en el tiempo. En lugar de una presión manual sobre el borde de la bobina, el tiempo de retardo de un flanger electrónico se controla con un oscilador a baja frecuencia (LFO) en el que la forma de onda es habitualmente sinusoidal o triangular (como ilustra la figura 11) y en el que la frecuencia se siúa entre 0,1 y 20 Hz. Figura 11: Variable delay Figura 12: Implementación de un flanger El efecto de flanger podría llamarse efecto de filtro en peine deslizante en el que los picos de resonancia se desplazan a lo largo del eje de frecuencias. Los parámetros del efecto de flanger son: La profundidad del efecto, que depende de la proporción de señal retardada que se suma a la señal original (la profundidad es máxima cuando las amplitudes de la señal original y retardada son iguales). 14 El tiempo medio de retardo. La frecuencia del LFO que controla la modulación del retardo. Aunque la estructura que describimos anteriormente (la idea de los dos grabadores) es equivalente a un filtro FIR, en la práctica la mayoría de las implementaciones modernas de flanging utilizan una estructura en peine recursiva o IIR (figura 12). Los picos de resonancia en el espectro se encuentran a intervalos múltiplos exactos de 1/D, donde D es el tiempo de retardo medido en segundos. 4.2.2. Phasing Es un efecto similar al anterior, pero la alteración del timbre no es tan pronunciada. Una señal con un espectro rico se envía a través de una serie de filtros pasa-todo (con respuesta en frecuencia plana que sólo afectan la fase de la señal). Un oscilador de baja frecuencia puede utilizarse para controlar la cantidad de desplazamiento de fase (phase shift) introducida por el filtro pasa-todo (allpass). Las salidas de los filtros se mezclan con la señal original. Como en el caso de flanging, produce un efecto de filtro en peine desplazándose. ¿Cuál es la diferencia entre phasing y flanging? El flanging resulta de resonancia y anulaciones en el espectro espaciadas uniformemente a lo largo del eje de frecuencias. Por el contrario, los picos y valles en la respuesta en frecuencia de un phase shifter corresponde a un número de etapas de los filtros que lo componen. La separación, profundidad y longitud de las anulaciones de espectro pueden ser variadas. El phasing puede utilizarse para crear el efecto de procedencia y modificar el azimut aparente de una fuente sonora. 4.2.3. Chorus Este efecto ha fascinado durante largo tiempo a músicos e ingenieros de sonido. Dado un instrumento y una voz (acústica o electrónica) se puede tratar la señal de manera que se le de la riqueza y profundidad de un conjunto (coro) de fuentes de la misma naturaleza. Este efecto requiere pequeñas diferencias entre las voces de la mezcla simuladan incluyendo ligeros retardos, alteraciones de la frecuencia fundamental, y vibrato asíncrono. Hay muchos algoritmos para implementar este efecto. Los primeros se remontan a los años 40, cuando Hanert construyó líneas de retardo electromecánicas para la música electrónica, que fueron después utilizadas en los órganos Hammond. Más tarde, una versión puramente electrónica de estos choral tone modularos aparecerá en los órganos electrónicos de Baldwin. En los sistemas digitales, el efecto chorus puede implementarse enviando el sonido en una línea de retardo multi-etapas, donde los tiempos de retardo varían constantemente en un rango pequeño de valores. Estas variaciones causan el efecto de desafinar y redoblar variando en el tiempo. Esto es equivalente a enviar la señal a través de un bando de flangers en paralelo, aunque los retardos en el flanger tienden a ser más cortos que los que se utilizan para un efecto de chorus (15 a 35 ms, LFO 3 Hz). 15 Otra técnica consiste en separar la señal en diversas bandas de octava y aplicar un emplazamiento del espectro diferente para cada banda. La cantidad de separación en frecuencia debe variar aleatoriamente en un rango pequeño de valores. Las señales se envían luego a las líneas de retardo variables. 4.2.4. Transposición Al hacer avanzar o retroceder el puntero de lectura de una línea de retardos, vemos que el sonido obtenido en el punto de lectura sube o baja si aumentamos o disminuimos el tiempo de retardo. Este efecto se deriva de que la lectura variable es de hecho un resampling (o cambio de la frecuencia de muestreo): la frecuencia de muestreo se acelera o no según la velocidad de variación del retardo. Cuando la variación del retardo es constante, la transposición obtenida es constante. Este efecto secundario de la variación del retardo se utiliza para efectos de masa, cuando varios retardos modulados por diferentes factores de tiempo se suman para formar una masa donde cada componente tiene una altura diferente. Este tipo de efectos chorus pueden obtenerse también con un pequeño número de unidades de retardo y la reinyección a la entrada de las señales de salida. 5. 5.1. Modificación del contenido frecuencial Transposición De forma general, esta transformación no tiene por qué implementarse utilizando retardos. La transposición consiste en cambiar la altura del sonido manteniendo constante la relación de frecuencia entre los parciales. Por ejemplo, si tenemos un sonido que consta de una serie de armónicos, por ejemplo 4 primeros armónicos de frecuencia 50 (fundamental), 100, 150 y 200 Hz, su transposición de una sexta mayor ascendente equivale a multiplicar todas ellas por el factor 8/5, dando lugar a 80. 160, 240 y 320 Hz. La proporción entre los armónicos se mantiene. Una aplicación de la transposición es el armonizador, que realiza una transposición a uno o varios intervalos que se suma con la señal original, dando lugar a una serie de acordes. También se utiliza para el efecto chorus, dando la sensación de que hay más de un instrumento. El timbre percibido cambia mucho si el intervalo de transposición es muy grande. Hay algoritmos más complejos en dominio temporal y frecuencial que generan una transposición preservando el timbre original. 5.2. Desplazamiento en frecuencia Este efecto consiste en sumar o restar la misma frecuencia a todos los parciales. El efecto producido, a parte de un cambio de altura, es sobre todo tímbrico, obteniéndose en la mayoría de los casos sonidos inarmónicos, ya que no se mantienen las relaciones armónicas entre las frecuencias. Este efecto se denomina también modulación de banda lateral única, y la forma de realizarlo se deriva de la modulación en anillo. En la RM se producen bandas laterales a ambos lados de la portadora, mientras que en el desplazamiento sólo en el lado agudo (suma de frecuencias) o grave (resta de frecuencias). 16 Los dispositivos que implementan estos efectos se denominan desplazadores de frecuencia. 5.3. Morphing Se denomina morphing a una transformación la cual, a partir de dos o más elementos, genera un elemento nuevo con propiedades híbridas. La mayoría de las técnicas de morphing de audio se bassan en la interpolación de parámetros del audio resultado de una filosofía de análisis/síntesis del sonido. Dichos parámetros pueden ser parámetros de la transformada de Fourier o del espectro del sonido, modelos sinusoidales, etc. Un ejemplo sería un algoritmo que interpola frecuencias, fases y amplitud de componentes del espectro. 6. Reverberación La reverberación es un campo fértil de experimentación para los compositores de música electroacústica que les permite situar el sonido en espacios imaginarios que no siempre simulan espacios reales. 6.1. Fenómeno acústico La reverberación es un fenónemo complejo y natural que resulta de la interacción entre las fuentes sonoras y el lugar en el que las ondas se propagan. Es el resultado de millares de ecos que se producen cuando el sonido es reflejado por obstáculos (paredes, muebles, etc). La acumulación de ecos es lo suficientemente densa para dar la impresión de un sonido contínuo. La reverberación proporciona al sonido un cierto color y ayuda a percibir la naturaleza del entorno inmediato: materiales, muebles de la sala, tamaño, etc. La respuesta impulsional de la sala contiene diversas fases, como ilustra la figura 13. Figura 13: Reverberación de una sala El retardo inicial separa el sonido directo de la primera reflexión. El tiempo de reverberación es el que tarda la señal reverberada en atenuarse 60 dB por debajo de su amplitud máxima. 17 6.2. La reverberación artificial Manfred Schroeder de los Laboratoires Bell es el pionero en la reverberación artificial, que ofreció simulaciones realistas en todo tipo de espacios a partir de la aparición del audio digital. Sus algoritmos proponen utilizar retardos, filtros pasa-todo y filtros en peine. Los retardos se utilizan para reproducir las reflexiones primarias de la sala, y se conectan en serie o paralelo para crear una nube muy densa de reverberación. Los filtros en peine de tipo IIR (figura 14), comprenden un bloque de reinyección y crean múltiples ecos. El valor del retardo es normalmente mayor de 10 ms. Figura 14: Filtros IIR en peine Mediante el control del nivel de reinyección del filtro, podemos hacer más lenta la tasa de atenuación de los ecos y, de esa forma, alargar la duración de resonancia del filtro. La ganancia g < 1. En cada pasada del bucle, se multiplica la amplitud de un impulso por este valor de g, por lo que se obtendrá una serie de potencias g, g 2 , g 3 , g 4 , ... Figura 15: Filtros pasa-todo Los filtros pasa-todo (figura 15) se construyen con un filtro en peine cuya salida se mezcla con una copia de la señal original invertida (en oposición de fase con la señal de salida del filtro en peine). Esta inversión de fase contrarresta los efectos espectrales del filtro en peine. Los filtros pasa-todo transmiten, por tanto, todas las frecuencias de las señales estables, pero tienen un efecto importante en la fase de las mismas. Como ilustra la figura 16 (a), una unidad de reverberación de base se compone de 4 filtros en peine en paralelo, seguidos de 2 unidades de 18 filtros pasa-todo en serie. Figura 16: Unidad de reverberación Los tiempos de bucle se fijan para tener una respuesta en frecuencia natural. Un reverberador eficaz podrá por tanto utilizar un conjunto de filtros en peine y pasa-todo con el fin de crear la densidad de ecos necesaria para una simulación real. Schroeder propuso dos modelos de reverberador (figura 16 (a) y (b)), en los que la sonoridad es función de los retardos y de los factores de reinyección. Será esencial también especificar los tiempos de retardos para cada filtro, que será preferiblemente números primos, para evitar que los ecos no se doblen y den un efecto periódico a la reverberación. El esquema de bloques de la figura 17 representa una mejora de los reverberadores de Schroeder, que comprende una etapa en paralelo suplementaria consistente en una línea de retardos multi-tap que permite simular las primeras reflexiones de la señal original. Será útil también poner filtros pasa-todo en los circuitos para simular el efecto de atenuación sobre las altas frecuencias de todo espacio resonante. Dentro de los efectos de reverberación se debe incluir el efecto de convolución con la respuesta impulsional de la sala, como mencionamos en el punto 3. 19 Figura 17: Unidad de reverberación 7. 7.1. Espacialización Utilización musical de la espacialización La posición del sonido en el espacio virtual definido por un conjunto de altavoces es una etapa de la producción que se ha convertido en esencial para el éxito de todo proyecto musical. No sólo el procesado del espacio permite posicionar unos sonidos respecto a otros. Además, facilita la contextualización misma de la música. La reverberación y la localización (espacialización) permiten trabajar el sonido en diferentes planos relativos, poniendo en relieve ciertos eventos respecto a otros, realizando un tipo de orquestación del sonido donde la posición de cada sonido puede contribuir no sólo al engrandecimiento aparente del lugar de la música, sino también a su claridad estructural. Estas construcciones audio-espaciales son específicas a las músicas electroacústicas, porque no existen más que en el contexto de los espacios artificiales. Algunos comparan esta puesta en situación del sonido con una actividad cinematográfica, comparando los ángulos con planos de cámara, las longitudes focales y la profundidad de campo de la camara con la repartición del sonido en el espacio estereofónico o multi-altavoces. Una buena proyección sonora en un espacio de concierto depende de una buena compresión del comportamiento físico de las ondas y del funcionamiento de nuestro sistema auditivo. Se ha intentando desde hace siglos utilizar el espacio como una componente musical importante. Pero el altavoz permite poner una 20 fuente sonora en cualquier sitio, con un tamaño aparente (volúmen) arbitrario. Desde los inicios de la música electroacústica en los años 50, se han propuesto varias soluciones, desde las orquestas de altavoces a los últimos sistemas de codificación surround. Ninguna solución al día de hoy ha conseguido imponerse como formato de difusión, aunque los sistemas AC-3 5.1 de Dolby son ahora moneda corriente en el mercado de las cadenas de audio comerciales. Si la espacialización es la práctica general de situar espacialmente el material sonoro, la localización es una técnica precisa que permite posicionar el sonido en el plano horizontal. La localización es un campo de estudio muy importante en psicoacústica, ya que diversos mecanismos dependen de nuestra capacidad de identificar rápidamente la procedencia de una fuente sonora. 7.2. Los índices perceptuales La posición de una fuente sonora puede definirse a partir de los parámetros siguientes: El ángulo azimut (en el plano horizontal respecto al plano frontal vertical). La distancia y la velocidad de desplazamiento de la fuente si ésta está en movimiento. La elevación (en el plano vertical). Nuestro sistema auditivo determina el azimut de una fuente sonora a través de tres diferencias inter-aurales: La diferencia de tiempo de llegada del frente sonoro (efecto de procedencia) para las bajas frecuencias. La diferencia de amplitud para las frecuencias medias (efecto de sombra acústica). Las diferencias espectrales causadas por las reflexiones asimétricas sobre los hombros, la cabeza y sobre todo la oreja, para las altas frecuencias (aquellas que tienen una longitud de onda del mismo orden de magnitud que las dimentiones de la cabeza y las orejas). La percepción de la distancia de una fuente se basa en los siguientes fenómenos: La relación entre la intensidad de la señal directa (proporcional a la inversa del cuadrado de la distancia) y la intensidad de la señal reverberada (relativamente constante). La atenuación con la distancia de las altas frecuencias. La atenuación de los detalles de la fuente (ausencia de señales débiles). Por otro lado, cuando la distancia entre el sonido y la fuente cambia, el cambio de altura de la fuente (efecto doppler) indica al velocidad y la dirección de la fuente (transposición a los agudos si el objejeto se aproxima). La percepción de la elevación se debe exclusivamente a los efectos espectrales del torso, de la cabeza y del oido externo sobre las componentes de alta frecuencia de las señales. 21 7.3. La panoramización Para situar un sonido en el eje horizontal entre dos altavoces, se tiene que variar la amplitud de la misma señal en los dos altavoces. Cuanto más fuerte es la amplitud en uno de ellos, más parece el sonido venir de esa dirección. La función que se utiliza para variar al amplitud es determinante para la localización aparente del sonido. Una función lineal (figura 18) nos dará la impresión de que el sonido es más débil cuando está al centro (1/2 de la amplitud a la derecha y 1/2 a la izquierda) en comparación con los extremos (todo a la derecha o todo a la izquierda). Figura 18: Panning Para explicar este fenómeno hay que recordar que según la ley de la intensidad sonora, el volúmen percibido de un sonido es proportional a su intensidad, la cual es proporcional al cuadrado de la presión (es decir, de su amplitud). Sea A la amplitud que se envía al altavoz de la izquierda y B al de la derecha, y sea x la posición dentre los dos altavoces, que vale 1 a la izquierda y 0 a la derecha. La amplitud varía de la forma siguientes: A=x B =1−x Y la intensidad de la forma siguiente: I = A2 + B 2 A la izquierda, A = 1 y B = 1 − 0 = 0. Deducimos entonces que I = 1. Igualmente, a la derecha, A = 0, B = 1 y I = 1. Por el contrario, en el centro A = 0,5 y B = 0,5, lo que genera una intensidad: I = A2 + B 2 = 0,52 + 0,52 = 0,25 + 0,25 = 0,5 Es más débil en el centro que en los extremos. Para evitar este problema utilizaremos una función sinusoidal para controlar la amplitud de las señales (figura 18 a la derecha): 22 √ A = ( 2/2)[cosα + sinα] √ B = ( 2/2)[cosα − sinα] donde α es el ángulo azimut, y vale 45o en el extremo izquierdo y -45 en el derecho. La posición central tendrá un azimut 0: √ A = ( 2/2)[cos0 + sin0] = 0,707 √ B = ( 2/2)[cos0 − sin0] = 0,707 La intensidad I = 0,7072 + 0,7072 = 0,5 + 0,5 = 1, igual que a los extremos. 7.4. HRTF : Head-Related Transfer Function Para simular el audio 3D, es decir, la localización de una fuente en el plano horizontal y en elevación, hay que recurrir a técnicas sofisticadas. Se puede utilizar una respuesta en frecuencia HRTF (Head-Related Transfer Function), que tiene en cuenta el filtrado llevado a cabo por el torso, la cabeza y el oido externo en función del ángulo de azimut y del ángulo de elevación del frente de ondas. El problema ligado a la utilización de esta técnica es que las diferencias inter-individuales puede ser importantes. En la figura 19 se representan las HRTF’s de dos personas diferentes (oreja izquierda y la fuente localizada al nivel de la oreja). Se observa que las diferencias son muy marcadas a partir de 8 KHz. Figura 19: HRTF 8. Referencias Roads, C., The Computer Music Tutorial, The MIT Press, 1996. pp. 390492. Zölzer, U., editor. DAFX: Digital Audio Effects, John Wiley & Sonds, Ltd, 2002. http://www.unibw-hamburg.de/EWEB/ANT/dafx2002/DAFX_Book_Page/ 23