DEPARTAMENTO DE MÚSICA L.P.M. CURSO 14/15 TEMA 9. MÚSICA Y NUEVAS TECNOLOGÍAS 1.- SISTEMA ANALÓGICO A) Grabación y reproducción mecánica: a) El fonógrafo El fonógrafo fue uno de los primeros aparatos inventados para el registro y reproducción del sonido. Elaborado en 1877 por Edison, está constituido por un cilindro de metal recubierto por papel de estaño, sobre el cual se apoya una sutil punta de acero colocada en el centro del diafragma. Si se habla delante del diafragma, la energía sonora de la voz la hace vibrar y transmite las vibraciones a una aguja de acero. La aguja traza sobre el estaño un surco continuo helicoidal, que contiene todos los caracteres distintivos del sonido inicialmente producido delante del diafragma: la intensidad se refleja en la profundidad del surco, la altura en el número de incisiones por unidad de longitud y el timbre en la forma del surco. Las grabaciones del cilindro, puesto en movimiento de la forma adecuada una vez terminado el registro, inducen vibraciones sobre la aguja que, a su vez, las transmite al diafragma reproduciendo el sonido registrado. Fue inventado por T. Edison b) El gramófono El gramófono fue el primer sistema de grabación y reproducción de sonido que utilizó un disco plano, a diferencia del fonógrafo que grababa sobre un cilindro. Fue patentado en 1888 por el alemán Emile Berliner basándose en el principio de la modulación horizontal ya previsto por Charles Cros. El gramófono de Berliner constaba de un plato giratorio, un brazo y una aguja o púa. Un motor de cuerda hace girar el plato a una velocidad de 80 RPM aproximadamente. Jossie Arenal Pretto Página 1 DEPARTAMENTO DE MÚSICA L.P.M. CURSO 14/15 En un principio utilizaba discos de 5″. El material con el que estaban hechos los discos que reproducía el gramófono era goma endurecida o “vulcanite”. El gramófono utiliza un sistema de grabación mecánica analógica, en el cual las ondas sonoras son transformadas en vibraciones mecánicas, que hacen mover una púa que traza surcos que conforman una espiral sobre la superficie de un disco metálico o de cera, que recibe un baño metálico que luego se desprende formando un molde positivo de la grabación, el cual será puesto en una prensa que lo presionará contra un material termoplástico (como en el caso de los discos de vinilo, aunque en los discos normales para gramófono se empleaba una pasta a base de goma laca) que al enfriarse forma un disco sólido con la grabación. En forma inversa, al recorrer la púa el surco del disco que gira en el plato del dispositivo, se generan vibraciones mecánicas que hacen vibrar un diafragma ubicado en el cabezal reproductor del brazo, en donde las vibraciones se transforman en sonido, que es emitido y amplificado a través de la bocina. La velocidad del gramófono y los discos que toca es de 78 RPM. El gramófono acabó imponiéndose sobre el fonógrafo por el menor coste de producción de las grabaciones destinadas a este dispositivo, dado que a partir de un único molde original podían realizarse miles de copias. El fonógrafo sólo podía realizar una única toma de sonido por cada representación original. Por ello, cuando se iba a realizar una grabación, se disponían múltiples fonógrafos. Sin embargo, el fonógrafo tenía una ventaja con respecto al gramófono: los usuarios podían grabar sus propios cilindros, con música o voces. Esta posibilidad tenía múltiples aplicaciones que ni el gramófono ni el disco de vinilo posterior permitieron, y que se encontraron disponibles nuevamente con la aparición de los magnetófonos de carrete abierto, los grabadores de alambre metálico, los grabadores de cintas de cassette y los dispositivos digitales, tales como computadoras equipadas con tarjetas de audio y grabadores digitales portátiles. B) Grabación y reproducción eléctrica: a) Micrófonos: El micrófono es un transductor acústico eléctrico. Su función es la de traducir las vibraciones debidas a la presión acústica ejercida sobre su cápsula por las ondas sonoras en energía eléctrica, lo que permite por ejemplo grabar sonidos de cualquier lugar o elemento. Jossie Arenal Pretto Página 2 DEPARTAMENTO DE MÚSICA L.P.M. CURSO 14/15 AMPLIACIÓN En 1827, Charles Wheatstone utiliza por primera vez la palabra “micrófono” para describir un dispositivo acústico diseñado para amplificar sonidos débiles. Procede de los vocablos griegos “micró” (pequeño) y “phon” (sonido). El primer micrófono formaba parte del Fonógrafo, el dispositivo más común para reproducir sonido grabado desde la década de 1870 hasta la década de 1880 y donde precisamente comenzó la historia del micrófono y las grabaciones de audio. Fue conocido como el primer “micrófono dinámico”. Posteriormente, en 1876 Alexander Graham Bell, simultáneamente con Elisha Gray, registra una patente del “telégrafo hablado” (el primer teléfono). Por primera vez incluye el micrófono funcional que usa un electroimán. El siguiente paso importante en el diseño del transmisor se debió a Henry Hunnings de Inglaterra. Él utilizó los gránulos del choque entre el [diafragma] y una placa metálica trasera. Este diseño originado en 1878, fue patentado en 1876. Este transmisor era muy eficiente y podía llevar más actual que sus competidores. Su desventaja era que tenía una tendencia a embalar y a perder su sensibilidad. El advenimiento de la grabación eléctrica y de la radio del disco que difundían en los años 1920 tempranos estimuló el desarrollo de los micrófonos de carbón de una calidad mejor. El año 1920 llevó en la era comercial de la difusión. Algunos de los aficionados y de los cantantes bien informados comenzaron a jugar expedientes y a usar los micrófonos con sus programas. La estación de radio temprana utilizó el teléfono del candlestick para un micrófono. El elemento típico del transmisor en este tiempo era no eléctrico occidental 323. Al principio él fue utilizado como hablando en él pues uno utilizaría un teléfono. El paso siguiente era proveer de los actores un micrófono que permitiría que estuvieran parados y que se realizaran. Para este uso el constructor tomó el transmisor del teléfono del candlestick, substituyó la boquilla corta por el megáfono y resbaló esta combinación dentro de una manga alineada fieltro de la baquelita cerca de ocho pulgadas de largo y puso pernos de argolla pequeños en cada extremo para suspenderlo de arriba. El primer micrófono, que hizo para la industria de la película era el PB17. Era a sand blasted el cilindro de aluminio, 17 pulgadas de largo y el fondo del The de 6 pulgadas de diámetro fue redondeado con un yugo para llevar a cabo el elemento de la cinta, que tenía una pantalla perforada protectora. La estructura magnética utilizó un electroimán que requería seis voltios en un amperio. En 1931 la Western Electric presenta el primer micrófono dinámico, el modelo 600, serie 618. Posteriormente la marca RCA presenta el primer micrófono de cinta bidireccional: 44ª de imán permanente. Ya en el año 1947 se produce un evento importante para la historia del micrófono, se funda la AKG en Viena, una empresa austríaca que fabrica accesorios profesionales de Jossie Arenal Pretto Página 3 DEPARTAMENTO DE MÚSICA L.P.M. CURSO 14/15 audio, en especial micrófonos y auriculares. Y en 1948 Neumann lanza el micrófono a válvulas U47, el primer micrófono de condensador con patrón conmutable entre cardioide y omnidireccional. Acabó convirtiéndose en todo un clásico para grabar voces desde que se supo que Frank Sinatra se negaba a cantar sin su U47. En 1962 Hideo Matsushita establece la empresa Audio-Technica Corporation en Tokio. La compañía lanza los modelos AT-1 y AT-3MM de cápsulas estereofónicas y empieza a suministrar cápsulas a fabricantes de audio. Posteriormente, en 1978, Audio-Technica lanza los auriculares de condensador ATH-8 y ATH-7. Estos auriculares ganaron diversos premios. Este año también se produjo el desarrollo y lanzamiento de la Serie 800 de micrófonos, y la creación de Audio-Technica Ltd. en Leeds, Inglaterra. En 1991, sale al mercado el micrófono de condensador AT4033, elegido mejor micrófono en el AES(Audio Engineering Society) y en 1994, presenta el micrófono de condensador de multipatrón AT4050/CM5. En 1995, la planta de fabricación de micrófonos, auriculares, sistemas inalámbricos y mezcladores de micrófono consigue la certificación ISO 9002. ISO 9000 es el nombre genérico con el que coloquialmente se designa a una familia de normas de aseguramiento de la calidad. En 1996, los micrófonos y auriculares Audio-Technica son utilizados en todos los recintos de los Juegos Olímpicos de Atlanta. En 1998, Audio-Technica presenta el AT4060 un micro de condensador a válvulas de estudio; y el excelente resultado de los productos AudioTechnica en Atlanta ’96, hacen que en el año 2000 sea designada también como proveedor de en los juegos de Sydney’00. En 2002, Audio-Technica celebra su 40 aniversario. Y es designada, para proporcionar aproximadamente 2.800 micrófonos para los Juegos de SALT Lake City, marcando así su primera participación en unos Juegos Olímpicos de Invierno. A pesar de las severas condiciones climáticas, los micros A-T respondieron perfectamente. En años recientes, algunos de los acercamientos más radicales al diseño del modelo del micrófono han incluido la detección del movimiento, en respuesta a variaciones de presión sana, de partículas cargadas, a un sistema análogo al altavoz iónico. FIN AMPLIACIÓN b) Altavoces: Un altavoz es un transductor electroacústico utilizado para la reproducción de sonido. Uno o varios altavoces pueden formar una pantalla acústica. La transducción sigue un doble procedimiento: eléctrico-mecánico-acústico. En la primera etapa convierte las ondas eléctricas en energía mecánica, y en la segunda Jossie Arenal Pretto Página 4 DEPARTAMENTO DE MÚSICA L.P.M. CURSO 14/15 convierte la energía mecánica en ondas de frecuencia acústica. Es por tanto la puerta por donde sale el sonido al exterior desde los aparatos que posibilitaron su amplificación, su transmisión por medios telefónicos o radioeléctricos, o su tratamiento. El sonido se transmite mediante ondas sonoras, en este caso, a través del aire. El oído capta estas ondas y las transforma en impulsos nerviosos que llegan al cerebro y se transforman en señales que se identifican con cosas como música, sonidos y onomatopeyas. Si se dispone de una grabación de voz, de música en soporte magnético o digital, o si se recibe estas señales por radio, se dispondrá a la salida del aparato de señales eléctricas que deben ser convertidas en sonidos; para ello se utiliza el altavoz. c) Amplificadores: Un amplificador es todo dispositivo que, mediante la utilización de energía, magnifica la amplitud de un fenómeno. Aunque el término se aplica principalmente al ámbito de los amplificadores electrónicos, también existen otros tipos de amplificadores, como los mecánicos, neumáticos, e hidráulicos, como los gatos mecánicos y los boosters usados en los frenos de potencia de los automóviles. Amplificar es agrandar la intensidad de algo, por lo general, sonido. También podría ser luz o magnetismo, etc. En términos particulares, un amplificador es un aparato al que se le conecta un dispositivo de sonido y aumenta la magnitud del volumen. En música, se usan de manera obligada en las guitarras eléctricas y en los bajos, pues esas no tienen caja de resonancia, la señal se obtiene porque las cuerdas, metálicas y ferrosas, vibran sobre una cápsula electromagnética, y esa señal no es audible, pero amplificada por un amplificador (valga la redundancia) suena con su sonido característicos. Mediante su interfaz se le puede agregar distintos efectos, como trémolo, distorsiones o reverb entre otros. Las radios y los televisores tienen un amplificador incorporado, que se maneja con la perilla o telecomando del volumen y permite que varíe la intensidad sonora. d) Tocadiscos: Un tocadiscos es un sistema de reproducción del sonido del tipo electromecánico analógico, hijo del gramófono, que utiliza el mismo tipo de tecnología, sustituyendo el cilindro de fonógrafo por un disco. El tocadiscos también se conoce como pletina giradiscos, giradiscos, tornamesa, fonochasis, plato o pick-up, aunque ninguna de estas cuatro últimas nomenclaturas tiene demasiada aceptación, excepto en los ámbitos profesionales, tales como las emisoras de radio y los estudios de grabación, donde el término plato es el más empleado. Tornamesa, por el contrario, es la palabra en uso entre los profesionales de la América de habla hispana, y viene directamente de la castellanización del término anglosajón turntable, que etimológicamente quiere decir mesa giratoria. Fue inventado en 1925 con la idea de reproducir los discos en forma eléctrica, trayendo beneficios tales como mayor calidad en el sonido, menos desgaste Jossie Arenal Pretto Página 5 DEPARTAMENTO DE MÚSICA L.P.M. CURSO 14/15 tanto en el disco como en la púa y el control del volumen del sonido. Además dio a lugar a nuevas velocidades para los discos. Generalmente los tocadiscos reproducen a 33 RPM y 45 RPM. Este artefacto se convirtió en el sistema reproductor de sonido que se mantendría por más tiempo hasta la actualidad, tanto para la venta como para el uso. Hacia 1950 aparecen los llamados "combinados", generalmente tocadiscos con radio.1 En 1958 se empezaron a publicar los primeros discos en estéreo. e) cinta magnética: han sido usadas para el almacenamiento de datos durante los últimos 50 años. En este tiempo se han hecho varios avances en la composición de la cinta, la envoltura, y la densidad de los datos. La principal diferencia entre el almacenamiento en cintas y en discos es que la cinta es un medio de acceso secuencial, mientras que el disco en un medio de acceso aleatorio. Hay dos características clave para clasificar las tecnologías de cintas magnéticas. La primera es la anchura de la cinta. La anchura más común de una cinta de alta capacidad ha sido como máximo media pulgada. Existen muchos otros tamaños y la mayoría han sido desarrollados para tener menor encapsulado o mayor capacidad. La segunda clasificación es según el método de grabación. Más específicamente, la diferencia radica en si los datos son escritos linealmente o por escaneo 'helical'. El método lineal ordena en pistas paralelas a la longitud de la cinta. El escaneo 'helical' escribe pequeñas pistas curvada desde un borde de la cinta hasta el otro. Originalmente, la grabación lineal significaba ocupar completamente la anchura de la cinta y escribiendo o leyendo todas las pistas a la vez. Una variación de esta tecnología, es la llamada grabación lineal 'serpentine' que solo graba una fracción de las pistas en la cinta a la vez. Después de realizar una pasada completa, la cabeza se desplaza ligeramente y hace otra pasada en la dirección contraria. Este procedimiento es repetido hasta que todas las pistas han sido leídas o escritas. Usando este método, la cinta puede tener más pistas que las usadas con el método linear normal. En contraste a esto, el método de escaneo 'helical' solo necesita una pasada para leer o escribir toda la cinta. Jossie Arenal Pretto Página 6 DEPARTAMENTO DE MÚSICA L.P.M. CURSO 14/15 2.- SISTEMA DIGITAL A.- CODIGO BINARIO Todos los sistemas electrónicos manejan dos clases de información. Magnitudes y valores variables y definidos. En la electrónica analógica, las magnitudes pueden variar constantemente dando lugar a alteraciones o variaciones de una señal, o por ejemplo, a una medida eléctrica. La aparición de la tecnología digital, con sus símbolos definidos, anuló esta ambivalencia lo que hace que estos sistemas tengan que optar por uno de los dos valores. Muchas veces no nos detenemos a pensar en el gran salto que constituyó para la ciencia el desarrollo de estos dos sistemas en la electrónica. El sistema binario: los orígenes Aunque ya en textos antiguos de la India y la China se mencionaban los primeros sistemas binarios del la historia, no fue sino hasta el siglo XVII cuando el filósofo alemán y matemático Gottfried Leibniz (1646-1716) sistematiza y explica el método utilizado por los antiguos matemáticos de la China, por el que dedujo que era posible asignar valores diferentes por medio de dos símbolos que representan estados determinados, 0 y 1, fórmula que hasta el día de hoy, es ampliamente usada en los procesamientos lógicos de nuestros equipos electrónicos más sofisticados. Desarrollos basados en el sistema binario A mediados del siglo XIX, un matemático inglés autodidacta de nombre George Boole (1815-1864), desarrolló el sistema de Leibniz para hacerlo aplicable a las nuevas técnicas de desarrollo industrial, denominado en su honor álgebra de Boole. Este sistema basado en parte en la lógica aristotélica, definió de manera radical la forma en que un sistema puede expresarse sin ambigüedades. En este sistema basado en dos dígitos, 1y 0, cada uno de estas cifras expresa de manera inequívoca un estado o resultado: verdadero o falso. Puede parecer curioso que un sistema de casi doscientos años todavía tenga tanto que ver con nuestro mundo cotidiano. El siglo XX y la tecnología digital Con el desarrollo de la técnica durante el siglo XX, la necesidad de aplicar un sistema basado no en la intuición sino en valores concretos y sin ambigüedades hizo que el sistema digital tuviera gran aceptación. Jossie Arenal Pretto Página 7 DEPARTAMENTO DE MÚSICA L.P.M. CURSO 14/15 Particularmente con el advenimiento de la computación, sistemas que por su alto nivel de procesamiento de datos, requieren una organización sin errores, el sistema digital se aplicó mundialmente. Los equipos que trabajaban al principio con señales binarias, en la transición a la tecnología digital, se expresaban por medio de un valor determinado, 1 y 0, hasta el día de hoy, donde el mundo digital nos parece tan corriente que pocas veces reparamos en él. Binario, del latín binarĭus, es algo formado por un par de componentes o unidades. Es posible, por lo tanto, aplicar este adjetivo a diversos conceptos. El sistema binario es aquel que numera empleando sólo ceros (0) y unos (1). Esto quiere decir que, en el marco de estos sistemas, cualquier cifra puede expresarse a partir de estos números. Este sistema es utilizado por las computadoras u ordenadores, que funcionan con un par de voltajes diferentes y que atribuyen el 0 al apagado y el 1 al encendido. Cabe destacar que todos los números del sistema decimal pueden convertirse al sistema binario. Es necesario dividir la cifra del sistema decimal entre 2, obteniendo un resultado entero que se volverá a dividir entre 2 de manera sucesiva hasta que el dividendo sea menor que el divisor (o sea, 2). Finalmente hay que ordenar los restos, comenzando con el último y finalizando en el primero. Se conoce como código binario, al sistema de procesadores de órdenes de un ordenador que utiliza el sistema binario. El código binario permite codificar cadenas de caracteres o cadenas de bits. Señal digital Con esto en claro, podemos comprender qué es una señal digital. Se trata de la señal cuyos signos representan ciertos valores discretos que contienen información codificada. Los sistemas que emplean señales digitales suelen apelar a la lógica binaria (de dos estados): estos estados son reemplazados por unos y ceros, que indican el estado alto o bajo del nivel de tensión eléctrica. Una señal digital pierde poca calidad y puede reconstruirse y amplificarse en un proceso simultáneo. Estas señales, además, pueden procesarse de manera sencilla y son poco susceptibles al ruido ambiental. Mientras que las señales analógicas son continuas, las señales digitales tienen la capacidad de pasar de un valor a otro sin atravesar los valores intermedios. Esto está vinculado a lo que comentábamos antes de la lógica binaria: cada señal digital sólo puede tomar dos estados, representados por unos y ceros. En cualquier sistema electrónico, como una computadora (ordenador), la información es leída a través del código binario. Las señales digitales que maneja una computadora, por Jossie Arenal Pretto Página 8 DEPARTAMENTO DE MÚSICA L.P.M. CURSO 14/15 lo tanto, son unos y ceros que el sistema “sabe” cómo interpretar para responder a las órdenes del usuario. B.- GRABACION Y REPRODUCCION DIGITAL: CD Y DAT a) CD: El disco compacto (conocido popularmente como CD por las siglas en inglés de Compact Disc) es un disco óptico utilizado para almacenar datos en formato digital, consistentes en cualquier tipo de información (audio, imágenes, vídeo, documentos y otros datos). Los CD estándar tienen un diámetro de 12 centímetros, un espesor de 1,2 milímetros y pueden almacenar hasta 80 minutos de audio o 700 MB de datos. Los Mini-CD tienen 8 cm y son usados para la distribución de sencillos y de controladores guardando hasta 24 minutos de audio o 214 MB de datos. Esta tecnología fue inicialmente utilizada para el CD audio, y más tarde fue expandida y adaptada para el almacenamiento de datos (CD-ROM), de video (VCD y SVCD), la grabación doméstica (CD-R y CD-RW) y el almacenamiento de datos mixtos (CD-i, Photo CD y CD EXTRA). Detalles físicos A pesar de que puede haber variaciones en la composición de los materiales empleados en la fabricación de los discos, todos siguen un mismo patrón: los discos compactos se hacen de un disco grueso, de 1,2 mm, de policarbonato de plástico, al que se le añade una capa reflectante de aluminio, utilizada para obtener más longevidad de los datos. Así se reflejará la luz del láser (en el rango de espectro infrarrojo, y por tanto no apreciable visualmente); posteriormente se le añade una capa protectora de laca, que actúa como protector del aluminio y, opcionalmente, una etiqueta en la parte superior. Los métodos comunes de impresión en los CD son la serigrafía y la impresión ófset. En el caso de los CD-R y CD-RW se usa oro, plata, y aleaciones de las mismas, que por su ductilidad permite a los láseres grabar sobre ella, cosa que no se podría hacer sobre el aluminio con láseres de baja potencia. b) DAT Cinta de Audio Digital, (del inglés Digital Audio Tape y abreviado DAT) es un medio de grabación y reproducción de señal desarrollado por Sony a mediados de 1980. Fue el primer formato de casete digital comercializado y, en apariencia, es similar a una cinta de audio compacto, utilizando cinta magnética de 4 mm encapsulada en una carcasa protectora, pero es aproximadamente la mitad del tamaño con 73 mm × 54 mm × 10,5 mm. Como su nombre lo indica, la grabación se realiza de forma digital en lugar de analógica, la grabación y conversión a DAT tiene mayor, igual o menor tasa de Jossie Arenal Pretto Página 9 DEPARTAMENTO DE MÚSICA L.P.M. CURSO 14/15 muestreo que un CD (48, 44,1 o 32 kHz de frecuencia de muestreo y 16 bits de cuantificación). Si se copia una fuente digital entonces la DAT producirá una copia exacta, diferente de otros medios digitales como el Casete Compacto Digital o el MiniDisc Hi-MD, los cuales tienen compresión con pérdida de datos. Como muchos formatos de vídeo cassete, un casete DAT solo puede ser grabado por un lado, a diferencia de un casete de audio análogo compacto. Como más de 80 compañías (en su mayoría niponas) estaban desarrollando el DAT en paralelo, hubo muchos puntos en los que no se llegó a un acuerdo sobre el estándar a utilizar. La investigación derivó en dos tecnologías: S-DAT (DAT de Cabeza Estacionaria) R-DAT (DAT de Cabeza Rotatoria). El DAT completaba así una novedosa línea, en aquellos momentos, en la cual se incluían los sistemas Multipista PCM de Sony (en formato S-DAT o DASH "Digital Audio Tape Stationary Head"), con los cuales se podía realizar una grabación, mezcla y posterior transferencia a CD digitalmente. Actualmente queda superado por la potencia de los PC, que dotados de potentes softwares de edición, permiten la mezcla y la creación posterior del CD, el cual se va a "copiar" en la empresa de fabricación de CD. 3.- LA SINTESIS DEL SONIDO Fundamentos de la síntesis sonora Sentemos un poco las bases de este embrollo. Por síntesis analógica modular entendemos un método de síntesis de sonidos mediante circuitería no digital que permite la interconexión de varios módulos en cascada para obtener un sonido final. Existen, en general, (y esto está aplicado tanto al terreno digital como al terreno analógico) varios tipos de síntesis. Diremos primero que el elemento fundamental en un sistema de síntesis (sea analógico o digital) es el oscilador, un sistema que entregue una onda periódica y audible con una determinada forma (cuadrada, sinusoidal, triangular, etc). Como decíamos antes, tenemos varios tipos de síntesis. a) Síntesis aditiva - Se trata de generar un sonido mediante sucesivos enriquecimientos en el espectro de la onda (ir añadiendo armónicos, hasta alcanzar el sonido deseado). b) Síntesis sustractiva - A partir de una forma de onda muy rica en armónicos (como resultado, por ejemplo de una síntesis no lineal), vamos eliminando y/o atenuando aquellas componentes espectrales no deseadas. Jossie Arenal Pretto Página 10 DEPARTAMENTO DE MÚSICA L.P.M. CURSO 14/15 c) Síntesis por modulación de amplitud (AM) - Nos encontramos ante un sistema algo más complejo. El caso más simple es utilizando una señal portadora de una determinada frecuencia y modular su amplitud mediante otra señal de frecuencia, por lo general, múltiplo de la primera (a esta nueva señal se le denomina moduladora). De esta forma se consiguen timbres muy variados usando formas de onda, a priori, muy simples. d) Síntesis por modulación en anillo (RM) - Se trata realmente de una modulación en amplitud, pero lo que en realidad se hace es multiplicar la portadora por la moduladora, generándose sonidos más curiosos que los generados con la AM (se podrían calificar de más chirriantes). Estas cuatro técnicas de síntesis son las más utilizadas en sistemas analógicos y se denominan técnicas de síntesis lineal, debido a que existe un relación lineal entre el espectro de las frecuencias iniciales (portadora y moduladora, por ejemplo) y el espectro de salida. Citaremos, a continuación otros métodos de síntesis, en este caso, no lineales, y que, por lo general siempre han estado más asociados a la síntesis digital. e) Síntesis por modulación en frecuencia (FM) - Método de síntesis utilizado por Yamaha en toda su serie de sintetizadores digitales (DX-7, SY-77, etc). Al igual que en AM tenemos una portadora y una moduladora, pero en este caso lo que la moduladora modula es la frecuencia de la señal portadora. Este método genera timbres extremadamente ricos en armónicos (el DX-7, fuen el primer sinte para el gran público que ofrecía un sonido de piano realmente real). f) Síntesis por distorsión de fase (PD) - Se trata de un sistema basado exclusivamente en osciladores digitales. Se trata de recorrer la forma de onda a trozos o de forma desordenada (tenemos la forma de onda almacenada en una memoria digital (muestreada) y vamos recorriendo la memoria a trozos o de forma parcial) con lo que se consiguen saltos de fase y, por tanto, adición y/o eliminación de armónicos a la señal de salida. La serie CZ de CASIO utiliza este método de síntesis. g) Síntesis por modelado de onda (Wave Shapping) - Se define una función de transferencia que tome como entrada los valores de salida de un oscilador digital y que de, a la salida, el valor de la función en ese punto. Se puede demostrar que, a partir de una sinusoide, siempre es posible encontrar una función de transferencia para obtener cualquier timbre. h) Síntesis por modelado físico : Se trata de una técnica de síntesis muy poderosa ya que genera unos timbres my buenos. Está destinada para la emulación de instrumentos existentes y se basa en las propiedades físicas de cada instrumento (por ejemplo, para emular el sonido de una guitarra implementa todas las ecuaciones implicadas en la vibración de la cuerda y en las propiedades acusticas de la caja). Es un método de Jossie Arenal Pretto Página 11 DEPARTAMENTO DE MÚSICA L.P.M. CURSO 14/15 síntesis que requiere el uso de microprocesadores específicos ya que realiza mucho cálculo en tiempo real. La ventaja es que los sonidos generados son muy realistas (se podría decir que la síntesis por modelado físico es al sonido lo que el pov-Ray lo es a la imagen). Cuando hablemos de síntesis analógica hemos de pensar, automáticamente en módulos, todo en la síntesis analógica es modular. b) Síntesis digital de sonido En general, un sintetizador genera sonidos a partir de elementos simples, como por ejemplos señales periódicas. Un sintetizador digital utiliza algoritmos matemáticos para generar nuevos sonidos. ¿Qué es un sintetizador?: Sirve para la síntesis de sonidos. Genera sonidos a partir de elementos simples. Diseñado para producir sonido generado artificialmente, usando técnicas como síntesis aditiva, substractiva, de modulación de frecuencia, de modelado físico o modulación de fase, para crear sonidos. Digital vs. analógico: Los sintetizadores analógicos utilizan ondas simples generadas por osciladores electrónicos, modificadas con filtros y otros osciladores. Los sintetizadores digitales generan el sonido a partir de funciones matemáticas y/o de un conjunto de pequeños fragmentos sonoros (secuencias de números) almacenados en su memoria. Los sintetizadores analógicos a) Tipos de ondas simples: Sinusoidal, sólo tiene la fundamental, no tiene armónicos, es un sonido puro b) Cuadrada, tiene gran nº de armónicos impares y de gran intensidad. Parecido al clarinete. c) Dientes de sierra, tiene más armónicos que la anterior pero de menor intensidad. Parecido al saxo o al oboe. d) Triangular, tiene menos armónicos. Parecido a la flauta 2. Métodos de síntesis a) Síntesis aditiva: Teorema de Fourier: cualquier sonido periódico se puede descomponer en una serie de ondas sinusoidales de diferentes frecuencias, múltiplos de una frecuencia fundamental. Un sonido se puede crear a partir de componentes básicos, las ondas sinusoidales. Cada onda sinusoidal cuenta con su propia envolvente de amplitud. Jossie Arenal Pretto Página 12 DEPARTAMENTO DE MÚSICA L.P.M. CURSO 14/15 b) Síntesis substractiva: Dado un sonido muy rico en armónicos, se pueden obtener muchos nuevos sonidos sustrayéndole parte de estos armónicos. Algunas partes de los instrumentos como la caja de una guitarra o el tubo de un saxofón actúan como filtro eliminando algunas frecuencias y potenciando otras, lo que le da el timbre particular al sonido. El vocoder: Si pasamos un sonido cualquiera (B) a través del sonido original (A), el sonido resultante (C) poseerá características de los dos sonidos (A y B). 3. El sintetizador digital por tabla de ondas y el sampler El sampler: Sample en inglés significa muestra, por lo que podemos decir que un sampler es un muestreador Funcionamiento: El sampler almacena en su memoria sonidos digitalizados. Para reproducir un sonido a diferentes alturas, los samplers pueden utilizar dos estrategias: modificar la frecuencia de salida o convertir la frecuencia de muestreo mediante interpolación en tiempo real. Los loops: La creación de loops o bucles es una técnica fundamental en el manejo de los samplers, ya que por mucha memoria de que se disponga, los sonidos almacenados no pueden ser "infinitamente" largos 4.- INSTRUMENTOS ELECTRONICOS A.- PRIMEROS INSTRUMENTOS a.- THEREMIN El Theremin (o ætérfono) es un instrumento musical inventado por el soviético Leon Theremin en 1919. Fue uno de los primeros instrumentos musicales electrónicos, y además de su sonido, lo más curioso es que el ejecutante no tiene ningún contacto físico con él. Apariencia El diseño clásico consiste en una caja con dos antenas. Se ejecuta acercando y alejando la mano de cada una de las antenas correspondientes, sin llegar a tocarlas. La antena derecha suele ser recta y en vertical, y sirve para controlar la frecuencia o tono: cuanto más cerca esté la mano derecha de la misma, más agudo será el sonido producido. La antena izquierda es horizontal y con forma de bucle, y sirve para controlar el volumen: cuanto más cerca de la misma esté la mano izquierda, más baja el volumen. Originalmente, su versión más primitiva fue llamada Aetherophone (que se podría traducir como Eterófono), y constaba solo de la antena de tono. Dicho diseño fue tempranamente mejorado por el inventor, añadiendo posteriormente la antena para controlar el volumen. Actualmente, algunos de los modelos caseros y comercializados Jossie Arenal Pretto Página 13 DEPARTAMENTO DE MÚSICA L.P.M. CURSO 14/15 de Theremin disponen tan solo de la antena que controla el tono, lo cual siendo rigurosos les convierte en realidad en un "Eterófono", y su uso frecuentemente es el de un aparato para efectos especiales más que un instrumento musical, al no poder acentuar ni separar las notas producidas. También se han llegado a producir theremines de forma más o menos artesanal con formas de interactuar muy distintas, como por ejemplo, theremines ópticos que miden la cantidad de luz que llega a un sensor. También la empresa Roland comercializa en algunos de sus módulos un sensor de infrarrojos llamado D-Beam, con el cual se puede controlar no solo el tono, sino alternativamente el parámetro que se elija. b.- Ondas Martenot Las ondas de Martenot es un instrumento electrónico inventado en 1928 por el compositor, ingeniero y cellista francés Maurice Martenot. El instrumento está formado por un teclado, un altavoz y un generador de baja frecuencia. Las ondas Martenot es un instrumento monofónico, es decir, que no produce notas simultáneas. Maurice Martenot ofreció la primera demostración de las ondas Martenot en el Conservatorio de París el 20 de abril de 1928 con una obra de Dmitrios Levidis. Las ondas Martenot fueron usadas por muchos compositores, entre ellos Olivier Messiaen, que las incluye en la Sinfonía Turangalila, en Trois Petites Liturgies de la Présence Divine y en su ópera Saint-François d'Assise. Otros compositores que han escrito para este instrumento son Pierre Boulez, Edgar Varèse, Darius Milhaud, Arthur Honegger, Maurice Jarre y André Jolivet. Bohuslav Martinů autorizó la adaptación de su Fantasie para ondas Martenot cuando llegó a la conclusión de que era difícil interpretarla en el theremín, para el cual había sido originalmente escrita. 5.- INFORMÁTICA MUSICAL a) Concepto de hardware y software EL HARDWARE: Componentes físicos del ordenador, es decir, todo lo que se puede ver y tocar. Clasificaremos el hardware en dos tipos: - El que se encuentra dentro de la torre o CPU, y que por lo tanto no podemos ver a simple vista. Jossie Arenal Pretto Página 14 DEPARTAMENTO DE MÚSICA L.P.M. CURSO 14/15 - El que se encuentra alrededor de la torre o CPU, y que por lo tanto, si que vemos a simple vista, y que denominamos periféricos. EL SOFTWARE: Son las instrucciones que el ordenador necesita para funcionar, no existen físicamente, o lo que es igual, no se pueden ver ni tocar. También tenemos de dos tipos: - Sistemas Operativos: Tienen como misión que el ordenador gestione sus recursos de forma eficiente, además de permitir su comunicación con el usuario. Nosotros utilizamos el Sistema Windows. - Aplicaciones: Son programas informáticos que tratan de resolver necesidades concretar del usuario, como por ejemplo: escribir, dibujar, escuchar música,... Jossie Arenal Pretto Página 15 DEPARTAMENTO DE MÚSICA L.P.M. CURSO 14/15 b) Software musical: composición, edición de partituras y tratamiento del sonido Software Musical: Dividiremos los programas en distintas categorías: 1.-EDITORES DE PARTITURAS: Un editor de partituras es algo parecido a un programa de Word (tratamiento de textos), sólo que en lugar de usarse para escribir palabras, sirve para escribir música. Estas herramientas, están pensadas para permitir todas las expresiones del lenguaje musical, y en general, tienen más opciones de las que nunca llegaremos a usar fuera del terreno de la Edición Profesional. Con ellos podrás escribir e imprimir con gran calidad todo tipo de música, desde una simple melodía, hasta complejas partituras para varios instrumentos, incluyendo Tabulados de Guitarra, Letras de las Canciones, toda clase de Articulaciones, Dinámicos, Reguladores, etc. Una de las ventajas de trabajar con un Editor de Partituras, es que estas suenan. Todos ellos poseen un comando "Play", que permite escuchar lo escrito, en este sentido estos programas funcionan de forma parecida a un secuenciador, y cuentan con la mayoría de funciones básicas de estos. Otra de las ventajas de los Editores de Partituras, es que permiten cambiar de tonalidad las notas y el cifrado con sólo apretar un botón, esto es sumamente cómodo cuando tenemos, por ejemplo, una melodía escrita para Piano, y deseamos escribirla para Guitarra, Bajo, Saxo, Trompeta, o cualquier otro instrumento transpositor. Los más conocidos son: Encore 5: Uno de los más populares y fáciles de utilizar. está distribuido por la empresa http://www.gvox.com/. Existen versiones pra Mac y Windows. Musictime 3.5: El hermano pequeño del Encore. También distribuido por http://www.gvox.com/. Noteworthy 2.0: Famoso editor de partituras. Se puede descargar en la web: http://www.noteworthysoftware.com/ Jossie Arenal Pretto Página 16 DEPARTAMENTO DE MÚSICA L.P.M. CURSO 14/15 Finale: Editor de partituras profesional. Tiene varias aplicaciones extras interesantes, como un visor para internet. Se puede consultar en la pagina: http://www.finalemusic.com/ Sibelius 5: Posiblemtente uno de los más utilizados por los músicos profesionales. http://www.sibelius.com/ Guitar Pro: Editor específico para tablatura de guitarra. http://www.guitar-pro.com Power Tab Editor 1.7: La alternativa gratuita a Guitar Pro. Se puede descargar en: http://power-tab-editor.softonic.com/ TablEdit Tablature Editor 2.40 :Editor musical para instrumentos de cuerda. http://tabledit-tablature-editor.softonic.com/ Harmony Assistant: Completo editor de partituras, gestor de arreglos musicales y herramienta de composición. http://www.myriadonline.com/en/products/harmony.htm LilyPond:E sun sistema automatizado de grabado de música. Da formato de forma bella y automática. Se va creando la partiotura a base de comandos de código. Es software libre. http://lilypond.org/web/ Finale Notepad 2009: Una version reducida de Finale a un módico precio. http://www.finalemusic.com/ 2.-SECUENCIADORES: El Secuenciador es una de las herramientas básicas de la Informática Musical. Se trata de programas especialmente diseñados para la creación y grbación de eventos musicales Permiten la creación de varias pistas melódicas, armónicas o rítmicas, que pueden ser tratadas, editadas y reproducidas de forma individual o simultánea. Aparte de la afinación, duración y posición de las notas, hay muchos otros parámetros a los que los secuenciadores nos permiten acceder, tales como volumen, efectos, sonido, etc. todo ello siempre con la posibilidad de tratar no sólo la pista en conjunto sino cada una de sus notas de forma individual. Jossie Arenal Pretto Página 17 DEPARTAMENTO DE MÚSICA L.P.M. CURSO 14/15 Es importante recalcar que los secuenciadores no tienen sonidos propios, sino que utilizan los de la Tarjeta de Sonido. Lo que el secuenciador hace es informar a la Tarjeta de cuando debe reproducir una nota, con que volumen sonará, cuanto durará, etc. Por lo tanto la calidad del sonido no depende del Software (secuenciador) sino del Hardware (Tarjeta) Existen infinidad de secuenciadores, incluso algunos "especiales" para determinados tipos de música (techno, dance) Todos ellos tienen en cuenta la posible falta de conocimientos musicales del usuario, y por eso, muestran la música con diferentes lenguajes gráficos que no son el estrictamente musical.(teclas de un piano, o diferentes tipos de gráficos) Permiten cargar, editar y reproducir su propio formato, aparte del formato Standard Midi Files. Los más populares son: -Logic Studio: Logic Studio es un completo conjunto de aplicaciones profesionales que te permite componer, grabar, editar, mezclar y tocar en directo. También es la colección más grande de instrumentos recreados, instrumentos por software, plug-ins de efectos y bucles de audio jamás incluidos en el mismo paquete. Así que permite conseguir sonidos asombrosos y grabaciones con sonido impresionante con toda facilidad. Ahora puedes acometer personalmente cualquier fase del proyecto sin perder la inspiración por el camino. http://www.apple.com/es/logicstudio/ - Pro Tools: Es una estación de trabajo de audio digital (Digital Audio Workstation o DAW, en inglés), una multiplataforma de grabación multipista de audio y midi, que integra hardware y software. Actualmente, por sus altas prestaciones, es el estándar de grabación en estudios profesionales, usado mundialmente. La empresa Digidesign, que desarrolla el programa Pro Tools, elabora algunos de los mejores hardwares de audio del mercado, por lo que su calidad y sólida fiabilidad son ampliamente reconocidos. Esto ha llevado a este potente software de producción musical y postproduccion audiovisual a convertirse en uno de los referentes de esta industria. El estigma de Pro Tools es que sólo puede usarse con un hardware especifico, y no admite otras marcas. http://www.digidesign.com/ Jossie Arenal Pretto Página 18 DEPARTAMENTO DE MÚSICA L.P.M. CURSO 14/15 -Cubase: Cubase es una serie de aplicaciones informáticas para editar audio digital, MIDI y un secuenciador de música, (comúnmente conocidas como DAW - Digital Audio Workstation), creadas originalmente por la firma alemana Steinberg en 1989. Cubase inició su vida a finales de los 80 como un secuenciador y editor MIDI. El programa fue originalmente desarrollado para el Atari ST, más tarde se hizo la versión para Apple Macintosh y a mediados de los 90 para Microsoft Windows. El Cubase original usaba un sistema operativo llamado MROS (MIDI Real-time Operating System) que corría bajo el propio sistema operativo nativo. Permitia ejecutar varias aplicaciones MIDI en el ordenador y pasar los datos entre ellas a tiempo real. El MROS no trabajaba bien en Windows 3.0, pues este no fue previsto para aplicaciones en tiempo real. Sin embargo, los sistemas operativos modernos están diseñados para soportar aplicaciones multimedia, así que las versiones actuales de Cubase no usan MROS. El lanzamiento de Cubase Audio en 1991 para el Atari Falcon abrió una brecha en la tecnología de programas DSP poniendo al alcance domestico la manipulación de audio en tiempo real. Esto era posible sin la necesidad de costosas tarjetas adicionales, como era el caso con el costoso Pro Tools y otros sistemas similares. http://www.steinberg.net Samplitude & Sequoia 11: El software de inicio para la producción de música profesional (sólo en inglés). La herramienta de inicio ideal para los profesionales del sonido, productores y músicos ambiciosos: Samplitude 10 SE es apropiado para cualquiera que desee iniciarse en la producción de música asistida por ordenador. Con este propósito, el programa ofrece un ambiente de producción único que no requiere componentes de hardware costosos. Samplitude SE, gracias a su funcionalidad y opciones avanzadas, es la alternativa perfecta para todo aquel que esté pensando en introducirse en la grabación, edición y masterización de audio a niveles avanzados. 3.-EDITORES DE AUDIO: Los editores diseñados para usarse con música permiten al usuario realizar las siguientes tareas: * Grabar audio desde una o más entradas y almacenar las grabaciones en la memoria de la computadora como audio digital. * Editar el tiempo de inicio, tiempo de detención y duración de cualquier sonido en la línea de tiempo de audio. Jossie Arenal Pretto Página 19 DEPARTAMENTO DE MÚSICA L.P.M. CURSO 14/15 * Atenuar el sonido al comienzo o al final de un clip (fade-in y fade-out; por ejemplo durante los aplausos en una presentación), o entre clips (crossfading). * Mezclar múltiples fuentes de sonido, combinarlas a varios niveles de volumen y cambiar el panning de canal a canal a una o más pistas de salida. * Aplicar efectos simples o avanzados, o filtros, como compresión, expansión, flanger, reverberación, reducción de ruido y ecualización para cambiar el audio. * Reproducir sonido (a menudo despues de haber sido mezclado) que puede ser enviado a una o más salidas, como parlantes, procesadores adicionales o un medio de grabación. * Convertir entre distintos formatos de archivo de audio, o entre diferentes niveles de calidad de sonido. Generalmente estas tareas pueden ser realizadas de un modo no lineal y no destructivo Los más conocidos son: Audacity: Es una aplicación informática multiplataforma libre, que se puede usar para grabación y edición de audio, fácil de usar, distribuido bajo la licencia GPL. Es el editor de audio más difundido en los sistemas GNU/Linux. http://audacity.sourceforge.net/ Audition: Adobe Audition (anteriormente Cool Edit Pro) es una aplicación en forma de estudio de sonido destinado para la edición de audio digital de Adobe Systems Incorporated que permite tanto un entorno de edición mezclado de ondas multipista nodestructivo como uno destructivo, por lo que se lo ha referido como el "cuchillo suizo multiuso" del audio digital por su versatilidad. Jossie Arenal Pretto Página 20 DEPARTAMENTO DE MÚSICA L.P.M. CURSO 14/15 http://www.adobe.com/es/products/audition/ Soundforge: Sound Forge está reconocido como un estándar para la edición de audio en la plataforma Windows. Este programa es un completo editor de audio digital, que contiene una gran variedad de opciones para el proceso de audio. Sound Forge soporta video para Windows, lo que le permite sincronizar audio y video con la precisión de un fotograma. Soporta una gran lista de formatos de audio, incluyendo: RealAudio, RealVideo, formato de ASF, y Java, lo que lo convierte en una gran herramienta para crear ficheros de audio y video en Internet. También soporta plug-ins basados en la arquitectura de sevicios de DirectX. Algunas de sus características más destacadas son: edición no lineal en el disco duro; toneladas de efectos de audio, procesos, y herramientas; lee y escribe los formatos de todos los ficheros soportados; procesado especial de ficheros de audio orientado a Internet; producción con calidad de estudio para profesionales; compresión de ficheros en 8 bits para su distribución; listas de reproducción y listas de regiones para masterizado de CD; soporte de filtros especiales para la reducción de ruido, etc. http://www.sonycreativesoftware.com/soundforgesoftware c) Comunicación MIDI MIDI son las siglas de Musical Instrument Digital Interface (Interfaz Digital de Instrumentos Musicales). Se trata de un protocolo de comunicación serial estándar que permite a los computadores, sintetizadores, secuenciadores, controladores y otros dispositivos musicales electrónicos comunicarse y compartir información para la generación de sonidos. Esta información define diversos tipos de datos como números que pueden corresponder a notas particulares, números de patches de sintetizadores o valores de controladores. Gracias a esta simplicidad, los datos pueden ser interpretados de diversas maneras y utilizados con fines diferentes a la música. El protocolo incluye especificaciones complementarias de hardware y software. Permite por ejemplo reproducir y componer música en este formato. Se caracteriza por la ligereza de los archivos, pudiendo almacenarse multitud de melodías complejas, como las de música clásica tocadas con varios instrumentos, en muy poca memoria. Historia El repentino inicio de los sintetizadores analógicos en la música popular de los años 1970 llevó a los músicos a exigir más prestaciones de sus instrumentos. La interconexión de sintetizadores analógicos es relativamente fácil ya que éstos pueden controlarse a través de osciladores de voltaje variable. Jossie Arenal Pretto Página 21 DEPARTAMENTO DE MÚSICA L.P.M. CURSO 14/15 La aparición del sintetizador digital a finales de la misma década trajo consigo el problema de la incompatibilidad de los sistemas que usaba cada compañía fabricante. De este modo se hacía necesario crear un lenguaje común por encima de los parámetros que cada marca iba generando a lo largo del desarrollo de los distintos instrumentos electrónicos puestos a disposición de los profesionales del sector. El estándar MIDI fue inicialmente propuesto en un documento dirigido a la Audio Engineering Society por Dave Smith, presidente de la compañía Sequential Circuits en 1981. La primera especificación MIDI se publicó en agosto de 1983. Cabe aclarar que MIDI no transmite señales de audio, sino datos de eventos y mensajes controladores que se pueden interpretar de manera arbitraria, de acuerdo con la programación del dispositivo que los recibe. Es decir, MIDI es una especie de "partitura" que contiene las instrucciones en valores numéricos (0-127) sobre cuándo generar cada nota de sonido y las características que debe tener; el aparato al que se envíe dicha partitura la transformará en música completamente audible. En la actualidad la gran mayoría de los creadores musicales utilizan el protocolo MIDI a fin de llevar a cabo la edición de partituras y la instrumentación previa a la grabación con instrumentos reales. Sin embargo, la perfección adquirida por los sintetizadores en la actualidad lleva a la utilización de forma directa en las grabaciones de los sonidos resultantes del envío de la partitura electrónica a dichos sintetizadores de última generación. Hardware Buena parte de los dispositivos MIDI son capaces de enviar y recibir información, pero desempeñan un papel diferente dependiendo de si están recibiendo o enviando información; también depende de la configuración del programa o programas que pueden usar dichos dispositvos. El que envía los mensajes se denomina Maestro (del inglés master, o ‘amo’) y el que responde a esa información, Esclavo (slave). Aparatos Los aparatos MIDI se pueden clasificar en tres grandes categorías: Controladores: generan los mensajes MIDI (activación o desactivación de una nota, variaciones de tono, etc). El controlador más familiar a los músicos tiene forma de teclado de piano, al ser este instrumento el más utilizado a la hora de componer e interpretar las obras orquestales; sin embargo, hoy día se han construido todo tipo de instrumentos con capacidad de transmisión vía interfaz MIDI: órganos de tubos, guitarras, parches de percusión, clarinetes electrónicos, incluso gaitas MIDI. Unidades generadoras de sonido: también conocidas como módulos de sonido, reciben los mensajes MIDI y los transforman en señales sonoras (recordemos que MIDI no transmite audio, sino paquetes de órdenes en formato numérico). Jossie Arenal Pretto Página 22 DEPARTAMENTO DE MÚSICA L.P.M. CURSO 14/15 Secuenciadores: no son más que aparatos destinados a grabar, reproducir o editar mensajes MIDI. Pueden desarrollarse bien en formato de hardware, bien como software de computadora, o bien incorporados en un sintetizador. Éstos son los tres grandes tipos de aparatos MIDI. Aun así, podemos encontrar en el mercado aparatos que reúnen dos o tres de las funciones descritas. Por ejemplo, los órganos electrónicos disponen de un controlador (el propio teclado) y una unidad generadora de sonido; algunos modelos también incluyen un secuenciador. Cables y conectores Un cable MIDI utiliza un conector del tipo DIN de 5 pines o contactos. La transmisión de datos sólo usa uno de éstos, el número 5. Los números 1 y 3 se reservaron para añadir funciones en un futuro. Los restantes (2 y 4) se utilizan -respectivamente- como blindaje y para transmitir una tensión de +5 voltios, para asegurarse que la electricidad fluya en la dirección deseada. La finalidad del cable MIDI es la de permitir la transmisión de los datos entre dos dispositivos o instrumentos electrónicos. En la actualidad, los fabricantes de equipos económicos y por ello, muy populares, de empresas tales como Yamaha, Casio, Korg y Roland han previsto la sustitución de los cables y conectores MIDI estándar, por los del tipo USB que son más fáciles de hallar en el comercio y que permiten una fácil conexión a las computadoras personales. Conexiones El sistema de funcionamiento MIDI es de tipo simplex, es decir, sólo puede transmitir señales en un sentido. La dirección que toman las señales es siempre desde un dispositivo 'maestro' hacia un dispositivo 'esclavo'. El primero genera la información y el segundo la recibe. Para entender bien el sistema de conexión, debemos saber que en un aparato MIDI puede haber hasta tres conectores: MIDI OUT: conector del cual salen los mensajes generados por el dispositivo maestro. MIDI IN: sirve para introducir mensajes al dispositivo esclavo. MIDI THRU: también es un conector de salida, pero en este caso se envía una copia exacta de los mensajes que entran por MIDI IN. El formato más simple de conexión es el formado por un dispositivo maestro (por ejemplo, un controlador) y un esclavo (como un sintetizador). En este caso, el maestro dispondrá de un conector MIDI OUT, de donde saldrán los mensajes MIDI generados, el cual deberemos unir al conector MIDI IN en el esclavo. MIDI admite la conexión de un solo maestro a varios dispositivos esclavos en cascada. Para esos casos se utilizará MIDI THRU, uniendo el maestro con una de las unidades del modo descrito anteriormente. En el conector MIDI THRU de esa unidad se obtiene una copia de los mensajes MIDI que se introducen a través de MIDI IN, por lo que ese MIDI THRU se conectará con MIDI IN de otra de las unidades. A esto se le llama Daisy Chain. Jossie Arenal Pretto Página 23 DEPARTAMENTO DE MÚSICA L.P.M. CURSO 14/15 Supongamos que uno de los esclavos también incluye un controlador (como un sintetizador con teclado). Éste dispondrá de conector MIDI OUT. En ese caso, obtendremos los mensajes generados desde controlador en MIDI OUT, mientras que los mensajes correspondientes al controlador situado al inicio de la cadena aparecerán en MIDI THRU. Por último, si se dispone de un aparato secuenciador (capaz de almacenar y reproducir información MIDI recibida), se conectará entre el controlador y la primera unidad generadora de sonido. En ese caso, el secuenciador dispondrá de conectores MIDI OUT y MIDI IN. Aunque existe la posibilidad de la conexión en cascada de varios aparatos MIDI, es cierto que existe una limitación. Las características eléctricas de los conectores MIDI hacen la señal proclive a la degradación, por lo que son pocos los aparatos que se pueden conectar en cascada antes de notar pérdidas apreciables de información. Software La especificación MIDI incluye un aspecto de software que parte de la misma organización de los bytes. Bytes MIDI El byte se define como un número binario, o WORD, de 8 bits. La transmisión de los datos se efectúa en serie, es decir, un bit tras otro, de manera asíncrona, lo que obliga a agregar un bit de inicio y otro de parada. Para clarificar lo dicho, se puede decir sencillamente que una transmisión asincrónica de datos se da cuando el receptor no "sabe" cuándo vendrá el siguiente dato, así que se encuentra en estado constante de espera, ya sea en nivel alto o en bajo, hasta que se produzca un cambio de estado, que indique el inicio de un nuevo mensaje. Este bit primero debe ser siempre el mismo, para que sea siempre diferente al estado "por defecto", así que éste bit no puede formar parte del byte recibido. A éste bit que sirve para indicar la llegada de un dato y permite al aparato receptor prepararse para la cadena de bits que viene después, se le conoce como "bit de inicio". En la especificación MIDI, la entrada se encuentra en un estado alto por defecto, así que el bit de inicio es un 0. El bit de parada sirve para dar tiempo al aparato receptor de decidir qué hacer con la información una vez recibida. En el caso del MIDI, éste bit es siempre 1. La velocidad de recepción/transmisión de los datos MIDI se definió en 31.250 baudios, o bits por segundo, así sólo deben transcurrir 32 microsegundos entre un bit y el siguiente; ni más ni menos. También se exige que los 8 bits que conforman el dato en cuestión se envíen de LSB a MSB, es decir, empezar la transmisión con el bit menos significativo del byte. Existen dos tipos de bytes: De estado -status byte- y de información -data byte-. Se diferencian por el primer bit: si es un 1, tenemos un byte de estado, y si es un 0, es un byte de datos. Al generar un mensaje MIDI, por norma general, siempre enviamos un byte de estado, que puede estar seguido de cierta cantidad de bytes de datos. Por ejemplo, podemos enviar un primer mensaje de estado "activar nota", seguido de un byte de datos informando qué nota es la que se activa. En algunas ocasiones y según el dispositivo MIDI que se trate, puede ocurrir que se omita el byte status si es idéntico al anterior. Por ejemplo, si tocamos la tecla do de un piano mandaría: Jossie Arenal Pretto Página 24 DEPARTAMENTO DE MÚSICA L.P.M. CURSO 14/15 1001xxxx (note on) 00111100 (valor 60 que corresponde a la nota do central "C3") 0xxxxxxx (la velocidad con la que haya sido apretada la tecla) Pero al soltarla, puede omitir el status byte y apagarla por volumen (otra posibilidad es que usase el 1000xxxx (note off) para apagarla).Es decir transmitiría sólo los dos siguientes bytes: 00111100 (valor 60 que corresponde a la nota do central "C3") 00000000 (la velocidad cero, que indica que tiene que dejar de sonar esa nota) Omitiendo así el status byte. Es más, si nuevamente pulsamos la tecla do, volvería a omitir el status byte. A su vez, los mensajes de estado se dividen en dos grupos: mensajes de canal y mensajes de sistema. Los mensajes de canal se envían a un dispositivo específico, mientras que los mensajes de sistema son recibidos por todos los equipos. En la siguiente tabla tenemos una lista con todos los mensajes disponibles. Tabla 1. Mensajes MIDI Byte estado Descripción 1000ccccc Desactivación de nota 1001ccccc Activación de nota 1010ccccc Postpulsación polifónica 1011ccccc Cambio de control 1100ccccc Cambio de programa 1101ccccc Postpulsación monofónica de canal 1110ccccc Pitch 11110000 Mensaje exclusivo del fabricante 11110001 Mensaje de trama temporal 11110010 Puntero posición de canción Jossie Arenal Pretto Página 25 DEPARTAMENTO DE MÚSICA 11110011 Selección de canción 11110100 Indefinido 11110101 Indefinido 11110110 Requerimiento de entonación 11110111 Fin de mensaje exclusivo 11111000 Reloj de temporización 11111001 Indefinido 11111010 Inicio 11111011 Continuación 11111100 Parada 11111101 Indefinido 11111110 Espera activa 11111111 Reseteo del sistema L.P.M. CURSO 14/15 Los primeros bytes, cuyos últimos cuatro bits están marcados como "cccc", se refieren a mensajes de canal; el resto de bytes son mensajes de sistema. Antes de explicar más detalladamente las características de algunos de los mensajes, conviene conocer dos importantes características de MIDI: los canales y los modos. Canales MIDI Como se comentó con anterioridad, MIDI está pensado para comunicar un único controlador con varias unidades generadoras de sonido (cada una de las cuales puede tener uno o varios instrumentos sintetizados que deseemos utilizar), todo por un mismo medio de transmisión. Es decir, todos los aparatos conectados a la cadena MIDI reciben todos los mensajes generados desde el controlador. Ello hace necesario un método para diferenciar cada uno de los instrumentos. Este método es el denominado canal. MIDI puede direccionar hasta 16 canales (también llamados voces, o instrumentos); por ello, al instalar el sistema MIDI será necesario asignar un número de canal para cada dispositivo. Jossie Arenal Pretto Página 26 DEPARTAMENTO DE MÚSICA L.P.M. CURSO 14/15 Instrumentos General MIDI Estos son los 128 instrumentos de la especificación General MIDI, incluida en la especificación detallada MIDI 1.0, del inglés "Complete MIDI 1.0 detailed specification": 00 - Piano de cola acústico 01 - Piano brillante acústico 02 - Piano de cola eléctrico 03 - Piano Honky tonk 04 - Piano Rhodes 05 - Piano con "chorus" 06 Clavicordio 07 - Clavecín 08 - Celesta 09 Glockenspiel 10 - Caja de música 11 Vibráfono 12 - Marimba 13 - Xilófono 14 Campanas tubulares 15 Dulcémele 16 - Órgano Hammond 17 - Órgano percusivo 18 - Órgano de rock 19 - Órgano de iglesia 20 - Armonio 21 Acordeón 22 Armónica 23 Jossie Arenal Pretto 32 - Bajo acústico 33 - Bajo eléctrico pulsado 34 - Bajo eléctrico con plectro 35 - Bajo sin trastes 36 - Bajo en slap 1 37 - Bajo en slap 2 38 - Bajo sintetizado 1 39 - Bajo sintetizado 2 40 - Violín 41 - Viola 42 Violonchelo 43 Contrabajo 44 - Cuerdas en trémolo 45 - Cuerdas en pizzicato 46 - Arpa 47 - Timbales 48 - Conjunto de cuerda 1 49 - Conjunto de cuerda 2 50 - Cuerdas sintetizadas 1 51 - Cuerdas sintetizadas 2 52 - Coro Aahs 53 - Coro Oohs 54 - Coro sintetizado 64 - Saxofón soprano 65 - Saxofón alto 66 - Saxofón tenor 67 - Saxofón barítono 68 - Oboe 69 - Corno inglés 70 - Fagot 71 - Clarinete 72 - Flautín 73 - Flauta travesera 74 - Flauta dulce 75 - Flauta de pan 76 - Botella 77 Shakuhachi 78 - Silbato 79 - Ocarina 80 - Solo 1 (onda cuadrada) 81 - Solo 2 (diente de sierra) 82 - Solo 3 (órgano de vapor) 83 - Solo 4 (siseo) 84 - Solo 5 (charanga) 85 - Solo 6 (voz) 86 - Solo 7 (quintas) 87 - Solo 8 (metal y solo) 96 - Efecto 1 (lluvia) 97 - Efecto 2 (banda sonora) 98 - Efecto 3 (cristales) 99 - Efecto 4 (atmósfera) 100 Efecto 5 (brillo) 101 Efecto 6 (duendes) 102 Efecto 7 (ecos) 103 Efecto 8 (ciencia ficción) 104 Sitar 105 Banjo 106 Shamisen 107 Koto 108 Kalimba 109 Gaita 110 Fídula 111 Shannai 112 Campanillas 113 Agogô 114 Steel drum 115 Caja china 116 Taiko 117 Tom melódico 118 Caja sintetizada 119 Plato invertido 120 Trasteo de guitarra 121 Respiración Página 27 DEPARTAMENTO DE MÚSICA Bandoneón 24 - Guitarra española 25 - Guitarra acústica 26 - Guitarra eléctrica (jazz) 27 - Guitarra eléctrica (limpia) 28 - Guitarra eléctrica (tapada o muteada) 29 - Guitarra saturada (overdrive) 30 - Guitarra distorsionada 31 Armónicos de guitarra 55 - Tutti de orquesta 56 Trompeta 57 - Trombón 58 - Tuba 59 Trompeta con sordina 60 - Corno francés 61 - Sección de metales 62 - Metales sintetizados 1 63 - Metales sintetizados 2 L.P.M. CURSO 14/15 88 - Fondo 1 (nueva era) 89 - Fondo 2 (cálido) 90 - Fondo 3 (polisintetiza dor) 91 - Fondo 4 (coro) 92 - Fondo 5 (de arco) 93 - Fondo 6 (metálico) 94 - Fondo 7 (celestial) 95 - Fondo 8 (escobillas) 122 Costa de mar 123 Pájaros 124 Timbre de teléfono 125 Helicóptero 126 Aplauso 127 Disparo Modos MIDI Dentro del sistema MIDI, se decidió crear una serie de diferentes modos de funcionamiento, cada uno con ciertas características. Antes de verlo, debemos diferenciar entre los siguientes conceptos: Monofónico: un instrumento monofónico sólo puede reproducir una nota simultáneamente. Es decir, para reproducir una nueva nota debe primero dejar de sonar la anterior. Por ejemplo, los instrumentos de viento son monofónicos, ya que sólo reproducen un único sonido cada vez. Polifónico: un instrumento polifónico puede reproducir varias notas simultáneamente. Un ejemplo es un piano, que puede formar acordes por medio de hacer sonar dos o más notas a la vez. Una vez aclarado este aspecto, podemos resumir los modos MIDI en la siguiente tabla: Tabla 2. Modos de funcionamiento MIDI Número 1 Nombre Omni on / poly Jossie Arenal Pretto Descripción Funcionamiento polifónico sin información de canal Página 28 DEPARTAMENTO DE MÚSICA L.P.M. CURSO 14/15 2 Omni on / mono Funcionamiento monofónico sin información de canal 3 Omni off / poly Funcionamiento polifónico con múltiples canales 4 Omni off / mono Funcionamiento monofónico con múltiples canales Los dos primeros modos se denominan "Omni on". Esto se debe a que en esos modos la información de canal está desactivada. Esas configuraciones se reservan para configuraciones donde sólo utilicemos un instrumento. Los otros dos modos, "Omni off", sí admiten la información de canal. Mensajes de canal Channel o Canal; es el mensaje más común. Existen siete tipo de mensajes channel: Note on - Note off - Pitch-Bend - Program change - Aftertouch - Polyphonic Aftertouch - Control change. Controlador y unidad generadora de sonido Tanto en el sentido de generar el/los sonido/s se autocomplementa en el sentido de grabación - difusión - al mismo tiempo con consolas preparadas y dispuestas para dicho sistema. Ejemplo: Sea una o varias voces humanas o generada por instrumental se compaginan cambiando información ó datos, tarea que es realizada en el sistema MIDI. Controlador y varias unidades Secuenciador Un secuenciador es un dispositivo que permite realizar grabaciones de datos MIDI paso a paso donde quedan almacenados la altura MIDI (0-127) duración la nota, la velocidad (análoga a la intensidad con valores de 0 a 127)el tipo de instrumentos (patch) y efectos. Todo esto se combina para formar el corpus de datos a emitir. Estos datos pueden ser utilizados para piezas de música, así como para el control de consolas de luces, consolas de audio o cualquier equipamiento que interprete el protocolo MIDI y pueda usar éste para fines particulares. Sintetizadores MIDI frecuentes Frecuencia modulada Síntesis mediante tabla de ondas Jossie Arenal Pretto Página 29 DEPARTAMENTO DE MÚSICA L.P.M. CURSO 14/15 d) Tipos de archivos de audio Empezaremos a explicar los tipos de archivos de sonido que existen distinguiendo entre aquellos con pérdida y sin pérdida. Los archivos de sonido con pérdida son aquellos que usan un algoritmo de compresión con pérdida, es decir un tipo de compresión que representa la información (por ejemplo una canción), pero intentando utilizar para ello una cantidad menor de información. Esto hace que sea imposible reconstruir exactamente la información original del archivo. Se podrá reconstruir tan solo una aproximación a la información original que contenía el archivo. El empleo de estos métodos de compresión con pérdida suele usarse en información analógica que quiere digitalizarse, como por ejemplo imágenes, audio, vídeo etc. Además tiene la gran ventaja de que obtendremos datos digitalizados que ocupan menos espacio en disco. Los archivos de sonido sin pérdida son aquellos que usando o no métodos de compresión, representan la información sin intentar utilizar menor cantidad de la información original. Hacen posible una reconstrucción exacta de la información original. Archivos de sonido con pérdida: MP3 o MPEG-1 Audio Layer 3: Es un formato de audio digital estándar comprimido con pérdida, la pérdida de información del formato mp3 no es audible por el oído humano, por tanto no distinguiremos la diferencia entre un archivo de audio sin compresión y un archivo mp3. Además un archivo mp3 consigue reducir el tamaño del archivo de sonido sin influir en su calidad, aproximadamente 1 minuto de audio en formato mp3 ocupa 1 MB con una calidad prácticamente igual a la calidad de Cd. Estas ventajas han conseguido que el formato mp3 pueda ser reproducido en casi todos los reproductores de audio, que sea el formato por excelencia para el intercambio a través de internet, una de las mejores opciones en estos momentos para almacenar música con buena calidad, y también el formato de audio que más se utiliza en reproductores portátiles, es un estándar y por tanto la compatibilidad con todos los medios está garantizada. El formato de audio mp3 permite seleccionar la calidad del audio que vamos a comprimir, la calidad de cd sería equivalente a 128 Kbps (Bit rate), pero podemos seleccionar la compresión entre los 8 Kbps y los 320 Kbps teniendo en cuenta que cuanto mayor sea la transmisión de datos (Kbps), mayor espacio ocupará el archivo. La frecuencia de muestreo del mp3 se encuentra entre los rangos de 16 Hz y los 48 KHz. Y tan solo soporta 2 canales (estéreo) Jossie Arenal Pretto Página 30 DEPARTAMENTO DE MÚSICA L.P.M. CURSO 14/15 ACC o Advanced Audio Coding: Es un formato de audio digital estándar como extensión de MPEG-2 comprimido con pérdida, y ofrece más calidad que mp3 y es más estable para un mismo número de Kbps y un mismo tamaño. Su compresión está basada en los mismos principios que la compresión MP3, con la diferencia de que ofrece la posibilidad de emplear frecuencias de muestreo del rango de entre 8 Hz hasta los 96 KHz. El método de codificación adapta automáticamente el número de Kbps (Bit rate) necesarios en función de la complejidad de la transmisión de audio en cada momento. ACC soporta 48 canales distintos como máximo, lo que lo hace indicado para sonido envolvente o Surround y sonidos polifónicos, es decir que sería una buena opción en caso de no escuchar el audio en cualquier sistema de audio de dos canales (estéreo), y en el caso de películas, vídeo o en caso de disponer de un reproductor compatible conseguiremos reducir el tamaño del archivo. Es más eficiente que MP3 en casi todos los aspectos, ofrece mayor calidad y archivos de menor tamaño, pero no goza por el momento de la compatibilidad y la popularidad del MP3. Es compatible con los dispositivos de la marca Apple, iTunes, iPods, Winamp, Ahead Nero, MP4 etc. Pero aún pueden existir problemas de compatibilidad. Ogg: Es un formato de audio digital comprimido con pérdida. Normalmente los archivos Ogg están comprimidos con el códec Vorbis, que es un códec de audio libre que permite una máxima flexibilidad a la hora de elegir entre la amplia gama de bitrates según la complejidad de la transmisión de audio, en la relación calidad-bitrate, se encuentra parejo con MPEG-2 y en la mayoría de los bitrates es comparable al formato ACC. Este formato está pensado para codificar desde la calidad de telefonía 8kHz hasta la calidad de alta definición 192 KHz, y para sistemas monoaurales, estereofónicos, polifónicos, cuadrafónicos, 5.1, ambisónicos y hasta 255 canales discretos. Los bitrates disponibles van desde 32 Kbps hasta 500 Kbps. El formato Ogg ofrece una mejor fidelidad de sonido entre 8 KHz y 48 KHz que el mp3 y sus archivos ocupan menos espacio. En cuanto a compatibilidad, tampoco es un formato todavía tan universal como el mp3 pero cada vez más dispositivos y programas lo reconocen y pueden trabajar con el. Real Audio o RM: Es un formato de archivo pensado para las transmisiones por internet en tiempo real, por ejemplo las radios que emiten online o cuando un servidor tiene un archivo de sonido almacenado y nosotros lo escuchamos sin que el archivo se cargue por completo ni se almacene en nuestro ordenador, esto es posible gracias al proceso de Buffering que básicamente es recibir un paquete de sonido en nuestro reproductor en este caso (Real Player) mientras el siguiente se almacena en la carpeta de temporales hasta que sea requerido por el reproductor. Con este sistema los archivos no pueden ser copiados. A diferencia de la codificación con MP3 que mantiene su rango de frecuencia de muestreo (Kbps), la codificación con Real Audio permite adaptarla a la capacidad del recepción del usuario dependiendo de su velocidad de conexión a internet. Si el usuario puede recibir paquetes de audio de alta calidad sin interrupciones, Jossie Arenal Pretto Página 31 DEPARTAMENTO DE MÚSICA L.P.M. CURSO 14/15 se los manda, si no bajara la frecuencia de muestreo hasta que pueda recibirlos sin interrupciones aunque la calidad del audio disminuya. WMA o Windows Media Audio: Es un formato de compresión de audio con pérdida aunque también existe este formato con compresión sin pérdida. Y está desarrollado básicamente con fines comerciales para el reproductor integrado en Windows, Windows Media Player. Está por debajo del nivel de los anteriores formatos. Archivos de Sonido sin pérdida: AIFF o Audio Interchange File Format que significa Formato de Archivo de Intercambio de Audio, es un estándar de formato de archivo de audio para vender datos de sonido para ordenadores, usado internacionalmente por los ordenadores Amiga y actualmente muy utilizado en los ordenadores Apple. Los datos en AIFF no están comprimidos, y usan una modulación por impulsos codificados o PCM. También existe una variante estándar conocida como AIFC que sí posee compresión. AIFF es uno de los formatos líderes, junto a SDII y WAV, usados a nivel profesional para aplicaciones de audio ya que está comprimido sin pérdida lo que permite un rápido procesado de la señal a diferencia del MP3 por ejemplo, pero la desventaja de este tipo de formatos es la cantidad de espacio que ocupa, que es aproximadamente 10MB para un minuto de audio estéreo con una frecuencia de muestreo de 44.1kHz y 16 bits. Además el estándar da soporte a bucles para notas musicales para uso de aplicaciones musicales o samplers, sus extensiones son .aif, .aiff y .aifc para la variante. FLAC o Free Lossless Audio Codec: es otro códec de compresión sin pérdida, y consigue reducir el tamaño de un archivo de sonido original de entre la mitad hasta tres cuartos del tamaño inicial. El formato FLAC se suele usar para la venta de música por internet, y como alternativa al MP3 para compartila cuando se desea reducir el tamaño que trendría un archivo WAV-PCM sin perder calidad, ya que con este tipo de compresión podremos reconstruir los datos originales del archivo. También se suele usar para realizar copias de seguridad de CDs de audio y admite cualquier resolución PCM de 4 a 32 bits, y cualquier bitrates según la complejidad de la transmisión de audio, en la relación calidadbitrate, se encuentra parejo con MPEG-2 y en la mayoría de los frecuencia de muestreo (sample rate) desde 1 a 65535KHz, en incrementos de 1Hz. WAV o wave: Waveform Audio Format es un formato de audio digital sin compresión que se emplea para almacenar sonidos en el ordenadores con windows, es una formato parecido al AIFF pero tomando en cuenta peculiaridades de intel. Puede soportar casi todos los códecs de audio, se utiliza principalmente con PCM (no comprimido). Se usa profesionalmente, para obtener calidad de CD se debe grabar el sonido a 44100 Hz y a 16 bits, por cada minuto de grabación de sonido se consumen unos 10 megabytes de disco duro. Y su limitación es que solo puede grabar archivos de 4GB que son aproximadamente unas 6 horas y Jossie Arenal Pretto Página 32 DEPARTAMENTO DE MÚSICA L.P.M. CURSO 14/15 media de audio en calidad CD. No se usa a penas para compartir música por internet, ya que existen otros formatos de audio sin pérdida que reducen mucho más el tamaño de los archivos. MIDI: Interface Digital para Instrumentos Musicales, es considerado el estándar para industria de la música electrónica. es muy útil para trabajar con dispositivos como sintetizadores musicales ó tarjetas de Sonido. Su extensión es .midi o .mid. VIDEOS COMPLEMENTARIOS Historia del audio: https://youtu.be/ZrGodHd3Qn0 Fonografo de Edison: https://youtu.be/QEBs3WgmRMQ Gramófono de Thorens: https://youtu.be/bLS9kEvSIXA Micrófonos: https://youtu.be/ISDj_-Ge8ks Altavoces: https://youtu.be/HBRqwTAn_SM Amplificadores: https://youtu.be/C1hi53jR0bs Tocadiscos: https://youtu.be/01bKT3jB0O8 Theremin: https://youtu.be/w5qf9O6c20o / https://youtu.be/nJYho56INKU Ondas Martenot: https://youtu.be/v0aflcF0-ys Sampler: https://youtu.be/EgOB4cH1QfY Midi: https://youtu.be/Z_nYVvGk8nQ LA SINTESIS DIGITAL: http://www.ccapitalia.net/reso/articulos/audiodigital/09/sintesisysonidodigita l.htm http://www.tecn.upf.es/~sjorda/ME2003/6-SintesisDigital/ME6SintesisDigital.pdf Jossie Arenal Pretto Página 33