Programa Oficial de Postgrado: Master en Comunicaciones, Redes y Gestión de Contenidos TECNOLOGÍA DE LOS CONTENIDOS MULTIMEDIA Optativa de 2º cuatrimestre TEMA 9 La señal de Vídeo TEMA 9 La señal de Video 9.1 EL SISTEMA VISUAL El primer aspecto a considerar para comprender los sistemas audiovisuales es el funcionamiento del sistema visual humano, por razones obvias. Asimismo, en la compresión digital es también necesario entender el sistema visual humano. Comprender las características y las limitaciones del sistema ojo-cerebro puede ayudar a maximizar la efectividad de las operaciones de la compresión digital de imágenes. El sistema visual humano está compuesto por el ojo y una parte del cerebro que procesa las señales neurológicas que provienen de este. El ojo convierte la información visual en impulsos nerviosos usados por el cerebro. El ojo en su conjunto, llamado globo ocular, es una estructura casi esférica de aproximadamente 22mm de diámetro. Está rodeado por tres membranas: la córnea y la esclerótica, que constituyen la cubierta exterior, la coroides y la retina. Los rayos de luz generados o reflejados por un objeto primero inciden en la córnea. La córnea actúa como una lente convexa, refractando los rayos. Esta refracción forma el enfoque inicial de la luz que entra al ojo. La córnea forma una protección transparente que cubre la superficie anterior del ojo. Después de la córnea, los rayos pasan a través de un líquido claro y húmedo llamado el humor acuoso, y después pasan a través del iris y el cristalino. El iris actúa como una apertura variable que controla la cantidad de luz que puede pasar a través del cristalino. Es controlado por músculos que lo abren y lo cierran basados en la intensidad promedio del objeto que es observado. Por la noche el iris se abre ampliamente, mientras que en un día luminoso se cierra significativamente. Este efecto lo reproducen las cámaras fotográficas y las de vídeo mediante el diafragma. El cristalino lleva a cabo el segundo enfoque de la luz, proyectando a esta en la retina. El cristalino es controlado por músculos que permiten variar la distancia focal del sistema óptico total TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 dependiendo de la distancia del objeto observado. Del mismo modo que en una cámara, el ojo debe ser enfocado según lo lejos que esté del objeto. Los rayos de luz salen del cristalino pasando a través de una sustancia transparente y gelatinosa, llamada humor vítreo, y son finalmente enfocados en la retina. El humor vítreo mantiene la estructura del ojo mientras que ópticamente une el cristalino a la retina. Véase la figura 9.1 Figura 9.1 Diagrama de una sección transversal del ojo humano La membrana más interna del ojo es la retina, que cubre la totalidad de la pared posterior. Cuando el ojo está correctamente enfocado, la luz de un objeto exterior al ojo forma su imagen en la retina. La retina está compuesta por fotorreceptores que convierten la intensidad y el color de la luz en señales nerviosas. Existen dos tipos de fotorreceptores, bastones y conos. Los bastones son los más abundantes: entre 75 y 150 millones están distribuidos sobre la superficie retiniana y son los que más responden a la luz. Su gran área de distribución, junto con el hecho de que grupos de varios bastones comparten una misma terminación nerviosa, reduce la cantidad de detalle discernible por estos receptores. Los bastones sirven para dar una visión general del campo de visión, no están implicados en la visión del color y son sensibles a niveles de iluminación bajos, por ejemplo por la noche. Los conos son mucho menos abundantes que los bastones (alrededor de 6 a 7 millones) y están localizados principalmente en la región central de la retina, denominada fóvea. Los conos son muy sensibles al color y son algo menos sensitivos a la luz. Se usan para la visión de luz brillante, por ejemplo en un día soleado. Los seres humanos pueden apreciar detalles relativamente finos gracias a esos conos porque cada uno está conectado a su propia terminación nerviosa. Los músculos que controlan el ojo giran el globo ocular hasta que la imagen del objeto visto queda en la fóvea. Existen tres tipos diferentes de conos; cada uno responde a una banda distinta del espectro de la luz. Básicamente, cada cono responde de forma diferente a un color arbitrario, así genera un conjunto único de respuestas para cada color de la luz. Con estas señales de los tres tipos de conos, el cerebro tiene la información con la que forma una percepción distinta de un gran número de colores diferentes. 9.2 Tecnología de los Contenidos Multimedia TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 Las diferencias entre bastones y conos, y sus distribuciones a través de la retina, son responsables de diversos aspectos de la visión. Ya que los conos que sensan el color están concentrados en la fóvea, la percepción del color es mejor para los objetos que se ven directamente de frente. Recíprocamente, se tiene una mínima percepción del color para objetos en la visión periférica. Debido a que los bastones, altamente sensitivos, son abundantes por todas partes menos en la fóvea, la percepción de luz de bajo nivel es mejor en la visión periférica. Así, durante la noche, los objetos confusos se pueden ver por la parte periférica de la retina mientras que son invisibles para la fóvea. La relativa insensibilidad de los conos cuenta además para la incapacidad de percibir el color bajo condiciones de poca luz, tal como por la noche. Cuando la luz golpea los bastones y los conos, causa una reacción electroquímica que genera impulsos nerviosos. Estos impulsos se pasan al cerebro por el nervio óptico, que es una extensión de la retina que lo conecta al cerebro. En la retina se crea un pequeño punto ciego donde el nervio óptico se une. Los impulsos neuronales son recibidos por el cerebro y procesados por la corteza visual. La percepción de la visión es creada dentro del proceso de la corteza visual. Debido a que las imágenes digitales se presentan como un conjunto de puntos brillantes, la capacidad del ojo de discriminar entre diferentes niveles de iluminación es una consideración importante para presentar los resultados del procesamiento de la imagen. Figura 9.2 Respuesta logarítmica del ojo, Ley de Weber La relación entre la intensidad de la luz que entra al ojo y su brillo percibido no es una función lineal. Esto significa que a medida que la intensidad de una fuente luminosa cambia, el observador no percibirá un cambio igual en el brillo. La respuesta de la intensidad real del ojo es más logarítmica, similar a la curva de la figura 9.2. De hecho, se ha mostrado experimentalmente que la intensidad de una fuente luminosa debe ser cercana al doble antes de que el ojo pueda detectar que ha cambiado. Por lo tanto, los cambios ligeros en la intensidad en regiones oscuras de una imagen tienden a ser más perceptibles que los cambios iguales en regiones brillantes. Esta rela- Tecnología de los Contenidos Multimedia 9.3 TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 ción que hay entre la intensidad de la iluminación y el brillo percibido, es conocida como Ley de Weber. La capacidad del ojo para discriminar entre cambios de iluminación para cada nivel específico de adaptación también es de considerable interés. Un experimento utilizado para determinar la capacidad del sistema visual humano de discriminar la iluminación consiste en colocar a un sujeto observando un área plana, uniformemente iluminada, lo suficientemente grande para que ocupe todo el campo visual. Esta área es habitualmente un simple difusor, tal como un vidrio esmerilado, que se ilumina desde atrás con una fuente de luz cuya intensidad, I , puede variarse. A este campo se añade un incremento de iluminación, ∆I, en forma de un destello de corta duración que aparece como un círculo en el centro del campo uniformemente iluminado, como se muestra en la figura 9.3. Figura 9.3 Montaje experimental empleado para caracterizar la discriminación de iluminación Si el ∆I no es lo suficientemente brillante, el sujeto debe decir "No", indicando que no percibe el cambio. Conforme ∆I aumenta, el sujeto puede dar una respuesta positiva "Si", indicando que ha percibido un cambio. Finalmente cuando ∆I sea suficientemente intenso acabará diciendo "Si" todas las veces. La cantidad ∆Ic/I , donde ∆Ic es el incremento de iluminación discernible el 50% de las veces con la iluminación de fondo I, se conoce como el cociente de Weber. Un pequeño valor de ∆Ic/I significa que se puede discriminar un pequeño cambio de intensidad. Esto representa una pobre discriminación de iluminación. Una representación log ∆Ic/I como función del logI tiene la forma típica mostrada en la figura 9.4. Esta figura muestra que la discriminación de iluminación es pobre (el cociente de Weber es grande) para niveles de iluminación bajos, y mejora significativamente (el cociente de Weber decrece) conforme crece la iluminación del fondo. Las dos ramas de la curva reflejan el hecho de que para niveles de iluminación bajos la visión se realiza a través de los bastones, mientras que a niveles elevados (mostrando mejor discriminación) la visión es función de los conos. 9.4 Tecnología de los Contenidos Multimedia TEMA 9. LA SEÑAL DE VÍDEO Figura 9.4 UNED - CURSO 2007-2008 Cociente de Weber típico en función de la intensidad Son dos los fenómenos que demuestran claramente que la percepción de la intensidad no es una función simple lineal de la intensidad. El primero se basa en el hecho de que el sistema visual tiende a sub o sobreestimar la intensidad. El primero se basa en el hecho de que el sistema visual tiende a hacerlo alrededor de las fronteras de regiones de diferentes intensidades. La figura 9.5 muestra un ejemplo de este fenómeno. Aunque la intensidad de las franjas sea constante, realmente se percibe un patrón de brillos fuertemente escalonado, especialmente cerca de las fronteras. En la figura 9.5.b se presenta la intensidad real en las franjas de la escala de grises, y la gráfica del brillo percibido por el ojo. Esta es la forma en que el ojo añade realce al contorno para las transiciones de intensidad. El sistema visual realmente intensifica todo lo que ve, dando una agudeza visual mejorada. Estas bandas que se perciben como escalonadas se denominan bandas Mach, y el efecto se denomina efecto de bandas (Mach), en honor a Ernst Mach que fue el primero es describir este fenómeno en 1865. a) Figura 9.5 b) Escala de grises con franjas de igual intensidad Tecnología de los Contenidos Multimedia 9.5 TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 El segundo fenómeno se denomina contraste simultáneo y está relacionado con el hecho de que el brillo percibido de una región no depende únicamente de su intensidad, sino que también depende de la intensidad del área circundante. Este efecto se muestra en la figura 9.6. Los cuatro cuadrados pequeños tienen intensidades idénticas, no obstante el de la parte superior izquierda aparece más brillante que el de la inferior derecha. Esto es porque el área alrededor del cuadrado de la parte superior izquierda es más oscura que el área alrededor del cuadrado de la parte inferior derecha. El sistema visual ajusta su respuesta a la intensidad, basándose en la intensidad promedio alrededor de la vista resaltada. Como la parte superior izquierda de la imagen tiene una intensidad promedio más oscura (ya que el fondo es más oscuro), su cuadrado parece más brillante. La intensidad promedio más brillante de la parte inferior derecha hace que su cuadrado parezca más oscuro. Por consiguiente, hay una diferencia en el brillo aparente de los cuatro cuadrados pequeños, y parecen como progresivamente más oscuros, conforme el fondo se hace más claro. Figura 9.6 Contraste simultáneo El sistema visual tiene limitaciones fundamentales en la respuesta en frecuencia. Como en cualquier sistema óptico, el ojo tiene limites sobre cómo puede resolver detalles finos, o transiciones de intensidad. Los factores limitantes son el número y organización de los fotorreceptores en la retina, la calidad de la parte óptica del ojo (córnea, humor acuoso, cristalino, y humor vítreo), y la transmisión y procesamiento de la información visual al cerebro. Generalmente, la respuesta en frecuencia del ojo disminuye a medida que se ven transiciones de intensidad, que se vuelven cada vez más finas, como se ve en la figura 9.7. Es también un factor el contraste, o diferencia entre niveles de gris, de la transición de intensidad. Cuanto más alto es el contraste, más fino es el detalle que el ojo puede resolver. Finalmente, cuando las transiciones están demasiado finas o el contraste es demasiado bajo, el ojo ya no puede resolverlos. En este punto, el ojo puede percibir sólo un promedio del nivel de gris del área detallada. El fenómeno discutido ilustra el complejo proceso que ocurre en el sistema visual humano. Combinando los conceptos de respuesta de intensidad no lineal, interacción del fotorreceptor y respuesta en frecuencia del ojo, se pueden realizar las siguientes observaciones: 9.6 Tecnología de los Contenidos Multimedia TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 • La intensidad del objeto visto está relacionada con la intensidad promedio alrededor del objeto. El objeto aparece más oscuro si el área circundante es brillante, o más brillante si el área circundante es oscura. • Los cambios sutiles de intensidad son mas aparentes en las regiones oscuras que en las regiones brillantes de la imagen. • Las transiciones marcadas de intensidad se acentúan en una imagen. La respuesta a los detalles de la imagen decae cuando los detalles a resolver son demasiado finos. Los detalles con contraste alto se pueden resolver mas fácilmente que aquellos con contraste bajo. Figura 9.7 Patrón que incrementa la frecuencia de izquierda a derecha y decrementa el contraste de arriba abajo La visión de color presenta algunas características particulares. El ojo no es uniformemente sensible a todo el espectro visible. La figura 9.8 muestra la respuesta relativa del "ojo medio" a la luz de luminancia constante proyectada en varias longitudes de onda comprendidas en el espectro. El pico (máximo) de la curva está en la región verde-amarillo y es interesante observar que una curva que represente la distribución de energía de luz solar o natural tiene su máximo en esta área. La curva de línea gruesa representa la impresión subjetiva de brillo del observador medio en condiciones de luz natural. Como muestra la segunda curva, en condiciones cercanas a la oscuridad la curva de respuesta se desplaza hacia la izquierda. Figura 9.8 Sensibilidad relativa del ojo humano a diferentes longitudes de onda Tecnología de los Contenidos Multimedia 9.7 TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 Se dice que la luz de una sola longitud de onda es monocromática. Por nuestra aptitud para distinguir una variedad de diferentes colores se puede suponer que existen diferentes tipos de conos en la retina, y que cada tipo está "sintonizado" a una pequeña banda de frecuencia. Si los conos fuesen monocromáticos de esta manera, entonces la impresión de un color dado podría ser producido únicamente por la energía electromagnética que tuviese la longitud de onda apropiada. Sin embargo, esto no es cierto. La luz monocromática brillante que impresiona a la retina no es la única manera de crear una impresión de color dada. Por ejemplo, algunos amarillos monocromáticos pueden ser adaptados por la llegada simultanea a la retina de luz roja y verde. Casi todos los colores pueden ser obtenidos mezclando sólo tres luces de color. A estos colores se les llama "primarios" y los que se usan son el rojo, el verde, y el azul. El comportamiento del ojo es consistente con los tres tipos de conos únicamente, teniendo cada uno una curva diferente de respuesta. Las tres curvas de respuesta se solapan de manera que todos los colores están debajo de cualquier curva de ellas, o bien parcialmente debajo de dos, o de las tres curvas. La figura 9.9 ilustra este hecho. Se observa que el amarillo activa los conos verde y rojo. Lo lógico es deducir que cuando la luz verde y la luz roja llegan a la retina al mismo tiempo, la excitación simultánea de los conos correspondiente al verde y al rojo produce en el centro sensorial del cerebro una impresión que es indistinguible de la del amarillo monocromático. Figura 9.9 Sensibilidades de los tres tipos de conos en la retina Para que se pueda ver el color, tiene que llegar al ojo la energía electromagnética. Se ve un objeto por la luz reflejada desde él. Si parece verde a la luz del día, entonces esto debe implicar que aunque está bañado de luz natural "blanca", es solamente la reflexión de la parte verde de la luz la que llega a los ojos. El resto del espectro es "absorbido". Por consiguiente un objeto parece colo- 9.8 Tecnología de los Contenidos Multimedia TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 reado a causa de que sólo refleja parte del espectro visible y absorbe el resto. El color procede de la luz incidente. La hierba no parece verde bajo iluminación de sodio a causa de que en ella no hay luz verde que pueda ser reflejada. Los colores se pueden obtener haciendo una mezcla de los tres colores primarios, rojo, verde y azul, esta mezcla se denomina aditiva. Un ejemplo de la mezcla aditiva de estos tres colores es el siguiente: Rojo + Verde = Amarillo Rojo + Azul = Magenta Azul + Verde = Cian Rojo + Azul + Verde = Blanco Al mezclar los colores primarios en diferentes proporciones, se puede obtener casi cualquier otro color. Los colores amarillo, magenta y cian se conocen como colores complementarios. Si se añade un complementario en proporciones adecuadas a uno primario no contenido en él (por ejemplo amarillo+azul), se produce blanco. En la figura 9.10 se puede observar la mezcla aditiva de colores. Figura 9.10 Mezcla aditiva de colores El sistema visual humano puede adaptarse a un gran margen de niveles de luz mediante dos procedimientos: bioquímico en las reacciones que tienen lugar en la retina y por la pupila. El tamaño de la pupila puede variar entre un mínimo de 1.5 mm de diámetro y un máximo de 8 mm, lo que significa unas 30 veces en el nivel de luz. El procedimiento bioquimico es más lento que el de la pupila pero puede cambiar la sensibilidad en un factor entre 500000 y 1000000. Considerando el conjunto de las células sensibles del ojo, la sensibilidad total varía con la frecuencia (color) de la luz. Por ejemplo, dos radiaciones lumínicas una de color amarillo-verdoso, otra de color rojo y las dos de la misma potencia, se percibe más brillante (más clara) la amarillo verdosa que la roja. La figura 9.11 ilustra la respuesta en frecuencia del ojo. La respuesta es dis- Tecnología de los Contenidos Multimedia 9.9 TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 tinta si la visión es fotópica (niveles medios o altos de luz) o escotópica (niveles muy bajos de luz) Figura 9.11 Respuesta en frecuencia del ojo Figura 9.12 Espectro electromagnético. 9.10 Tecnología de los Contenidos Multimedia TEMA 9. LA SEÑAL DE VÍDEO 9.2 UNED - CURSO 2007-2008 CONCEPTOS BÁSICOS DE LA RADIACIÓN LUMINOSA. TEORÍA DEL COLOR La luz es una onda electromagnética, y por tanto uno de sus parámetros fundamentales es la frecuencia. La frecuencia de una radiación o su longitud de onda determina por ejemplo el comportamiento en la propagación, las dimensiones de las antenas a utilizar, etc. Así, podemos tener una emisión de radio, por ejemplo, a una frecuencia de 500 KHz o de 800 MHz captada por las antenas correspondientes, pero, si subimos en frecuencia hasta una frecuencia suficiente, la onda electromagnética será captada por el ojo como una radiación lumínica de color rojo, amarillo... hasta el violeta para la frecuencia más alta. Si sigue aumentando la frecuencia la radiación dejará de ser visible pasando a la banda de los rayos X, gamma, etc. Es decir, la luz visible es una radiación electromagnética de la misma naturaleza que las ondas de radio pero perteneciente a la banda de longitudes de onda comprendidas entre 380 nm (violeta) a 780 nm (rojo). La figura 9.12 muestra el espectro electromagnético completo y un detalle del visible. La luz es monocroma si contiene una radiación de una determinada longitud de onda y es policroma si está compuesta por varias radiaciones de longitudes de onda distintas. En el caso de la luz monocroma el color depende de la frecuencia de la radiación. La luz solar, percibido como luz de color blanco es un ejemplo de luz policroma. Contiene una mezcla de todos los colores, es decir, tiene radiaciones de todas las longitudes de onda del espectro visible. La colorimetría trata de cuantificar el color. El color en una luz monocromática está directamente relacionado con la longitud de onda, desde el violeta para la menor longitud de onda visible (380 nm) hasta el rojo para la mayor (780 nm). Pero en la mayor parte de las situaciones, las radiaciones luminosas que percibe el sistema visual humano no son monocromáticas, sino que contienen una distribución espectral más o menos ancha, policromática, como por ejemplo la del sol, o bien debida al resultado de reflejarse o transmitiese esa luz en un cuerpo. Los objetos tienen un determinado color porque producen una reflexión de la luz que depende de la frecuencia. Así, un objeto iluminado con una luz blanca tiene color verde porque refleja la radiación correspondiente a las longitudes de onda de la zona de los verdes, y no refleja (absorbe o transmite) el resto. Ante la presencia de una radiación policromática, el ojo, percibe una sensación de color única. La sensación de luz tiene tres partes: en primer lugar, la cantidad de luz o lo brillante que es la radiación, la luminancia; en segundo lugar el tono o matiz que indica el color, si es rojo, verde, azul, etc; y por último la pureza o saturación que indica si es un color claro o intenso. Por ejemplo, el rosa es un color rojo poco saturado, rojo mezclado con luz blanca. Tecnología de los Contenidos Multimedia 9.11 TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 Hay dos tipos de mezclas de color, la aditiva y la sustractiva. La sustractiva es por ejemplo la mezcla de pinturas, y la aditiva es la que se usa para la reproducción de colores en televisión y se consigue con mezcla de luces de colores. La mezcla aditiva es la que se produce cuando la radiación resultante contiene la radiación de dos o más fuentes, el resultado en el ojo es una sensación equivalente a un nuevo color. Es un fenómeno subjetivo. Hay diferentes métodos para mezclar aditivamente varios colores. Las más relevantes son las siguientes. Simultánea en el mismo punto. Es una mezcla en la que varias fuentes están presentes en todo momento sobre la misma superficie. Alterna en el mismo punto. Es una mezcla por alternancia de las fuentes en el tiempo proyectadas sobre la misma superficie a una frecuencia suficientemente elevada para que la integración temporal del ojo produzca una única sensación. Es la técnica empleada por los modernos proyectores de vídeo con tecnología DLP. Yuxtapuesta por puntos (composición de puntos). Es una mezcla por alternancia en el espacio de manera que puntos pequeños de diferentes colores y próximos entre sí vistos a suficiente distancia para que el ojo realice la integración espacial. Esta mezcla es la que se utiliza en televisión y las impresoras de color. Este efecto se puede ver claramente si se observa de cerca un gran cartel publicitario. A una cierta distancia, lo normal para la observación de este tipo de carteles, se percibe un color uniforme. Pero al acercarnos los suficiente se pueden ver las partes constituyentes, que son normalmente de cuatro colores distintos ( La colorimetría se basa en las experiencias que realizaron Grassmann y Maxwell sobre el comportamiento subjetivo ante mezclas de colores. Las leyes de Grassmann son las siguientes: 1.- Toda sensación de color se puede obtener por suma de tres fuentes de colores seleccionados que llamaremos primarios y que son rojo, verde y azul. 2.- Cuando se ha establecido la igualdad de la primera ley, la luminancia del color igualado es la suma de las luminancias de los primarios utilizados en la igualación. 3.- Dos radiaciones cromáticamente equivalentes lo siguen siendo para un amplio margen de luminancias. 4.- Dos radiaciones cromáticamente equivalentes a una tercera son equivalentes entre sí (propiedad transitiva). Esto se denomina metamerismo cromático. La medida del color se realiza con el colorímetro, que es un dispositivo sencillo. Consta de dos paneles, en cada uno de ellos se proyecta una luz distinta y pueden ser observadas simultáneamente. En una parte se proyecta una combinación de los tres primarios referidos por la primera ley de Grassmann y en la otra el color bajo análisis. La figura 9.13 muestra un colirímetro. 9.12 Tecnología de los Contenidos Multimedia TEMA 9. LA SEÑAL DE VÍDEO Figura 9.13 UNED - CURSO 2007-2008 Colorímetro El procedimiento consiste en ir variando la cantidad de cada primario hasta que el observador tenga la misma sensación en cada uno de los paneles. En esta situación ambas radiaciones son cromáticamente equivalentes y por tanto el color C queda caracterizado por la cantidad de cada primario utilizado (al,a2,a3). Con este procedimiento se realiza una medida subjetiva evitando utilizar la poca capacidad del sistema visual para establecer una escala absoluta de colores y aprovechando su gran capacidad para la comparación. Al analizar una gran cantidad de colores se observa que para algunos colores no se puede obtener una radiación equivalente con los tres primarios tal que a1Pl + a2P2 + a3P3 ≠ C En estos casos se llega a la equivalencia cuando uno de los primarios es negativo: a1Pl + a2P2 - a3P3 ≠ C La triada que identifica a este color es entonces (al,a2,-a3). La figura 9.14 muestra las cantidades de los tres colores primarios RGB que son necesarios para obtener las longitudes de onda del espectro visible. Los valores negativos indican que algunos colores no pueden obtenerse con coeficientes positivos. La Comisión Internacional de la Iluminación (CIE o ICI, Commission Internationale de L'Eclairage, or International Commission on Illumination) eligió tres colores primarios para normalizar la medida del color. Dichos primarios se eligieron de forma que pudieran obtenerse una gran parte de colores con coeficientes positivos. Rojo de 700 nm (R) Verde de 546.1 nm (G) Azul de 435.8 nm (B) Tecnología de los Contenidos Multimedia 9.13 TEMA 9. LA SEÑAL DE VÍDEO Figura 9.14 UNED - CURSO 2007-2008 Cantidades de los tres colores primarios RGB que son necesarios para obtener las longitudes de onda del espectro visible. Estos primarios igualan el blanco (W) equienergético que es aquel con la misma potencia en cada longitud de onda desde el violeta al rojo (ver figura 9.15), con las proporciones: LR=1.891 LG=8.681 LB=0.1136 Figura 9.15 Blanco equienergético. Otra representación del color, también muy utilizada, es la compuesta por la triada luminancia o brillo, tono o matiz y saturación o pureza (HSI: Huge, Saturation and Intensity). Ambas representaciones caracterizan a un color y se puede pasar de una a otra mediante una matriz de transformación: I γ 11 γ 12 H = γ 21 γ 22 S γ 31 γ 32 γ 13 R γ 23 G γ 33 B Donde los valores γ dependen de los primarios elegidos. 9.14 Tecnología de los Contenidos Multimedia TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 El que cada color esté caracterizado por tres coeficientes permite representar los colores mediante un espacio vectorial donde cada eje corresponde a un primario y cada punto del espacio a un color, definiendo así el espacio de color. Dada la gran distancia entre los valores, el blanco no queda en el centro del sistema de referencia, lo cual hace que en un eje haya que tratar los números con mucha precisión, mientras que en los otros esa precisión es menos importante. Para evitar esto el CIE propuso otro sistema con los mismos primarios pero ponderados por unos coeficientes tal que el blanco estuviese en las coordenadas (1, 1, l), de manera que LR 1.891 L G=K G 8.681 LB B=K 0.1136 R=K La figura 9.16 muestra este espacio de color. Figura 9.16 Espacio colorimétrico con W en (1,1,1). Para estudiar sólo el color no hacen falta los tres valores R,G,B puesto que la luminancia no aporta información sobre el color, así pues, se puede normalizar respecto a la suma de R,G,B definiendo un nuevo sistema de referencia rgb tal que: r= R ; R+G + B Tecnología de los Contenidos Multimedia g= G ; R+G + B b= B R+G + B 9.15 TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 Este sistema determina un espacio vectorial de dos dimensiones, puesto que hay una relación lineal entre ellas r+g+b= l, tal y como ilustra la figura 9.17. Figura 9.17 Espacio rgb. Todos los colores están ahora sobre el plano r+g+b=l. Si se toma la parte del plano que está en el primer cuadrante se obtiene el Triángulo de Maxwell, que se muestra en la figura 9.18. Figura 9.18 Triángulo de Maxwell La mezcla de los colores C1 y C2 produce el color C3. Se puede definir también una medida del tono y la saturación sobre el triángulo definiendo un eje de referencia para los ángulos, como se muestra en la figura 9.19, en el que el módulo está relacionado con la saturación y el ángulo con el tono. 9.16 Tecnología de los Contenidos Multimedia TEMA 9. LA SEÑAL DE VÍDEO Figura 9.19 UNED - CURSO 2007-2008 Tono y saturación sobre el triángulo de Maxwell. Con cualquiera de los sistemas hasta ahora analizados, algunos colores y sobre todo los monocromáticos tienen coeficientes negativos. Por ejemplo: Verde de 560 nm: r=0.3164; g=0.6881; b=-0.0045 Azul de 480 nm: r=-0.3667; g=0.2906; b= 1.0761 Además otro inconveniente es que la luminancia no queda reflejada directamente en ninguno de los ejes del sistema de referencia. Para evitar estos dos inconvenientes el CIE recomendó en 1931 usar un nuevo espacio colorimétrico, el XYZ. El Y fue elegido intencionadamente de forma que sea idéntico a la función de eficiencia luminosa del ojo humano. Los primarios deben estar referidos de modo que ningún color tenga componentes negativos. No existe ningún trío de colores en la naturaleza que cumpla esta condición. Así pues, el nuevo sistema XYZ consta de primarios que no tienen correspondencia con colores reales. Los nuevos primarios escogidos tienen los siguientes coeficientes rgb: X: r = 1.2750;g = -0.2778;b = 0.0028 Y: r = -1.7394;g = 2.7674;b = -0.0280 Z: r = - 0.7429;g = 0. 1409;b = 1.6020 y normalizados son: x= X ; X +Y + Z Tecnología de los Contenidos Multimedia y= Y ; X +Y + Z z= Z X +Y + Z 9.17 TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 De esta forma los colores del anterior ejemplo serán: Verde de 560 nm:x=0.3731;y=0.6245; z=0.0240 Azul de 480 nm:x=0.0913y=0.1327;z=0.7760 Al igual que con RGB al pasar a los coeficientes normalizados, conocidos dos coeficientes se puede determinar el tercero mediante la ecuación: x+y+z = 1. Así todos los colores pueden representarse en un plano. Si por ejemplo se toman los coeficientes x e y, todos los colores quedan representados en el triángulo de vértices (0,0), (1,0), (0,1), puesto que los coeficientes x, y, z, son menores que 1. Este es conocido como el triangulo de cromaticidad y se ilustra en la figura 9.20. Figura 9.20 Triángulo de cromaticidad Si se ubican los puntos del espectro dentro del triángulo se obtiene el diagrama de cromaticidad. El espectro comienza en 380 nm, continúa en el sentido de las agujas del reloj y termina en 780 nm. Esta línea se denomina espectrum locus por ser el lugar de los colores monocromáticos del espectro y se ilustra en la figura 9.21. La recta que une el punto de 380 nm con el de 780 nm no corresponde a ningún color monocromático. Se llama recta de los púrpuras y el color percibido es una sensación subjetiva. 9.2.1 LUMINÓFOROS UTILIZADOS EN TVC. Los primarios utilizados para TV de color no son los mismos primarios que los del CIE, porque la luz que producen los materiales luminiscentes al ser golpeados por un haz de electrones no tienen un espectro monocromático. Los primarios de TV ubicados dentro del diagrama de cromaticidad se presentan en la figura 9.22. Los colores reproducibles por el receptor de TV son los que contiene el triángulo. 9.18 Tecnología de los Contenidos Multimedia TEMA 9. LA SEÑAL DE VÍDEO Figura 9.21 Diagrama de cromaticidad Figura 9.22 Luminóforos utilizados en T. V. UNED - CURSO 2007-2008 Se puede observar que los colores del espectro quedan fuera de él. Este hecho no es importante porque los colores que se presentan en la naturaleza raramente son saturados al 100%. En 1976 CIE redefinió el modelo, presentando el denominado CIE L*a*b, que se muestra en la figura 9.23. Se trata de una diagrama de luminancia desde el valor cero (negro) al 100 (blanco) y de crominancia de manera que en un eje está en el rango del verde al rojo y en el otro en el rango Tecnología de los Contenidos Multimedia 9.19 TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 del azul al amarillo. Este es el sistema utilizado por Photoshop. Recuérdese que el CMYK es el sistema utilizado para la impresión, por lo que es razonable que Photoshop lo utiliza ya que esta es su finalidad última. En cualquier caso también incorpora herramientas de conversión a otros espacios de color, como por ejemplo a RGB. Figura 9.23 CIE L*a*b Los modelos de color para imágenes suelen basarse en el modelo (R,G,B). Estas tripletas codifican cuánto tienen que excitarse los elementos de dispositivos tales como monitores. En concreto las pantallas CRT tienen tres luminóforos que producen una combinación de longitudes de onda cuando se excitan mediante los electrones. Otro modelo alternativo estrechamente relacionado es el modelo CMY, Cyan, Magenta, y Yellow, que son los colores complementarios de RGB. Pueden utilizarse como primarios sustractivos. Este modelo suele utilizarse en dispositivos de impresión en los que los pigmentos del color sobre el papel absorben ciertos colores, por ejemplo, no se refleja luz roja de la tinta cyan. La figura 9.24 muestra la comparación entre los espacios RGB y CMY. La conversión entre ambos espacios de color convierte el blanco en RGB, (1, 1, 1), a (0, 0, 0) in CMY. C 1 R M = 1 − G Y 1 B R 1 C G = 1 − M B 1 Y 9.20 Tecnología de los Contenidos Multimedia TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 En algunas ocasiones en los dispositivos de color se utiliza un modelo alternativo, CMYK, donde K representa al negro (black). Con este modelo se dispone del negro directamente sin recurrir a la mezcla de CMYK y permite alcanzar negros saturados. De la misma forma, los proyectores DLP también incorporan luz blanca para obtener blancos luminosos y brillantes sobre la pantalla. Figura 9.24 Comparación entre los espacios RGB y CMY. La figura 9.25 ilustra los rangos de los diferentes modelos de color. Como puede observarse el modelo Lab cubre todos los colores del espectro visible, el de RGB es menor, por lo que algunos colores visibles no pueden presentarse en los monitores, como por ejemplo el amarillo puro, o el cyan puro. Por último el modelo CMYK es el menor, pero obsérvese que no es un subconjunto del RGB. Para las aplicaciones de vídeo se utilizan normalmente dos modelos, YIQ y YUV. Figura 9.25 Rangos de los diferentes modelos de color. Tecnología de los Contenidos Multimedia 9.21 TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 El espacio de color YUV fue utilizado inicialmente en el vídeo analógico PAL, y en la actualidad es utilizado en el estándar de video digital CCIR 601. En este modelo se utilizan los siguientes parámetros: • Y (luminancia) es el primario Y de CIE. La figura 9.26 reproduce la curva de visibilidad relativa. En la curva se indican los tres colores primarios utilizados en TV y en el eje de ordenadas se muestran los valores de la sensibilidad relativa del ojo para las longitudes de onda de RGB. Figura 9.26 Curva de visibilidad relativa. Con ello: Azul: Longitud onda = 470 nm,Sensibilidad = 0,17 Verde: Longitud onda = 535 nm,Sensibilidad = 0'92 Rojo: Longitud onda =:610 nm,Sensibilidad = 0'47 Es decir, Y = 0.47R + 0.92G + 0.17B Si las componentes RGB están normalizadas R, G, B , la luminancia puede normalizarse dividiendo por la suma de los coeficientes (0.47+0.92+0.17=1.56) resultando: Y = 0.299R + 0.587G + 0.114B En la práctica, se utiliza una expresión simplificada de la ecuación anterior: Y =0.3R + 0.59G + 0.11 B • "La crominancia se define como la diferencia entre un color y un blanco de referencia con la misma luminancia. Se representa mediante las diferencias de color, U y V. U=B-Y V=R-Y 9.22 Tecnología de los Contenidos Multimedia TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 Si la imagen es blanco y negro entonces U = V = 0, es decir, no hay crominancia. En las implementaciones del formato PAL (más adelante en el estudio de la señal de color compuesta se justifican estas expresiones): U = 0.493 (B - Y) V = 0.877 (R - Y) Un modelo estrechamente relacionado con el YUV es el modelo YCbCr, que es un YUV escalado y desplazado. Las diferencias de color vienen dadas por: Cb = (B - Y) / 1.772 + 0.5 Cr = (R - Y) / 1.402 + 0.5 De esta forma los valores de la crominancia están siempre en el rango de 0 a 1. El modelo YCbCr se utiliza en JPEG y MPEG. Por este motivo, estas siglas se pueden ver también en los conectores de algunos reproductores domésticos de DVD. Cuando un reproductor tiene este tipo de salida se dice que tiene salida por componentes y es la que proporciona mayor calidad de imagen. Obviamente se requiere que la televisión o pantalla tenga también este tipo de entrada y esto sólo está disponible en los visualizadores de alta gama. Por último, el modelo de color YIQ se utiliza en el formato de televisión NTSC, y es compatible con las televisiones blanco y negro en las que sólo se utiliza Y. Aunque U y V definen perfectamente las diferencias de color, no se corresponden con la sensitividad del color de la percepción humana. Por ello se utilizan I y Q en su lugar en NTSC. I es el eje naranja-azul, y Q es el eje violeta-verde. Estos dos ejes son los ejes R - Y y B - Y escalados y rotados 33 grados en el sentido de las agujas de reloj. Así: I = 0.877(R - Y) cos 33 - 0.492(B - Y) sin 33 Q = 0.877(R - Y) sin 33 + 0.492(B - Y) cos 33 es decir: I = 0.736(R - Y) - 0.268(B - Y) = 0.596R - 0.275G - 0.321B Q = 0.478(R - Y) + 0.413(B - Y) = 0.212R - 0.523G + 0.311B Por tanto la relación entre el espacio YIQ y el RGB viene dada por: Y 0.299 0.587 0.114 R I = 0.596 −0.275 −0.321 G Q 0.212 −0.523 0.311 B Tecnología de los Contenidos Multimedia 9.23 TEMA 9. LA SEÑAL DE VÍDEO 9.3 UNED - CURSO 2007-2008 SEÑALES ELÉCTRICAS PARA LA CONVERSIÓN DE IMÁGENES El sistema básico de televisión captura una escena y la reproduce con el objetivo de que un espectador vea la escena lo más parecida posible a la real. Una escena real es un espacio tridimensional en el que se encuentran objetos, también de 3 dimensiones, que emiten o reflejan luz, produciendo una distribución de luz a lo largo de los tres ejes del espacio. Además, puede haber movimiento, introduciendo variaciones de la distribución de luz en función del tiempo. Por tanto una escena va a tener 4 dimensiones a considerar: tres espaciales y una temporal, además del sonido que se considera aparte. Para formar una imagen de dos dimensiones a partir de la escena de tres dimensiones, lo que se hace es adquirir la imagen mediante una cámara, fotográfica o de T.V, en la que la escena 3D se proyecta sobre una superficie 2D. Con ello se elimina una cantidad importante de información de la escena. Para la dimensión temporal se realiza una discretización tomando proyecciones instantáneas en determinados momentos. El movimiento se reproducirá visualizando las proyecciones de instantes sucesivos a velocidad suficiente para que el sistema visual humano tenga la sensación de un movimiento continuo y no a saltos. Así, el problema se reduce a convertir la distribución de luz que se produce sobre la superficie de proyección en un determinado instante a una señal eléctrica. Para convertir variaciones de luz en variaciones de señal eléctrica se utiliza una fotocélula. Pero esto no es suficiente para captar una imagen completa. La escena está compuesta por una intensidad de luz en cada punto, y por tanto, el sensor debe convertir independientemente la luz procedente de cada punto. Por ello hay que dividir la imagen en partes suficientemente pequeñas y realizar una fotoconversión para cada una de ellas, a continuación transmitir la información, y en el otro extremo reproducir la luz de cada porción de la imagen. La dimensión de los elementos de la imagen debe ser tal que el sistema visual humano no perciba cada elemento, sino que el conjunto de los elementos de la sensación de una imagen natural. En ello influye, entre otros factores, la distancia a la que se observa la imagen reproducida, la diferencia entre la luz del objeto y del fondo, y la resolución visual del espectador. La resolución visual se define como la inversa del ángulo formado por las rectas que unen los elementos con el ojo del observador, donde la distancia que separa a los elementos es la mínima para que el observador sea capaz de distinguirlos. Cada individuo tiene una resolución diferente y tampoco los textos bibliográficos dan un valor estándar; pueden encontrarse desde 2 minutos de arco hasta 0.5 minutos de arco. Un valor de 1.3 minutos de arco indica una capacidad del ojo de discernir entre dos puntos separados una distancia de 0,4 mm a 1 metro. 9.24 Tecnología de los Contenidos Multimedia TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 Para descomponer una imagen puede pensarse en disponer de un sensor formado por un conjunto de fotocélulas colocadas en una matriz rectangular, y para reproducirla la misma disposición de matriz de elementos fotoemisores. Esta disposición permite no discretizar la dimensión temporal. Sin embargo, el número de elementos en los que hay que descomponer la imagen es muy elevado por lo que esta solución era inviable en los años en los que se desarrolló la primera TV monocroma. El método que realmente se utiliza en televisión es realizar una lectura de la imagen mediante la exploración secuencial de la imagen proyectada sobre una superficie fotosensible, siguiendo un patrón determinado. En el receptor, se realiza una exploración con un procedimiento fotoemisivo puntual, es decir, que emita luz en un único punto, cuya intensidad luminosa sea función de la señal eléctrica recibida. En este contexto aparece el concepto de barrido o exploración, que es el método utilizado en televisión para obtener una señal eléctrica que represente una imagen. La mayoría de cámaras de TV utilizan el barrido con un haz de electrones de una superficie fotosensible, en la que se produce una acumulación de carga en cada punto, función de la intensidad de luz incidente. El barrido se efectúa describiendo líneas horizontales de izquierda a derecha en la superficie fotosensible. Una vez alcanzado el borde izquierdo, se retrocede al borde derecho y se explora la línea horizontal siguiente, tal y como ilustra la figura 9.27.a. Simultáneamente al movimiento horizontal, también es necesario un movimiento vertical de arriba a abajo, para ir avanzando de una línea a otra. Al llegar a la última línea se retrocede en el movimiento vertical para volver de nuevo a la línea superior de la pantalla. En un sistema real de TV, el retorno vertical es mucho más lento que el movimiento horizontal y además el movimiento horizontal no cesa durante el retorno vertical. Así la trayectoria descrita por el haz durante el retroceso vertical () es la que se describe en la figura 9.27.b. Figura 9.27 (a) Barrido. (b) Trayectoria del haz durante el retorno vertical. Tecnología de los Contenidos Multimedia 9.25 TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 Durante los tiempos de retorno, el haz debe estar inactivo para que no se visualice en la pantalla. La figura 9.28 muestra la señal para dos líneas, N y N+1, que se producirá para las imágenes mostradas. (a) (b) Figura 9.28 Señales para las líneas N y N+1 de dos imágenes. En el receptor se reproduce la imagen mediante una pantalla sobre la que hay película de material que al ser bombardeada por un haz de electrones produce luz El haz puede variar su intensidad para reproducir en cada punto de la imagen la luz del punto correspondiente de la proyección. Para representar la imagen completa el haz de electrones debe barrer la superficie fotoemisiva con la misma trayectoria con la que el haz de electrones de la cámara exploró la superficie fotosensible para generar la señal eléctrica. Con este sistema de exploración mediante líneas aparecen intrínsecamente dos aspectos básicos a considerar. En primer lugar debe determinarse en cuántas líneas hay que dividir la imagen, y en segundo lugar cuál es la velocidad a la que tiene que moverse el haz. El número de líneas debe ser tal que un espectador situado a la distancia habitual de observación no las distinga y vea una imagen continua. El ancho de una línea, d, está relacionado con el número de líneas, N, tal que d= 9.26 h N Tecnología de los Contenidos Multimedia TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 donde h es la altura de la pantalla. Si se considera una distancia media de observación, D, seis veces h, D=6h, entonces el ángulo umbral promedio θn es muy pequeño (θn es el inverso de la resolución del ojo). La figura 9.29 muestra estas magnitudes. Por tanto tg (θ n ) = θ n = Figura 9.29 1 d = D 6N Magnitudes para el cálculo del número de líneas. Para que el observador no aprecie las líneas debe satisfacerse que θ < θ n . Por tanto y el número de líneas debe satisfacer N> 1 6θ n Para una resolución del ojo de 1.3 minutos de arco, se obtiene: N> 1 = 425 lineas 6 × 3.92 10−4 Este valor debe entenderse como una primera aproximación. Debe tenerse en cuenta que el grosor del haz de exploración es de dimensiones similares al grosor de una línea. Cuando el barrido es alineado, es decir, cuando la imagen tiene el máximo de detalle alineado con el haz, 425 son suficientes para obtener una señal correcta. La figura 9.30 muestra una imagen con N barras horizontales, N/2 blancas y N/2 negras, alineadas con el haz. La señal reproducida es correcta. Tecnología de los Contenidos Multimedia 9.27 TEMA 9. LA SEÑAL DE VÍDEO Figura 9.30 UNED - CURSO 2007-2008 Barrido alineado. Evidentemente en general el haz no estará alineado con la escena. La figura 9.31 muestra el caso extremo contrario, un barrido no alineado en el que el número máximo de detalle no está alineado con el haz. (a) Figura 9.31 (b) Barrido no alineado. (a) Imagen con el detalle máximo no alineado con el haz. (b) Señal resultante La señal eléctrica obtenida es la integración de la fotoconversión. Como en la zona que abarca el haz hay parte blanca y parte negra, la señal resultante es un nivel de señal de gris medio, y por tanto, la imagen estará mal capturada. Evidentemente esta situación tampoco es habitual Por tanto debe aumentar el número de líneas. Para determinar el factor de incremento se realizaron análisis estadísticos, tal que el número de líneas es: N′ = N 1 K donde K es el factor de Kell, K=0.7. Por tanto: N′ = 425 1 = 607lineas 0.7 El sistema de TV europeo consta de 625 líneas, de las cuales sólo 575 contienen imagen. 9.28 Tecnología de los Contenidos Multimedia TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 La velocidad del haz viene caracterizada por la frecuencia de barrido. Para elegir la frecuencia de barrido debe tenerse en cuenta que la imagen se reproduce mediante un haz de electrones que produce luz sólo en un punto en cada instante. La imagen está compuesta por muchos puntos y transcurre un tiempo, T, mayor que cero, denominado tiempo de barrido, desde que se ilumina un punto hasta que vuelve a iluminarse. Si el tiempo de barrido es grande el ojo percibirá la luz de un punto de la pantalla de forma intermitente. Si el tiempo T se va haciendo más pequeño el ojo no es capaz de seguir las variaciones rápidas y llega un momento en que el punto se percibe como constantemente iluminado. El haz, al ir barriendo la pantalla a suficiente velocidad produce en el sistema visual humano la sensación de una imagen, cuando en realidad en cada instante el haz sólo está bombardeando un punto de la pantalla. Para determinar el umbral, es decir, el valor para el que el ojo ve la imagen y no a un punto iluminado moviéndose a lo largo de la pantalla se realizó un análisis estadístico de la respuesta del ojo al parpadeo. La figura 9.32 ilustra la frecuencia umbral. Se puede observar que depende del brillo de la imagen. Cuánto más brillante es un punto mayor debe ser la frecuencia para que parezca constantemente iluminado. Figura 9.32 Umbral de parpadeo en función del brillo. Para que el parpadeo no se aprecie la frecuencia debe ser mayor que 65 Hz. Una frecuencia de imagen de 65 Hz provoca que la TV tenga un ancho de banda muy grande. Por ello es necesario arbitrar algún método para reducirla. Este método es el barrido entrelazado. El barrido entrelazado consiste en efectuar el barrido de la pantalla en dos fases, cada una de ellas al doble de frecuencia que los 65 Hz, Se realiza primero el barrido de las líneas impares y luego el de las pares. La figura 9.33 ilustra este procedimiento. Tecnología de los Contenidos Multimedia 9.29 TEMA 9. LA SEÑAL DE VÍDEO Figura 9.33 UNED - CURSO 2007-2008 Barrido entrelazado Cada fase se llama semi-imagen o campo. Con ello se consigue disminuir el parpadeo que percibe el ojo, con respecto al barrido no entrelazado de igual frecuencia, porque aunque el tiempo que transcurre entre dos iluminaciones sucesivas de un punto es el mismo que en un barrido no entrelazado, los puntos vecinos han sido iluminados en la mitad de tiempo. Además, con un barrido entrelazado disminuye el efecto que consiste en que debido a la persistencia del ojo se vería una franja más iluminada que el resto, correspondiente a la estela del punto de exploración que avanza hacia abajo y cuando desaparece por abajo vuelve a aparecer por arriba avanzando de nuevo hacia abajo. Este efecto 'ola' disminuye gracias al barrido entrelazado porque el tiempo que transcurre entre dos pasadas por una zona de la pantalla es la mitad y porque en un mismo intervalo de tiempo se iluminan doble cantidad de líneas y por tanto la 'ola' es más ancha, diluyéndose más en el resto de la imagen. Por razones de interferencias con la fuente de alimentación se elige la frecuencia de campo (semi-imagen) igual a la frecuencia de la red. Así en Europa son 50 campos/segundo, 25 imágenes/segundo y 625 líneas; y en USA, Canadá, Japón y otros países son 60 campos/segundo, 30 imágenes/segundo y 525 líneas. La frecuencia de línea y el periodo de línea en el sistema europeo son: f L = fimagen × N = 25 × 625 = 15655 Hz TL = 1 = 64 µ s fL El hecho de que el número de líneas sea impar requiere un análisis adicional. Si es así, durante ambas semi-imágenes los recorridos del barrido vertical son iguales, simplificando la circuitería, mientras que si es par entonces deben ser diferentes. La figura 9.34.a muestra el barrido entrelazado con un número impar de líneas horizontales y la figura 9.34.b con un número par. 9.30 Tecnología de los Contenidos Multimedia TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 (a) (b) Figura 9.34 (a) Número impar de líneas horizontales. (b) Número par de líneas horizontales Figura 9.35 Corrección gamma. La señal de TV transmitida desde la cámara se reproduce en el receptor de TV. La pantalla es un tubo de rayos catódicos y tiene una respuesta de luz no lineal en función de la señal eléctrica. Para que el comportamiento del conjunto cámara-receptor sea lineal hay que hacer una corrección, la corrección gamma. Si B es el brillo producido, E la señal aplicada y γ es la gamma del tubo en el receptor, entonces B ∝ E γ . En la cámara Bs es el brillo de la escena y Es la señal de salida de la cámara y γ s , la gamma del sensor, con Es ∝ Bsγ s Si la señal de la cámara se aplica directamente al receptor entonces el brillo reproducido satisface que Tecnología de los Contenidos Multimedia 9.31 TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 B ∝ Bsγ s×γ donde γ s × γ no es uno, es no lineal. Para que el sistema sea lineal debe corregirse la gamma a la salida de la cámara , tal y como ilustra la figura 9.35. Así la señal transmitida será γc Et = Es tal que γ s×γ c El brillo reproducido en el Et ∝ Bs receptor será entonces B ∝ Bsγ s×γ c×γ , y el sistema será lineal si γ s × γ c × γ = 1 . Sin embargo experimentalmente se ha encontrado que se obtiene una mayor calidad si la gamma del conjunto es de 1.2. Un valor de estándar para la gamma de los tubos de rayos catódicos es 2.8, por tanto la señal transmitida debe tener una gamma 0.43. El barrido de la imagen se realiza mediante líneas que son transmitidas en serie, es decir, secuencialmente. Cuando la señal llega al receptor, este debe tener algún medio para reconocer cuando comienza una línea y cuál es. Es decir, se debe sincronizar la exploración de la imagen hecha por la cámara con el barrido en el receptor. Si la imagen no está sincronizada el brillo de cada punto de la escena se reproduce en unas coordenadas distintas. La frecuencia de línea es fija por lo que los circuitos del receptor pueden mantener la misma velocidad de barrido que la cámara a lo largo de la línea. Para conseguir la sincronización basta transmitir al receptor una señal que indique cuando debe comenzar la línea. Además hay que transmitir una señal para indicar cuando comienza una nueva imagen. La señal de sincronismos son pulsos, y hay dos tipos: de línea y de campo. Se diferencian porque los pulsos de línea son más cortos y los de campo más anchos. Para transmitirlos se utiliza el mismo canal que para transmitir la imagen. Para insertar el sincronismo de línea se aprovecha el intervalo de tiempo que usa la cámara para retroceder desde el borde derecho, final de línea, hasta el izquierdo, principio de la línea siguiente, y el de campo se inserta durante el retroceso desde el borde inferior al borde superior de la pantalla. Para que el receptor detecte con facilidad los pulsos de sincronismo, éstos se insertan con un nivel de señal distinto al de la imagen. La amplitud pico a pico del pulso de sincronismo puede variar de un sistema a otro. Con todo ello se dispone de los elementos fundamentales de la señal de vídeo compuesta (SVC). La SVC está formada por la imagen, los sincronismos y algunas líneas vacías. En general depende de cada sistema de televisión. Para el sistema monocromo de 625 líneas y 25 imágenes por segundo utilizado en Europa distinguen tres niveles: blanco, negro, y nivel de sincronismo. La figura 9.36 muestra la SVC. 9.32 Tecnología de los Contenidos Multimedia TEMA 9. LA SEÑAL DE VÍDEO Figura 9.36 UNED - CURSO 2007-2008 Señal de vídeo compuesta E1 margen dinámico está normalizado a 1 voltio, tal que el nivel de blanco es 1 Voltio, el de negro 0.3 Voltios y el de sincronismo 0 Voltios. Cuando es necesario un origen para la medida de tiempos se toma el flanco descendente del pulso de sincronismo. El sincronismo debe considerarse en dos ejes, horizontal y vertical. El sincronismo de línea o sincronismo horizontal está formado por tres partes: 1.- El pórtico anterior (front porch), de 1.5 µs. Su función es permitir que la señal llegue al nivel de negro desde cualquier punto del margen de vídeo. 2.- Pulso de sincronismo, de 4,7 µs. Es la señal utilizada para el sincronismo. Como su ubicación en el tiempo coincide con el final de la línea, el flanco inicial activa el retorno del haz. 3.- Pórtico posterior, de 5.3 µs. Es el tiempo extra para el retorno del haz, con la finalidad de asegurar el correcto comienzo de la nueva línea. Como el intervalo de tiempo dedicado a una línea es de 64 µs, el reparto son 52 µs de imagen y 12 µs de sincronismo. (Obsérvese que los 11.5 µs se redondean a 12). El circuito de sincronismo horizontal detecta la presencia del pulso mediante un diferenciador que proporciona una salida que es un pico de tensión ante un flanco de bajada brusco. El sincronismo vertical también es conocido como sincronismo de imagen, de campo o de cuadro. Mientras que el sincronismo de línea se da cada 64 µs, el sincronismo de campo se da cada semi-imagen, es decir, cada 20 ms. Esta compuesto por una forma de onda como la mostrada en la figura 9.37 El pulso de sincronismo está formado por los 5 intervalos de media línea formando el equivalente a un pulso de larga duración fácilmente distinguible del sincronismo de línea. La figura 9.37 muestra la señal de TV según la norma CCIR de cuadro de 625 líneas y 50 campos. Tecnología de los Contenidos Multimedia 9.33 TEMA 9. LA SEÑAL DE VÍDEO Figura 9.37 UNED - CURSO 2007-2008 Señal de TV. Norma CCIR de cuadro de 625 líneas y 50 campos. El circuito para separar los sincronismos de campo de los de línea es un integrador seguido de un comparador de tensión. La figura 9.38 ilustra el sistema de sincronismo. Figura 9.38 Sistema de sincronismo. Los pulsos cortos de sincronismo horizontal a la salida del integrador no alcanzan el umbral mientras que el pulso de sincronismo vertical, debido a su mayor duración, produce a la salida una señal de mayor nivel. El pulso de sincronismo vertical está compuesto por cinco pulsos y no por uno sólo de duración igual a los cinco porque durante este tiempo es conveniente que el circuito de sincronismo horizontal no deje de funcionar. Por ello se necesita un flanco de bajada cada 64 µs. Dado que el ini- 9.34 Tecnología de los Contenidos Multimedia TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 cio del pulso de sincronismo vertical coincide en uno de los dos campos con la mitad de línea, es necesario un pulso cada 32 µs, en vez de cada 64 µs. El sincronismo vertical va precedido por 5 pulsos de 2.35 µs, llamados pulsos de preecualización. Como hay un número impar de líneas, en un campo el tiempo transcurrido entre el último pulso de sincronismo horizontal y el inicio del pulso de sincronismo vertical sería de 64 µs y en el otro campo de 32 µs. Esto afecta a las condiciones iniciales del integrador y es necesario que sean las mismas en los dos flancos iniciales del sincronismo vertical para que los tiempos sean iguales en ambos campos. Para ello el pulso de sincronismo vertical va precedido de los pulsos de preecualización. Los pulsos siguientes al pulso de sincronismo vertical se llaman de postecualización y permiten que las condiciones finales del integrador sean las mismas en los dos campos. Así el intervalo de sincronismo vertical se compone en total de 7.5 líneas y además hay 17,5 líneas vacías que no contienen información de imagen. A medida que ha ido avanzando la tecnología se han implementado nuevos servicios, como el teletexto, utilizando estas líneas vacías. La figura 9.39 muestra un sistema con 17 líneas (el número de líneas del sincronismo vertical así como otros valores no son reales por claridad). Figura 9.39 Señal de TV de un sistema con 17 líneas y exploración entrelazada Tecnología de los Contenidos Multimedia 9.35 TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 El ancho de banda de la señal de televisión en banda base va desde la componente continua a la frecuencia máxima determinada por las variaciones más pequeñas que contenga la imagen en sentido horizontal, ya que la exploración se hace mediante líneas horizontales. En los sistemas de televisión lo normal es que el tamaño de detalle horizontal y vertical sea el mismo. Para el sistema de 625 líneas, la resolución vertical real es: N × ra × K donde N = 625, ra es la relación entre el número de líneas activas y el total (575/625) y K es el factor de Kell, K= 0.7. Como la pantalla es más ancha, el número de líneas verticales debe ser A × N × ra × K siendo A la relación de aspecto (A = 4/3). Las líneas deben mostrarse en el tiempo activo de la línea t h × rl línea (64 µs) y rl , siendo el tiempo de el factor de línea activa (52/64). La figura 9.40 muestra un ejemplo de resolución vertical de 6 líneas, que con la relación de aspecto de 4/3 proporciona a igualdad de detalle una resolución horizontal de 8 líneas. Figura 9.40 Resolución vertical de 6 líneas. El número de periodos originados a lo largo de la línea horizontal es igual a la mitad de barras verticales. Por tanto la frecuencia de la señal es 1 nº periodos 2 Nra KA f = = tiempo th × rl 9.36 Tecnología de los Contenidos Multimedia TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 Como th = 1 1 = f h N × Fimagen entonces f = N 2 ra KAFimagen 2rl Teniendo en cuenta los valores N = 625; ra = 0.92; K = 0.7; A = 0.75; rl = 0.812 y Fimagen = 25 HZ, entonces f=5.163 MHz. En la práctica la señal de salida se filtra paso baja con frecuencia de corte 5 MHZ. En la actualidad se encuentran normalizados varios sistemas de TV monocromo. Los más importantes son: 1.- El sistema de 525 líneas, con 30 imágenes por segundo, utilizado en USA, Canadá, Japón y otros países. 2.- El de 625 líneas, con 25 imágenes por segundo, utilizado en Europa Las principales características de estos sistemas y otros obsoletos, como el británico de 405 líneas, se muestran en la tabla 9.1. Características Europeo Americano 625 1íneas 525 1íneas. N. líneas / imagen 625 525 Frecuencia de Imagen (Hz) 25 30 Frecuencia de campo (Hz) 50 60 Entrelazado 2-1 2-1 Relación de aspecto 4/3 4/3 Frecuencia de línea (Hz) 15625 15750 Periodo de línea (μs) 64 63.5 Periodo de linea activo (μs) 52 52.45 N. líneas activas/ imagen 575 483 Res. vertical (líneas) 402 340 Res. horizontal (líneas) 520 422 Modulación AM Nivel de negro (%) 75 75 Nivel de borrado (%) 75 75 Nivel de blanco (%) 10 15 Ancho de banda en RF 7/8 6 (MHz) Ancho de banda vestigio 0.75 0.75 (MHz) Modulación del sonido FM FM Separación intercarrier 5.5 4.5 (MHz) Tabla 9.1 Británico 625 1íneas. 625 25 50 2-1 4/3 15625 64 52 575 402 483 77 77 20 8 Británico Francés 405 1íneas. 819 1íneas. 405 819 25 25 50 50 2-1 2-1 4/3 4/3 10125 20475 98.8 48.84 80.42 39.32 375 751 264 527 372 786 35 25 30 25 100 100 5 14 1.25 1.25 2 FM +6 AM -3 AM -11 Características de diversos sistemas de TV monocromo. Tecnología de los Contenidos Multimedia 9.37 TEMA 9. LA SEÑAL DE VÍDEO 9.4 UNED - CURSO 2007-2008 LA TELEVISIÓN EN COLOR En la cámara de color el objetivo capta la imagen, que pasa a través de varios espejos dicroicos, de forma que se van separando los tres colores básicos que distingue el ojo humano. Así, se descompone la imagen en base al sistema de referencia RGB. Al final la luz llega a tres sensores que realizan la fotoconversión de las tres bandas de color y generan tres señales eléctricas. Después, la señal es transmitida. En el receptor se vuelve a componer la imagen, y se representa en la pantalla. Esta representación se hace por tríadas de puntos, cada uno genera un color primario. Estos puntos son los luminóforos. La estructura de tres luminóforos puede tener varias formas y se repite espacialmente hasta completar toda la pantalla. La figura 9.41 muestra un esquema de los Luminóforos de TV en color. Figura 9.41 Luminóforos de TV en color. La reproducción del color se basa en la mezcla por yuxtaposición espacial. Para que sea efectiva el espectador debe situarse a una distancia mínima de la pantalla para que el sistema visual integre la luz emitida por los luminóforos de las tríadas. Para representar una imagen se activan estos luminóforos en función del color que se deba visualizar. Por ejemplo, si se debe representar en la pantalla el color amarillo, se activarán los luminóforos verde y rojo. En el tubo de rayos catódicos de la TV en color hay tres cañones de electrones, correspondientes cada uno a uno de los tres colores primarios, los cuales hacen incidir su haz de electrones sobre su luminóforo correspondiente atravesando una máscara metálica perforada denominada máscara de sombra (shadow mask) colocada antes de la pantalla. La posición exacta de los haces y su desviación se realiza mediante la aplicación de dos campos magnéticos mediante sendos pares de bobinas que producen la deflexión de los haces, tanto en horizontal como en vertical. Desde el punto de vista del color lo importante es que el haz de electrones del cañón del rojo incida sobre los luminóforos rojos, y así sucesivamente para los otros dos cañones, si no es así, la reproducción del color será incorrecta. 9.38 Tecnología de los Contenidos Multimedia TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 Los tres haces de electrones recorren la pantalla sincronizadamente, y las tres señales de color son las encargadas de controlar la intensidad de cada uno de los haces y así, variar la luminosidad del color a reproducir en la pantalla.La figura 9.42 muestra un tubo de TV en color. Figura 9.42 Tubo de TV en color. En un principio un aspecto fundamental fue la compatibilidad, es decir, la señal transmitida en color debe poder ser visualizada en monitores en blanco y negro como gama de grises. También es importante la compatibilidad inversa que consiste en que los receptores en color puedan representar señales transmitidas en blanco y negro. Al considerar la compatibilidad no se podrán transmitir las tres componentes RGB, puesto que el receptor monocromo está preparado para recibir una única señal, la de brillo. Además, la señal que reciba debe ocupar el mismo ancho de banda, o lo que es lo mismo, debe estar ubicada en los canales en los que se ha dividido el espectro radioeléctrico. Por tanto, el sistema de TV en color debe transmitir la información de color para los receptores en color, pero al mismo tiempo debe enviar una señal que equivalga a la señal de brillo que está esperando el receptor monocromo ocupando la misma zona del espectro. Esta señal idéntica a la de monocromo es la luminancia, que indica el brillo para cada punto de la imagen. Además, se debe transmitir la información necesaria de color para que los receptores en color puedan visualizar la imagen original en color. Esta otra señal que lleva asociada la informa- Tecnología de los Contenidos Multimedia 9.39 TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 ción de color es la crominancia. En el análisis del color ya se han detallado las características de estas señales. Recuérdese que cuando la señal de TV es en blanco y negro la luminancia sale directamente de la luz recibida ya que la lente de la cámara en blanco y negro tiene una respuesta espectral igual a la sensibilidad del ojo. Con el color, la luminancia se obtiene ponderando las señales R, G y B por la sensibilidad relativa del ojo, en cada una de las bandas R, G y B, tal que la señal de luminancia es: Y=01299R+01587G+0'114B, Y ∈ [0,1] Para transmitir las señales de brillo y color hay varias alternativas: 1.- Transmitir la luminancia más dos de las tres componentes RGB. Por ejemplo, Y, R, G, o Y, R, B, etc. 2.- Transmitir la luminancia más dos de las diferencias R-Y, G-Y, B-Y. Por ejemplo, se podría transmitir Y, R-Y, G-Y o Y, R-Y, B-Y, etc. Con sólo transmitir dos de los tres componentes de color es suficiente, ya que la tercera se puede calcular a partir de la luminancia y las otras dos señales de color. Para analizar cuál de las dos es mejor se supone un ejemplo de compatibilidad inversa. Se emite una señal monocromo y es recibida por un monitor en color. Al ser una señal monocromo, imagen con un nivel de gris, las tres componentes de color son iguales, R = G = B = k donde k es una constante Con la primera opción se envía la luminancia y dos de color de entre R, G, B. Supóngase que se envía Y, R, G. La señal sería: Y = 0'3k + 0'56k + 0'1lk = k; R = k; G = k; El receptor en color, para recuperar R, G, B, debe aplicar las operaciones inversas, tal que las señales decodificadas serán: Rd = R = k ; Gd = G = k ; Bd = ( Y − 0.3R − 0.59G ) / 0.11 que es este caso es Bd = k . Si este receptor recibe el mismo nivel de gris desde una emisora monocromo, las señales transmitidas son: Y=K; R=0; G=0; y el receptor en color decodifica: Rd = R = 0; Gd = G = 0; 9.40 Bd = (Y − 0.3R − 0.59G ) / 0.11 = k / 0.11 = 9k Tecnología de los Contenidos Multimedia TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 que es un color azul y no gris como se esperaba. Con la segunda posibilidad R = G = B = k donde k es una constante. Por lo tanto la luminancia seguirá teniendo el mismo valor: Y = 0'3k + 0'56k + 0'1lk = k y las señales a transmitir serán Y = K; (R - Y) = 0; (G - Y) = 0 no habiendo diferencias en transmitir las señales desde una emisora en blanco y negro y desde una en color. La decodificación del receptor será: y para obtener Bd se calcula la señal (B-Y)d a partir de las señales transmitidas (R-Y) y (G-Y). Para ello se expresa la luminancia de la siguiente forma: 0'3(R-Y)+0'59(G-Y)+0'1 I(B-Y) = 0 por tanto ( B − Y )d = − 0 '3( R - Y ) + 0'59(G - Y ) 0.11 y Bd = (B-Y)d + Y = B Para el caso de la señal gris en que R = G = B = k las componentes de color decodificadas serían: Rd = (R-Y) + Y = k Gd = (G-Y) + Y = k Bd = (B-Y) + Y = k y por tanto el receptor habría decodificado correctamente. En conclusión las señales que deben utilizarse para transmitir son: la luminancia y dos de las diferencias R-Y, G-Y, B-Y Por último debe determinarse qué dos componentes de color deben transmitirse. Para ello se analiza una carta de colores como la que se muestra en la tabla 9.2. Una carta de colores es un conjunto de colores primarios y complementarios a distintos grados de saturación para observar los valores de las señales. Tecnología de los Contenidos Multimedia 9.41 TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 Puede observarse que las componentes R-Y y B-Y son siempre mayores que la componente G-Y. Esto es preferible teniendo en cuenta la relación señal/ruido. Por tanto, la señal de crominancia transmitida está formada por R-Y y B-Y. En conclusión la señal transmitida es Y, R-Y y B-Y. Blanco Gris Rojo Saturado (muy brillante) Rojo Saturado (menos brillante) Rojo no Saturado Verde Saturado Azul Saturado Cyan Saturado Magenta Saturado Amarillo Saturado R 1 0.2 1 0.5 1 0 0 0 1 1 G 1 0.2 0 0 0.5 1 0 1 0 1 B 1 0.2 0 0 0.5 0 1 1 1 0 Y 1 0.2 0.3 0.15 0.65 0.59 0.11 0.7 0.89 0.89 Tabla 9.2 Carta de colores. 9.5 TRANSMISIÓN DE LA SEÑAL DE CROMINANCIA R-Y 0 0 0.7 0.35 0.35 -0.59 -0.11 -0.7 -0.11 -0.11 G-Y 0 0 -0.3 -0.15 -0.15 0.41 -0.11 0.3 0.11 0.11 B-Y 0 0 -0.3 -0.15 -0.15 -0.59 0.89 0.3 -0.59 -0.89 La compatibilidad directa e inversa obliga a considerar la necesidad de ubicar en el canal asignado a la televisión en B/N la información de color. Debe tenerse en cuenta que sólo se puede ocupar el ancho de banda utilizado por la señal monocromo. Al realizar un análisis espectral de la señal de vídeo compuesta, se observa que la señal de luminancia es cuasiperiódica, porque no varía mucho de una línea a otra, de período T = 64 µs. El espectro de una señal cuasiperiódica está formado por lo que se pueden considerar deltas (no lo son exactamente) situadas en múltiplos de la frecuencia fundamental. Por tanto, el espectro de la señal de luminancia presentará grupos de deltas concentrados en múltiplos de la frecuencia de línea. Además, también se puede comprobar que la señal no varía mucho de un campo a otro, por lo que también se puede considerar cuasiperiódica con período T = 20 ms, lo que en el espectro se reflejará en la aparición de rayas separadas múltiplos de 50 Hz (50 campos/seg.) respecto a las secuencias de línea. La figura 9.43 muestra el espectro de la señal de vídeo compuesto. El espectro está formado por paquetes de componentes centrados en múltiplos de la frecuencia de línea, con grandes espacios libres de energía, situados en torno a múltiplos impares de la mitad de la frecuencia de línea. Además, la amplitud de los paquetes es menor a medida que aumenta la frecuencia, a menos que la imagen observada se componga de rayas muy finas de niveles de brillo distintos y que, por lo tanto, tenga un gran contenido en altas frecuencias, caso poco habitual. 9.42 Tecnología de los Contenidos Multimedia TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 La forma de este espectro viene determinada en gran medida por el barrido y los sincronismos de línea y de campo. Figura 9.43 Espectro de luminancia. Por tanto, como la crominancia también está sometida a este barrido, tendrá un espectro parecido, con lo que si se suman directamente luminancia y crominancia se solaparán ambas informaciones. La solución es modular (desplazar en frecuencia) la crominancia para ubicarla en los huecos que deja la luminancia. A este proceso se le denomina imbricación de espectros. El ancho de banda de la señal de luminancia es de 5 MHz. Como el ojo humano es más sensible al brillo que al color, se comprueba subjetivamente que la crominancia necesita entre 0.5 y 1.5 MHz, ya que el ojo humano no es capaz de distinguir más. La figura 9.44 muestra la relación de los anchos de banda. Figura 9.44 Ancho de banda de luminancia y crominancia.. Para colocar la señal de crominancia en el mismo ancho de banda que ocupa la luminancia, sin que interfiera con ésta debe tenerse en cuenta que la luminancia no puede alterarse por la necesidad de compatibilidad. Por tanto tendrá que modificarse la crominancia. Esta modificación con- Tecnología de los Contenidos Multimedia 9.43 TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 siste en una modulación por lo que se necesitará una portadora de color, conocida como subportadora de color. Una vez realizada la imbricación de espectros se procederá a la modulación de toda la señal de TV. La figura 9.45 muestra un ejemplo de imbricación, concretamente para el sistema utilizado en la mayoría de los países europeos, en el que se aprecia cómo la crominancia se encuentra modulada con una subportadora de 4,43 Mhz por lo que su espectro no interfiere al de la luminancia, ya que se compone de paquetes de energía situados en los huecos que deja la luminancia. Figura 9.45 Imbricación de espectros. 9.6 SEÑAL DE COLOR COMPUESTA. La señal de color compuesta es la suma de las señales de luminancia y crominancia incluyendo los sincronismos. El estudio de la señal de color compuesta se basa en las barras de color estándar. Estas son bien conocidas puesto que son las utilizadas en la carta de ajuste. Se ordenan según luminancia decreciente: blanco, amarillo, turquesa, verde, magenta, rojo, azul y negro. Se analiza cada barra calculando las amplitudes de luminancia y crominancia por separado. Seguidamente se suman ambas amplitudes y se añaden los sincronismos y una señal que se coloca en el pórtico posterior del sincronismo de línea y lleva información de la subportadora de color. Esta señal se denomina burst. Para desarrollar la señal de vídeo compuesta se calculan las señales de cada barra al 100% se saturación y de amplitud. Los cálculos para cada barra son los siguientes. 9.44 Tecnología de los Contenidos Multimedia TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 Para la barra blanca R=1; B=1; G=1. La luminancia es Y = 0.3×1 + 0.59×1 + 0.11×1 =1 y la crominancia R - Y = B - Y = 1 - 1 = 0. Como ambas componentes son nulas, la modulación en cuadratura también es nula. Para la amarilla R=1; B=0; G=1. La luminancia es Y = 0.3×1 + 0.59×1 + 0.11×0 = 0.89.La crominancia es R-Y= 1 - 0.89=0.11, B - Y = 0 - 0.89 = -0.89. Por tanto el módulo de la señal de crominancia es C = −0.892 + 0.112 = 0.9 Para la barra turquesa R=0; B=1 ; G = 1, la luminancia Y=0.3×0+0.59×1+0.11×1=0.7 y la crominancia R - Y = 0-0.7=-0'7, B-Y=1-0'7= 0'3 y el módulo de la señal de crominancia es: C = −0.72 + 0.32 = 0.76 Así sucesivamente se calculan todos los valores de las barras. El resultado final se muestra en la tabla 9.3. Tabla 9.3 Barras Y B-Y R-Y C Blanco Amarillo Turquesa Verde Magenta Rojo Azul Negro 1 0.89 0.70 0.59 0.41 0.30 0.11 0 0 -0.89 0.30 -0.59 0.59 -0.30 0.89 0 0 0.11 -0.70 -0.59 0.59 0.70 -0.11 0 0 0.90 0.76 0.83 0.83 0.76 0.90 0 Parámetros de las barras de color. Con estos valores se produce una invasión de la zona reservada para los sincronismos y además una sobremodulación en radiofrecuencia. Es decir, algunas barras de color como el amarillo, el magenta, el azul, etc. superan el margen dinámico permitido para la señal de vídeo compuesta. Para evitarlo se aplica una transformación a la crominancia, Esta transformación consiste en reducir la amplitud de la crominancia ya que la luminancia no puede modificarse por razones de compatibilidad. Para que no quede muy reducida se establece una solución de compromiso consistente en permitir un margen dinámico mayor a la señal de color que a la señal monocroma. Este nuevo margen es un 33 % mayor tanto en amplitudes positivas como negativas, pasando a ser el margen dinámico de (0,1) a (-0.33,1.33). Para reducir la crominancia se utilizan factores de ponderación. Con ellos se consigue que Y± C esté dentro del margen permitido (-0.33,1.33). Con ello en lugar de (B-Y) y (R-Y) se uti- Tecnología de los Contenidos Multimedia 9.45 TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 lizan estos parámetros modificados por los factores de ponderación a×(B-Y) y b×(R-Y) donde a y b son los factores de ponderación. Para calcular los factores de ponderación debe tenerse en cuenta que la crominancia y la luminancia no deben exceder el margen dinámico, por tanto Y+ C = 1.33 y Y- C = 0.33. La nueva crominancia con los nuevos factores de ponderación será: C = a ( B − Y ) + b ( R − Y ) 2 2 Para calcular los factores de ponderación se sustituyen los datos de las barras azul y roja porque son las que más sobrepasan el margen dinámico. Para la barra azul: R = 0 ; G = 0 ; B = 1, Y =0.3×0 + 0.59×0 + 0.11×1 = 0'11, con lo que se debe cumplir Y- C >-0.33. Por tanto 0.11- C ≥-0.33 y C ≤ 0.44. Sustituyendo el máximo valor C = 0.44 = [ a × 0.89]2 + b × ( −0.11) 2 entonces se obtiene la ecuación 0.442 = [ a × 0.89] + b × ( −0.11) 2 2 Análogamente para la barra roja R=1; G=0; B=0; Y = 0.3×1 + 0.59 × 0+ 0.11 × 0 = 0.3, con lo que se debe cumplir que Y - C ≥-0.33, C entonces ≤ 0.63. Sustituyendo el máximo valor C = 0.63 = a × ( −0.3) + [b × 0.7 ] 2 2 entonces 0.632 = a × ( −0.3) + [b × 0.7 ] 2 2 Con esto se tiene un sistema de dos ecuaciones con dos incógnitas, que resolviendo se obtienen los factores de ponderación a y b: a = 0.493; b=0.877 9.46 Tecnología de los Contenidos Multimedia TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 Con estos factores de ponderación la señal de crominancia se define con unas nuevas componentes, denominadas YUV, en las que: U = a(B-Y) = 0.493 (B-Y); V= b(R-Y) = 0.877 (R-Y) con lo que el módulo de la crominancia es C = U 2 +V 2 Las barras con U = 0.493 (B-Y) y V = 0.877 (R-Y) para un sistema de TV se muestran en la tabla 9.4. Barras Blanco Amarillo Turquesa Verde Magenta Rojo Azul Negro Tabla 9.4 Y B-Y R-Y U V C 1 0.89 0.70 0.59 0.41 0.30 0.11 0 0 -0.89 0.30 -0.59 0.59 -0.30 0.89 0 0 0.11 -0.70 -0.59 0.59 0.70 -0.11 0 0 -0.4388 0.1479 -0.2909 0.2909 -0.1479 0.4388 0 0 -0.0965 -0.6139 -0.5174 0.5174 0.6139 0.0965 0 0 0,90 0.76 0.83 0.83 0.76 0.90 0 Ángulo de crominancia (líneas NTSC) 167º 283º 241º 61º 103º 347º - Barras de colores del sistema YUV. Un sistema diferente de barra de colores es el sistema UER, en el que la amplitud de las barras de color se fija en el 75% de amplitud manteniendo la barra blanca a 100%. La saturación para todos los casos es del 100% al igual que en el caso anterior. La tabla 9.5 muestra los datos del sistema YUV para el sistema UER. Barras Blanco Amarillo Turquesa Verde Magenta Rojo Azul Negro Tabla 9.5 R G B 1 1 1 0.75 0.75 0 0 0.75 0.75 0 0.75 0 0.75 0 0.75 0.75 0 0 0 0 0.75 0 0 0 Y B-Y R-Y C 1 0.664 0.526 0.440 0.310 0.224 0'086 0 0 -0.664 0.224 -0.440 0.440 0.224 0'664 0 0 0.085 -0.526 -0.440 0.440 0.526 -0.086 0 0 0.336 0.474 0.443 0.443 0.474 0.336 0 Fase de las líneas n n+1 167.1 192.0 283.5 76.5 240.7 119.3 60.7 299.3 103.5 256.5 347.1 12.9 0 0 Sistema UER. Como puede observarse en la tabla, dos colores complementarios, como por ejemplo el azul y el amarillo, o el verde y el magenta, tienen fases opuestas; es decir, si el vector que representa uno de ellos tiene fase n el otro tiene fase n+180. Sin embargo, la amplitud (módulo) de los vectores asociados a dos colores complementarios son iguales. Esto refleja el hecho de que al mezclar dos Tecnología de los Contenidos Multimedia 9.47 TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 colores complementarios de igual amplitud y saturación, el color resultante es el blanco, es decir, un vector de módulo cero. A partir de esta tabla se obtiene el diagrama vectorial de los colores en función de las componentes U y V que definen la crominancia. La figura 9.46 muestra este diagrama. Figura 9.46 Diagrama vectorial de colores. 9.7 RAZÓN O RELACIÓN DE ASPECTO La razón o relación de aspecto de la imagen se define como el cociente entre la anchura y la altura de la ventana. Cuando se definieron los primeros sistemas de televisión comercial en blanco y negro, se eligió una relación de aspecto que coincidía con la utilizada en el cine. En la época en que se definió la televisión la relación de aspecto utilizada en el cine era 4:3, es decir, la altura de la pantalla es tres cuartas partes de su anchura. Este formato es utilizado por todos los sistemas de TV en color analógicos definidos durante los años 50 y 60: NTSC, PAL y SECAM y sólo recientemente se han propuesto algunos sistemas con una relación de aspecto distinta. Uno de los parámetros directamente relacionados con la relación de aspecto es la medida de la diagonal que se utiliza para indicar el tamaño de los monitores. Así, un monitor de 29'' (29 pulgadas) es aquel cuya longitud de la diagonal de la pantalla es 29''. Como la suma de los cuadrados de las proporciones entre la altura y la anchura es un cuadrado perfecto, es inmediato relacionar la altura, la anchura y la diagonal del monitor. En efecto, la anchura y la altura pueden determinarse como 4/5 y 3/5 partes de la diagonal respectivamente, ya que esta última mantiene un factor de proporcionalidad igual a 5. Así, en un televisor de 29'' la diagonal mide 29''×2,54 cm/pulgada=73,6 cm. Por tanto la altura es de 73,6cm×3/5=44 cm y la anchura mide 73,6×4/5=59 cm. 9.48 Tecnología de los Contenidos Multimedia TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 Las relaciones de aspecto utilizadas en el cine experimentaron un importante cambio con la introducción de los formatos panorámicos. A principios de los años 50 se empiezan a introducir formatos cinematográficos con relaciones de aspecto más anchas que la 4:3 (1,33:1). En Estados Unidos destaca el formato de la Academia, con una relación de aspecto de 1,85:1; mientras que en Europa se utilizan principalmente dos formatos con relaciones de aspecto 1,67:1 y 1,75:1. Todos estos formatos mantenían el mismo tipo de película que el formato 1,33:1, limitando la apertura vertical y utilizando lentes de menor distancia focal en la proyección para que la anchura de la proyección fuera mayor. Todos estos formatos se adaptan mejor al campo de visión humano y permiten que se integre mucho más en la escena, aumentando su realismo. En 1953 se introduce el Cinemascope, que introduce un sistema con lentes anamórficas, que esencialmente consisten en un sistema óptico que durante el registro de la película comprime las imágenes en la dirección horizontal. Durante la proyección de la película deben usarse unas lentes inversas, que expanden la imagen en el sentido horizontal, recuperando el aspecto original de los objetos. La relación de aspecto obtenida con este sistema es de 2,35:1. Evidentemente, aunque no es apreciable por el espectador, la resolución en sentido vertical es mayor que en sentido horizontal, ya que este último ha sido más ampliado por la lente que el primero. Este método permitía seguir empleando el mismo tipo de película e incluso las mismas cámaras y proyectores con el cambio de lente. En 1963 apareció el Cinerama moderno (hubo uno anteriormente que no tuvo éxito) con un sistema de lentes anamórficas parecidas al Cinemascope, registrando la información en una película de 70 mm de anchura y utilizando una relación de aspecto de 2,75:1. El formato estándar de 70 mm había sido introducido previamente en 1955 por Todd-AO Productions con las películas Oklahoma! (1955) y La vuelta al mundo en 80 días (1956). La relación de aspecto utilizada en 70 mm es de 2,20:1. El primer sistema de cine envolvente se instaló en 1955 en el parque de atracciones de Disneyland y combinaba once películas de 16 mm en un sistema de proyección sincronizada parecido al Cinerama original. Posteriormente el sistema se modificó utilizando nueve proyectores con películas de 35 mm. Algunos sistemas, como el IMAX, con superficies de pantalla extremadamente grandes (IMAXPort Vell, 600 m2), utilizan relaciones de aspecto donde la altura de la pantalla es comparable o superior a la anchura. El gran número de relaciones de aspecto empleadas en los distintos formatos de cine provocó que se iniciaran estudios para analizar cuál es la relación de aspecto ideal. La NHK, organismo de radiodifusión de Japón, durante el desarrollo del sistema de televisión de alta definición analógico MUSE, elaboró una serie de experimentos subjetivos para averiguarlo. La BBC y el SMPTE (Society of Motion Picture and Televisión Engineers) desarrollaron experimentos similares en los que en general se observa que las preferencias del espectador dependen del tamaño de Tecnología de los Contenidos Multimedia 9.49 TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 la imagen. Se observa que cuando el área de proyección aumenta el espectador tiende a exigir un formato más panorámico, lo que justifica el uso de formatos más panorámicos en cine que en televisión. Si sigue aumentándose el área de proyección, se llega a un punto en que los formatos panorámicos saturan y son poco agradables. Los resultados obtenidos por la NHK indican que la relación de aspecto que puede considerarse como ideal es de 15:9 (1,67:1), que coincide con el formato cinematográfico definido en Europa en la década de los 50. Sin embargo, la relación de aspecto que eligió la NHK, y que actualmente es aceptada por todos los organismos internacionales como idónea en sistemas con definición mejorada o alta definición, es de 16:9. Esta relación de aspecto es parecida a la 15:9 y ofrece importantes ventajas de compatibilidad con distintos formatos cinematográficos y con la relación 4:3 utilizada en TV convencional. Es muy parecida al formato de la Academia y al Europeo, por lo que este tipo de películas podrán adaptarse casi sin zonas muertas en la pantalla. Los formatos panorámicos, sobre todo el Cinerama y el Cinemascope son excesivamente anchos y estas películas deberán transmitirse con bandas negras en la parte superior o inferior de la pantalla o cortando los laterales. No obstante, actualmente el Cinerama y el Cinemascope prácticamente ya no se utilizan por lo que, para películas nuevas el único formato que seguirá manteniendo baja compatibilidad con la televisión 16:9 será el de 70 mm. Otra de las razones por la que se eligió la relación 16:9 en los sistemas de TV de alta definición o sistemas de definición mejorada como el PALplus es que este formato mantiene una relación cuadrática con el formato convencional 4:3, que puede utilizarse para presentar simultáneamente varias imágenes 4:3 en una pantalla 16:9. Así, un espectador puede visualizar simultáneamente hasta 4 programas en formato 4:3, sin que se produzca ninguna pérdida de información. El canal principal ocupa tres cuartas partes de la pantalla mientras en uno de los laterales se presentan tres canales auxiliares que pueden monitorizarse para ver la programación o esperar un evento concreto. Lamentablemente, aunque este fue uno de los criterios más importantes en la selección del formato panorámico de 16:9, prácticamente ningún receptor panorámico incorpora la opción de visualizar cuatro canales simultáneamente, porque aumenta considerablemente el precio al requerir cuatro sintonizadores y demoduladores distintos. En la práctica, los receptores de gama alta incorporan, a lo sumo, un doble sintonizador que permite visualizar un canal principal y sólo uno auxiliar. 9.8 LA FRECUENCIA DE IMAGEN En principio basta con unas veinte imágenes por segundo para reproducir el movimiento de los objetos mientras que, con los niveles de iluminación utilizados en cine y televisión, se requieren más de 40 imágenes por segundo para que no aparezca el parpadeo. Una solución trivial al problema consiste en elegir un número de imágenes por segundo superior a 40, con lo que se cubren 9.50 Tecnología de los Contenidos Multimedia TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 ampliamente ambas necesidades. Sin embargo el precio del celuloide es un factor considerable del presupuesto. En televisión el problema afecta al ancho de banda de la señal. La solución adoptada en el cine también se utilizó para reducir el ancho de banda en la señal de televisión. En el cine actual se realizan 24 fotogramas por segundo, lo que es más que suficiente para proporcionar una correcta sensación de movimiento continuado. Sin embargo, la presentación directa de estos fotogramas produciría una sensación de parpadeo notable. La solución al problema consiste en presentar dos veces cada fotograma, con lo que, al doblar la frecuencia de disparo se obtiene una sensación de uniformidad en la iluminación de la pantalla. Algunos sistemas de cine han utilizado un número mayor de fotogramas por segundo. Un ejemplo son las primeras películas producidas en formato de 70 mm que utilizaron 30 fotogramas por segundo, aunque posteriormente se volvió a los 24 fotogramas convencionales. A principios de la década de los 80 apareció el sistema Showscan que utiliza 60 fotogramas por segundo. Este sistema se utiliza únicamente para documentales en salas de proyección especiales y ha tenido poco éxito. La solución adoptada al definir los primeros sistemas de TV comerciales siguió la misma idea. Para simplificar el funcionamiento de algunos subsistemas, la frecuencia de imagen se hizo coincidir con la mitad de la frecuencia de red. Por tanto, en países como Estados Unidos o Japón se transmiten 30 imágenes por segundo mientras en Europa se utilizan 25. Ambos valores son suficientes para garantizar un flujo de información que permita reconstruir correctamente el movimiento de los objetos. La selección de submúltiplos de la frecuencia de red se debe principalmente a dos motivos que permitieron simplificar bastante los primeros diseños. Por una parte, la frecuencia de red se mantiene bastante estable, lo que permite que varios equipos la utilicen como patrón o señal de referencia común. Así, cuando en un estudio de TV operan simultáneamente varias cámaras es necesario que éstas realicen un muestreo sincronizado de las imágenes para que pueda conmutarse entre distintas cámaras sin que se produzcan pérdidas de información. Otra ventaja derivada del uso de un submúltiplo de la frecuencia de red es que de este modo conseguía minimizarse el efecto visual que producía la interferencia de la señal de red en la pantalla de televisión. 9.9 EL SISTEMA NTSC El sistema NTSC fue desarrollado en USA por el National Television System Committe (NTSC), y su puesta en mmarcha se produjo en el año 1953. Las características básicas del sistema NTSC son: • 525 líneas. • Ancho de banda de vídeo: 4 MHz. • Frecuencia de línea: 30 imágenes / segundo × 525 líneas / imagen = 15750 Hz. • Portadora de sonido relativa a la de vídeo: 4'5 MHz • Modulación de la portadora de vídeo: AM. negativa. Tecnología de los Contenidos Multimedia 9.51 TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 • Modulación de la portadora de sonido: FM. • Ancho de banda del canal: 6 MHz. Los experimentos desarrollados por el NTSC demostraron que el ojo humano tiene en relación con el color una mayor resolución en el eje del naranja-cian que en el del magenta-verde. Por ello se estableció tratar con un sistema de coordenadas basado en estos dos ejes, llamando I (In phase) a la componente del color en el eje naranja-cian y Q (Quadrature) a la componente del color en el eje magenta-verde. La figura 9.47 muestra este sistema de coordenadas. Como puede observarse es el diagrama vectorial de la tabla 9.46 girados 33º en sentido contrario a las agujas del reloj. Figura 9.47 Sistema de coordenadas NTSC. Puesto que el ojo tiene mayor agudeza visual para unos colores que para otros es natural asignar mayor ancho de banda en las zonas donde hay más resolución. Por ello el NTSC limita el ancho de banda de la componente I a 1.5 MHZ, que es donde el ojo es más sensible, y limita a 0.5 MHz el ancho de banda de la componente Q, donde el ojo tiene menor resolución. Las componentes I y Q y las básicas U y V, se relacionan mediante una rotación de 33º, con lo que la transformación es: I cos 33º − sin 33º U 0.84 −0.54 U Q = sin 33º cos 33º V = 0.54 0.84 V y en función de los primarios V = 0.877(R-Y) U = 0.493(B-Y) resulta: 9.52 Tecnología de los Contenidos Multimedia TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 I 0.84 −0.54 0.877( R - Y ) 0.736 −0.268 ( R - Y ) Q = 0.54 0.84 0.493( B - Y ) = 0.478 0.413 ( B - Y ) Por tanto las tres señales a transmitir en el sistema NTSC son: • luminancia: Y = 0.30R + 0.59G + 0.11B • crominancia, con las componentes: en fase: I = 0.736(R-Y) - 0.268(B-Y) = 0.60R - 0.268G - 0.32B en cuadratura: Q = 0.478(R-Y) + 0.13(B-Y) = 0.21R - 0.52G - 0.31B El problema fundamental del sistema NTSC son los errores de tono. En el decodificador debe tratarse la subportadora de color y para ello un oscilador debe sincronizar en fase correctamente con la fase de referencia transmitida en la señal (en el burst). Si la sincronización se realiza con cierto error entonces se producirá una rotación de los vectores recibidos, es decir de los colores. Entonces se producen diferencias entre la fase del color emitido y la del color decodificado en el receptor, es decir, se produce un error en el tono del color representado. Los receptores NTSC incorporan un control electrónico denominado "Hue" que permite corregir estos errores de fase, utilizando para ello algún color de referencia claramente distinguible e invariante, como el color "de la piel". Si el error se debe a fallos en el oscilador del receptor entonces es estático y se corrige mediante el Hue, pero si se debe a la propia señal no puede solucionarse. La señal es emitida y recorre una gran distancia con distintas operaciones sobre la misma, y por ello es normal que se den desfases en la subportadora de color. Además estos desfases no tienen por qué afectar a toda la señal de color ya que el desfase introducido en cada punto depende de la luminancia de la señal en ese punto. Este es un problema importante porque el ojo humano es muy sensible a estos cambios de fase. Es capaz de detectar errores de fase de 5º y para desfases de 10º es muy molesto. 9.10 EL SISTEMA PAL El sistema PAL PAL (Phase Alternation Line) soluciona el problema de los errores de tono del NTSC invirtiendo (alternando) una de sus componentes de crominancia cada dos líneas. El sistema fue diseñado por Bruch en 1963 en los laboratorios de Telefunken. Se utiliza en Europa Occidental, excepto Francia, mientras que puede encontrarse en Sudamérica al igual que el NTSC. El sistema PAL utiliza R-Y, B-Y (U y V) asignando a las dos componentes de crominancia el mismo ancho de banda, de 1 a 1.3 MHz. La componente R-Y se va invirtiendo 180º una línea sí y una no de manera que la expresión de la crominancia modulada en QAM es: Tecnología de los Contenidos Multimedia 9.53 TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 C = 0.493 ( B − Y ) cos (ω t ) ± 0.877 ( R − Y ) sen (ωt ) en donde el signo ± conmuta cada línea. El receptor detecta si el color que recibe tiene la componente V invertida o no por una modificación del burst, desfasando la señal de burst una línea a 45º y otra línea a -45º alternativamente. Así las fases son 135º (180º - 45º) para +V y 225º (180º + 45º) para -V. El receptor detecta si se trata de una línea normal o de una línea con la componente V invertida en función de si es +45º o -45º. Esta variación no afecta a la decodificación del color, porque el receptor sigue tomando como fase de referencia los 180º, ya que está dotado de un filtro que desecha las variaciones rápidas de + 45º, que tan sólo se usan para detectar qué tipo de línea se está recibiendo. El vector de crominancia varía lentamente de línea a línea. Por ello si se representan los vectores de dos líneas sucesivas serán casi idénticos, tal y como se ilustra en la figura 9.48. Figura 9.48 Vectores de crominancia transmitidos. vector de crominancia transmitido en la línea n. vector de crominancia transmitido en la línea n+l (componente R-Y invertida). Figura 9.49 Decodificador PAL. 9.54 Tecnología de los Contenidos Multimedia TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 La figura 9.49 muestra el decodificador PAL del receptor en que se recuperan las componentes de crominancia. La señal recibida pasa por una línea de retardo y luego se suma y se resta con la señal sin retardar. Se demodulan las salidas del sumador y restador con lo que U es la componente en fase y V la componente en cuadratura. La señal modulada en la línea n es U + V, en la línea n+1 es U - V y en la línea n+2 es U + V. Por tanto la señal retardada durante la línea n+1 es U + V y la señal retardada durante la línea n+2 es U - V. En la línea n+1 la salida del sumador y del restador están formadas por la línea retardada (U + V) y la actual (U - V), sumando y restando respectivamente. Por tanto: la salida sumador = (U + V) + (U - V) = 2U la salida restador = (U + V) - (U - V) = 2V En la línea n+2 con signo cambiado: la salida sumador = (U - V) + (U + V) = 2U la salida restador = (U - V) - (U + V) = -2V y así sucesivamente para las siguientes líneas, con lo que se separan las componentes de crominancia. Por último se demodula. A la salida del sumador se demodula, con lo que se extrae la componente en fase de la salida del sumador (U), eliminando la componente en cuadratura (V). De esta forma, si la salida del sumador tiene parte de la señal de V, como está en cuadratura, el demodulador U lo eliminará. El demodulador de V se comporta de forma equivalente, dejando pasar la componente en cuadratura (V) y eliminando la de fase (U). Al utilizar la crominancia de dos líneas para representar la crominancia de una línea en el receptor, se produce una disminución en la resolución vertical del color. Sin embargo, esta disminución no es apreciable si la comparamos con el filtrado paso baja que se realiza sobre la crominancia (de 5 a 1 MHz), que produce una disminución en la resolución horizontal mucho más significativa que esta pérdida de resolución vertical. (a) Figura 9.50 (b) (a) Vectores de crominancia transmitidos y recibidos. Tecnología de los Contenidos Multimedia 9.55 TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 La situación analizada corresponde a una situación ideal en la que se producen errores en la transmisión. Sin embargo, si se produce un error en fase, como los que presentaban problemas en el sistema NTSC, entonces los vectores recibidos son Cn ≡ vector de crominancia transmitido en la línea n, Cn+1 ≡ vector de crominancia transmitido en la línea n+l (componente R-Y invertida), Cr,n ≡ vector de crominancia recibido en la línea n, Cr,n+1 ≡ vector de crominancia recibido en la línea n+l tal y como se ilustra en la figura 9.50.a. La figura 9.50.b muestra los vectores recibidos deshaciendo la inversión de la componente R-Y del vector Cr,n+1. Sumándolos se obtiene un vector con la misma dirección que Cn y Cn+1, es decir, en el receptor se ha corregido el error de fase producido durante la transmisión. Por tanto, un error de fase no se traduce en un error de tono. Sin embargo esto se realiza modificando la saturación, ya que al sumar Cr,n y Cr,n+1 se obtiene 2C cos α , siendo α el ángulo entre ellos. Por tanto, si se transn mite un vector C, y se recibe otro desfasado a para el receptor es como si se recibiera el vector C n cos α es decir, el mismo tono pero con una saturación menor o igual dependiendo de a. Por ejemplo, para α = 10º, la saturación se reduce un 1.5 %. 9.11 EL SISTEMA PALPLUS El PALplus es un sistema desarrollado para mejorar el sistema PAL, permitiendo una transición suave entre la TV. Clásica y la de alta definición. La mejora del PALplus consiste en ampliar la razón de aspecto de la imagen de TV de 4:3 a 16:9 manteniendo la resolución de 575 líneas activas. De esta forma se consiguen imágenes más apaisadas, lo que se aproxima mejor al campo visual humano. El objetivo fundamental de PALplus es conseguir mejorar la calidad de la imagen, apaisándola, y manteniendo un formato compatible con el clásico. Los requisitos del sistema PALplus son: • "Reproducción de la imagen en formato 16:9. • "Compatibilidad con el PAL estándar. • "Mejorar la calidad de la imagen. • "Mejorar la calidad del sonido. En 1990, un grupo formado por cadenas de TV de distintos países como la BBC, UKIB (Reino Unido), ORF (Austria), SRG (Suiza), ARD y ZDF (Alemania), IRT (Institut für Rundfunktechnik, Alemania) y fabricantes europeos como Grunding, Nokia, Philips y Thomson, empezaron a diseñar el sistema con el fin de que estuviese en funcionamiento en 1995. La rapidez del desarrollo permitió que las primeras emisiones en PALplus se realizaran a mediados de 1994. En España también se han realizado emisiones en PALplus, como por ejemplo en TVE, Canal Sur, TV3 y Canal 9. 9.56 Tecnología de los Contenidos Multimedia TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 Para que el sistema PALplus aumente la calidad de la imagen la cámara debe tener una superficie fotosensible con razón de aspecto de 16:9 y debe proyectarse en un receptor con una pantalla de razón de aspecto 16:9. Pero además, el sistema debe ser compatible con el PAL existente. Para cambiar la razón de aspecto de una imagen de tamaño ancho, 16:9, a una de razón 4:3 se puede optar por dos tipos de adaptaciones, que se ilustran en la figura 9.51. 1.- El formato letterbox. Mantiene la anchura de la imagen de 16:9 en la de 4:3, apareciendo dos franjas negras, una arriba y otra debajo de la imagen 2.- El formato panscan. Mantiene la altura de la imagen de 16:9 en la de 4:3 teniendo que eliminar zonas laterales de la imagen. Figura 9.51 Formatos de cambio de una imagen 16.9 a una imagen 4:3 Estas diferentes adaptaciones son las que se utilizan también para pasar una película de cine a imagen de televisión, transformación para la que se utiliza un aparato llamado telecine. La única diferencia con respecto al cambio de razón de aspecto es que un telecine transforma imágenes de razones de aspecto que varían desde 2.2:1 hasta 16:9 (razones de la imagen de cine) a imagen de T.V. (razón de aspecto 4:3). En el sistema PALplus para realizar emisiones en formato 4:3 la opción elegida es el formato letterbox, Si la imagen original captada por la cámara 16:9 tiene 574 líneas de imagen (realmente las líneas activas del sistema PAL son 575, pero una línea se reserva para transmitir información especial), la imagen que se debe transmitir tendrá 430 líneas activas una vez se ha adaptado la razón de aspecto, tal y como muestra la figura 9.52. Figura 9.52 Número de líneas activas en las imágenes captada y transmitida. Tecnología de los Contenidos Multimedia 9.57 TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 La codificación que realiza el PALplus se basa en transmitir información de vídeo en las líneas negras que aparecen en la pantalla del receptor PAL. Estas 144 líneas negras servirán al decodificador para volver a extraer la información perdida al adaptar el formato. Así, el receptor PAL representa la imagen que ha codificado el sistema PALplus, mientras que el receptor PALplus obtendrá de nuevo la imagen original, tal y como se ilustra en la figura 9.53. Figura 9.53 Imágenes PALplus vistas en receptores PAL y receptores PALplus. El proceso de codificación necesita a su entrada una imagen digital ya que las líneas que la componen deben ser guardadas en memoria para poder realizar la codificación. Por tanto, si la imagen no está digitalizada hay que digitalizarla previamente según la recomendación 601. El diagrama de bloques del codificador PALplus se muestra en la figura 9.54. Figura 9.54 9.58 Codificador PALplus. Tecnología de los Contenidos Multimedia TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 Las entradas en el proceso de codificación son la señal de luminancia y las dos señales de crominancia U y V. Las 574 líneas de luminancia de la imagen de entrada pasan por un conversor vertical cuya salida es una imagen de 430 líneas, denominada buzón. Esta señal pasará a ser la señal de luminancia de la imagen codificada. Las 144 líneas restantes constituyen la señal de helper o realce vertical, que servirá al decodificador PALplus para obtener las 574 líneas de luminancia originales, mientras que en el receptor PAL aparecerán líneas negras presentando una imagen (el buzón) en formato letterbox. Esta señal de realce se codifica de tal forma que aún habiendo señal en ellas la imagen resultante sean líneas casi negras. Para ello se modula como si fuera señal de crominancia con luminancia nula, es decir, se modula en QAM a la frecuencia de subportadora del PAL estándar. Las 574 originales señales de diferencia de color se reducen a 430 líneas, pero al contrario que en el caso de la luminancia, este conversar vertical no obtiene señal de realce, solamente obtiene señal buzón. Así pues, el decodificador PALplus no podrá recuperar la imagen original, porque la crominancia de la imagen estará compuesta solamente de 430 líneas. Para volver a componer las 574 líneas de crominancia de la imagen se repetirá una de cada grupo de tres líneas. Esto supone una pérdida de resolución vertical en la crominancia, pero no influye significativamente en la imagen ya que la crominancia no varía mucho de una línea a otra y tiene mucha más resolución vertical que horizontal debido a que su ancho de banda se redujo a 1.5 MHz, reduciéndose con ello la resolución horizontal. La señal de salida del codificador será la señal de vídeo compuesto, formada por la luminancia (buzón de 430 líneas) y la crominancia (señales U y Y moduladas en QAM que son 430 líneas buzón, más 144 líneas de luminancia moduladas como si fuese señal U. El decodificador PALplus se muestra en la figura 9.55. Figura 9.55 Decodificador PALplus. Tecnología de los Contenidos Multimedia 9.59 TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 La señal buzón de la luminancia se obtiene directamente del filtro mientras que el realce hay que demodularlo ya que viene modulado como señal de crominancia. Una vez que se han obtenido las señales buzón y realce, se introducen como entradas en un conversor vertical inverso al del codificador y se vuelven a obtener las 574 líneas de la imagen original. La crominancia se obtiene demodulando las 430 líneas donde existe crominancia obteniéndose en las salidas de cada demodulador las 430 líneas buzón de las señales U y V. Introduciendo estas señales en un conversor vertical inverso al del codificador se obtienen 574 líneas de imagen aunque no con la misma resolución que la original, ya que no existe señal realce para las señales diferencia de color. La función del conversor vertical en transmisión es convertir las 574 líneas, que componen la imagen original, en 430 líneas de buzón y 144 líneas de realce, es decir, de cada 4 líneas de entrada obtiene a su salida 3 líneas de buzón y una de realce. Ambos tipos de líneas se obtienen como combinación de las líneas de entrada. Las líneas buzón deben ser una representación de la imagen original y se obtienen como sumas de las de entrada (filtrados paso baja) mientras que las líneas de realce se calculan como restas (filtrados paso alta). En general en la entrada del conversar vertical, tanto en el caso de la luminancia como en el de la crominancia, se tienen señales que no varían rápidamente por lo que la imagen buzón será muy parecida a la original pero en formato 4:3, por tanto el receptor PAL estándar que no puede realizar la decodificación PALplus no perderá mucha resolución vertical por el promediado entre líneas. En el caso del realce, al no existir muchas diferencias entre una línea y otra, la señal obtenida será de muy bajo nivel (líneas "negras"). El conversor vertical es el bloque clave del codificador PALplus para conseguir la compatibilidad con el PAL estándar ya que consigue una imagen como la original pero con razón de aspecto 4:3 (buzón) y en formato letterbox. En recepción, la función de transferencia del conversor vertical es la inversa que la de transmisión, es decir, se obtienen 574 líneas a partir de 430 de buzón y 144 de realce en el caso de la luminancia. En el caso de la crominancia obtiene 514 líneas a partir de las 430 del buzón. Con el sistema PALplus los espectadores pueden beneficiarse de una resolución máxima en los receptores 16:9. Además este nuevo sistema ha introducido el Color plus que supone una mejora no sólo en los receptores PALplus sino también en los receptores PAL estándar. En el receptor PAL estándar las señales de luminancia y crominancia se separan usando dos filtros, con uno paso baja se obtiene la luminancia y con uno paso alta o paso banda (si previamente no se ha eliminado el sonido) la crominancia. Esta forma de separar ambas señales da lugar a dos problemas: el cross-color que consiste en que luminancia se introduce en la crominancia, y la cross-luminancia, crominancia interferente en la luminancia. El peor de estos dos efectos es el cross-color ya que es muy apreciable cuando en la escena hay detalles muy pequeños, es decir, altas frecuencias de luminancia se introducen en las bajas frecuencias de crominancia. 9.60 Tecnología de los Contenidos Multimedia TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 Existen dos formas de funcionamiento del color plus según de donde provenga la imagen: si la imagen proviene de un telecine (imagen en modo cine), el proceso seguido recibe el nombre de color plus fijo, mientras que si la imagen proviene de una cámara (imagen en modo cámara), se implementa el color plus adaptado al movimiento (MACP). El objetivo del color plus es separar limpiamente la crominancia y la luminancia dando sentido así a la imbricación de espectros que se hizo en transmisión. Para ello el sistema se basa en el hecho de que la información de dos líneas sucesivas en pantalla no cambia mucho. Si la línea n pertenece al primer campo de una imagen, la línea n+312 será la línea contigua físicamente en pantalla a la n pero perteneciente al campo segundo, es decir separada en el tiempo 312 líneas. Si ambas líneas llevan la misma información de luminancia y crominancia la única diferencia entre ellas será la fase de la subportadora, estando la fase de la misma para un punto de la línea n en oposición con la de un punto de la línea n+312. Este proceso es eficiente si la luminancia y la crominancia no varían de un campo a otro, que ocurre cuando no existe movimiento de un campo a otro como en el cine. Este proceso se denomina color plus fijo y se implementa con un filtro peine. Si existe movimiento entre un campo de la imagen y otro, es decir en el modo cámara, no es implementable el color plus fijo. Sin embargo, la crominancia y la luminancia pueden separarse mejor que en el PAL estándar porque se eliminan las altas frecuencias de luminancia en el transmisor, que se imbricarían en el espectro de la crominancia con lo que pueden separarse perfectamente con el sistema de filtros implementado en el PAL estándar. Por esta razón el sistema PALplus mejora la calidad de la imagen no sólo con receptores PALplus, sino también en el televisor PAL convencional. Este proceso en el que existe movimiento se denomina color plus adaptado al movimiento. 9.12 SISTEMAS DE VÍDEO EN COMPONENTES La generalización de la idea de sustituir las componentes de color RGB por la luminancia y las señales diferencia de color es la base para la codificación del color en los sistemas de componentes de color, como por ejemplo los sistemas de televisión y de registro de señal de vídeo en soporte magnético. Destacan el sistema de alta definición analógico japonés MUSE, que funciona desde finales de los 80; el D2-MAC, que fue el fracasado intento europeo para la definición de un formato analógico con definición; la norma digital 4:2:2, sistema digital para el registro, producción e intercambio de material entre estudios; los sistemas de registro de señal sobre soporte magnético analógicos como el Betacam o los digitales como los sistemas D1, D2, DVCam, DVCPro; el sistema MPEG-2, estándar para la compresión de imágenes digitales; etc. La tendencia de los sistemas de televisión y vídeo es realizar una codificación en componentes de las señales de color. Todos estos sistemas son incompatibles con los sistemas de televisión analógicos convencionales como el NTSC o el PAL. La codificación del color en componentes admite también diversas variantes dependiendo del sistema considerado pero mantienen en común que Tecnología de los Contenidos Multimedia 9.61 TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 las señales de luminancia y las de diferencia de color pueden ser fácilmente separadas sin la aparición de cruces o interferencias entre ellas. En los sistemas analógicos la luminancia y las señales diferencia de color normalmente están multiplexadas en el tiempo. La figura 9.56 muestra la configuración del sistema MUSE. La señal de luminancia ocupa 2/3 del tiempo de línea activa y las señales diferencia de color se transmiten en líneas alternas durante el 1/3 del tiempo restante. Figura 9.56 Multiplexación temporal de las componentes de color Esta codificación aprovecha la menor resolución del sistema visual a las componentes de color con dos técnicas. Primero las señales diferencia de color de una línea se comprimen en el tiempo y tienen una duración la mitad que la señal de luminancia. Entonces para un ancho de banda determinado las componentes de color tienen una resolución horizontal igual a la mitad de la luminancia. En segundo lugar la resolución vertical de las señales diferencia de color también se reduce a la mitad, ya que la señal (R-Y) sólo se transmite en las líneas impares y la (B-Y) en las pares. Para decodificar el color asociado a la línea k se utiliza sistemáticamente la información de las componentes de color correspondientes a la línea k-1 y a la línea k. La codificación utilizada en un sistema de registro de señal de vídeo analógico sobre soporte magnético tiene características similares. En el sistema Betacam la señal de luminancia y las señales diferencia de color se registran en pistas adyacentes, por lo que su separación también es simple y no existen cruces entre las señales. Las dos componentes de color se comprimen en un factor 2 respecto la luminancia y se registran en la misma pista. El ancho de banda asignado a la luminancia es de nuevo el doble que el de las componentes de color. En el S-Vídeo la componente de luminancia y las componentes de croma se proporcionan mediante cables separados en paralelo. El S-Vídeo se utiliza como un formato doméstico para la interconexión entre equipos de vídeo analógico. Prácticamente todos los receptores modernos incorporan una entrada en S-Vídeo que permite conectarlos directamente con una cámara de vídeo o un magnetoscopio. La señal en S-Vídeo, al tener las componentes de luminancia y color 9.62 Tecnología de los Contenidos Multimedia TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 separadas, proporciona una mayor calidad de imagen que la señal de vídeo compuesto. Otra posibilidad es interconectar usando directamente las tres componentes de color R, G y B por separado. En los equipos profesionales es habitual utilizar este tipo de interconexión. En los modelos domésticos el Euroconector permite la interconexión entre distintos equipos de vídeo mediante la transmisión de las tres componentes de color por separado y en paralelo. 9.13 FORMATOS DE GRABACIÓN DE VÍDEO ANALÓGICO Mientras que el cine ha mantenido los mismos formatos básicos de 35mm y 16mm por más de cien años. En las últimas décadas el video ha evolucionado a través de unos 20 formatos diferentes e incompatibles. A continuación se indican las características básicas de los dos sistemas más utilizados por el mercado de consumo. La mayoría de los consumidores están familiarizados con los formatos de 8mm y el VHS, antes de estos hubo un formato popular, el Betamax, que fue lanzado al mercado por Sony Corporation en 1976, y posteriormente fue desplazado por el VHS. Fue el primer formato comercial aceptado y usado ampliamente en el hogar. El sistema VHS (VIDEO HOME SYSTEM) desarrollado por JVC ocupa en la actualidad el primer puesto en el mercado de video domestico. Tiene una calidad razonable y cumple todos los requisitos de flexibilidad que exigen los consumidores. Desde su aparición se ha extendido y mejorado, manteniendo su compatibilidad, incluyendo características tales como, larga duración, (Long Play), sonido en alta fidelidad (Hi-Fi) y realzado de imagen (HQ). El máximo aprovechamiento del sistema VHS se obtiene separando los filtros pasobanda de los componentes de luminancia (Y) y de crominancia (C) de la señal de vídeo antes de la grabación. La señal de luminancia no puede ser grabada directamente porque su espectro se extiende desde los 20 Hz hasta 5.5 MHz, ocupando 19 octavas, excediendo el máximo de 10 del mismo medio magnético. Esto se soluciona mediante la compresión de la señal. Los limites de la desviación determinan el ancho en octavas. El sistema VHS especifica 3.8 MHz para la cresta de los impulsos de sincronismo y 4.8 MHZ para el nivel de blanco de la señal de luminancia reproducida. Esta se extiende alrededor de 1.4 MHZ hasta menos de 5.5 MHZ consiguiendo comprimir hasta menos de dos octavas. La utilización de un modulador asegura una excelente señal, ya que lleva la cinta hasta la saturación para cualquier señal y sin polarización, para compensar la no linealidad de transferencia de la cinta. Para recobrar la luminancia es necesario grabar las bandas laterales, es decir aquellas cuya amplitud supere en un 1.5 % a la portadora sin modular. Si la frecuencia modulada es mas alta, se Tecnología de los Contenidos Multimedia 9.63 TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 recorta la señal con un filtro pasa banda a 3.5 MHz y atenuación de 20db, de esta forma se evita un empañamiento de la imagen producida. Los incrementos de amplitud de los componentes de alta frecuencia de la señal "Y" deben ser limitados para evitar la sobredesviación del modulador. Los circuitos recortadores de negro y blanco limitan la excursión de señal excitadora del 40 % a 90 % respectivamente. La componente de la entrada de video compuesto se extrae de un filtro en 443 MHZ o 357 MHz, y se graba en señal QUAM convertida a 629.953 KHz. La polarización es convenientemente suministrada por la señal de FM con la cual se mezcla antes de ser aplicada a las cabezas de grabación. Se necesita un buen contacto cabeza-cinta para conseguir una relación señal de cromaruido razonable durante la reproducción. Los avances tecnológicos en el campo de video y en la fabricación de cintas de grabación hicieron posible el perfeccionamiento de la especificación VHS. JVC desarrolló el sistema SUPER-VHS cuya versión PAL se anuncio en enero de 1988. En el sistema S-VHS se varia la frecuencia de la portadora de FM consiguiendo un ancho de banda de luminancia mayor y como resultado un incremento en la resolución horizontal hasta 400 líneas. La frecuencia se extiende hasta el 110% y el 70% respectivamente. La velocidad lineal de la cinta, la velocidad de grabación, y el trazado de las pistas permanecen inalterados para mantener la compatibilidad con el sistema VHS estándar, pero en el sistema SVHS se produce un incremento en la densidad de grabación. Se emplean cabezas de video de material amorfo. Estas cabezas tienen entre hierros obtenidos con tecnología láser, el núcleo es de estructura laminar que tiene la ventaja de mejorar las frecuencias mas altas de la banda, debido a la reducción de las perdidas por corrientes circulares. El diseño de baja fricción entre la cinta y el tambor reduce el ruido por contacto entre la cinta y la cabeza en 2 o 3 db, con referencia a las cabezas de ferrita. El incremento de la densidad de grabación exige unas especificaciones de la cinta más rigurosas. Parece lógica la cinta de metal, igual que el sistema SONY 8 MM, pero JVC lanzó al mercado la gama de cintas de cobalto con recubrimiento de óxido ferrico para asegurar la compatibilidad entre los dos sistemas y sus familias de cintas. El tamaño de las partículas magnéticas es menor para las cintas S-VHS con el fin reducir el ruido de modulación. El material de la cinta debe ser antiestático, pues el polvo y la suciedad son los causantes de casi todas las perturbaciones de la cinta. Las cintas S-VHS pueden ser utilizadas con el estándar VHS, pero algunos equipos no pueden realizar un borrado totalmente correcto de la cinta debido al alto grado de coercitividad de la misma, además de no obtener mejora, el precio de las cintas S-VHS es significativamente más caro. Los sistemas de camcoders tienen un conector "S", que no significa super sino SEPARATE - VIDEO .Esto significa que separa las señales de luminancia (Y) y croma (C) permitiendo una copia de alta calidad. SEPARATE - VIDEO es un sistema de conexión y SUPER-VIDEO, es un sistema de grabación. 9.64 Tecnología de los Contenidos Multimedia TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 Para reducir el tamaño de la cámara, una versión más pequeña de las cintas de VHS y S-VHS se introdujo al mercado el VHS-C y el S-VHS-C (por compacto). Estos fueron diseñados para competir con el formato de 8 mm que comenzó a encontrar aceptación entre un gran número de consumidores. Cuando el Betamax fracasó, el 8mm fue lanzado al mercado. Este formato en parte trata de tomar ventaja de la fama del 8mm que fue un formato de cine muy utilizado para películas caseras. (De hecho, Eastman Kodak fue uno de los creadores del 8mm para video). El tamaño reducido de la cinta significa que las cámaras pueden ser incluso más pequeñas que las de VHS, una característica que es muy atractiva para aquellos que han pasado años arrastrando sus cámaras de VHS tamaño familiar. La calidad del 8mm es similar a la del VHS, lo que significa que el formato no está en la categoría de formato profesional. Al tiempo que se introdujo en S-VHS Sony lanzó el Hi8, una versión de mayor calidad que el 8mm. Este también se utiliza como formato de adquisición y bajo óptimas condiciones pueden producir video de calidad profesional. Sin embargo no puede competir con la presente generación de formatos digitales. En cuanto a los formatos profesionales destaca el Betacam. La corporación SONY, pionera en el desarrollo del videocasete Betamax de media pulgada para uso casero, introdujo el Betacam en 1982. Esto significó que por primera vez una cámara y un grabador pudieron integrarse en una sola unidad. Nació la camcorder. En 1987 lo mejoraron y lo bautizaron Betacam SP (Superior Performance) de funcionalidad superior. La versión mejorada logró exceder los niveles de calidad del formato de una pulgada de tipo C, y por esta razón algunas instituciones comenzaron a utilizar el Betacam para producciones de estudio y de exteriores. El Betacam ha pasado por varios procesos de mejoramiento que le han proporcionado numerosas características, así como mejor calidad de audio y video. Al mismo tiempo que el BETACAM era introducido en el mercado, Matsushita (Panasonic) y RCA introducían un formato de casete de cinta de media pulgada con calidad de transmisión, basado en su popular casete de VHS. Conocido como el formato M por la forma en que la cinta está enhebrada en el mismo. Pocos años después el formato M fue mejorado notablemente con la introducción del MII. Así como el Betacam SP, la calidad del video M-II excede al de VTR de una pulgada del tipo C. Luego Panasonic tomó la vanguardia al desarrollar una serie de formatos de video-tape digital conocido como el formato "D". 9.14 LA TELEVISIÓN DIGITAL En el principio básico de la televisión digital se encuentra el muestreo. Las diferentes etapas de muestreo de la escena, muestreo espacial, permiten representarla como una señal analógica que Tecnología de los Contenidos Multimedia 9.65 TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 proporciona información sobre las componentes de luminancia y color en cada punto del espacio y del tiempo. La digitalización de señales analógicas aporta considerables ventajas como por ejemplo protección frente a ruidos, facilidad para encriptar las señales, posibilidad de procesar digitalmente los datos, etc Si se aplica un muestreo temporal de esta señal y se codifica cada una de las muestras con una palabra binaria, se obtiene una versión digital de la escena que permite tratamientos con procesadores digitales o su transmisión mediante sistemas de comunicación digitales. La forma más inmediata de digitalizar una señal de televisión es tomar muestras equiespaciadas en cada una de sus líneas. En señal de blanco y negro, si las muestras se sincronizan con el inicio de las líneas, se obtendrá un muestreo de la imagen con estructura rectangular, en la que cada muestra representa los valores de luminancia obtenidos sobre una retícula rectangular y la imagen puede tratarse como una matriz que se direcciona mediante filas y columnas. Estas muestras se denominan elementos de imagen o píxeles (de picture elements). El número de muestras que se toman en cada línea de la imagen debe estar en consonancia con el número de líneas para que la resolución en ambas direcciones tenga valores parecidos. Por tanto, en principio en un sistema como el europeo que utiliza 575 líneas activas, el número de muestras de cada línea debería ser (4/3) 575 = 766 muestras, donde se multiplica la relación de aspecto para tener en cuenta que la imagen no es cuadrada. Entonces, la distancia física entre los pixeles es idéntica en ambas direcciones, hecho que se identifica mediante la denominación de píxel cuadrado. Sin embargo, hay sistemas que muestrean la señal de vídeo a una velocidad distinta, obteniendo un número de muestras por línea que puede ser mayor o menor que el anterior. En estos casos se dice que se trabaja con sistemas con elementos de imagen (píxeles) rectangulares. Además, es necesario determinar el número de bits con el que debe codificarse cada muestra, o lo que es lo mismo, el número de posibles niveles de luminancia que deben asignarse a la señal para que el sistema visual humano sea incapaz de distinguir entre los niveles de gris originales y los cuantificados. Este proceso se denomian cuantificación. Para determinar este parámetro existen diferentes métodos. El más evidente es el método experimental en el que se presentan distintos tipos de imágenes a espectadores que valoran cuál es el número mínimo de niveles a partir del que no se aprecia ninguna mejora en la calidad de las imágenes. Esta experiencia suele dar que el número de niveles de gris se sitúa entre los 45 y 60. Por tanto para codificar correctamente las imágenes se necesita un mínimo de 6 o 7 bits. Debido a que toda la estructura de las 9.66 Tecnología de los Contenidos Multimedia TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 memorias están basadas en palabras de 8 bits, se decidió cuantificar los niveles de luminancia con 8 bits, con lo que se obtiene un total de 256 niveles posibles, que cubren perfectamente las necesidades del sistema visual. En el caso en que se trate de imágenes en color, puede optarse por muestrear las tres componentes de color RGB o bien la luminancia y las señales diferencia de color. En el primer caso, la resolución de las tres imágenes debe ser la misma y cada muestra de las componentes de color se suele cuantificar con 8 bits. En el caso de tomar la luminancia y las señales diferencia de color, es habitual muestrear estas últimas con una retícula de muestreo que incluya un menor número de muestras espaciales debido a la menor resolución del sistema visual al color. Normalmente la reducción es en un factor 4, que supone que se utilizan la mitad de filas y columnas. Tanto las muestras correspondientes a la luminancia como a las señales diferencia de color suelen muestrearse con 8 bits. Tradicionalmente la resolución de los sistemas analógicos se ha expresado en líneas horizontales cuyo número está directamente relacionado con el ancho de banda de la señal de vídeo. En el video digital sin comprimir el concepto de "frecuencia de muestreo" (sampling rate ) es sinónimo de ancho de banda. En el estándar digital sin compresión "D-1", ITU-R BT.601-4, la frecuencia de muestreo para la luminancia es de 13.5 Mhz, mientras que la de crominancia es la mitad, 6.75 Mhz. Hay dos componentes de crominancia, la luminancia menos rojo y la luminancia menos azul, Cr y Cb. Con ello la señal digital se compone de igual cantidad de datos de luminancia y de crominancia. Esto se expresa con la relación famosa 4:2:2, donde el 4 corresponde a la proporción de luminancia. Se podía haber dicho 2:1:1 pero no deja margen para expresar reducciones de color. El teorema de Nyquist establece que la frecuencia de muestreo de cualquier señal, debe ser, al menos, el doble que la de la máxima señal a codificar. Por ejemplo, en audio se maneja una banda auditiva de 20 Hz a 20 KHz. Aplicando este teorema, la frecuencia de muestreo debe ser el doble que la máxima, es decir, 40.000 Hz. De hecho, la frecuencia de muestreo para audio digital es 44.1 Khz. Por tanto, para el estandar D-1 (4:2:2), el ancho de banda máximo de luminancia es 13.5 / 2 = 6.75Mhz, y para la crominancia la mitad de su frecuencia de muestreo 3.375 Mhz. Usando filtros digitales muy potentes se puede dejar el ancho de banda práctico de luminancia en 6.0Mhz y el de crominancia en 3.0 Mhz. El estandar D-1 es un formato digital de calidad máxima con un gran ancho de banda, sin comprimir, que requiere unas capacidades de almacenamiento enormes. DV [y miniDV] muestrea la señal de luminancia igual que el estandar D-1, a 13.5Mhz, mientras la de crominancia a la mitad del D-1, 1.5 Mhz . Por tanto, para el sistema NTSC la relación quedaría en 4:1:1, con muestras de crominancia tomadas una vez cada cuatro muestras horizontales de luminancia. Tecnología de los Contenidos Multimedia 9.67 TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 El DV para el PAL usa un muestreo 4:2:0, tomando el valor medio de la señal de crominancia entre sucesivas líneas de luminancia. El 4:2:0 no significa que la señal de croma Cb no se muestrea, sino que es una manera de expresar la alternancia en el muestreo. De acuerdo con el Consorcio Japonés de Vídeo Digital, 4:2:0 proporciona mejor percepción de la imagen. Panasonic DVCPRO usa 4:1:1 tanto para NTSC como para PAL. El ATSC MPEG-2 formato para DTV, [DVD] y HDTV, usa 4:2:0. La figura 9.57 muestra estos formatos. Figura 9.57 Comparación del muestreo del color 4:2:2, 4:1:1, y 4:2:0. La reducción en la frecuencia de muestreo del color en DV, le lleva a un valor práctico de 1.5Mhz. Actualmente, todos los sistemas digitales deben pasarse a analógico para permitir su teledifusión. 9.15 FORMATOS DE TELEVISIÓN DIGITAL Los formatos digitales más extendidos actualmente en estudios de televisión, y que pueden considerarse como el punto de partida de los distintos equipos para el registro o la transmisión digital, son las normas 4:2:2 y 4:2:0, que definen la conversión a señales digitales tanto para los sistemas de 525líneas a 60 Hz como para los sistemas de 625 líneas a 50 Hz, manteniendo un gran número de parámetros comunes entre ambos formatos. En 1982, el ITU-R (anteriormente CCIR), desarrolló un conjunto de especificaciones en su recomendación 601 para las señales de televisión digital en estudios de televisión o de producción de vídeo. El objetivo de esta recomendación era facilitar el intercambio de programas a escala internacional. Las recomendaciones definen muchos parámetros comunes entre el formato americano 9.68 Tecnología de los Contenidos Multimedia TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 y europeo con el fin de que los fabricantes puedan incluir varios módulos comunes en equipos para 525 y 625 líneas. El uso de este formato permite la interconexión entre distintos equipos digitales. Existen básicamente dos variantes básicas: la 4:2:2 y la 4:4:4. Los dígitos indican la proporción entre las muestras dedicadas a la luminancia y las dedicadas a las componentes de color. El sistema más utilizado es el 4:2:2, en el que se codifican la luminancia y las señales diferencia de color. El formato 4:4:4 puede utilizarse también con componentes RGB. La cantidad de datos binarios debida a la digitalización de una señal de vídeo es enorme. En el estándar 4:2:2 la luminancia se muestrea a una frecuencia de 13.5 MHz tomando 8 bits por muestra, lo que implica 108 Mbps. Además, cada una de las señales de diferencia de color se muestrean a 6.75 MHz, nuevamente con 8 bits por muestra, lo que produce otros 108 Mbps. En total 216 Mbps asignados exclusivamente a la señal de vídeo digital, sin tener en cuenta las componentes de audio o de información adicional. Este flujo de datos puede ser soportado por los equipos de un estudio profesional pero es inaceptable para la transmisión directa de televisión. Por ello, en la televisión digital es fundamental aplicar técnicas de compresión, que se analizarán en el capítulo dedicado a ello. Las dimensiones de la componente de luminancia en los formatos 4:4:4 y 4:2:2 son de 720 576 en los sistemas de 625 líneas a 50 Hz y de 720 480 en los de 525 líneas a 30 Hz. La diferencia en el número de filas entre ambos sistemas se debe a los estándares analógicos. En el sistema de 625 líneas sólo son activas 575 que se reparten entre los dos campos. Esto da lugar a un total de 287,5 líneas activas por campo. Al digitalizar cada uno de los campos, las medias líneas deben tomarse como una fila completa de la imagen digital, por lo que hay un total de 288 líneas por campo, es decir, 576 (288x2) líneas por imagen. Para el sistema de 525 líneas puede aplicarse un razonamiento similar. Figura 9.58 Formato 4:4:4 Tecnología de los Contenidos Multimedia 9.69 TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 Tal y como se ilustra en la figura 9.58, el formato 4:4:4 toma una muestra de las dos componentes de color por cada muestra de luminancia. Esto significa que los tamaños de las matrices diferencia de color coinciden con los de las matrices de luminancia. En cambio, en el sistema 4:2:2, las componentes de crominancia se submuestren en un factor 2 dentro de cada fila. Esto significa que los tamaños de las matrices de crominancia son 360x576 en los sistemas 625 líneas a 50 Hz y de 360x480 en los de 525 líneas a 60 Hz. En este formato sólo se reduce la frecuencia de muestreo en el sentido horizontal. El número de muestras de crominancia en el eje vertical sigue coincidiendo con el de la componente de luminancia, de modo que la frecuencia de muestreo de la información de croma se mantiene constante a 6,75 MHz. El formato 4:2:0 es una simplificación del 4:2:2 que se utiliza en un gran número de aplicaciones para el registro de vídeo en soporte magnético o en disco duro. Es el formato de entrada utilizado en la versión de MPEG-2 que se utiliza en la transmisión de televisión digital (Main Level, Main Profile, MP@ML). Se obtiene reduciendo a la mitad la frecuencia de muestreo de las componentes de crominancia en el sentido vertical, con lo que se iguala la densidad de muestras de crominancia en las dos direcciones. Las muestras de croma se obtienen a partir de las muestras del formato 4:2:2, promediando dos filas consecutivas. Con el formato 4:2:0 el tamaño de las matrices de crominancia se reduce a 360x240 para el estándar 525 líneas a 60 Hz y a 360x288 para 625 líneas a 50 Hz, y las matrices de luminancia se mantienen con el mismo tamaño que en los formatos 4:4:4 o 4:2:2. Además del formato 4:2:2 y el 4:2:0, también pueden encontrarse el 4:1:1 y el 4:1:0. El formato 4:1:0 fue utilizado durante algún tiempo por Intel en el DVI (Digital Video Interactive), pero en la actualidad tanto este como el 4:1:1 están en desuso. En aplicaciones en las que no es necesaria una gran calidad de la imagen de vídeo digital, como por ejemplo los primeros ficheros AVI de vídeo para Windows o el MPEG-1, puede reducirse sobre el tamaño de la imagen. Así se consigue una importante reducción respecto a la tasa de bits original Uno de los formatos de vídeo reducido más populares es el SIF (Source Intermediate Format) que consiste en un submuestreo de un factor 2 del formato 4:2:0 que se aplica tanto a las componentes de luminancia y de crominancia. Los tamaños de las matrices de luminancia para el formato SIF son de 360x288 para el estándar de 625 líneas y 360x240 para el 525 líneas. Las matrices de crominancia también se submuestrean en un factor 2 en cada dirección respecto las matrices de crominancia del 4:2:0, 180x144 para 625 líneas y 180x120 para 525. También se realiza una reducción de la frecuencia de imagen a 25 Hz para el sistema europeo y a 30 Hz para el americano, con lo que las imágenes resultantes no son entrelazadas. Con todo ello se obtiene una calidad equivalente al formato de vídeo analógico VHS. El formato CIF (Common Intermediate Format) es un compromiso entre el formato SIF para 625 y para 525 líneas. Utiliza 360x288 muestras de resolución de luminancia, como en el sistema europeo, y una frecuencia de refresco de 30 Hz, como en el sistema. 9.70 Tecnología de los Contenidos Multimedia TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 Todos los formatos digitales anteriores se realizan para relaciones de aspecto 4:3 y se obtienen submuestreando las componentes de crominancia y/o luminancia del formato 4:4:4. Como la norma ITU-R 601 establece una única frecuencia de muestreo para las señales procedentes del NTSC o del PAL, el número de elementos en cada fila es idéntico para ambos estándares. Pero como el número de filas es distinto, el área asociada a cada elemento de imagen no es cuadrada, sino rectangular. En el sistema europeo, para que en una pantalla con una relación de aspecto 4:3 puedan presentarse 720 columnas y 576 filas, es necesario que los píxeles sean más anchos que altos (4/720 > 3/576), y al contrario en el sistema americano en el que los píxeles deben ser más altos que anchos. En aplicaciones informáticas es conveniente que los píxeles tengan una relación de aspecto cuadrada ya que las tarjetas de visualización y los programas de tratamiento de imagen asumen esta propiedad. Por ello deben definirse formatos alternativos, denominados formatos de píxel cuadrado, para el tratamiento en computadores. Estos formatos son equivalentes a los formatos definidos anteriormente, con la diferencia de que se modifica el número de elementos por fila para forzar que la relación de aspecto del píxel sea cuadrada. Por ejemplo, en el estándar de 625 líneas el tamaño de una imagen 4:2:0 es 768x576 píxeles (768 =(4/3)x576) mientras que en el estándar de 525 líneas es 640x480 píxeles (640 = (4/3)x480). Este formato es el conocido VGA. Los demás formatos SIF, CIF y QCIF de píxel cuadrado se obtienen dividiendo las resoluciones espaciales por factores de 2. La tabla 9.6 muestra los formatos digitales básicos. Además de estas características básicas el fundamento de la televisión digital es la compresión, por lo que el siguiente capítulo lo analiza detenidamente. 4:2:0 SIF CIF QSIF Europeo TV 720×576 360×288 360×288 180×144 Americano TV 720×480 360×240 360×288 180×120 Europeo Cuadrado 720×576 384×288 384×288 192×144 Tabla 9.6 Formatos digitales básicos. 9.16 TELEVISIÓN DE ALTA DEFINICIÓN, HDTV Americano Cuadrado 640×480 320×240 384×288 160×120 Los formatos digitales de alta definición se definen prácticamente duplicando el número de píxeles en cada dirección. En el estándar europeo el tamaño de imagen de alta definición es 1440×1152 para relaciones de aspecto de 4:3 y 1920x1152 para relaciones de aspecto panorámicas. Con estos parámetros las señales de HDTV, transmitidas sin comprimir, requieren anchos de banda de hasta 30 MHz, mientras que para la televisión convencional el ancho de banda es de 6MHz. Por tanto, estos sistemas son incompatibles con los equipos de TV actuales, y además Tecnología de los Contenidos Multimedia 9.71 TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 existen problemas para su paso por estaciones de difusión. La solución pasa de nuevo por la compresión de datos, que se detalla en el siguiente capítulo. Con esas técnicas se pueden comprimir las señales de HDTV dentro de los 6 MHz. Utilizando la compresión MPEG-2, los mismos 6 MHz de ancho de banda que transportan un canal de HDTV pueden transportar seis canales NTSC en formato digital. Estos canales adicionales podrían ser utilizados para servicios de pago por visión, servicios de datos, y especialmente para servicios de comunicaciones bidireccionales o videoconferencia. Por otro lado, la HDTV tiene más de 1000 líneas de barrido, normalmente 1125 o 1250 líneas. Pero además el método de barrido de estas líneas es completamente diferente. Recuérdese que la televisión convencional utiliza un método de barrido entrelazado, en el que la imagen es iluminada por los patrones sucesivos de líneas alternadas. Primero son barridas las líneas impares y a continuación se sigue con las líneas pares. El barrido entrelazado reduce el parpadeo de la pantalla al permitir que la mitad de la pantalla permanezca iluminada en cualquier instante, pero tiene la desventaja de crear "artificios" o irregularidades en el movimiento vertical. La HDTV utiliza un método de barrido progresivo, en el que la imagen es barrida línea por línea, consecutivamente, de arriba a abajo de la pantalla. La mayor resolución de imagen reduce la susceptibilidad de HDTV a artificios de movimiento. Comparado con la televisión NTSC, HDTV/DTV puede reproducir seis veces más detalle y diez veces más información de color. La alta definición ha tenido varios formatos y se han propuesto varios estándares. La industria del cine está empezando a usar los formatos HDTV con el propósito de obtener altas resoluciones para mostrar las imágenes con la mejor calidad en las grandes pantallas de cine. Así, han consolidado el estándar de alta definición más común. Todos los formatos de alta definición adoptan la misma relación de aspecto de pantalla panorámica 16:9 (Widescreen). Además, en todos los estándar de alta definición, los pixels son cuadrados. Esto incluye a la industria informática, permitiendo integrar de forma más simple los gráficos generados por ordenador en las imágenes de alta definición. Todos los estándar HDTV usan la colorimetría definida en la ITU-R BT.709, que no es la misma que se usa en los sistemas de televisión estándar PAL o NTSC. Los estándares HDTV han considerado de forma fundamental la convergencia entre la electrónica, la industria cinematográfíca y la industria informática. Existen dos familias de formatos de televisión en alta definición (HDTV) que se distinguen por el número de píxeles y por el de líneas. Una de las familias tiene 1080 líneas activas de imagen mientras que la otra, tiene 720 líneas. Cada familia define varias frecuencias de visualización o imágenes por segundo. Una de las características más importantes de la alta definición, ha sido el barrido entrelazado y progresivo. La HDTV admite ambos, reconociendo las ventajas de cada uno de ellos. La forma 9.72 Tecnología de los Contenidos Multimedia TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 más común para referirse a un estándar de alta definición, es usar el número de líneas y la frecuencia de visualización. Por ejemplo, 1080/50i y 720/60p definen el estándar, donde el primer número indica siempre el número de líneas, el segundo número indica la frecuencia de visualización, y la "i" o la "p" indica si el barrido es entrelazado (i) o progresivo (p). Seguidamente se presentan las características fundamentales de ambas familias. 9.16.1 ALTA DEFINICIÓN 1920×1080 ‘COMMON IMAGE FORMAT’ (HD-CIF) Esta familia está definida internacionalmente por la SMPTE 274M y la subdivisión ITU-R BT.709-5. El estándar BT.709 define un formato de imagen y frecuencia de visualización, y todas sus variantes tienen 1920 píxeles horizontales y 1080 líneas activas de imagen. La relación de aspecto es 16:9 y el pixel es cuadrado, (1080×16/9=1920) lo que se ajusta perfectamente a los sistemas informáticos. El formato HD-CIF de 1920×1080 contiene 2,07 millones de píxeles en una imagen de televisión, frente a los 400.000 píxeles de una imagen PAL o NTSC. Por tanto, el aumento potencial de resolución es de un factor de 5 veces. Los diferentes estándares se presentan debido a las diferentes frecuencias de visualización y a la forma en que las imágenes son capturadas: progresiva o entrelazada. La SMPTE define once formatos de escaneado de HDTV 1920×1080, ocho progresivos y tres entrelazados. La ITU define diez sistemas de escaneado, ocho progresivos y dos entrelazados. Estos incluyen 25fps para Europa, 30fps para Estados Unidos y Japón y 24fps para la industria cinematográfica. El formato común de imagen (CIF) facilita el intercambio de programas entre diferentes entornos y hace posible que cualquier equipamiento pueda trabajar en cualquier entorno. El documento ITU BT.709-5 recomienda el uso del formato HD-CIF para la producción de nuevos programas y facilitar así los intercambios internacionales. En la norma ITU-R BT.709-5 el formato común de imagen (CIF) está definido "para tener un parámetro de imagen común, independiente de la frecuencia de la imagen". Los parámetros claves son el sistema de barrido y la colorimetría. La tabla 9.7muestra las frecuencias permitidas. Sistema Tabla 9.7 Captura Barrido 24p, 25p, 30p, 50p, 60p 1920 x 1080, progresivo Progresivo 24psF, 25psF, 30psF 1920 x 1080 captura progresiva Cuadro segmentado 50i, 60i 1920 x 1080 entrelazado Entrelazado Frecuencias permitidas, donde i=entrelazado, p=progreivo y psF=progresivo con cuadro segmentado. Tecnología de los Contenidos Multimedia 9.73 TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 El cuadro segmentado (Segmented Frame) es una forma de transportar una imagen progresiva en dos segmentos, así esa señal se "ve" igual que los dos campos (fileds) de una imagen entrelazada. En post producción se necesitará trabajar en ambos formatos de señal, tanto en entrelazado como en progresivo, hasta que se imponga definitivamente el progresivo. Uno de los problemas para monitorizar los nuevos formatos de señal, como el 24p, es el parpadeo (flicker) inducido en los monitores de televisión TRC. El segundo es el procesamiento de las imágenes progresivas. La mayoría de los monitores de televisión TRC muestran las imágenes de forma entrelazada. El formato de cuadro segmentado permite usar los mismos sistemas electrónicos para imágenes progresivas y entrelazadas, y visualizarlas correctamente sobre monitores de TRC. No hay cambios en la característica de la imagen progresiva, y sólo se usa para frecuencias de hasta 30fps. Tampoco hay problemas para monitorizar la señal con los nuevos visualizadores planos, de LCD o de plasma. El interface digital de una señal entrelazada es el mismo, aunque el contenido de esa señal es diferente. 9.16.2 ALTA DEFINICIÓN 1280×720 ‘PROGRESSIVE IMAGE SAMPLE STRUCTURE’ Definido internacionalmente por la SMPTE 296M, aunque no por la ITU, es una familia que incluye ocho sistemas de escaneado, todos progresivos y con una resolución de 1280 píxeles horizontales y 720 líneas activas. Proporciona 921600 píxeles en una imagen. Las frecuencias de visualización son 23,98p, 24p, 25p, 29,97p, 30p, 48p, 50p, 59,95p y 60p. La tabla 9.8 muestra estas frecuencias. Tabla 9.8 Sistema Captura Escaneado 24p, 25p, 30p, 50p, 60p 1280 x 720 progresivo Progresivo (PAL) 23,98p, 29,97p, 59,94p 1280 x 720 progresivo Progresivo compatible NTSC Frecuencias de visualización. La colorimetría cumple la norma ITU-R BT.709 Como puede observarse el resultado de que haya muchas variantes para cada familia de Alta Definición es la multitud de frecuencias de cuadro. Históricamente, en Europa y otras partes del mundo el sistema de televisión estándar tiene una velocidad de 25 imágenes por segundo. En Estados Unidos y Japón se usan 30 imágenes por segundo, mientras que la industria cinematográfica usa 24 imágenes por segundo. Las grandes cadenas de televisión americanas emiten actualmente en ambos formatos de alta definición, 1080i y 720p usando la misma frecuencia de cuadro/campo que la señal de televisión estándar. 9.74 Tecnología de los Contenidos Multimedia TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 En Europa, la primera cadena de televisión de alta definición - Euro1080 -, que empezó a emitir en enero de 2004, usando el formato 1080i a 25i (50Hz) En alta definición, es normal producir imágenes usando un estándar y emitirlo en otro estándar. Por ejemplo, se puede grabar a 25 imágenes o 50 campos por segundo y emitirlos a 60 campos por segundo. Debido a la gran cantidad de datos necesarios para las variantes de escaneo progresivo a 1920×1080, las cámaras actuales en general no disponen de frecuencias mayores de 30Hz. Las imágenes entrelazadas pueden ser capturadas fácilmente a 60 campos por segundo. La frecuencia de datos a 720p es más manejable, y hay cámaras que graban imágenes a 60 cuadros por segundo, proporcionando una frecuencia de reproducción variable. Esto es particularmente interesante en documentales de naturaleza y acontecimientos deportivos. Existen conversores de alta definición en el mercado, que pueden convertir entre frecuencias de cuadro y entre familias de 1080 y 720, aunque todavía no permiten compensar la conversión entre 25i y 30i. Para producción, es posible masterizar material a 24p. El material se maneja de la misma forma que las imágenes de cine - en Estados Unidos usando el 3-2 pulldown: en Europa aumentando la velocidad hasta 25 imágenes por segundo. La baja frecuencia de muestreo temporal de 24 imágenes por segundo, no es apropiada para todo tipo de material - en particular para deportes de mucha acción- donde el parpadeo puede molestar la visión por parte del espectador. Los equipamientos de post producción en Alta Definición son, en general, muy flexibles y pueden trabajar con imágenes adquiridas usando todos los estándar de ambas familias. La elección del formato de adquisición (frecuencia de cuadro y tipo de barrido) dependerá del estilo y del contenido. La única limitación es el requerimiento basado en 50Hz o 60Hz para la emisión, y esto se puede considerar en la preproducción. Se pueden elegir las variantes de 24p, 25p y 50i para Europa y afines, o convertir 24/30p o 60i para USA y Japón aunque, como se dijo antes, la conversión de frecuencia es posible pero sin compensación. 9.17 FORMATOS DE GRABACIÓN DE VÍDEO DIGITAL Desde el punto de vista de la grabación y almacenamiento de vídeo, el video digital tiene un número importante de ventajas sobre el analógico. Una cinta digital puede ser copiada casi indefinidamente sin pérdida de calidad. Esta es una ventaja importante en las sesiones de post-producción que requieren varias capas de efectos, las cintas digitales se adaptan mejor para un almacenamiento prolongando y la calidad técnica de las grabaciones digitales es mejor que su similar analógica. Tecnología de los Contenidos Multimedia 9.75 TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 Los formatos digitales suelen utilizar alguna compresión. Las cámaras digitales más avanzadas utilizan un formato 4:2:2 "sin pérdidas", es decir, compresión mínima, luminancia y crominancia registradas por separado, un porcentaje de muestreo más alto, etc. Otras cámaras utilizan un formato 4:1:1, como por ejemplo DV, DVCAM, DVCPRO, etc., que depende en un nivel más alto de compresión, disminuyendo la calidad de video. La ventaja de calidad del 4:2:2 es evidente cuando se requiere edición, copiado, efectos especiales complejos, etc. La mayoría de las cámaras comerciales utilizan un formato 4:1:1. Cuanto más se muestrea el color mejor es la calidad del cuadro; pero, también, se requiere mayor ancho de banda y el proceso de grabación digital se hace más exigente. El proceso de muestreo 4:4:4 está asociado a los equipos profesionales de vanguardia. Cualquier formato que muestree por debajo de 4:4:4 realmente compromete en algo la calidad. Básicamente son tres los formatos digitales populares que graban en cinta de ¼ de pulgada: DV, DVCCAM y DVC Pro/DVC Pro 50. La mayoría de las cámaras comerciales utilizan cintas digitales más pequeñas que una cinta de audio estándar. La cámara mini DV Handycam de Sony es tan pequeña que se puede guardar en el bolsillo de un abrigo. Además del visor estándar, tiene un visor plano, a color LCD, que se desdobla. La PV-DV1000 de Panasonic y la mini VD AG-EZIU se han hecho muy populares. Sus 500 líneas de resolución exceden significativamente lo que los consumidores están acostumbrados a ver con la mejor señal de televisión por aire. Esta cámara tiene una conexión FireWire, que significa que la salida de la grabadora puede ser conectada directamente a un disco duro digital. La GR-DV1 de JVC es Incluso más pequeña que la Handycam de Sony. Esta tiene el tamaño de un libro de bolsillo. Tiene un lente zoom 10:1, que enfoca en macro, efectos especiales incluidos, y registra con condiciones de luz bastante bajas. Incluso permite grabar en una proporción de 4:3 y o de 16:9. Una cámara sin cinta fue lanzada al mercado por Hitachi a finales de 1997. La que codifica mpeg tiene también el tamaño de un libro de bolsillo y puede grabar hasta 20 minutos de video y audio en disco duro removible de 260 MB. La salida del disco puede alimentar a un VCR estándar para grabar, o el disco duro puede ser introducido a la computadora para edición digital. La resolución es comparable con el VHS estándar.En relación con los formatos digitales profesionales destacan los denominados de la línea "D". Muchos han sido los formatos exitosos en esta línea. El D-1 fue el primer estándar digital a nivel mundial. Aún es utilizado en algunas aplicaciones especializadas de post-producción. Después siguieron D-2 y D-3, cada uno adicionando ventajas técnicas. No existió un D-4, probablemente por su connotación de muerte en el lenguaje Japonés. 9.76 Tecnología de los Contenidos Multimedia TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 El D-5, uno de los más recientes, combina varias de las ventajas de formatos digitales anteriores, mientras que solventa los problemas inherentes de compresión y combinación de información de video. Los casetes D-5 graban hasta 2 horas de material en un solo videocasete. Por la posibilidad de grabar más información por unidad de tiempo, el formato D-5 puede ser adaptable a la producción DTV/HDTV. El formato D-5, junto a los Digital-S, ahora conocido como D9, y unos cuantos formatos de altas prestaciones es considerado uno de los formatos digitales sin compromiso 4:2:2, con compresión mínima, luminancia y crominancia grabados separadamente y con mayor rango de muestreo digital, etc. Sony introdujo el sistema DVCAM en la convención de la NAB (Asociación Nacional de Transmisores) de 1996 como un formato digital económico. En esta línea estaba incluida una innovadora línea híbrida de edición lineal y no lineal. Las cintas DVCAM son compatibles con el formato DV. A pesar del formato inicial 4:1:1, el DVCPRO introdujo una versión 4:2:2 llamada el DVCPRO 50 a finales de 1997. El formato DVCPRO se ha hecho muy popular en una gama bastante amplia de usuarios. El editor portátil DVCPRO AJ-LT75 laptop, que contiene dos unidades de reproducción, monitores a color, monitores estéreo y batería para poder operar, todo en un maletín portátil (tipo ejecutivo, para llevar documentos) se convirtió en una opción muy aceptada por reporteros. Posteriormente SONY introdujo un paquete similar. Gracias a esta unidad, las noticias pueden ser grabadas, editadas y transmitidas a la estación para su posterior salida al aire más fácil y eficientemente. Para muchos profesionales del video, la cámara DCR-VX1000 de Sony, con su impresionante calidad digital, fue razón suficiente para cambiar sus equipos de tecnología analógica a digital. Esta cámara utiliza tres CCD en vez de uno, factor que impulsó la calidad de la primera generación del video a un rango profesional. Aunque esta calidad no puede competir con la alta calidad de los equipos 4:2:2, de mayor precio, es si duda una excelente adquisición como formato para noticias y trabajos documentales. La calidad del formato Digital-S (D-9) 4:2:2 excede todos los formatos analógicos e incluso muchos de los formatos digitales. Este formato ofrece cuatro canales de audio sin compresión. D9 utiliza el diseño básico de transporte de VHS, aunque ha sido alterado junto con la cinta y el cuerpo del casete, para ajustarse a estándares profesionales. Aunque muchas máquinas D-9 son capaces de reproducir cintas S-VHS, el formato es muy superior al S-VHS, especialmente cuando se requieren aplicaciones multigeneracionales como la edición. La copia de una copia es la primera generación, otra copia de esa copia es la segunda, etc. Tecnología de los Contenidos Multimedia 9.77 TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 Una característica importante de este formato es la pre-lectura, que permite reproducir video y audio y simultáneamente grabar nuevas señales de video y audio en su lugar. Esto significa que la señal original puede ser modificada varias veces antes de ser regrabada. Por ejemplo, títulos y efectos especiales pueden ser añadidos mientras la cinta es reproducida. La tabla 9.9 muestra los formatos digitales más habituales. Formato C-format Beta SP Beta SX Digital Beta DV DVCCAM DVCPRO DVCPRO50 Digital S Tabla 9.9 Tipo de Cinta 25.4mm óxido 12.7mm partículas de metal 2.7mm metal evaporado 12.7mm metal evaporado 6.35mm patículas de metal 6.35mm metal evaporado 6.35mm metal evaporado 6.35mm partículas de metal 12.7mm partículas de metal Tracks 4 4 4 5 2 2 3 5 4 Formatos digitales más habituales. Estándares DVB El DVB (Digital Video Broadcasting) es un organismo encargado de regular y proponer los procedimientos para la transmisión de señales de televisión digitales compatibles. Está constituido por más de 220 instituciones y empresas de todo el mundo y los estándares propuestos han sido ampliamente aceptados en Europa y casi todos los continentes, con la excepción de Estados Unidos y Japón donde coexisten con otros sistemas propietarios. Todos los procedimientos de codificación de las fuentes de vídeo y audio están basados en los estándares definidos por MPEG. Sin embargo, los estándares MPEG sólo especifican la metodología de la compresión de las señales de audio y vídeo y los procedimientos de multiplexación y sincronización de estas señales en tramas de transporte. Una vez definida la trama de transporte es necesario definir los sistemas de modulación de señal que se utilizarán para los distintos tipos de radiodifusión tales como terrestre, satélite o cable. También deben definirse los tipos de códigos de protección frente a errores y los mecanismos de acceso condicional a los servicios y programas. DVB ha establecido varios estándares en función de las características del sistema de radiodifusión. Los más utilizados en la actualidad son el DVB-S y el DVB-C que contemplan las transmisiones de señales de televisión digital mediante redes de distribución por satélite y cable respectivamente. El DVB-T define la transmisión de televisión digital a través de redes de distribución terrestres utilizando los canales VHF convencionales. 9.78 Tecnología de los Contenidos Multimedia TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008 Además de estos estándares también están especificados sistemas para la distribución de señales de televisión digital en redes multipunto, sistemas SMATV (Satellite Master Antenna Televisión). También existen estándares que definen las características de la señalización en el canal de retorno en sistemas de televisión interactiva, la estructura de transmisión de datos para la encriptación y desencriptación de programas de acceso condicional, la transmisión de subtítulos, y la radiodifusión de datos (nuevos canales de teletexto) mediante sistemas digitales. Tecnología de los Contenidos Multimedia 9.79 TEMA 9. LA SEÑAL DE VÍDEO 9.80 UNED - CURSO 2007-2008 Tecnología de los Contenidos Multimedia