Javier Latorre&Iván Burriel PRINCIPIOS SOBRE FORMATOS DIGITALES Y HD 1.- RESOLUCIÓN Se trata del ancho por el alto que da el total de píxeles de la imagen. Podemos encontrar dos tipos de resoluciones "broadcast": 1.- Resolución SD (Standar Digital), que es 720x576 y que es la misma que el DV 2.- Resolución HD, que a su vez, ofrece dos posibilidades: 1920x1080 (SONY) 1280x720 (JVC y PANASONIC). Si hacemos una simple multiplicación vemos que 720x576 nos da 414.720 píxeles y que 1920x1080 nos da 2.073.600. Por eso HD es una definición considerablemente superior a la Definición Estándar SD 576X 720 414.720 PÍXELES HD 720x 1280 921.600 píxeles HD 1080 x 1920 2.073.600 píxeles 1 Javier Latorre&Iván Burriel Por norma, la resolución de un formato viene dada por su resolución vertical y puede ser de 1080 o de 720 o de 576 líneas. La otra cifra proviene a partir del formato de pantalla, y sólo hay dos: 4/3 para SD Y 16/9 para HD. Evidentemente, la resolución es uno de los factores más importantes para conocer la calidad de una imagen. 2.-MUESTREO (SAMPLER) Se definen R, G y B, como las componentes del rojo, verde y azul. Se define Y como la componente de luminancia. Se tiene que: Y(R,G,B) = 0,299 * R + 0,587 * G + 0,114 * B Digitalizar una imagen de vídeo tradicional ocupa demasiada información para la tecnología de equipos habituales. Lo que puede captar una cámara de vídeo se ve reducido en beneficio del flujo de información. Llamamos YUV a la señal RGB separada en luminancia/crominancia U(B,Y) = 0,493 * (B − Y) Y Luminancia 0,299 * R + 0,587 * G + 0,114 * B U B-Y crominancia V(R,Y) = 0,887 * (R − Y) V R-Y crominancia U(B,Y) = 0,493 * (B − Y) Por otra parte, el ojo humano es mucho más sensible a las variaciones de luz que a las de color, de modo que podemos digitalizar la señales U y V a la mitad de la frecuencia de muestreo de Y (mitad de resolución). Entonces eso es una relación de muestreo 4:2:2 . Partiendo de esta base se mantiene la luminancia completa y se reducen a la mitad la crominancia. De ahí que surja 4:2:2 En el caso de efectuar un muestreo 4:2:0 , como en el caso de un DVD pal, las muestras U y V se alternan, en cada campo . 2 Javier Latorre&Iván Burriel Se trata de una pérdida de información prácticamente inapreciable por el ojo humano pero que reduce considerablemente el peso de la señal. 3.- LA PROFUNDIDAD DE COLOR Se refiere a la cantidad de bits de información necesarios para representar el color de un píxel en una imagen digital. Debido a la naturaleza del sistema binario de numeración, una profundidad de bits de n implica que cada píxel de la imagen puede tener 2n posibles valores y por lo tanto, representar 2n colores distintos. En vídeo es por lo general de 8 ó 10 bits. Significa que a cada información que llega al píxel le vamos a dar más o menos cantidad de matices. 8 bits equivale a 2 elevado a la 8 en sistema decimal 256 10 bits equivale a 2 elevado a la 10 en sistema decimal 1024 Cada señal de vídeo son tres, hay que multiplicar 256x256x256 y tendremos 16.777.216, los 16 millones de colores. Pero con 10 bites tenemos 1024x1024x1024, esto es, 1.073.742.824, más de mil millones de colores y pese a que no sean apreciables, son importantes para editar y postproducir efectos (transiciones, cromas...) 4.- COMPRESIÓN La compresión, en digital, es casi siempre sinónimo de pérdida de calidad. Pero sucede que después de definir la resolución, el sampleo y la profundidad de color, aún así la señal resultante (pensemos que son 25 señales por segundo) era mucha cantidad, así que pensaron en reducirla mediante fórmulas complicadas (lo que se llaman "algoritmos") intentando quitarle "peso" pero sin pérdida "apreciable" de calidad. Parece complicado, pero lo que más se usa es una simple compresión jpeg. Sí, la misma que nuestras fotos: se reduce cada uno de los 25 cuadros (o frames, para ser bilingüe) de lo que sería un TIFF o un RAW (archivo sin compresión en la terminología SDL,) a un jpeg (acrónimo inglés que sólo significa joint picture expert group,). La compresión se suele anotar en términos de relación: 2:1, 5:1, 3,7:1, etc. Una compresión 5:1 nos indica que una imagen original de 100 megas pasa a 20, con lo que contra más compresión peor imagen. 3 Javier Latorre&Iván Burriel 5.- BITRATE O FRECUENCIA DE DATOS. A partir de resolución, muestreo, profundidad de color y compresión, obtenemos el bitrate ( frecuencia de datos), esto es, la cantidad de información digital que encierra cada uno de los formatos digitales. El bitrate se mide en megabites por segundo, mbs. Es lo que "pesa" una señal y lo que nos va permitir trabajar bien en los sistemas de edición y postproducción. DVCAM 25 Mbits DVCPRO 25 Mbits DVCPRO-50 50 Mbits Betacam-SX 18 Mbits Betacam Digital 95 Mbits DVCPRO-HD 100 Mbits Ejemplo de flujo de datos de video en diferentes formatos 6.-FRAMES/FIELDS. CUADROS/CAMPOS La resultante de que haya muchas variantes por cada familia de Alta Definición, es la multitud de frecuencias de cuadro o campos. Históricamente, en Europa y otras partes del mundo el sistema de televisión estándar tiene una velocidad de 25 imágenes por segundo. En Estados Unidos y Japón se usan 30 imágenes por segundo, mientras que la industria cinematográfica usa 24 imágenes por segundo. 4 Javier Latorre&Iván Burriel 7.- ENTRELAZADO O PROGRESIVO. Las emisiones de televisión estándar han sido siempre entrelazadas. Esto significa que cada imagen se transmite en dos mitades o campos: el primer campo contiene las líneas impares; el segundo campo contiene las líneas pares. Así, las imágenes, consistentes en dos campos entrelazados, se transmiten al doble de la frecuencia de cuadro – 50Hz o 60Hz. Ahora se le denominan esas velocidades de campos por su número de cuadros – 25i y 30i. Debido a las complicaciones del sistema NTSC, existe un pequeño número de frecuencias de cuadros “compatible NTSC”, cuya frecuencia nominal se divide entre 1.001. Así, la versión NTSC de 60Hz es de 59,94 y la de 30Hz de 29,97. Por otra parte, la industria cinematográfica ha usado siempre la velocidad de 24 imágenes por segundos (las cámaras graban siempre cuadros). Esto produce una especie de parpadeo característico debido a la baja frecuencia de muestreo temporal, pero resulta artísticamente atractivo por muchos productores y directores, sobre todo para la producción de dramáticos. La Alta Definición se está usando también en producciones cinematográficas, por eso se han definido velocidades de 24 imágenes por segundo en Alta Definición para cine. 8.- ESTÁNDARES; 1080 y 720 Los estándares HDTV han reconocido la convergencia entre la electrónica, cinematografía e industria informática, siendo una parte importante para la reproducción en modernas televisiones y producciones de cine. 5 Javier Latorre&Iván Burriel Existen dos “familias” de formatos de televisión en alta definición (HDTV) que se distinguen por el número de pixels y líneas. Una de las familias tiene 1.080 líneas activas de imagen mientras que la otra, tiene 720 líneas. Cada familia define varias frecuencias de visualización o imágenes por segundo. Una de las elecciones más importante de la alta definición, ha sido el escaneado entrelazado y progresivo. HD admite ambos, reconociendo las ventajas de cada uno de ellos. La forma más común para referirse a un estándar de alta definición, es usar el número de líneas y la frecuencia visualización. Por ejemplo, 1080/50i y 720/60p se pueden usar para definir el estándar, donde el primer número indica siempre el número de líneas, el segundo número indica la frecuencia de visualización, y la “i” o la “p” indica si el escaneado es entrelazado (i) o progresivo (p). 8.1.- Alta definición 1920 x 1080 Esta familia está definida internacionalmente por la SMPTE 274M (organization for motion picture and television engineers) y la subdivisión ITU-R BT.709-5. El estándar BT.709 define un formato de imagen y frecuencia de visualización, y todas sus variantes tienen 1920 pixels horizontales y 1080 líneas activas de imagen. Con una relación de aspecto 16:9 y siendo el pixel cuadrado, (1080 x 16/9= 1920) encaja en el mundo informático. El formato HD-CIF de 1920 x 1080 contiene 2,07 millones de pixels en una sola imagen de televisión (comparado con los cerca de 400.000 pixels de una imagen PAL o NTSC). Así, el aumento potencial de resolución es de un factor de casi 5 veces. Las variantes se refieren a las diferentes frecuencias de visualización, y la forma en que las imágenes son capturadas; de forma progresiva o entrelazada. La SMPTE define once (sí, 11) formatos de escaneado de HDTV 1920 x 1080, ocho de ellos progresivos y tres entrelazados. Existen diez sistemas de escaneado – ocho progresivos y dos entrelazados. Estos incluyen 25fps para Europa, 30fps para Estados Unidos y Japón y 24fps para la industria cinematográfica. 8.2.- Alta definición 1280 x 720 Definido internacionalmente por la SMPTE 296M, (organization for motion picture and television engineers) aunque no por la ITU, es una familia que incluye ocho sistemas de escaneado - todos en formato progresivo - teniendo 6 Javier Latorre&Iván Burriel todos una resolución de 1280 pixels horizontales y 720 lineas activas. Proporciona 921.600 pixels en una imagen, pero al estar definido como un formato de imagen sólo progresivo, acarrea algunas implicaciones. Las frecuencias de visualización son 23,98p, 24p, 25p, 29,97p, 30p, 48p, 50p, 59,95p y 60p. 9.- BIBLIOGRAFÍA Web de Wikipedia http://es.wikipedia.org/wiki/Alta_definicion Web de Sony profesional http://www.sony.es/biz/view/ShowFlexibleHub.action?logicalname=home&site=biz_es_ ES&sectiontype=Home Web de Panasonic broadcast http://www.panasonic-broadcast.es/es/ Web de “La Mecánica Audiovisual” http://www.redmecanica.com 7