El Color. El color no es una propiedad de los objetos, sino una impresión sensorial del observador, producida por la absorción por el ojo humano de la energía de ciertas radiaciones electromagnéticas y la elaboración de esta información en el cerebro. La longitud de onda () de estas radiaciones está comprendida aproximadamente entre 380 y 780 nm (nanometros, 1nm = 10-9 m = 0,000001 mm.), valores correspondientes a las sensaciones de violeta y rojo . Esta franja de longitudes de onda se denomina espectro visible y cuando nuestro ojo recibe simultáneamente las radiaciones comprendidas en esta franja, percibimos el color blanco. Si descomponemos la luz blanca, separando las radiaciones de distinta que la componen (debido a su distinto ángulo de refracción al atravesar un prisma), obtenemos una proyección del espectro visible en el cual apreciamos las bandas violeta, añil (o indigo), azul, verde, amarilla, naranja y roja. En el diagrama de la izquierda se representa la sensibilidad o eficiencia luminosa del ojo ante la presencia de radiaciones electromagnéticas de distinta Esta sensibilidad expresa la cantidad de energía que absorbe el ojo y la correspondiente intensidad del estímulo que produce. Este diagrama serviría para explicar la respuesta de un mecanismo de visión acromática ante distintas longitudes de onda, en el cual la distinta cantidad de energía absorbida se traduciría en sensación de brillo ; sin embargo, nosotros podemos distinguir una calidad cromática - el matiz o tinte - que diferencia las radiaciones en función de sus Esta diferenciación cualitativa se debe a la especialización de unas células fotosensibles denominadas conos, y que se encuentran situadas en la retina especialmente en el fóvea (el área de mayor resolución visual, correspondiente al centro de la imagen, donde hay unos 34.000). Los conos son de tres tipos : “rojos”, “verdes” y “azules” (R, G, B), según la zona del espectro visible que más les estimule. El comportamiento de los conos se muestra en este segundo diagrama, donde comprobamos que los tres tipos son sensibles a diferentes espectros, y que existen longitudes de onda que afectan a dos, e incluso a los tres tipos de cono. La suma de las repuestas de los conos da la respuesta global del ojo (línea punteada), que corresponde a la del gráfico anterior. El color se elabora en el cerebro a partir de la información aportada por los conos, creando una sensación conjunta que permite observar colores no presentes en el espectro visible, como las mezclas de rojo y azul. La interacción de las sensaciones Francisco Martí Ferrer, 1995-2001 procedentes de 2 o 3 tipos de conos supone un aumento de energía: la máxima excitación de los tres tipos de cono por una fuente luminosa produce el blanco, es decir, el color más brillante. A este proceso se le denomina síntesis aditiva del color, y puede experimentarse mezclando sobre una pantalla proyecciones de luz roja, verde y azul, cuyos colores se denominan colores primarios. A las mezclas de igual intensidad de dos de estos colores se les denomina colores secundarios y son complementarios de los primarios, ya que puede considerarse que a un color primario le “falta” un secundario (la suma de los otros dos primarios) para sintetizar el blanco. Los colores secundarios son el amarillo (R+G=Y, yellow), el cian (G+B=C, cyan) y el magenta (R+B=M, magenta). Captura, codificación y reproducción de imágenes con color. Los dispositivos de captura de imágenes (cámaras de fotografía digital, cámaras de vídeo, escáneres, películas fotográficas) y los dispositivos que emiten imágenes luminosas (monitores y proyectores de video), se basan en la síntesis aditiva del color, almacenando de forma separada los componentes de luz roja, verde y azul de las imágenes y restituyéndolos conjuntamente para reproducirlas. La mayoría de los colores visibles pueden capturarse y reproducirse por este sistema, representado por el modelo de color RGB (Red, Green, Blue) En este modelo, ilustrado por la figura de la izquierda, cada una de las componentes del color (denominadas colores primarios) está representada por un eje del espacio euclidiano, que posibilita unas coordenadas de color, expresadas en valores r,g,b (por x,y,z). La coordenada (0,0,0) implica la ausencia de luz, y corresponde al negro (K, de black) ; la coordenada (1,1,1) corresponde a la suma del máximo valor de los tres primarios (W, de white), la (1,0,0) al rojo (R), la (0,1,0) al al verde (G) y la (0,0,1) al azul. Las coordenadas (1,1,0), (1,0,1) y (0, 1, 1) corresponden a las mezclas del máximo valor de dos de los primarios, es decir, a sus complementarios. Si trazamos un cubo cuyos vértices coincidan estas ocho coordenadas, observamos que en el modelo, los colores complementarios quedan en vértices opuestos, y que en la diagonal entre el blanco y el negro se sitúan todos los grises acromáticos, es decir, aquellos colores cuyos valores de rojo, verde y azul son iguales entre sí. El cubo representa el subespacio de los colores producibles con las componentes RGB, en el que cada color es representable por sus coordenadas, es decir, las indicaciones de intensidad de cada componente. En la codificación informática del color se asigna una secuencia de 8 bits para la representación del valor de cada componente, de tal manera que existen 265 (28) valores para cada una, lo que posibilita 16, 7 millones de colores aproximadamente (224), lo que se conoce como color de 24 bits o color verdadero (true color). Esta cantidad de colores responde a la necesidad de que el observador no perciba diferencia entre dos colores en coordenadas adyacentes, de forma que puedan representarse adecuadamente imágenes con variaciones de color sutiles. Como hemos dicho anteriormente, el modelo de color RGB se utiliza para especificar colores procedentes de la mezcla directa de luz, y es válido para tecnologías de captura y reproducción de imagen basadas en materiales y sensores fotosensibles y en la proyección o emisión de luz. Sin embargo, no es aplicable a las mezclas de colores matéricos, es decir, los que utilizamos para pintar e imprimir, en tanto que no mezclamos luz, sino una serie de Francisco Martí Ferrer, 1995-2001 materiales cuya pigmentación se debe a su capacidad de absorber parte del espectro visible y devolver reflejado el resto. Cuando estos materiales son mezclados, suman su capacidad de absorción, por tanto, los colores materiales óptimos para conseguir todas las mezclas a partir de ellos serán aquellos que absorban íntegra y exclusivamente una de las componentes RGB y reflejen las otras dos, es decir, cian, magenta y amarillo. Si mezclamos un material cian (que absorbe la luz roja) en igual proporción con uno amarillo (que absorbe la luz azul), el material resultante absorberá ambas, y presentará un aspecto verde cuando se le ilumine con luz blanca; si mezclamos cian, magenta y amarillo, obtenemos negro, puesto que absorbemos íntegramente las componentes R, G y B. Esta forma de obtención de mezclas de color se denomina síntesis sustractiva, y se representa con el modelo de color CMY, que aparece en la ilustración de la izquierda. En artes gráficas, se realiza la separación de color de los originales a reproducir en cuatro planchas, correspondientes a cian, magenta, amarillo y negro. El negro se añade como compensación a la incapacidad de las tintas para obtenerlo, debido a la presencia de un medio aglutinante y a la impureza de los pigmentos industriales (el magenta es el más puro, el amarillo contiene una pequeña contaminación de magenta, que es aún más acusada en el cian). A este proceso de separación y reproducción del color se le llama cuatricromía, y a su modelo de color CMYK. La codificación de color CMYK asigna 8 bits a la descripción de cada tinta, es decir, 32 bits por color. Sin embargo, el numero de colores obtenible no es superior al del modelo RGB, puesto que el valor de la tinta negra procede de la reducción de cierta cantidad de las otras tres. En el modelo teórico, si restamos el mínimo valor de CMY a las tres tintas y lo asignamos al negro, obtenemos el mismo color (100 C, 50 M, 70 Y, 0 K = 50 C, 0 M, 20 Y, 50 K); sin embargo, esto supone que el negro de compuesto - el producido por síntesis equivale al negro directo, con lo cual sería innecesario el canal K. En consecuencia, los modelos de color de las imágenes CMYK están compensados para representar la diferencia del negro compuesto y el directo. De la misma manera, cuando convertimos una imagen RGB a CMYK, el negro se calcula a partir de una función llamada curva de generación de negro, que tiene en cuenta dicha compensación. Por otra parte, el rango de colores reproducibles en cuatricromía es considerablemente inferior al de los dispositivos RGB, por lo que los softwares profesionales tienen en cuenta qué colores están fuera de gama, aún cuando fueron generados en CMYK. Los colores CMYK definidos por el usuario suelen expresarse en porcentaje, realizando el software su conversión en valores de 32 bits. Francisco Martí Ferrer, 1995-2001 Una tercera forma de describir la mezcla de colores está orientada al usuario, en función de tres sensaciones: la tonalidad del color (matiz), la pureza (saturación) y la luminosidad (valor, brillo, o claridad). Estos son parámetros intuitivos por los que describimos cualquier color cotidianamente (por ejemplo, decimos: un verde azulado (matiz), apagado (saturación) y claro (brillo). En base a ellos se crean los modelos HSV 0 HSB y HLS, los cuales parten de la proyección del cubo del modelo RGB visto desde la diagonal principal para describir un hexágono cromático, en el cual el matiz (Hue) se reparte angularmente, y la saturación (S) aumenta a medida que un punto está más alejado del centro, que corresponde a la diagonal principal de grises acromáticos. Añadiendo una tercera dimensión, basada en la luminancia del color, obtenemos el modelo HSV (matiz, saturación, valor), también llamado HSB (matiz, saturación, brillo), y el modelo HLS (matiz, claridad, saturación). Estos modelos representan subconjuntos del espacio RGB, y su diferencia estriba en la consideración de que la luminosidad de los colores saturados es la máxima (HSV, HSB), o que ésta sólo es aplicable al blanco, y los colores de máxima saturación tienen un 50% de la luminosidad máxima (HLS). En ambos casos se cumple la condición de que ciertos valores no tienen efecto o son irrelevantes; por ejemplo, un color cuya componente B, V o L sea 0, siempre será negro independientemente del valor que demos a su matiz y a su saturación, de la misma forma que los colores cuya B, V o L no coincida con la de los colores puros (es decir, que no esté situado sobre el hexágono principal) no puede tener la máxima saturación , por lo que a partir de cierta saturación se situarían fuera del espacio del modelo, siendo irrepresentables. En este segundo caso, los valores por encima de la saturación permitida para el brillo o claridad del color son irrelevantes, y expresan todos el mismo color. Cuando trabajamos con modelos de color, el software que utilizamos es capaz de realizar las conversiones entre ellos, debido a que trabaja con un modelo cuya capacidad de representación de colores es superior, es decir, abarca un espacio de color del cual los tres modelos que hemos visto son subconjuntos. Este modelo generalmente es el l*a*b*, descrito por la CIE (commission Internationale de L’Eclariage, Comisión Internacional de la Iluminación), basado en las componentes de luminancia (l) y las mezclas entre verde y rojo (a) y entre amarillo y azul (b). Por último, en el siguiente esquema representamos los tipos de imágenes de mapa de bits más frecuentes en función de la paleta de colores que se utiliza para describirlos. En cada caso, se representa a la izquierda el valor numérico en binario y decimal de cada uno de un conjunto de cuatro pixels de muestra, cuya transcripción en color se muestra a la derecha. En el caso de las imágenes compuestas de varios canales de color (RGB y CMYK), se muestra también la síntesis que producen. Francisco Martí Ferrer, 1995-2001 Las imágenes de color indexado responden a la necesidad de codificar color sin utilizar el sistema de componentes, que obliga a la utilización de 24 bits por pixel. En estos casos, la imagen almacena una paleta de color arbitraria referenciada al modelo RGB, lo que permite reconstruirla en dispositivos que utilizan este sistema. Su uso se restringe a medios y soportes en los que es importante reducir cantidad de información cuando se expresan imágenes en color, por ejemplo, en la Web, debido a la escasa velocidad de transmisión de datos, o en una animación integrada en una aplicación multimedia o en un videojuego, donde la velocidad de un adaptador gráfico convencional (tarjeta de video) no permite refrescar a suficiente velocidad una secuencia de imágenes RGB. Es también el caso de las paletas del sistema, que deben expresar una variedad cromática con 8 bits por pixel, para representar el entorno gráfico del sistema operativo con adaptadores gráficos convencionales cuando se trabaja a altas resoluciones de pantalla (como se verá en las siguientes secciones, la cantidad de información que puede manejar un adaptador gráfico se reparte entre el número de pixels y la profundidad de color de éstos). Cantidad de colores simultáneos en una imagen. El número de colores diferentes y simultáneos que puede expresar una imagen de mapa de bits viene determinado por la cantidad de información asignada a cada píxel para determinar su color. El número de colores es una potencia de dos (los dos estados posibles del bit) cuyo exponente corresponde al número de bits utilizados para describir el color del pixel. En el Francisco Martí Ferrer, 1995-2001 caso de una imagen compuesta de varios canales de color, el exponente será el producto de la cantidad de bits en cada canal por el número de canales. Hay que observar que los canales alfa - que no indican color, sino transparencia - no entran en el cómputo. C2 c ic 2ip Donde C = Nº de colores posibles simultáneamente en una imagen c = Nº de canales de color ic = Cantidad de información por pixel para cada canal de color (en bits) iP = Cantidad de información por pixel (en bits) Un caso aparte es el modelo de color CMYK, en el cual el canal negro no indica propiamente color, sino que compensa el defecto de producción de negro de los otros tres canales. Cuando desde una aplicación convertimos una imagen creada en RGB a CMYK para su impresión, el canal negro es calculado en un proceso denominado generación del negro, y que podemos configurar en dicha aplicación. Por otra parte, la gama de color, es decir, el rango de colores representables se adapta al rango obtenible con las tintas de impresión. Los colores fuera de rango de impresión son sustituidos por los más próximos dentro de dicho rango. Algunas aplicaciones permiten previsualizar un aviso de gama, indicando cuáles son estos colores, lo que permite ajustar la imagen RGB antes de su conversión. Por último, señalar que ningún dispositivo puede mostrar el mismo número de colores que los definidos por el modelo RGB de 24 bits. Cuando vemos una imagen en pantalla, los colores definidos son representados por el monitor con los colores disponibles dentro de su gama. Ejemplo: Cálculo del número de colores posibles simultáneamente en una imagen RGB C = 2(3.8) = 224 = 16.777.216 colores Cantidad de información de una imagen. I ph pv c ic n bits I ph pv ip n bits n n/8 n / 8 / 1024 bytes Kb Mb 8 1024 1024 n n/8 n / 8 / 1024 bytes Kb Mb 8 1024 1024 Donde I = Cantidad de información de una imagen Francisco Martí Ferrer, 1995-2001 ph = Nº de pixels en horizontal pv = Nº de pixels en vertical c = Nº de canales, incluyendo canales de color y canales ic = Cantidad de información por pixel para cada canal (en bits) ip = Cantidad de información por pixel (en bits) Ejemplos: Cálculo de la cantidad de memoria principal (Incluyendo RAM virtual) requerida para abrir desde una aplicación una imagen CMYK de 700 x 500 pixels, y que conteniene 2 canales de máscara. I = 700 . 500 . 6 . 8 2,002716064453 Mb = 16.800.000 bits = 2.100.000 bytes = 2050,78125 Kb = Cálculo de la cantidad de memoria de vídeo (VRAM) requerida por un adaptador gráfico para mostrar una imagen de 1.024 x 768 pixels en color de 24 bits/pixel (16,7 Mill. de colores). I = 1.024 . 768 . 24 = 18.874.368 bits = 2.359.296 bytes = 2.304 Kb = 2,25 Mb Hay que señalar una diferencia sustancial entre los dos ejemplos: Una imagen de mapa de bits puede contener tantos pixels y canales como la aplicación y el sistema en que fue creada permitieron. Si abrimos esta imagen desde una aplicación que nos permita editar dicha información, necesitamos que ésta esté contenida en la Memoria Principal. Por otro lado, lo que vemos en la pantalla es la información que la aplicación y el sistema operativo envían al adaptador gráfico en el modo de imagen configurado actualmente, es decir, con una resolución (320x200, 640x480, 800x600, 1024x768, 1280x1024, etc.) y un número de colores determinados (24=16, 28=256, 216= 65.536, 224=16,7 Mill.). Generalmente, esta información no coincide con la de la imagen que estamos trabajando. Por ejemplo, podemos editar una imagen de 16,7 millones de colores con el adaptador gráfico funcionando a 256 colores, o editar una imagen de 5.000x5.000 pixels con el adaptador gráfico mostrando 640x480 pixels. Resolución de una imagen. La resolución expresa la cantidad de pixels de la imagen por unidad de longitud. Francisco Martí Ferrer, 1995-2001 p l r Este valor se utiliza cuando se digitaliza una imagen y cuando se reproduce en un soporte, es decir, cuando entran en juego el tamaño de la imagen original, el tamaño del soporte de reproducción y el número de pixels por unidad de longitud que pueden producir los dispositivos de entrada y de salida. En la siguiente ilustración, se muestra la diferencia entre distintas resoluciones de entrada al digitalizar una imagen en un escáner. La imagen con mayor resolución contiene más cantidad de información, por lo que será necesario utilizar más memoria para almacenarla y editarla.. Conociendo dos de estos datos: resolución del dispositivo, dimensiones de la imagen y número de pixels en cada dimensión, podemos conocer el tercero. La resolución se expresa normalmente en p.p.i. (pixels per inch, pixels por pulgada). r p l ; l p r ; p lr Ejemplo: Cálculo del número de pixels en horizontal que deberá tener una imagen para ajustarla a la resolución de un dispositivo de impresión sin trama (impresora de sublimación) de resolución 300 p.p.i., si queremos que la imagen impresa tenga una longitud horizontal de 7 cm. 7cm = 7/2,54 pulgadas = 2,756 pulgadas ph = 2,756 . 300 = 827 pixels Francisco Martí Ferrer, 1995-2001 Relación entre resolución, tamaño y cantidad de información de una imagen. De lo expuesto anteriormente, deducimos que: I p h p v i p (r l h ) (r l v ) i p Donde r= Resolución, expresada generalmente en p.p.i. (pixels por pulgada) ph = Nº de pixels en la dimensión horizontal de la imagen pv = Nº de pixels en la dimensión vertical de la imagen lh = Longitud horizontal de la imagen, expresada generalmente en pulgadas lv = Longitud vertical de la imagen, expresada generalmente en pulgadas ip = Cantidad de información de cada pixel Ejemplo: Cálculo de la cantidad de información de una imagen RGB (24 bits por pixel) con una resolución de 300 p.p.i., y unas dimensiones de 3 x 7 pulgadas I = (300 . 3) . (300 . 7) . 24 = 45360000 bits = 5,4 Mb Relación entre la resolución de salida y la resolución de dispositivo. Cuando la profundidad de color de la imagen digital es igual o menor que la del dispositivo de salida, la resolución de salida (la que asignamos a la imagen digital) debe ser igual a la resolución del dispositivo, puesto que cada pixel del dispositivo es capaz de representar correctamente un pixel de la imagen. Es el caso de una imagen de RGB, CMYK, de escala de grises o B/N para impresión en una impresora de sublimación o térmica, o de una imagen B/N (dibujo de líneas) en una filmadora de fotolitos. rs rd En el caso de dispositivos que trabajan con unas cantidades fijas de pixels (monitores de ordenador, de televisión, tarjetas con salida a cinta de vídeo analógico y filmadoras de Francisco Martí Ferrer, 1995-2001 diapositivas), el número de pixels debe ser el correspondiente al área de pantalla que se quiera asignar a la imagen. Cuando la profundidad de color de la imagen digital es mayor que la del dispositivo de salida, la resolución de salida dependerá de la relación entre profundidades de color y de la técnica utilizada para reproducir la gama tonal de la imagen. Por lo general, este problema se da al reproducir imágenes CMYK en dispositivos que utilizan 1 bit para cada pixel de cada canal de color (filmadora de fotolitos, impresora láser, impresora de chorro), o imágenes de escala de grises en dispositivos monocromos. Existen dos técnicas principales de reproducción tonal en dispositivos de 1 bit : el tramado de semitonos y la difusión del error (izquierda y derecha, respectivamente, en la imagen siguiente). El tramado de semitonos emula la trama mecánica tradicional de las artes gráficas. Cuando se fotografiaba el original de tono continuo en la cámara vertical para producir el fotolito, se interponía entre la película y el cristal superior una lámina transparente con puntos opacos e idénticos de una forma determinada (elíptico, diamante, redondo, etc.) agrupados en líneas con una orientación (ángulo de trama). Dichos puntos actuaban como diafragmas, produciendo en el fotolito manchas alineadas con la forma del punto, y que variaban de tamaño según la cantidad de luz que devolviera el original. La reconstrucción del tono continuo se produce por el fenómeno conocido por integración espacial, que hace que el observador promedie la intensidad tonal de un área observada a cierta distancia (compruébese con la imagen anterior). Encontramos el tramado de semitonos en la mayoría de imágenes impresas en offset actualmente (puede observarse a simple vista en los carteles publicitarios, o con un cuentahilos en libros y revistas). Cuando se reproduce en cuatricromía (CMYK) se asigna un ángulo de trama a cada tinta para evitar que monten, lo que produce las típicas rosetas en las intersecciones de las líneas. A la densidad de líneas de puntos se le denomina lineatura, y suele expresarse en líneas por pulgada (lpi). La transformación de imágenes digitales de escala de grises (cada canal de una imagen CMYK) en tramados de semitonos se produce reservando un área de pixels del dispositivo de salida para representar cada punto de impresión, con sus variaciones de tamaño según un Francisco Martí Ferrer, 1995-2001 patrón de crecimiento, como se muestra en la imagen inferior, para un punto diamante sobre una matriz de 9 x 9 pixels. El número de tonos representable (T) por la matriz es igual al número de pixels que pueden estar en negro simultáneamente (9 x 9) más uno (todos en blanco). Dividiendo la resolución del dispositivo por la lineatura empleada obtenemos el número de pixels por lado de la matriz. Por tanto : 2 r T d 1 ; lin lin rd T 1 De esta manera, la lineatura óptima para reproducir la gama completa de intensidades (256 niveles) en una filmadora de 4000 ppi. , es decir, utilizar matrices de 16 x 16 pixels, capaces de producir 256 + 1 tonos es : lin 4000 257 1 4000 250lpi 16 En este caso, la calidad de la imagen está garantizada por la altísima resolución del dispositivo de salida, que permite representar toda la gama con una lineatura suficiente para producir la integración espacial (y por tanto la continuidad de las formas en la imagen reproducida) examinando la reproducción a muy corta distancia, siendo prácticamente imposible ver la trama sin un cuentahilos. No obstante, la lineatura viene también determinada por la ganancia de punto del medio de impresión,es decir, la expansión de la mancha de tinta debido a la porosidad del papel. El papel de mayor calidad tiene menor ganancia de punto, de forma que las lineaturas habituales son : 85 lpi. para periódicos, 133 a 150 lpi. para revistas, y 200 lpi. para catálogos y libros de arte impresos en papel cuché de alta calidad. Cuando se imprime con dispositivos de baja resolución, es conveniente encontrar un equilibrio entre el número de tonos y el detalle de las formas. Cuanto más baja es la lineatura, más grandes son los puntos, y por tanto, la integración espacial se produce a mayor distancia, restando capacidad para reproducir detalles, aunque el número de tonos es mayor, como puede observarse en la siguiente ilustración (véase a distintas distancias para experimentar la integración espacial). Francisco Martí Ferrer, 1995-2001 Puesto que cada punto de semitono representa un tono dentro de la gama de la imagen, cabría suponer que la resolución de salida debería ser igual a la lineatura, correspondiéndole a cada pixel un punto de semitono. Sin embargo, debido al ángulo de trama, no existe necesariamente una correspondencia en el emplazamiento de ambos, por lo que la resolución de salida debe ser entre vez y media y el doble de la lineatura, con lo cual evitamos la formación de dientes de sierra (aliasing) en la reproducción. 2 lin r s 1,5 lin Las técnicas de difusión del error esparcen el error producido por la representación de un pixel de una paleta con cierta profundidad de color en un dispositivo con menor profundidad de color, de forma que el error entre el tono del pixel y el que se le asigna se arrastra en el cálculo de los pixels adyacentes. La primera de estas técnicas es la de Floyd y Stenberg (1975), consistente en sumar parte del error (entre el valor real de un pixel y el valor que se le asigna) a los valores reales de cuatro pixels adyacentes: 7/16 del error al pixel situado a la derecha, 3/16 al pixel debajo a la izquierda, 5/16 al pixel debajo, y 1/16 al pixel debajo a la derecha (el hecho de que que los cuatro errores sumen exactamente el valor del error del pixel evita la formación de aliasing). Al no reservar una matriz de pixels de dispositivo para la elaboración de semitonos, produce la integración espacial en menos superficie, por lo que con idéntica profundidad de color aparente obtenemos mejor definición de detalle. Existen diversos desarrollos y variantes de esta técnica, concretados en algoritmos como los de Floyd-Stenberg de 2 y 4 vías, y otros propietarios de fabricantes de periféricos y software de impresión, que mejoran continuamente la calidad de la imagen obtenida. En impresión, se utilizan sobre todo en sistemas láser y de chorro de tinta, aunque cada vez están más implantadas en las artes gráficas. Es conveniente realizar una prueba de impresión para precisar la relación entre resolución de salida y resolución de dispositivo; en general recomendamos la siguiente : 1 1 rd rs rd 4 6 Relación entre la resolución de entrada y la resolución de salida. Una vez determinada la resolución de salida (rs), hay que calcular la resolución de entrada (re) para obtener en cada imagen digitalizada el número de pixels necesarios. Podemos calcular la resolución de entrada a partir de la comparación de la distancia entre dos puntos de la imagen en el original (l) y en la impresión (l’), lo cual nos dar.á un factor de escala de Francisco Martí Ferrer, 1995-2001 entrada - salida (Ees): aplicando esta escala a la resolución de salida, obtendremos la resolución de entrada, como expresa la siguiente fórmula. E es l' l ; re E es . rs Es el caso de la imagen “A“ de la ilustración inferior, en el que conocemos el ancho de la zona que va a actuar como fondo del montaje. Supongamos que mide 100 mm. y va a ocupar el ancho completo de un área de impresión de 811 x 1139 mm., y que la resolución de salida es de 60 ppi. lA = 100 mm. l’A = 811 mm. rs = 60 ppi. reA EesA . rs l' A 811 . rs .60 486,6 ppi. lA 100 Dado que la resolución es la razón entre el número de pixels y la longitud de la imagen, y que el número total de pixels de una imagen rectangular (p) es el producto del número de pixels en la dimensión horizontal (ph) por el número de pixels en la dimensión vertical (pv) ; podemos comprobar que el número de pixels obtenido es correcto. r p l ; l p r ; pv l r p ph . pv 1" 25,4mm l' A h 811 31,929" 25,4 l' A v 1139 44,842" 25,4 Francisco Martí Ferrer, 1995-2001 lAh 100 3,937" 25,4 lAv l A h . l' A v l' A h 3,937 44,842 5,529" 31,929 peA peAh . peAv (l Ah . reA ).(l Av . reA ) 3,937486,6 5,529486,6 5154140 pixels psA psAh . psAv (l' Ah . rsA ).(l' Av . rsA ) 31,9296044,84260 5154355 pixels El error procede de los decimales considerados en la conversión a pulgadas. Conociendo el número de pixels, podemos hallar la cantidad de información de la imagen en distintos modos de color (escala de grises, RGB, CMYK). Este dato repercute en la capacidad de nuestro hardware para procesar la imagen y en los soportes de almacenamiento para transportarla (ver fórmula en páginas anteriores). Para evitar calcular el tamaño de todas las imágenes de un montaje en el soporte impreso, podemos hallar la resolución de entrada de una imagen en función del tamaño deseado en relación a otra imagen cuya re se conozca. Las re de las imágenes “B” y “C” de la ilustración pueden hallarse calculando previamente los factores de escala entre “B” y “A” (EBA) y entre “C” y “B” (ECB) reB E BA . reA l BA .r ; l B eA reC E CB . reB lCB .r lC eB Las imágenes obtenidas tendrán entre sí un tamaño proporcional al previsto en la impresión cuando sean montadas en un software de tratamiento de mapas de bits, en nuestro caso, Adobe Photoshop™ (ver ilustración anterior). Esto se debe a que el montaje se realiza superponiendo los píxeles de las imágenes, independientemente de su resolución. Sin embargo, antes de imprimir el resultado, deberá aplicarse a la imagen la resolución de salida prevista sin cambiar el número de pixels, para redistribuirlos en función del tamaño final. Si se cuenta con un escáner con interfaz de vía de impresión y escala, se seleccionará como resolución de la vía de impresión la rs prevista y se aplicará como escala Ees x 100 (la escala viene expresada en porcentajes). Este tipo de interfaz permite seleccionar un área de escaneado y ver la variación de sus dimensiones en cm. según la escala, por lo cual lo más frecuente es modificar la escala hasta que el tamaño del área seleccionada coincida con el previsto en la impresión. Para proporcionar imágenes entre sí, se multiplica EBA por la escala aplicada a la imagen A. En realidad, el escáner digitaliza a una re calculada mediante la rs de la vía de impresión y la escala aplicada, y su software cambia la resolución a rs sin alterar el Francisco Martí Ferrer, 1995-2001 número de pixels: al realizar el cambio de resolución de forma automática, nos evita tener que hacerlo en nuestro software de tratamiento. Cuando no se sabe exactamente el tamaño de impresión de las imágenes, debemos digitalizarlas considerando el máximo tamaño previsto, puesto que una eventual reducción de su número de pixels en el montaje no afectará a la calidad de la imagen final. Si la reducción es considerable, habrá que aplicar a la imagen un filtro que aumente los saltos de nivel de brillo, como la máscara de enfoque de Adobe Photoshop. Cuando un proyecto exige distintos tamaños y soportes de impresión de una imagen, ésta ha de digitalizarse a la resolución necesaria para el soporte donde sean necesarios más pixels. Si la diferencia de pixels necesarios entre distintos soportes es considerable, habrá que reducir el número de pixels de la imagen y utilizar la máscara de enfoque. Formatos de imagen. Se denomina formato de un archivo o documento a la norma que se utiliza para codificar y almacenar su información. El formato puede ser propietario o de intercambio, según se quiera almacenar toda la información susceptible de ser reconocida por la aplicación en que se creó el archivo, o se quiera almacenar información reconocible por un amplio número de paquetes de software y dispositivos. El método de trabajo adecuado consiste en almacenar los datos en el formato propietario de la aplicación que utilicemos, lo que permite conservar todas la información de nuestro trabajo, y crear copias en formatos de intercambio cuando debemos migrar nuestros resultados a otros entornos. Así, por ejemplo, siempre que trabajemos un proyecto en Photoshop, lo salvaremos en formato PSD (el formato propietario), lo que nos permite conservar la información de capas, trazados, guías, etc..., y crearemos copias de la imagen resultante en formatos de intercambio cuando queramos trabajarla en otra aplicación o reproducirla mediante un determinado dispositivo. Los formatos de intercambio de imágenes de mapa de bits más utilizados son : TIFF, TIF (Tagged Image File Format). Formato de archivo de imagen etiquetada. Introducido por Aldus Corporation como archivo de almacenamiento de imágenes procedentes de escáner. Almacena imágenes de 1 bit, escala de grises, color indexado, RGB y CMYK. Permite almacenar los canales alfa (máscaras). Admite compresión (reducción del tamaño del archivo) sin pérdida de información LZW (Lempel - Ziv - Welch). Admitido por la mayoría de software de ilustración y diseño (Aldus Freehand, Adobe Illustrator, Corel Draw, etc.) Se utiliza para almacenar imágenes de escáner y para exportar mapas de bits a software de ilustración. GIF (CompuServe Graphics). Almacena imágenes de color indexado. Muy utilizado actualmente en el Worl Wide Web de Internet. En este entorno, permite definir un color transparente y almacenarse en modo entrelazado (que, al recupera la imagen, permite verla en Francisco Martí Ferrer, 1995-2001 baja resolución mientras se carga).También puede almacenar secuencias de imágenes, por lo que se utiliza para animaciones (generalmente iconos animados). JPEG, JPG (Joint Photographic Expert Group). Almacena imágenes RGB y de escala de grises. No almacena canales alfa. Admite compresión con pérdida de información. El usuario elige la relación compresión/calidad de la imagen, valores inversamente proporcionales. Muy utilizado actualmente en el Worl Wide Web de Internet, por permitir una buena compresión con una calidad de imagen aceptable, lo cual disminuye sensiblemente el tiempo de carga para imágenes RGB de 24 bits. EPS (Encapsulated Postcrip). Formato basado en el lenguaje Postcript de descripción de página para periféricos de impresión. Permite exportar gráficos de mapas de bits a software de maquetación, ilustración y diseño, pudiendo en éstos tener acceso a cada tinta por separado (CMYK, una tinta o varias tintas) y modificar su color. El formato puede almacenar una representación alternativa de la imagen en RGB o color indexado a baja resolución, para facilitar su visualización en pantalla. Francisco Martí Ferrer, 1995-2001