Fuente: Gráficos digitales David Gómez Fontanills Alba Ferrer Franquesal.
1. Introducción a los gráficos digitales
1.1. Imagen digital frente a imagen analógica
1.1.1. Introducción: gráficos codificados
La digitalización de datos introduce un cambio significativo en sus posibilidades de manipulación y tratamiento. También trabajar con gráficos digitales es significativamente distinto a hacerlo con gráficos analógicos. Una imagen analógica es, por ejemplo, la que podemos trazar con un lápiz o un pincel sobre un papel. La llamamos analógica desde la perspectiva de lo digital. Es analógica porque no ha sido generada por un proceso codificado ni se almacena de forma codificada.
Durante años, siglos, milenios, los gráficos han sido principalmente analógicos. Una imagen digital es una imagen codificada a través de dígitos (símbolos arbitrarios que no guardan una analogía con el referente). Antes de la informática ha habido imágenes codificadas de esta forma como, por ejemplo, el tejido de jacard que usaba tarjetas perforadas para los telares (y que son el antecedente directo de las tarjetas perforadas de los primeros ordenadores) o el bordado a punto de cruz que usa retículas y símbolos para codificar los colores.
Pero cuando se habla de gráficos digitales se suele hacer referencia a la tecnología informática. Ésta codifica la información a través de un sistema numérico binario basado sólo en ceros y unos. Su unidad básica es el bit (del inglés binary digit) que puede tener uno de los dos valores. Agrupando los bits en paquetes de ocho (bytes) y asignando a cada uno de ellos un valor numérico se empieza una cadena de sofisticación creciente a través de la cual es posible almacenar cualquier información. En consecuencia lo que tenemos es un sistema de codificación de la información que es independiente del soporte (puede almacenarse en cualquier soporte que pueda dar ceros y unos, sea magnético, óptico o de cualquier otro tipo) y la información puede ser copiada con total fidelidad. A diferencia de la imagen analógica, en la imagen digital la copia es igual al original porque se copian números y no hay “ruido” que interfiera en el proceso.
Bit, la base del sistema binario
En informática, “bit” es la contracción de la expresión binari digit (dígitobinario). Pero a la vez significa en inglés “pedacito” o “porción”. El bit representa una variable binaria en la que cada dígito toma el valor de 0 o el valor de 1. Dentro del ordenador, constituye, por lo tanto, la unidad más pequeña en la que se puede codificar la información (palabra, número, instrucción). En consecuencia, cualquier información se mide por el número de bits necesarios para su representación en un sistema binario. El sistema binario trabaja sobre la base de 2, es decir, utiliza únicamente 2 cifras para expresar cualquier cantidad. Estas cifras son los dos valores que puede tener un bit: 0 y 1. El sistema en el que trabajan los ordenadores es binario
Tipos de medida de almacenamiento
Las unidades de medida para almacenamiento son las herramientas que nos permiten cuantificar la cantidad de datos que pueden ser guardados en diferentes dispositivos, desde tu teléfono móvil hasta los centros de datos de mayor capacidad que residen en algún lugar remoto.
Las unidades de medida para almacenamiento son como los compartimentos secretos dentro de tu dispositivo donde se guardan tus fotos, videos, música, documentos y más.
En términos sencillos, estas unidades son como los armarios digitales donde tus datos descansan. Cada archivo ocupa un espacio en estas unidades. La capacidad de almacenamiento se mide en diferentes unidades, y cada una tiene su propia capacidad para guardar datos.
Medidas de almacenamiento
Bit (b)
Comencemos con el bit, la unidad más pequeña de almacenamiento. Un bit es como el "sí" o el "no" de un equipo. Es un solo dígito binario, un 0 o un 1. Pero estos pequeños bits son poderosos. Solo se necesita uno para indicar si algo está encendido o apagado en el mundo digital. Un bit no guarda mucha información por sí mismo, pero es la base de todo lo demás.
Byte (B)
Ahora, imagina que agrupas 8 bits juntos. Eso forma un byte. Un byte es como una pequeña caja que puede contener una letra, un número o algún otro símbolo. Es la unidad básica que los ordenadores usan para representar un carácter. Por ejemplo, la letra "A" se representa con el byte 01000001. En dispositivos antiguos, como los primeros ordenadores, un byte podría ser suficiente para almacenar una letra completa.
Kilobyte (KB)
Un kilobyte es aproximadamente igual a mil bytes. Piensa en ello como una página en un libro. Puede contener mucho más texto o información. Antes, los programas y los documentos solían caber en kilobytes. Una hoja de texto sencilla podría ocupar alrededor de 2 o 3 kilobytes.
Megabyte (MB)
Un megabyte equivale a aproximadamente un millón de bytes. Las imágenes y documentos más grandes viven en el territorio de los megabytes. Por ejemplo, una foto de alta calidad podría tener un tamaño de 2 o 3 megabytes.
Gigabyte (GB)
Un gigabyte es igual a mil megabytes. Aquí es donde viven las películas, la música y otros archivos multimedia. Una película en calidad estándar podría ocupar alrededor de 1.5 gigabytes. Los discos duros de los ordenadores modernos suelen medirse en gigabytes.
Terabyte (TB)
En terabyte es aproximadamente igual a un millón de megabytes. Los discos duros externos y las nubes personales pueden almacenar terabytes de datos. Los videos en alta definición y los grandes proyectos de diseño gráfico encuentran su hogar aquí.
Petabyte (PB)
Un petabyte es igual a mil terabytes. Grandes empresas y organizaciones utilizan sistemas de almacenamiento con capacidades de petabytes para guardar información a gran escala, como datos de investigación científica o archivos históricos digitales.
Exabyte (EB)
Un exabyte es aproximadamente igual a mil petabytes. Centros de datos masivos, que contienen enormes cantidades de información en servidores, pueden alcanzar capacidades de exabytes. Aquí es donde residen las huellas digitales de nuestra era.
Zettabyte (ZB) y Más
El zettabyte tiene la capacidade de guardar grandes cantidades de información, así como el yottabyte, el brontobyte y el geopbyte. Estas unidades son tan enormes que aún estamos descubriendo cómo aprovecharlas por completo
1.1.2. Cambios para los grafistas
A mediados de la década de los ochenta los ordenadores personales y el software de autoedición entraron en los estudios de diseño transformando por completo la forma de trabajar de los profesionales de las artes gráficas.
Los programas de autoedición –o publicación de escritorio, conocida en inglés como desktop publishing (DTP)– eran programas orientados a la maquetación de libros y revistas o al diseño de carteles y folletos. El valor añadido se daba principalmente por el hecho de que lo que se veía en pantalla se aproximaba bastante al resultado final impreso y permitía modificar un diseño con facilidad.
La dimensión conceptual del cambio la expresa muy bien Elena Fuenmayor de la siguiente forma:
“...el sólo hecho de haber transformado las rutinas de trabajo en tantos sentidos: visualizar las ideas al instante, recombinar los elementos de la página con mayor libertad, recomponer en varias soluciones diferentes una misma idea, experimentar personalmente con otras especialidades afines al diseño (...) ha influido indiscutiblemente en el replanteamiento de la naturaleza de la página. Replanteamiento que no se limita a la investigación de nuevas soluciones formales, sino que llega al terreno de lo simbólico al ser capaz de generar un lenguaje visual original.” Elena Fuenmayor (2001). Ratón, ratón... (ed. original 1997). Barcelona: Gustavo Gili.
Durante la década de los noventa la publicación en formato digital fue cobrando fuerza. El soporte final ya no es sólo el papel; el gráfico será visto en pantalla (del ordenador, del móvil, etc.). Especialmente con la expansión de Internet, el ordenador, además de instrumento de creación, pasa a ser el dispositivo donde se visualiza lo publicado en la red.
Diseñar algo para que sea visto en pantalla y a través de un dispositivo informático es distinto, técnica y conceptualmente, a hacerlo para ser impreso en papel. En pocos años el trabajo del grafista ha sufrido dos grandes transformaciones que le han aportado flexibilidad y nuevas posibilidades.
1.1.3. Dispositivos de entrada y salida de datos
A grandes rasgos un ordenador suele dividirse en tres partes:
1) Unidad Central de Proceso (CPU en sus siglas inglesas) que incluye el procesador y el resto de circuitos y chips que lo complementan.
2)Memoria de acceso directo (RAM) y de almacenamiento (módulos de memoria con circuitos integrados, disco duro y diversidad de discos removibles).
3)Dispositivos de entrada y salida de datos (además de sus tarjetas controladoras).
Resulta obvio que estos últimos son los que permiten a una persona trabajar (interactuar) con el ordenador. Unos son la vía de entrada de información e instrucciones y los otros la forma de verificar el trabajo realizado y visualizar resultados.
En referencia al trabajo con gráficos digitales los dispositivos de entrada son aquellos que permiten digitalizar gráficos analógicos (escáner, cámaras digitales, tarjetas digitalizadoras A/V) y aquellos que permiten generar imágenes en el propio ordenador (ratón, teclado, tableta gráfica). Los principales dispositivos de salida de datos son la impresora y el monitor.
1.2. Digitalización
1.2.1. Escáner
Digitalizar implica transcribir estructuras analógicas a nuevas estructuras basadas en ceros y unos
El escáner es uno de los dispositivos más usados para este proceso y va a ser un ejemplo útil para entender cómo puede realizarse esta transcripción. Supongamos que se quiere digitalizar un dibujo sencillo en blanco y negro. El escáner hará un barrido con luz de la imagen punto por punto. Una matriz interpretará las diferencias de luz en impulsos eléctricos que luego pasarán a código binario. Las zonas oscuras se almacenarán como ceros y las zonas claras como unos. Los datos del escáner pasan al ordenador pero este necesita tener de un programa “conductor” (driver) que envíe las instrucciones al dispositivo y reciba la información. Además será necesaria una aplicación con la que el usuario pueda controlar los parámetros de escán.
Si la imagen original tiene distintos valores de gris que se quieren codificar, en vez de un bit de información para cada punto se usarán ocho, agrupados en un byte (lo que nos dará hasta 256 tonos distintos). La matriz transformará las diferencias lumínicas en diferencias de voltaje a las que luego se asignará un valor numérico. En la digitalización de imágenes en color el escáner hará tres barridos (uno para cada uno de los colores primarios) con filtros que se encargan de dejar pasar sólo el espectro de luz que corresponda. En cada uno de ellos se usarán ocho bits, codificando las diferencias de intensidad. La suma de los tres colores compone la imagen en color en la que cada punto tiene 24 bits (8+8+8) de información.
Así pues, cada punto se puede codificar con un solo bit (para la imagen en blanco y negro), con ocho (para la imagen con distintos valores de gris, escala de grises) o con veinticuatro (para la imagen en color, color real). A cada uno de estos puntos, la unidad básica de la imagen digital obtenida, lo llamamos píxel (contracción de picture element).
1.2.2. Cámaras digitales
Las cámaras digitales son otro dispositivo de digitalización muy común. Con ellas fotografiamos o grabamos imágenes del mundo real y luego las copiamos al disco duro del ordenador. En la fotografía química tradicional la luz que atraviesa la lente queda impresionada en una película (con tres capas superpuestas de productos químicos que reaccionan a distintas longitudes de onda). En las cámaras digitales, la luz que entra por la lente es captada por una retícula de puntos de fósforo que convierten en corriente eléctrica la luz recibida.
Estos captores fotosensibles dan mayor carga eléctrica cuanto más intensa sea la luz y/o más prolongada la exposición. Estas cargas se trasfieren a una unidad de memoria registrando digitalmente la imagen.
Para obtener una imagen en color se utilizan filtros, de forma que cada punto de fósforo reciba una de las tres longitudes de onda. En función del fabricante (Sony, Nikon, Casio, Minolta, Panasonic, Epson, HP, etc.) y de si son para imagen en movimiento (vídeo) o imagen estática (fotografía) se utiliza una cinta de vídeo digital o alguna otra unidad de almacenamiento como discos duros o tarjetas de memoria que varían según el fabricante. Para la entrada de los datos al ordenador se utilizan conectores como Firewire (nombre comercial de IEEE-1394, también conocido como iLink) o USB. También se utilizan lectores específicos para cada tipo de tarjeta (lectores de tarjetas).
1.3. Dispositivos de entrada para creación de gráficos
Si se va a crear la imagen directamente en el ordenador (imagen sintética) se usarán programas específicos de creación de gráficos. Pero para entrar datos a éstos programas son necesarios también dispositivos de entrada.
Uno de los primeros dispositivos que se añadió al ordenador es el teclado. Su propósito inicial era introducir instrucciones alfanuméricas (texto y números) aunque el sistema operativo y el software le sacan el máximo partido, siendo fuente de entrada de todo tipo de instrucciones.
Desde la década de los ochenta los ordenadores personales (y especialmente los destinados al diseño gráfico) incorporan el mouse –el ratón. Se trata de un dispositivo que traduce los movimientos de una bola sobre una superficie en movimiento de un “cursor” en pantalla. Es un elemento clave para la interacción con la interfaz gráfica de usuario (señalar, seleccionar, clicar, arrastrar y soltar) y del manejo de programas de gráficos. Posteriormente la bola se ha sustituido por tecnología óptica.
Para trabajos de ilustración las tabletas gráficas mejoran sensiblemente la forma de dibujar respecto al mouse. Constan de un “lápiz” que se desplaza sobre una superficie que recoge los puntos de presión ejercidos sobre ella. La mayoría de tabletas son sensibles a las diferencias de presión permitiendo que el software de gráficos las traduzca en diferencias de grosor de línea.
Por otra parte los lápices ópticos, también conocidos como stylus, son accesorios que permiten interactuar con dispositivos de pantalla táctil.
1.4.1. Impresora
En lo referente a gráficos, los principales dispositivos de salida de datos son, como se ha dicho, la impresora y la pantalla del monitor. En este caso el proceso es el inverso a la entrada de datos. La información digital tiene que transcribirse en información analógica: tinta sobre papel a través de las impresoras y ondas luminosas en el caso del monitor.
La impresora es uno de los primeros dispositivos de salida que se incorporó a los ordenadores. Los primeros ordenadores que recibían los datos en tarjetas perforadas en la década de los cincuenta del siglo XX ya imprimían sus resultados en papel. Desde la década de los ochenta tenemos “impresoras de escritorio” conectadas directamente al ordenador, a través de uno de sus puertos de entrada o de una red, que nos permiten obtener rápidamente una imagen impresa del trabajo realizado. Las tecnologías de impresora (matriciales, inyección de tinta, láser, etc.) están en constante evolución y actualmente la calidad de la mayoría de ellas es buena, variando en rapidez y prestaciones. Las impresoras a color usan cuatro colores básicos (cian, magenta, amarillo y negro) para componer la imagen a través de algún tipo de trama. También han evolucionado los plóters o impresoras de gran formato, convergiendo en parte con las tecnologías de escritorio, mejorando en calidad y admitiendo todo tipo de soportes de impresión: papel, plásticos, textil. Otro dispositivo de “impresión” es la filmadora de fotolitos que traduce la información digital en impresión química sobre acetato. Éste fue uno de los elementos clave del cambio en la forma de trabajar en el sector de las artes gráficas ya que el fotolito obtenido directamente del ordenador sirve para insolar la plancha de impresión (offset) o la pantalla de estampación (serigrafía), evitando el paso por la fotomecánica convencional. Actualmente ya existen dispositivos que insolan directamente sobre la plancha (direct to plate) sin necesidad de fotolitos.
Destinadas a sustituir la imprenta tradicional offset en tirajes cortos (200, 500, 1000) existen impresoras basadas en las tecnologías de escritorio capaces de imprimir múltiples ejemplares con calidad y rapidez.
Lorem ipsum dolor sit amet, consectetur adipiscing elit. Nam vel vestibulum ipsum. Sed est dolor, feugiat at mauris non, fringilla tempus mauris. Proin et ipsum nisi. Vivamus malesuada euismod elit et condimentum. Aliquam elit lorem, fringilla sit amet turpis quis, accumsan porta purus. Donec dignissim lacus ut interdum varius. Sed sed tortor quis felis vehicula rhoncus vel vel purus. Sed molestie mattis pharetra. Maecenas lacinia a quam vitae congue. Duis sed auctor orci, non finibus augue. Sed ornare congue ex. In consequat, felis ac mollis eleifend, dolor sapien dignissim elit, eu bibendum arcu enim quis tortor. Pellentesque placerat diam nec urna tempor commodo. In fringilla sed justo id imperdiet. Integer in lacus sit amet nulla molestie consectetur sit amet at ipsum. Suspendisse venenatis urna massa, posuere viverra velit porttitor id.
1.4.2. Pantalla del monitor
Otro dispositivo de visualización es la pantalla del monitor. Fue un dispositivo clave en la aparición del ordenador personal, en la mejora de la interacción persona/máquina y, evidentemente, en la posibilidad de creación y tratamiento gráficos por ordenador.
Para visualizarse en pantalla la información digital tiene que generarse una señal luminosa. Por ello, cualquiera que sea su tecnología, los monitores tienen una retícula de puntos, equivalentes al píxel, que puedan emitir luz. El conjunto de píxeles iluminados compone la imagen.
Un monitor puede clasificarse, según la tecnología empleada para formar las imágenes en: Tubo de rayos catódicos o CRT (Cathode Ray Tube) Pantalla de cristal líquido o LCD (Liquid Crystal Display) Pantalla de plasma o PDP (Plasma Display Panel) TFT LCD (Thin Film Transistor: transistor de películas finas) Pantalla LED (Light Emitting Diode: diodo emisor de luz) OLED (Organic Light-Emitting Diode: diodo orgánico de emisión de luz) AMOLED (Active Matrix OLED: OLED de matriz activa) Super AMOLED (Super Active Matrix Organic Light-Emitting Diode: Súper AMOLED)
En los monitores TFT no hay barrido de una superficie fosforescente como en los monitores CRT. Cada punto de la pantalla es una pequeña celda fija de cristal líquido que deja pasar parte de la radiación visible generada por lámparas de luz blanca en la parte posterior. Cada celda corresponde a un píxel y recibe una carga variable de un electrodo alimentado por un transistor. Hay tres transistores para cada celda (uno para cada color) y en función de la carga recibida las moléculas del cristal líquido varían su ondulación girando los rayos de luz. Un filtro polarizado impide que pase la luz que no está alineada con el mismo.