Una buena parte de los objetos digitales que se manejan en los proyectos de HD tienen su origen en originales analógicos que se transforman en activos binarios o de texto para poder procesarlos con un software específico o, simplemente, para comunicarlos a través de Internet en el contexto de un proyecto de recuperación o difusión de un fondo o colección específico.
Digitalizar es un proceso no carente de complejidad, pero sobre el que podemos decir que, al margen de las innovaciones tecnológicas que pueden ir incorporándose, tanto la literatura académica, como la práctica profesional, conoce todos sus entresijos. Es decir, hoy contamos con información suficiente sobre qué formatos son los más adecuados para obtener copias máster digitales de originales analógicos o cuál es el equipamiento y las características técnicas que deben tener las copias digitales, entre otros.
En este capítulo, se abordan las cuestiones más importantes que deben tenerse en cuenta cuando en un proyecto de HD se plantea la digitalización de materiales analógicos.
La unidad mínima de información que manejan los ordenadores son los bits. Cada bit puede representar uno de los dos valores siguientes: 0 o 1. Esta es la base del sistema binario, algo simple, pero a partir del cual es posible realizar operaciones de cálculo extremadamente complejas a medida que se concatenan más y más bits de información. Como los equipos informáticos sólo son capaces de trabajar con valores binarios tanto para el almacenamiento, como para la transmisión de la información, se precisa de un acuerdo o normas comunes que definan cómo una morfología de contenido determinada (texto, sonido, imagen…) debe tratarse para poder utilizarse en este entorno. Esta es la función que desempeñan los formatos.
Un formato es un estándar o convención que define la forma en que la información se organiza y se codifica en un fichero informático para su gestión y representación por medio de una o más aplicaciones informáticas.
Por su parte, un fichero (también denominado habitualmente como archivo) es un conjunto de bits (datos) almacenados en un dispositivo e identificado por un nombre y una extensión.1
Finalmente, una extensión de fichero es una cadena de caracteres que permite distinguir el formato y la naturaleza de los datos contenidos en un fichero, de modo que el sistema operativo disponga del procedimiento necesario para ejecutarlo o interpretarlo.
Una buena parte de los formatos que manejamos en nuestro día a día se encuentran estandarizados. La estandarización o normalización es un proceso que persigue formular y aplicar una serie de reglas comunes y consensuadas en el marco de una actividad específica, en aras del beneficio y cooperación de todos los agentes involucrados. El uso de estándares ayuda a maximizar la compatibilidad, interoperabilidad, seguridad y calidad de los productos y servicios desarrollados.
Por ejemplo, el formato de imagen TIFF desarrollado inicialmente en 1986 por Aldus Corporation (adquirida posteriormente por Adobe), fue definido como estándar mediante la publicación de la norma ISO 12639:1998 Graphic technology — Prepress digital data exchange — Tag image file format for image technology (TIFF/IT), actualizada posteriormente en 2004 y 2017.
Por su parte, un formato (o cualquier otro estándar) se convierte en estándar de facto cuando, sin que nadie (organismos de normalización, agencias estatales…) lo haya propuesto formalmente para ello, la práctica, uso diario o nivel de aceptación, lo llevan a ser ampliamente utilizado y preferido para un uso determinado por un gran número de personas o sectores interesados. Por ejemplo, el formato MP3, creado en 1995 y, a pesar de no liberarse hasta el año 2017, se convirtió rápidamente en un estándar de facto por su grado de aceptación en el mercado para la transmisión de música a través de la Web y todo tipo de plataformas digitales, gracias a unas características técnicas idóneas para ese propósito. Cuando un formato se estandariza o se convierte en un estándar de facto, las aplicaciones de software (reproductores, navegadores…), así como los dispositivos electrónicos (televisores, videoconsolas, reproductores de audio y vídeo…), procuran ser compatibles con él.
Podemos clasificar los formatos de acuerdo con diferentes criterios. Por ejemplo, según la morfología de contenido podemos diferenciar entre formatos de datos, de imagen, de audio, de vídeo, de texto...
Si basamos la clasificación en la forma de codificación del contenido, podemos distinguir entre formatos de texto llano y formatos binarios (Franganillo, 2021). Los primeros, se encuentran estructurados como una secuencia de líneas de texto legibles por humanos mediante cualquier editor de texto plano. Por otro lado, si bien todos los formatos son binarios por definición (son todos en el fondo una secuencia de unos y ceros), la convención es referirse a un fichero como binario cuando sólo es legible, editable o ejecutable mediante la aplicación informática con la que se ha creado, o mediante alguna otra aplicación compatible. Algunos ejemplos son el formato DOC de Microsoft, asociado a la aplicación ofimática Microsoft Word, pero editable también con otras aplicaciones compatibles como LibreOffice. Entrarían también en esta categoría los formatos de imagen (TIF, PNG, GIF), sonido (MP3, WAV…), o los de vídeo (MPEG…).
Si atendemos a su licencia de uso, podemos distinguir entre: formatos propietarios, libres o abiertos. Los formatos propietarios, privativos o cerrados acostumbran a ser propiedad de empresas y se caracterizan por no compartir –por lo menos en su totalidad– sus especificaciones técnicas. Existen licencias y patentes asociadas al uso de estos formatos que deben cumplirse y que pueden implicar determinados costes según su uso. El desarrollo y actualización de este tipo de formatos dependen fundamentalmente del propietario que es quien decide si mantenerlos, actualizarlos o sustituirlos por otros. El hecho de no conocer sus especificaciones nos obliga a recurrir a programas específicos del mismo fabricante y propietario del formato para poder leerlos y editarlos, aunque no todos los formatos cerrados van de la mano de un software de pago.
Por otro lado, los formatos libres son aquellos cuya licencia es totalmente permisiva y no están asociados a ninguna patente que implique costes derivados de su uso. La documentación del formato se encuentra totalmente disponible en abierto, así como su lógica, la cual está al alcance de cualquier desarrollador. El desarrollo y actualización depende, habitualmente, de algún tipo de asociación, fundación o comunidad de usuarios. Algunos ejemplos de formatos libres son los de la familia ODF (Open Document Format) asociados tradicionalmente a las suites ofimáticas OpenOffice y LibreOffice (ODT, ODS, ODG...) desarrollados por OASIS (Organization for the Advancement of Structured Information Standards), los formatos HTML, XML o SVG desarrollados y mantenidos por el W3C, o el formato OGG para audio y vídeo desarrollado por la Fundación Xiph.Org.
Finalmente, los formatos abiertos o híbridos se sitúan a medio camino entre los dos anteriores. Los más puristas los ubican en el grupo de formatos cerrados, ya que si bien se trata de formatos cuyas especificaciones técnicas –es decir, la estructura y la lógica interna de los archivos–, se encuentran disponibles en abierto, las aplicaciones que leen estos formatos deben pagar una licencia para hacer uso de ese formato de forma legal. Este fue el caso, por ejemplo, del formato MP3 hasta el año 2015-2017, momento en el que sus patentes asociadas expiraron.
Según su propósito podemos diferenciar entre formatos de preservación y formatos de difusión. Los formatos de preservación tienen como meta fundamental garantizar el acceso a largo plazo a los datos almacenados en los archivos, salvando la incertidumbre que generan los derechos legales, tecnológicos o la disponibilidad misma de la tecnología de acceso. La razón de ser de los formatos libres es la de facilitar el intercambio de información, valiéndose de la facilidad de acceso a sus especificaciones técnicas, de la interoperabilidad y de la perdurabilidad de la información. El uso de formatos libres, así como el uso de software libre en tareas de preservación digital, asegura la sostenibilidad a largo plazo de los sistemas y favorece la lucha contra la privatización del acceso a la información. Por su parte, el uso de formatos cerrados hipoteca la independencia tecnológica y la sostenibilidad de los sistemas al depender de software y hardware específico para poder continuar accediendo a la información contenida en los documentos (Térmens y Ribera, 2009). Por su parte, en los formatos de difusión se priorizan otros aspectos como su alta compatibilidad o adopción en los entornos tecnológicos de los usuarios finales, así como la posibilidad de aplicar técnicas de compresión para reducir su tamaño cuando se distribuyen a través de la Web. Es decir, mientras que en el caso de los formatos de preservación predominan factores estrechamente vinculados a la sostenibilidad de la información (divulgación, grado de apertura, nulas o limitadas dependencias externas, estandarización…), así como a su capacidad para generar representaciones en alta calidad, en el caso de los de difusión, predominan ciertos factores que los hacen interesantes en el momento de comunicarlos a través de la red (velocidad de carga, compatibilidad…).
Existen dos sistemas para representar una imagen en formato digital: en mapa de bits (o imagen ráster) y en forma de vectores o vectorial. En este caso nos centraremos en las primeras, ya que son las que se generan normalmente en el marco de un proyecto de digitalización o, incluso, como resultado de un proyecto fotográfico.
Los formatos de imagen en mapa de bits guardan información sobre cada píxel, o elemento gráfico mínimo. La imagen digital en formato de mapa de bits es una representación bidimensional (alto y ancho) expresada a través de una matriz numérica en código binario (1 y 0).
Este formato se utiliza para la representación de imágenes digitales con muchos matices (fotografías, obras de arte, etc.). Su principal inconveniente es que este tipo de representación ocupa mucha memoria, por lo que cuando debe transmitirse a través de Internet acostumbra primero a comprimirse.
Figura 1. Ejemplo de imagen en formato de mapa de bits
Nota: Si ampliamos un área podemos observar los píxeles que componen la imagen. Es en este momento cuando la imagen comienza a pixelarse. Fuente de la imagen: Library of Congress, Digital Collections.
Muchos de los formatos propietarios de mapa de bits están ligados al mundo de la fotografía digital y, concretamente, a las diferentes compañías productoras de cámaras y equipamiento fotográfico para la gestión de sus archivos RAW. RAW es un nombre genérico para definir a los formatos que contienen la totalidad de los datos de la imagen tal y como ha sido captada por el sensor digital de una cámara. Este tipo de formatos permiten un mayor control sobre los parámetros de procesamiento de la imagen.
Por su relevancia y popularidad en el tema que nos ocupa, a continuación, abordaremos con más detalle los formatos TIF, DNG, JFIF y WebP.
TIF es un formato que permite una calidad excelente de imagen y que resulta muy apto para impresión, aunque puede llegar a ocupar mucha memoria debido al tamaño de sus ficheros. Entre sus principales características destaca su compatibilidad con múltiples modos de color (imágenes bitonales, escala de grises, paletas de colores y color verdadero en diferentes espacios de color), la compatibilidad con altas profundidades de bits o con algoritmos de compresión con y sin pérdida, entre otros. Por sus características, se utiliza como formato máster y de preservación. Es, por tanto, un estándar que no se valora como formato de difusión. De hecho, la mayoría de los navegadores web no dan soporte a la visualización de imágenes en este formato.
DNG (Digital Negative) es un formato abierto de tipo RAW propiedad de Adobe, diseñado a partir del formato TIFF básico, pero con algunos metadatos adicionales que permiten guardar información directa sin procesar del sensor de la cámara. Su origen lo encontramos en la necesidad de estandarizar los múltiples formatos RAW propietarios que cada marca utiliza en sus modelos de cámara. La conversión de formatos RAW propietarios de Canon o Nikon, por citar dos compañías, a DNG, asegura una mayor compatibilidad del formato a largo plazo.
JFIF (JPEG File Interchange Format), más conocido como JPEG, nombre derivado del algoritmo de compresión asociado al formato, es un formato muy popular para el almacenamiento y transmisión de imágenes digitales debido a su eficiente compresión con pérdida. Esto lo convierte en una opción muy interesante para crear versiones derivadas para consulta y uso en Internet de ficheros máster almacenados en formatos TIF o DNG. El formato JFIF además contempla dos formas de codificación principales: secuencial (baseline) y progresiva. La codificación secuencial es el método más simple de codificación y, en términos de visualización, hace que la imagen cargue o renderice línea a línea de arriba a abajo. Si bien la sensación de velocidad puede ser más pobre, los fragmentos de la imagen que van apareciendo en pantalla lo hacen sin pérdida de calidad. Por su parte, la codificación progresiva consiste en una carga que se realiza mediante múltiples pasadas, en cada una de las cuales se van agregando más detalles. Es decir, a diferencia del método secuencial, al cargar la página en la que se encuentra la imagen esta se ve completa, pero a baja calidad. Tras unos milisegundos o segundos según la conexión disponible, la imagen irá apareciendo gradualmente. Se trata este último de un método de codificación interesante para conexiones lentas, ya que permite a todos los usuarios tener una vista previa de la imagen desde un primer momento, mientras carga por completo.
WebP (pronunciado como weppy) es el formato más reciente de todos los incluidos en este capítulo. Se trata de un formato desarrollado por Google pensado para competir directamente con JFIF en el uso de imágenes en la Web. Para ello ofrece mejores ratios de compresión que otros formatos (aproximadamente un 28% superior que JPEG) y admite transparencias y animaciones, cosa que JPEG no soporta. Además, como TIF y JPEG admite metadatos en formato EXIF, IPTC y XMP.2 Su grado de adopción es muy creciente y todo hace pensar que seguirá siendo así en los próximos años.
Más allá de los formatos, la imagen digital se sustenta en toda una serie de características técnicas que determinan la calidad del fichero, así como sus posibles usos. Algunos de los más importantes son la resolución, las dimensiones del píxel, la profundidad de bits, el modo de representación del color y el tipo y grado de compresión.
La resolución indica la cantidad de detalles espaciales finos. Con la resolución nos referimos al número de muestras que forma una imagen (Iglesias, 2008). Cada una de estas muestras se denomina píxel (picture element). Por lo tanto, para conocer la resolución de una imagen, debemos conocer las dimensiones en píxeles en función del área total de la imagen. Así, una cámara capaz de obtener una imagen de 1600 x 1200 píxeles, tiene una resolución de 1600x1200=1.920.000 píxeles, es decir 1,92 megapíxeles.
Por su parte, los puntos por pulgada (ppp) (en inglés, dpi o dots per inch) se utilizan para expresar la resolución de las imágenes digitales cuando se representan en impresión, así como durante el proceso de digitalización. No obstante, no tienen ninguna incidencia en la calidad de la imagen representada por pantalla.
Los ppi (pixels per inch) o ppp (píxeles por pulgada) se refieren al número de píxeles que hay en una pulgada de una imagen reproducida en la pantalla de un dispositivo electrónico. Es decir, los ppi representan la resolución (densidad de píxeles) de una imagen digital reproducida en una pantalla. El valor ppi está correlacionado con el tamaño de la imagen (número total de píxeles), por lo que también condiciona su calidad. Si una imagen digital tiene muy pocos píxeles, no tendrá muchos detalles y aparecerá pixelada. Cuantos más píxeles, más y mejores detalles tendrá la imagen digital.
Los dpi o ppp también son importantes durante el proceso de digitalización, ya que este valor determinará, junto al tamaño en cm (o pulgadas) del original, el tamaño en píxeles de la imagen digital resultante. Si digitalizamos una fotografía en papel que presenta unas dimensiones de 20 x 10 cm (8 x 4 pulgadas aproximadamente) a 300 dpi, como resultado obtendremos una imagen digital de 2400 x 1200 px. Si precisamos de una imagen de mayor tamaño, debemos incrementar la resolución de entrada3 (por ejemplo, de 300 dpi a 600 dpi).
Otro concepto que es necesario conocer es la diferencia entre la resolución real (u óptica) y la interpolada (o creada por software). La resolución óptica es la que determina el muestreo en la captura del documento durante la digitalización. El píxel se corresponde con la información capaz de capturar por el sensor fotosensible del dispositivo de captura (cámara o escáner). Esta resolución depende, por tanto, del dispositivo de captura y de su configuración durante este proceso. Por su parte, la resolución interpolada es el resultado de aumentar el tamaño de la imagen original a partir de píxeles creados por software. Según la calidad del software es posible obtener mejores o peores resultados. No obstante, es una práctica que se evita en proyectos de digitalización con finalidades de preservación (Iglesias, 2008).
Las dimensiones del píxel son las medidas horizontales y verticales de una imagen, expresadas en píxeles. Se pueden determinar multiplicando tanto el ancho como el alto por los puntos por pulgada (ppp) o dpi (dots per inch). Por ejemplo: un documento de 8 x 10 pulgadas que se escanea a 400 dpi posee unas dimensiones del píxel de 3200 píxeles (8 pulgadas x 400 dpi) por 4000 píxeles (10 pulgadas x 400 dpi).
La profundidad de bits (bit depth o color depth) se determina a partir de la cantidad de bits utilizados para definir cada píxel. Por lo tanto, cuanto mayor sea la profundidad de bits, mayor será la cantidad de tonos. En el caso de una imagen en escala de grises pueden ser representados entre 2 y 8 bits. En el caso de una imagen en color, entre 8 y 24 o más. Por ejemplo, en una imagen de 2 bits, existen cuatro combinaciones posibles: 00, 01, 10 y 11. Si “00” representa el negro, y “11” representa el blanco, entonces “01” es igual a gris oscuro y “10” es igual a gris claro. La profundidad de bits es 2, pero la cantidad de tonos que pueden representarse es 22 o 4. Con 8 bits, pueden asignarse 256 (28) tonos diferentes a cada píxel. La diferencia entre la representación en 24 o 32 bits no radica en una mejora de la calidad de la imagen, sino en simplificar su representación por pantalla (24 bits) o para impresora (32 bits).
En la imagen digital el color se representa mediante unas tablas de codificación que asignan un código binario a cada color representable. La tabla más simple (modo bitmap o monocromático) codifica únicamente dos valores: el blanco y el negro, y requiere sólo un bit: el valor 0 es blanco y el valor 1 es negro. A partir de aquí, contamos con diferentes modos de color capaces de representar una mayor variedad de tonos. Por ejemplo, el modo de escala de grises trabaja sólo con el canal negro y con hasta 256 tonos de gris (8 bits). El modo color indexado también cuenta con un único canal de 8 bits de profundidad, pero es capaz de representar una selección optimizada de 256 colores. Finalmente, en el modo de color RGB cada píxel se obtiene de forma aditiva a partir de tres canales: rojo, verde y azul. Cada canal presenta una profundidad de 8 bits/píxel, sumando un total de 24 bits. Esto supone la posibilidad de representar hasta 16,7 millones de colores diferentes.
Comprimir es codificar una información digital (datos, señal) empleando menos bits que en la representación original. En los formatos de imagen de mapa de bits se dan dos circunstancias que motivan la necesidad de comprimir los ficheros: el gran tamaño de los ficheros con una codificación individualizada por píxel y la repetición de información idéntica o muy parecida en determinadas áreas (por ejemplo, un fondo plano de un mismo color como una pared blanca o un cielo azul).
La mayoría de los formatos utilizan algún mecanismo de compresión para reducir el espacio de memoria ocupado por los gráficos. Entre los mecanismos de comprensión encontramos dos grandes familias: compresión sin pérdida y con pérdida. Los algoritmos de compresión sin pérdida permiten recuperar la imagen original con todos sus detalles. En cambio, en la compresión con pérdida se descartan selectivamente algunos bloques de datos, que no afectan demasiado a la visualización. Son más eficientes respecto al tamaño de los ficheros resultantes, pero un exceso de compresión implica una reducción drástica en la calidad de la imagen. Entre los algoritmos de compresión sin pérdida asociados a los formatos digitales de imagen destaca el estándar LZW (Lempel–Ziv–Welch), que es una técnica nativa del formato GIF, admitida también por los formatos TIFF y PDF. Por otro lado, entre los algoritmos de compresión con pérdida, destaca el estándar JPEG (Joint Photographic Experts Group), una técnica nativa del formato JFIF, aunque también es compatible con TIFF o PDF.
Como en el caso de las imágenes digitales, también existen dos grandes tipologías de formatos de audio digital: la síntesis de sonidos instrumentales (MIDI) y las digitalizaciones de fuentes de audio. Los primeros son formatos que recogen en forma de datos el sonido generado directamente a través de un dispositivo electrónico para ser posteriormente interpretados por software especializado. Simplificando mucho, podemos decir que lo que se graba no son sonidos, sino datos (instrumento, notas, duración…) y generan una especie de partitura que se puede editar o tocar. En este caso, nos interesan las digitalizaciones de fuentes de audio y sus características técnicas. Este tipo de sonidos son los que resultan, por ejemplo, de la grabación de una entrevista, concierto o del sonido de un espacio natural.
Entre las características más importantes destacan: la frecuencia de muestreo, la profundidad de bits, los canales y la tasa de bits.
La frecuencia de muestreo (sample rate) se define como el número de muestras por unidad de tiempo (1 segundo) que se toman de una señal continua (analógica) para producir una señal discreta (digital), durante el proceso necesario para convertirla de analógica en digital. Se expresa en hercios. La cifra máxima del espectro audible por un oído humano sano no llega a frecuencias superiores a 20 KHz (Plichta y Kornbluh, 2002). Según el teorema de Nyquist-Shannon la frecuencia de muestreo debe ser del doble de esta cifra. Es por ese motivo que los 44,1 kHz se han considerado un estándar (calidad CD).
La profundidad de bits (bit depth) determina el tamaño de cada una de las muestras. Cuanto mayor sea la muestra, más información tendremos de ella y más fiel será al original (también más grande), es decir, más información de la forma de la onda se podrá almacenar. La profundidad de bits también determina el rango dinámico. A mayor rango dinámico, obtendremos una base de ruido inferior y mayor fidelidad.
En general, a mayor frecuencia de muestreo y profundidad de bits, mayor calidad del sonido. Por ejemplo, para obtener una calidad de CD de audio, la grabación se realiza a 44,1 kHz y 16 bits.
Finalmente, los canales representan el número de secuencias de audio individuales en una grabación. Las diversas configuraciones se definen mediante una nomenclatura que consta de dos dígitos separados por un punto. Así, por ejemplo, un sistema 2.1, es aquel con dos canales primarios o completos y un canal para efectos de baja frecuencia que se reproducen mediante un subwoofer.
Figura 2. Simulación de la comparación de una onda sonora en alta y baja resolución
Fuente: imagen generada con Dall-e
La frecuencia de muestreo y la cantidad de canales condicionan el flujo de datos necesario para reproducir una grabación sonora y resultan en una determinada tasa de bits. La tasa de bits (bit rate) la podemos definir, por tanto, como la cantidad de datos consumidos para transmitir la secuencia de audio por unidad de tiempo. Es un parámetro que cuantifica el número de bits por segundo utilizados para representar el sonido digital. El valor se expresa habitualmente en kilobits por segundo (kbps). Por ejemplo, una tasa de bits de 96 kbps (kilobits por segundo) implica que un segundo de sonido se codifica con 96.000 bits. En general, cuanto mayor sea la tasa de bits, mayor será la calidad del sonido.
Los formatos comprimidos con pérdida suelen admitir tasas de bits de aproximadamente 320 kbps como máximo. La música comercializada en formatos comprimidos se distribuye a tasas de entre 256 y 320 kbps. La mayoría de los podcasts se reproducen a tasas de 128-192 kbps y los audiolibros a 64-128 kbps que pueden ser suficientes para reproducir eficientemente la voz humana (Franganillo, 2021).
La tasa de bits acostumbra a ser constante a lo largo de un mismo corte de audio (fichero), aunque formatos como el MP3, WMA o AAC permiten codificar la señal de forma alternativa con tasas variables que asignan más kbps a los segmentos más complejos y menos kbps a los más simples, respectivamente.
Existe mucha controversia respecto a cuál es la frecuencia de muestreo que se debería utilizar al argumentar algunos autores que frecuencias más altas puede que influyan en las menores o en nuestro oído de manera sutil. Un aspecto muy importante a la hora de determinar qué frecuencia de muestreo es la adecuada en nuestro caso es saber cuál será el destino de ese fichero de audio. Si está destinado a terminar en 44,1 KHz, no tiene sentido digitalizarlo a una mayor frecuencia.
La realidad es que en proyectos de digitalización se ha generalizado la adopción de los 96 KHz como estándar. Con ello se busca garantizar la preservación de cierta información inaudible que reside en frecuencias superiores a los 44,1 KHz. Ello puede ser útil para comunicar información armónica inaudible que impacta en la percepción del sonido, mejorar la profundidad en estéreo y sistemas envolventes o para acomodar futuras aplicaciones en los que esa información pueda ser comunicada (CARLI, 2017).
El vídeo digital es una secuencia de imágenes fijas que, reproducidas de manera sucesiva y con suficiente rapidez, generan la sensación de movimiento. En el caso de los contenidos audiovisuales existe una amplia gama de formatos existentes, caracterizados todos ellos por una mayor complejidad técnica que cualquiera de los vistos hasta el momento. Esto se debe a que un fichero audiovisual contiene diversos tipos de información (audio, imagen, texto…) y sus especificaciones suelen estar diseñadas para productos y canales de difusión específicos, como, por ejemplo: formatos profesionales de grabación y edición, formatos profesionales para la distribución en salas de cine, formatos para la distribución en DVD, formatos para la difusión en Internet, etc. (Gobierno Vasco, 2011).
Al hablar de vídeo, por tanto, nos referimos a diversos conceptos simultáneamente: imagen en movimiento, audio, texto como subtítulos, etc. Este tipo de contenido se almacena en contenedores (wrappers) en los que se empaquetan todos esos elementos. Los vídeos además son la morfología de información más compleja de tratar y, sobre todo, de almacenar y distribuir, por el tamaño de sus ficheros.
Los formatos de vídeo se clasifican en tres grandes grupos según su finalidad: compresión, codificación y contenedores. Los formatos de compresión permiten representar digitalmente un vídeo, reduciendo, además, la señal de imagen y sonido para disminuir su peso en memoria. Son los más estandarizados de los tres. La mayoría se basa en la familia MPEG y los dos más populares en la actualidad son H.264/MPEG-4 AVC (conocido genéricamente como MP4) y H.265/MPEG-H Part 2 (conocido genéricamente como HEVC o High Efficiency Video Coding).
Los formatos de codificación trabajan a partir de un formato de compresión y lo preparan para un uso determinado. Los dos formatos MP4 y HEVC trabajan habitualmente con los formatos de codificación x264 y x265, respectivamente.
La combinación H.264/x264 es la más frecuente y, por tanto, la más compatible con todo tipo de tecnologías. Su popularidad hace que también muchas cámaras fotográficas y de vídeo lo utilicen, así como su implementación en los discos Blu-ray y en gran parte del contenido audiovisual disponible en plataformas de streaming. Rinde bien a tasas de bits tanto altas como bajas, lo que lo convierte en un candidato tanto para crear versiones de preservación, como de difusión.
Finalmente, los formatos contenedores trabajan a partir de los formatos de codificación, y empaquetan y sincronizan las diferentes morfologías que finalmente se presentarán al usuario (pistas de audio, imagen en movimiento, subtítulos, audiodescripción, etc.). Los contenedores de uso más habitual son MPEG-4 (.mp4), QuickTime (.mov), Matroska (.mkv) y MXF (.mxf), este último utilizado en TV. En ocasiones, la sincronización de todos estos recursos no se empaqueta en un fichero contenedor, sino que se vincula a través de reproductores específicos capaces de gestionar todas esas morfologías de contenido. Además, algunos reproductores como AblePlayer permiten implementar búsquedas a texto completo sobre las transcripciones, saltar de un fichero de subtítulos a otro, reproducir en paralelo una versión en lengua de signos, entre otras opciones.
Por lo que respecta a las características técnicas de los vídeos, las más importantes son: los fotogramas por segundo, la resolución, la relación de aspecto y la profundidad de color o bits.
Los fotogramas por segundo (frame rate) son el número de fotogramas individuales que se muestran por unidad de tiempo, con el objetivo de crear el efecto de movimiento al visualizar un conjunto de imágenes estáticas consecutivas. En televisión, se acostumbra a trabajar entre 30 fps y 60 fps (algunas TV en HD). Se considera que 24-25 fps es lo mínimo para poder visualizar una imagen en movimiento de manera decente. La mayoría de los televisores y monitores son capaces de mostrar hasta 60 fps (se puede determinar a partir de los hercios Hz del dispositivo). En la actualidad, algunos alcanzan cifras superiores como 90, 120 o 144 Hz o más por segundo. No obstante, este tipo de velocidades sólo son necesarias en contextos específicos como los videojuegos, pues la mayoría de las películas se graban como máximo a los 60fps antes comentados. Los VHS en formato PAL se encuentran disponibles a 25 fps, mientras que en formato NTSC a 30 fps. En este sentido, al digitalizar cintas en estos formatos, no sería necesario hacerlo con unos fotogramas por segundo, superiores a los valores originales.
Figura 3. Resultado de una búsqueda sobre el contenido de un vídeo en el reproductor AblePlayer
La resolución indica las dimensiones de píxeles verticales y horizontales para la imagen que se muestra o, dicho de otra manera, el espacio que ocupa el fotograma en pantalla. Algunos valores habituales de la industria han sido y son: 640x480 (SD, VGA); 1280x720 (vídeo HD básico de 720p); 1600x900 (HD +), 1920x1080 (1080p “Full HD”); 2560x1440 (WQHD); 3840x2160 (UHD, vídeo de 4K). El estándar actual es 1920x1080 (TV de alta definición), aunque cada vez es más común la resolución 4K.
La relación de aspecto (aspect ratio) es la relación geométrica entre el ancho y el alto de una imagen, en este caso, del fotograma. El estándar 4:3 de las TV PAL y monitores de ordenador fue el más extendido hasta el año 2009. A partir de ese momento, y hasta la actualidad, el estándar 16:9 de la televisión de alta definición es el que predomina, aunque plataformas como Netflix y HBO están popularizando la relación de aspecto 2:1. También existe el estándar 21:9 utilizado en las salas de cine, y que ya está disponible en algunos monitores. Finalmente, la aparición de redes sociales como Instagram y TikTok orientadas a su consulta desde dispositivos móviles han impuesto nuevas relaciones de aspecto en formato cuadrado (1:1) o vertical (9:16). Esto implica que, con los años, muchos archivos o bibliotecas patrimoniales conserven materiales en estos formatos, por lo que también es necesario prever su existencia.
Igual que sucede en el caso de las imágenes fijas, la profundidad de color determina cómo se representa el color en el vídeo, estableciendo la cantidad de bits que se utilizarán para definir el color de cada píxel. Lo más habitual es utilizar 8 o 10 bits/componente en grabaciones actuales.
Los parámetros anteriores condicionan el flujo de datos necesarios para reproducir una secuencia de vídeo. Igual que pasa con el sonido, la tasa de información contenida en un fichero de vídeo es proporcional a la calidad de la imagen, es decir, a mayor tasa de bits, mayor calidad. El parámetro se mide en kilobits por segundo (kbps), aunque en ocasiones se muestra en megabits por segundo (Mbps). Las películas de alta calidad pueden llegar a tasas de hasta 4500 Kbps, mientras que un contenido de calidad media para la Web acostumbra a presentar unos 1500 Kbps.
Al hablar de texto digital podemos referirnos a dos grandes tipologías de documentos: texto llano y texto enriquecido.
El texto llano o plano es una secuencia de bytes que representan caracteres propios de un alfabeto tales como letras mayúsculas y minúsculas, números o signos de puntuación, entre otros. A diferencia de los formatos binarios, para su representación se utiliza únicamente un sistema de codificación de caracteres específico, cada uno de los cuales es capaz de representar una mayor o menor cantidad de caracteres. Así, los sistemas de codificación de caracteres más simples como ASCII son capaces de representar 256 caracteres, mientras que otros como UTF-8 permiten representar más de un millón. La gran ventaja en el uso del texto llano la encontramos en su transparencia, es decir, los ficheros que lo contienen se pueden abrir, leer y modificar con cualquier editor en cualquier sistema operativo, sin requerir ningún software o entorno tecnológico específico. Este tipo de texto está presente en nuestro día a día en los mensajes SMS, correos electrónicos, los subtítulos de los vídeos, tiques de compra, entre otros muchos.
El texto enriquecido es un formato de texto que incluye no sólo caracteres, sino también una variedad de características de formato que permiten la inclusión de atributos visuales y estructurales. A diferencia del texto plano, que sólo contiene caracteres y no lleva ningún formato adicional, el texto enriquecido puede incluir negritas, cursivas, subrayados, diferentes fuentes tipográficas, colores, tablas, opciones de composición (alineación, interlineado…) y marcas de estructura (título, encabezados, leyendas…).
Microsoft introdujo en 1987 el formato RTF (Rich Text Format) para guardar documentos de forma universal incluyendo este tipo de características. Se trata de un formato que aún hoy en día es posible utilizar y que es compatible con la inmensa mayoría de los procesadores de texto. No obstante, los formatos DOC y DOCX también de Microsoft, así como el formato ODT (Open Document Text) de la compañía OASIS utilizado por OpenOffice y LibreOffice, son los que predominan en la actualidad.
El formato PDF (Portable Document Format) es un formato de fichero desarrollado por Adobe Systems en 1992 a partir del lenguaje PostScript, pensado para presentar documentos en los que es posible encapsular texto, fuentes tipográficas, imágenes vectoriales, de mapa de bits e, incluso, elementos interactivos y audiovisuales. Una de las principales ventajas de este formato, razón por la cual se ha popularizado en todos los sectores e industrias, incluida la Web, es su independencia total del hardware, software y sistemas operativos. Esto permite que los ficheros PDF puedan visualizarse en todo tipo de dispositivos con independencia de la tecnología que utilicen y, lo más importante, sin alteración alguna en la disposición de los elementos que contienen. El éxito de este formato lo llevó a convertirse en una norma ISO (ISO 32000-1), consolidándose como un estándar abierto ampliamente aceptado en el ámbito cultural, tanto en proyectos de digitalización y difusión del patrimonio, como en el sector editorial.
A lo largo de los años, el estándar PDF se ha ido desarrollando también a partir de subestándares o versiones específicas. Un ejemplo es el estándar PDF-A (Archivable), desarrollado en 2005, y orientado a la preservación a largo plazo. Esta versión del formato difiere en varios aspectos del resto de subestándares PDF. En concreto, esta variante no admite el uso de ficheros de audio o vídeo incrustados para no depender de tecnologías de terceros, como tampoco admite cualquier otro tipo de recurso externo o el cifrado de documentos. Además, este subestándar fomenta la inclusión de texto real, así como la incrustación de metadatos en formato XMP (Extensible Metadata Platform).
En el ámbito de las colecciones digitales el formato PDF se utiliza ampliamente como formato principal o complementario para compartir digitalizaciones de obras bibliográficas (libros, revistas, folletos…), así como otros materiales gráficos (carteles, pósteres, postales…).
Otro estándar ampliamente adoptado por la industria, especialmente la editorial, es el formato EPUB 3. Este formato tiene sus raíces en 1999, cuando el Open eBook Forum, una agrupación de instituciones vinculadas al naciente libro electrónico, publicaba el Open eBook Format, la finalidad del cual era proporcionar un formato abierto que pudiera ser usado en los libros electrónicos. Este formato fue sustituido en 2007 por el formato EPUB promovido por el International Digital Publishing Forum (IDPF), institución que tomó el relevo al Open eBook Forum y que agrupaba a los más relevantes actores del mundo editorial y de la informática.
Figura 4. Registro bibliográfico de un incunable en formato PDF en la colección digital NEPTUN de la Bibliothèque Universitaire Moretus Plantin. (Université de Namur)
Fuente: neptun.unamur.be
En la versión 3 del estándar, se produjo una profunda integración con las normativas del W3C, las cuales permitieron que el formato abandonara la exclusividad de los e-readers, para expandirse a cualquier dispositivo compatible con los estándares web, facilitando así su integración en navegadores web e integrando una mayor interactividad y contenidos multimedia en estos documentos.
Figura 5. Fragmento de La campaña del Maestrazgo de Benito Pérez Galdós disponible en formato EPUB en la Biblioteca Digital Hispánica
Fuente: bdh.bne.es
El formato EPUB 3 acabó de estandarizarse en 2014 cuando se convirtió en la norma ISO/IEC TS 30135:2014. Posteriormente, en 2017, el IDPF se fusionó con el W3C y se convirtió en un grupo de trabajo dentro de esta organización con el nombre de EPUB3 Working Group. Desde 2023, este equipo de trabajo se ha integrado en el Publishing Maintenance Working Group. La integración con el W3C ha hecho que EPUB 3, en su versión 3.3. sea ahora un estándar (W3C, 2023a) plenamente aceptado dentro de esta organización.
Además de la estandarización, EPUB 3 trae la compatibilidad total con todas las lenguas al incluir la capacidad de lectura de derecha a izquierda, la escritura vertical o el uso de anotaciones. También incorpora características mejoradas relacionadas con la accesibilidad para personas con discapacidad, la compatibilidad con sistemas de lectura en voz alta o mejoras en la sincronización con documentos multimedia, entre otras muchas opciones. Todo ello lo hace especialmente interesante en proyectos de edición digital.
Ser capaces de identificar y validar formatos resulta especialmente útil en múltiples contextos, especialmente por lo que respecta a la gestión y preservación de colecciones digitales. El software utilizado para este propósito proporciona funciones esenciales que aseguran la integridad, legibilidad y accesibilidad a largo plazo de los ficheros digitales. Entre estas podemos destacar, entre otras:
• La verificación de las especificaciones técnicas del formato, es decir, si la estructura del fichero cumple o no con su correspondiente estándar.
• La comprobación de la autenticidad del fichero, o lo que es lo mismo, que no ha sido modificado de forma no autorizada.
• Una mayor facilidad para incluirlos en procesos de migración en lote a nuevos formatos.
• La prevención de errores, datos corruptos o incompatibilidades con el software.
Si bien muchas aplicaciones integran herramientas para la identificación de formatos, DROID (Digital Record Object IDentification), desarrollada por los Archivos Nacionales del Reino Unido y JHOVE (JSTOR/Harvard Object Validation Environment) creado en la Biblioteca de la Universidad de Harvard juntamente con la Biblioteca digital JSTOR, son las dos más populares.
Paralelamente a estas aplicaciones, existen diversas bases de datos de registros de formatos centradas en reunir, de manera exhaustiva, las especificaciones técnicas de los formatos de ficheros más extendidos. Se trata de iniciativas que buscan recopilar información de interés para la preservación digital en un contexto de constante aparición de nuevos formatos y descontinuación de otros. PRONOM de los Archivos Nacionales del Reino Unido es seguramente la más popular de todas y la que se mantiene más activa.
La digitalización es el proceso mediante el cual un material original no digital o analógico, caracterizado por contener informaciones de carácter continuo, se convierte o codifica en un formato digital mediante muestras discretas, a través de algún tipo de medio de captación digital con el fin de ser preservado, analizado o difundido.
Los procesos de digitalización se llevan a cabo mediante hardware y software específico. En ambos casos, es importante controlar todos los parámetros del proceso para que el fichero digital obtenido sea lo más fiel posible al original. Estos parámetros incluyen la iluminación, las características del equipo de captación, los ajustes y la calibración, así como el procesamiento aplicado a los ficheros una vez han sido reproducidos digitalmente.
Sea cual sea la finalidad del proyecto de digitalización, merece la pena centrar los esfuerzos en obtener unas reproducciones, que sean lo más fieles posibles al original. De este modo, las imágenes digitales obtenidas se podrán reservar para otros futuros usos. Esto implica la configuración de un sistema de captación y procesamiento que introduzca el mínimo de pérdidas o modificaciones sobre el contenido del objeto original.
Cada tipo de formato y soporte requiere un equipo técnico específico para su digitalización; además, el texto debe poder ser reconocido para poder ser recuperado posteriormente. Todos estos elementos se recogen en los apartados siguientes.
El soporte es el material en el que está positivada o impresa la imagen o grabado el sonido o el vídeo. En el caso de la imagen analógica, este puede ser traslúcido u opaco. Los negativos son películas fotográficas utilizadas para obtener posteriormente positivos sobre papel u otros soportes. La incidencia de la luz se representa mediante oscuridad, mientras que las zonas sin luz quedan transparentes. Los formatos de los negativos fueron evolucionando a lo largo de los años a medida que iban apareciendo nuevas cámaras en el mercado de tamaños más reducidos. La aparición de nuevas cámaras también implicó un mayor volumen de fotos (los fotógrafos empiezan a hacer reportajes). El hecho de que los materiales de los negativos también evolucionen, pasando del soporte vidrio al plástico, hace que los usuarios vayan más ligeros y puedan llevar con ellos un mayor número de placas. Todo ello acaba derivando en una gran variedad de tamaños y formatos que van desde los negativos producidos por las grandes cámaras de estudio hasta los de las pequeñas cámaras de bolsillo. Por su parte, los positivos (transparencias, diapositivas…), que pueden ser monocromos o en color, presentan formatos más acotados y estandarizados al tratarse, en la mayoría de los casos, de formatos más modernos.
Por lo que respecta a los soportes opacos positivos, encontramos imágenes sobre papel, metal, vidrio o cerámica, que pueden ser monocromáticas o en color. En este tipo de soportes, las medidas y los formatos son numerosos. Por otro lado, encontramos los denominados procesos encapsulados, marcos o álbumes.
Finalmente, aunque no se trata de fotografía, dentro de los materiales opacos que constituyen una parte importante de los proyectos de digitalización de archivos y bibliotecas, también encontramos a los documentos gráficos y de texto, Entre estos destacan los libros, revistas, folletos, pósteres o carteles, grabados, cuadernos, mapas, planos, carnés, felicitaciones, entre otros muchos, los cuales reproducen tanto texto, como diversos tipos de imágenes (fotografías, ilustraciones, grabados, serigrafías…). Al trabajar con este material, aunque estrictamente no se trate de un original fotográfico, su proceso de digitalización a través de un escáner es muy similar, así como el resultado, que será, en ambos casos, una imagen en formato de mapa de bits.
En el caso del sonido, a lo largo de la historia se han utilizado diferentes soportes para almacenarlo en formato analógico. Dos de los más populares son:
• Cintas de casete: soporte de grabación en cinta magnética ampliamente utilizado entre los años 70 y 90, aunque ya en los años 50 habían aparecido soportes como los Minifon. Se encuentra formado por dos carretes en miniatura, entre los cuales pasa una cinta magnética con dos pares de pistas estereofónicas (una por cada cara), todo ello dentro de una carcasa protectora. A diferencia de los soportes fotográficos (papel, plástico o vidrio), los cuales pueden observarse directamente, es muy complicado intuir el estado de conservación de la información almacenada en una cinta de casete si no se reproduce. Existen varias decenas de tipos de cintas de casete.
• Discos de vinilo: medio de almacenamiento analógico cuyo soporte es un tipo de plástico denominado cloruro de polivinilo. El disco es una placa circular con un surco en espiral en ambas caras en el que la grabación de sonidos está codificada analógicamente. Los formatos más frecuentes son el LP (unos 30 minutos de duración por cara) y el sencillo (unos 3 minutos de duración por cara).
Como sucede con el audio, en el caso del vídeo también encontramos una importante variedad de soportes. Algunos de los más extendidos fueron:
• Super 8: introducido en 1965, es un formato cinematográfico que utiliza película de 8 mm de ancho (de ahí el nombre) utilizado durante los años 70 y parte de los 80, especialmente en el ámbito doméstico, aunque también se utilizó en ciertos casos en entornos más profesionales.
• Beta: o Betamax es un formato de vídeo analógico introducido por Sony en el año 1975. Presentaba una mayor calidad de imagen y sonido (el equivalente actual a 333 x 486 píxeles) que su principal competidor el VHS, aunque este ofrecía cintas con más minutos. El sonido puede ser estereofónico como en las cintas normales de audio, o de alta fidelidad analógico; incluso algunos modelos de Sony tenían sonido digital con calidad CD a partir de 1980.
• VHS: desarrollado por Philips y lanzado en 1976, el VHS o Video Home System fue el sistema doméstico de grabación y reproducción analógica de vídeo más popular hasta la llegada del DVD. El VHS es semejante físicamente al casete de audio, pero con una cinta magnética mucho más ancha y grabada por un sólo lado. Como en el caso del formato Betamax, las cintas podían estar codificadas en el sistema PAL (Europa y otros territorios) o NTSC (América y Asia fundamentalmente). Este sistema determinaba el método de codificación utilizado en la transmisión de señales de televisión analógica en color para cada parte del mundo. En la terminología digital actual, el VHS equivale aproximadamente a 320 x 480 píxeles en luminancia con un coeficiente de señal de reducción de la imagen de 43 dB. En sus últimos años de existencia, JVC lanzó el Súper VHS con la extensión del ancho de banda bajo 5 megahercios, 560x480. Las diferentes versiones permiten un almacenamiento de entre 120 y 480 minutos.
Un escáner es un dispositivo electrónico que transforma la información impresa a un formato comprensible por el ordenador (mapa de bits). El tipo de escáner adecuado en cada proyecto de digitalización variará según el tipo de original que deba escanearse, así como la calidad que se pretenda conseguir.
Los escáneres planos presentan una superficie horizontal y plana donde se coloca el original opaco boca abajo. Es el tipo de escáner más conocido y de uso más extendido. Son versátiles y fáciles de manejar. Utilizan un sensor de luz (generalmente, un CCD) y una fuente de luz, ambos montados sobre un brazo móvil que pasa por el documento colocado sobre una placa de vidrio.
Los escáneres aéreos, también conocidos como escáneres de trayectoria aérea, se denominan de esta manera porque la fuente de luz y el sensor CCD se encuentran ensamblados en un brazo de trayectoria aérea. Son muy caros, pero adecuados para digitalizar patrimonio histórico, especialmente en formato libro al permitir no forzar las encuadernaciones y utilizar una luz fría. También pueden resultar útiles para otros documentos de gran formato como ciertos mapas o carteles.
Figura 6. Escáner aéreo Bookeye 5
Fuente: imageaccess.de
Por otro lado, los escáneres de película o de negativos utilizan una matriz CCD de menor sensibilidad que los fotomultiplicadores, aunque con una resolución aceptable. Funcionan mediante un barrido de luz lineal de la película. La mayoría sólo aceptan tamaño de película de 35 mm y sólo algunas películas de medio formato que en definitiva son menos habituales. El tamaño del original implica la necesidad de contar con resoluciones de entrada más altas que en los tradicionales escáneres de sobremesa para obtener un máster digital utilizable en determinados contextos. Por otro lado, escanear a resoluciones tan altas, implica necesariamente un rendimiento lento.
Sea cual sea la tecnología a utilizar, al seleccionar un escáner es necesario prestar especial atención a las siguientes características técnicas:
• El tipo de sensor. El sensor puede ser de tipo CCD (Charge-Coupled Device) o CIS (Contact Image Sensor). El primero alcanza mejores calidades.
• Resolución óptica. Al comprar un escáner es necesario prestar atención a la resolución óptica, no a la mejorada o interpolada que no es una resolución real, sino una imitación conseguida a través de un algoritmo.
• Profundidad de colores. La más habitual y suficiente en la mayoría de los casos es la de 24 bits, aunque hay escáneres que ofrecen valores superiores.
• Formatos de documentos admitidos (tamaño de papel, tipo de soporte fotográfico…).
• Compatibilidad con estándares de intercambio de datos (TWAIN, WIA, ISIS…) y con el sistema operativo que vayamos a utilizar, tanto por lo que respecta al hardware, como al software de edición.
• Velocidad de escaneado. En general, a mayor resolución, menor velocidad.
• Software adicional incluido.
• Otros componentes incluidos (adaptadores para diapositivas, etc.).
• Precio.
En ocasiones, especialmente si se cuenta con personal especializado, es posible utilizar cámaras como alternativas al escáner. De hecho, para algunos materiales es la mejor alternativa. El uso más habitual de las cámaras es para la digitalización de los materiales de gran formato o de materiales en tres dimensiones (esculturas, juguetes, equipos médicos…). No obstante, también es posible utilizarlas para digitalizar otros materiales como negativos sobre placas de vidrio o plástico.
En este sentido, las cámaras fotográficas réflex profesionales presentan en la actualidad unas características técnicas que les permiten alcanzar los estándares de calidad necesarios en un proyecto de digitalización, llegando a ser una alternativa real al escáner profesional (España, 2021).
Tal y como sucede con los escáneres, para la digitalización de documentos no es posible utilizar cualquier cámara, sino que es necesario contar con un equipo profesional de altas prestaciones, entre las cuales:
• Cámara de tipo réflex con objetivos intercambiables.
• Óptica macro.4
• Sensor de calidad (CMOS).
• Que permita disparar en formato RAW.
• Que permita la función manual.
• Con una resolución mínima de 12 megapíxeles, pero todo dependerá de la resolución que deseemos obtener y del uso que vayamos hacer de las copias digitalizadas. Si no vamos a ver por pantalla o a imprimir nunca copias superiores a 36,3 x 23,7 cm, con 12 megapíxeles tendríamos suficiente. En el mercado existen cámaras de hasta 150 MP con precios en torno a los 50.000€.
• Con una profundidad de color mínima de 24 bits.
El uso manual de las funciones del dispositivo (enfoque, diafragmación y obturación) permite decidir exactamente cómo deseamos la fotografía. Por otro lado, la posibilidad de trabajar con formato RAW (negativo digital de cámara) facilita el control total sobre la exposición y el balance de color, consiguiendo una mayor fidelidad con la realidad.
La elección de una cámara u otra dependerá de las características del material analógico que se digitalizará, de las características técnicas de los formatos que se desean obtener, así como del presupuesto disponible. Sea el modelo que sea, incluso aunque se trate de la mejor opción disponible en el mercado, con este tipo de dispositivos, lo más importante es conocer bien su funcionamiento para obtener el máximo rendimiento posible.
Cuando digitalizamos con una cámara, esta debe ser instalada en un trípode para asegurar su estabilidad y evitar vibraciones y movimientos involuntarios. Otros complementos habituales son:
• Atriles (para la digitalización de libros) y mesa de reproducción para los negativos.
• Mesa de luz calibrada a luz de día.
• Máscaras de cartón negro.
• Plantillas porta negativos.
• Vidrio para sujetar los originales ondulados.
• Antorchas de luz.
• Colorímetros.
• Etc.
Como hemos comentado antes, las cámaras son en la actualidad adecuadas para la captura de diferentes tipologías documentales tanto fotográficas, como textuales, siendo en determinados casos como los mapas u otros documentos muy grandes u objetos tridimensionales, la única alternativa. Si se cuenta con los complementos adecuados (mesas de luz, adaptadores para diapositivas…) pueden servir también para digitalizar transparencias tanto negativas, como positivas.
El principal inconveniente en la digitalización con una cámara fotográfica es la necesidad de contar con personal altamente especializado en su manejo. Un escáner bien configurado y con un equipo calibrado, puede ser utilizado por un operario sin demasiada experiencia, cosa casi impensable en el caso de las cámaras.
La digitalización con una cámara requiere unas infraestructuras concretas, no complicadas de obtener, pero que implican cierto equipamiento adicional y pueden incrementar bastante el coste, así como el espacio necesario.
La Tabla 1 resume el dispositivo de captura más adecuado de acuerdo con cada tipo de soporte analógico (España, 2021).
Tabla 1. Soportes y dispositivos preferentes para la digitalización
Tipo de documento |
Dispositivo recomendado |
Pergaminos y papiros. |
Escáner cenital y cámara fotográfica. |
Tablillas de cera. |
Escáner cenital y cámara fotográfica. |
Libros o volúmenes en buen estado. |
Escáner cenital. |
Libros o volúmenes que no permiten una apertura completa. |
Escáner cenital con cama en uve. |
Libros o volúmenes en mal estado. |
Escáner cenital y cámara fotográfica. |
Hojas sueltas sin encuadernar. |
Escáner plano, escáner cenital y cámara fotográfica. |
Láminas, dibujos y grabados. |
Escáner plano de altas prestaciones, escáner cenital y cámara fotográfica. |
Fotografías. |
Escáner cenital y cámara fotográfica. |
Fotografías enmarcadas (daguerrotipos, ferrotipos, etc.). |
Cámara fotográfica. |
Placas de vidrio. |
Escáner plano de transparencias y cámara fotográfica. |
Transparencias en papel. |
Escáner plano de transparencias, cámara fotográfica. Escáner de negativos y transparencias (en algunos casos). |
Diapositivas. |
Escáner plano de transparencias, escáner de negativos y diapositivas y cámara fotográfica. |
Negativos |
Escáner de negativos y diapositivas y cámara fotográfica. |
Grandes formatos (mapas, carteles…, con un ancho de hasta 1 m aprox.). |
Escáner cenital y cámara fotográfica. |
Grandes formatos (tamaños que no caben en ningún escáner aéreo). |
Cámara fotográfica. |
Materiales táctiles (hojas o libros en Moon o Braille). |
Escáner cenital y cámara fotográfica. |
En el caso del sonido y la imagen en movimiento, lo primero que conviene tener en cuenta es que, en ambos casos, resulta necesario reproducir todo el contenido para digitalizarlo. Esto significa que, por cada minuto de grabación, necesitaremos, al menos, un minuto de digitalización. En este sentido, digitalizar grandes colecciones en estos formatos puede suponer una importante cantidad de horas de trabajo, siendo los materiales que normalmente implican más tiempo.
Para la digitalización de cintas de casete o vinilos es necesario contar con el hardware de reproducción específico. Los equipos domésticos clásicos pueden utilizarse y permitirán llevar a cabo el proceso, pero no con la calidad con la que lo hará un equipo profesional. Cuanto mejor sea la señal analógica obtenida, mejor será el resultado digital. Una vez dispongamos de un reproductor de cintas de casete o de vinilos, podemos conectar en su salida de audio, un cable jack de 3,5 mm y, el otro extremo del cable, conectarlo a la entrada de audio del ordenador. El conector de la entrada de audio se encuentra en la parte trasera del PC, integrado en la placa base o como parte de los conectores de la placa de sonido en el caso de equipos que cuentan con una tarjeta profesional. Normalmente es de color azul (en algunos casos excepcionales puede ser negro) y se encuentra justo a la derecha del conector de los altavoces (verde).
Si no se cuenta con un reproductor específico, en el mercado también podemos encontrar dispositivos orientados a la digitalización de este tipo de formatos. Normalmente, son dispositivos muy similares a los de la época que se conectan al PC mediante el bus USB.
Finalmente, también es posible encontrar en el mercado convertidores de captura de audio para diversos tipos de reproductores de casete, vinilos o CD que también permiten la conexión de estos dispositivos vía USB.
Más allá del hardware necesario para realizar la captura, también necesitamos software específico para llevar a cabo el proceso de digitalización. Una de las alternativas más utilizadas es la aplicación de software libre Audacity compatible con Windows, Linux y MacOS. En el ámbito del software privativo, contamos con Audition de Adobe y Sound Forge Pro.
Adicionalmente y, aunque los programas anteriores cuentan con algunas herramientas para ello, en el mercado también existe una amplia variedad de programas para el tratamiento y restauración del audio digital que pueden ser útiles cuando el original no conserva una calidad suficiente (eliminación de ruido, control del volumen, reequilibrio…). Algunas alternativas son: CEDAR (Computer Enhanced Digital Audio Restoration), Steinberg clean, Avid Pro Tools, o iZotope RX pro, entre otros.
Como en el caso del audio, para digitalizar vídeo también necesitaremos un reproductor original que conectaremos, en este caso, a una capturadora de vídeo, la cual, a su vez, se conectará al PC. También en este caso, cuanto mejor sea el reproductor, mejor calidad tendrá la señal que enviaremos a la capturadora y mejor podrá ser el resultado de la digitalización. Lo mismo aplica a la capturadora. Según el formato, necesitaremos un reproductor de VHS, vídeo Beta, un adaptador para montar en estos reproductores cintas más pequeñas como las VHS-C o, en el caso que lo permitan, las mismas cámaras de vídeo, algunas de las cuales también cuentan con conexiones de salida de vídeo. En el mercado existe una gran cantidad de capturadoras, algunas de gama baja y otras de mayor calidad. Para formatos más antiguos existen equipos específicos pensados para su digitalización, este es el caso de las películas Super 8.
El proceso de digitalización y posterior renderizado de un vídeo resulta mucho más exigente que en el caso de la digitalización del audio o de la imagen. En este sentido, se recomiendan equipos con un procesador y memoria RAM suficientes, así como no realizar otras tareas en paralelo mientras el equipo está procesando el fichero.
En algunos casos puede ser recomendable el uso de un sistema TBC (time base corrector) para corregir las variaciones en las señales de sincronización y conseguir que cada línea de escaneo comience en su momento adecuado, así como corregir automáticamente problemas con los niveles y el color. Algunos reproductores / grabadores de S-VHS lo incorporan internamente, aunque en la mayoría de los casos será necesario un módulo independiente. No obstante, existe cierta controversia en su uso, especialmente si los ajustes reproducen un contenido que no es fiel al original. Por este motivo, debe valorarse en cada caso su uso.
El dispositivo de visualización por excelencia para la información digital es el monitor. La selección de un monitor adecuado resulta imprescindible para poder llevar a cabo el proceso de digitalización y procesado posterior de las imágenes y vídeos con total garantía.
En la selección de un monitor es importante atender a los siguientes criterios:
• Tamaño en pulgadas: en general, para el trabajo de digitalización y retoque se recomienda un tamaño mínimo en pulgadas de entre 27’’/32”. Algunos de tamaño superior pueden ser útiles si se necesita tener diversas aplicaciones abiertas y visibles simultáneamente, aunque su visualización no es tan cómoda.
• Relación de aspecto: el estándar actual es 16:9.
• Profundidad de colores: también conocida como bits por píxel, es el número máximo de colores que se pueden representar en la pantalla. Está relacionada con la capacidad de memoria de la tarjeta gráfica, por lo que este otro componente del equipo también debe considerarse por su parte. Los valores actuales están entre los 6 bits (0,26 millones de colores), 8 bits (16.7 millones de colores,) y 10 bits (1,07 billones de colores). Para las tareas que nos ocupan, se recomienda el uso de monitores con una profundidad de 10 bits.
• Reproducción del espacio de color: lo que se busca en relación con este parámetro es un nivel de reproducción del espacio de color lo más alto posible en el estándar Adobe RGB, a ser posible, cercano al 100%. Como ya hemos visto anteriormente, existen otros estándares como el sRGB, pero Adobe RGB es más exigente. En este sentido, si un monitor tiene un 100% o se acerca a ese porcentaje en el estándar sRGB, será una buena opción, pero si presenta ese mismo valor en el estándar Adobe RGB, entonces sería incluso superior.
• Resolución: es la cantidad de puntos que forman la imagen que vemos. Se indica en píxeles horizontales por verticales (p. e., 1920x1080). Como la profundidad de colores, depende de la tarjeta gráfica. Es decir, si nuestra tarjeta gráfica admite como máximo una resolución de 1920x1080, no podremos visualizar, por ejemplo, un vídeo en 4K (aproximadamente 3840 × 2160), aunque el monitor sí soporte esa resolución. En la actualidad, recomendamos contar tanto con un monitor, como con una tarjeta gráfica que admitan una resolución de al menos 1920x1080. Este valor puede variar si debemos trabajar con contenidos audiovisuales más exigentes, por ejemplo, vídeo 4k.
• Contraste: es la diferencia de luminosidad entre el blanco más fuerte y el negro más oscuro. Cuanto mayor sea ese valor, más fiel será la exhibición de los colores de la imagen. Cuando es un número mayor, indica que la pantalla es capaz de representar más diferencias entre colores. Se recomiendan monitores con un valor mínimo de 800:1, aunque idealmente, se recomiendan valores de contraste de 1000:1. Es importante diferenciar el contraste real y el dinámico. El primero mide la diferencia entre un píxel blanco y uno negro en un momento exacto. Por su parte, el contraste dinámico mide lo que varía un píxel de negro a blanco en un periodo de tiempo determinado. El dinámico no depende de la tecnología física del monitor, sino de algoritmos de software. Las cifras dadas por los fabricantes son mucho mayores (por ejemplo, 5.000.000:1) y suelen ser las que se destacan en las especificaciones del producto. No obstante, este valor no es tan importante y no debemos confundirlo con el contraste real que es el que nos interesa conocer, y que será siempre mucho más bajo.
• Brillo: es la cantidad de luz máxima que puede emitir el monitor. Se mide en candelas por metro cuadrado (cd/m2). Unas 140 cd/m2 son aceptables, aunque actualmente se alcanzan valores muy superiores en monitores de gama media y alta.
• Calibración: que permita calibración por hardware.
• Tipo de panel: en la actualidad encontramos diferentes tipos de paneles. Los de tipo IPS (in-plane switching): son los mejores en cuanto a ángulo de visión y fidelidad en el color, pero sufren de tiempos de respuesta muy altos (algo poco importante en tareas de digitalización). Suelen ser la opción preferida para el retoque fotográfico.
Un elemento adicional que resulta igualmente imprescindible en un monitor son las viseras. Las mejores cuentan con un tratamiento antirreflejante. Se utilizan para garantizar la precisión cromática, así como para reducir los reflejos no deseados producidos por la iluminación ambiental. Existen viseras universales que se pueden ajustar a diversos tamaños y modelos de monitores y otras específicas para modelos determinados, normalmente muy orientados al trabajo de retoque fotográfico profesional.
La digitalización del texto sobre papel o cualquier otro soporte implica la transformación de esa morfología de contenido (la textual) a otra (una imagen). En la imagen obtenida se pueden observar los caracteres, palabras y otros símbolos que, en combinación, dan lugar al contenido de ese documento. No obstante, a diferencia de un documento digital de texto, por ejemplo, un fichero Word, la información textual en una imagen de mapa de bits deja de estar disponible y no se puede explotar (editar el contenido, copiarlo en otro fichero, realizar búsquedas…). Es decir, el contenido no es texto, sino una mera imagen.
El reconocimiento óptico de caracteres (en inglés, optical character recognition u OCR) es un conjunto de técnicas que permiten, durante el proceso de digitalización o, a posteriori, extraer la información textual de una imagen para poder tratarla como tal, con el objetivo de almacenarla y poder utilizarla con diferentes propósitos.
El funcionamiento de un sistema OCR se fundamenta en las tres etapas siguientes:
• Pre-procesado. Entre otros procesos, se lleva a cabo:
❍ Binarización (o caracterización), donde la imagen se pasa a blanco y negro para mejorar el contraste entre caracteres, símbolos y fondo. Tras este proceso tan sólo serán visibles los caracteres más oscuros de la página (las letras y símbolos), eliminándose elementos que pueden entorpecer el proceso como sombras, manchas o degradados. El umbral de binarización determina qué elementos se mantienen y cuáles se pierden. Definirlo correctamente es importante para no perder información relevante.
❍ Alineación, eliminación de líneas, análisis de la maquetación (importante, sobre todo, si es un texto multicolumna).
❍ Segmentación de caracteres.
❍ Etc.
• Reconocimiento del texto. A través de un algoritmo capaz de reconocer patrones o mediante otras tecnologías.
• Post-procesado. Se mejora la precisión del reconocimiento anterior mediante un diccionario o corpus.
Antes de realizar el proceso, es necesario preprocesar la imagen: rotación, enderezamiento (deskewing), recorte (cropping), separación de páginas (splitting), análisis de maquetación (layout), reconocimiento de caracteres especiales, configuración del idioma (y época), configuración de palabras vacías (stopwords), diccionarios y corpus.
Una vez obtenido el resultado del proceso de reconocimiento óptico de caracteres, este se almacena en un formato determinado. Entre los formatos más habituales encontramos:
• TXT, un fichero de texto plano sin estructura. Su principal virtud es un peso muy reducido y su universalidad, al ser un tipo de documento compatible con todos los sistemas operativos y programas de edición de texto.
• El OCR de Adobe que está integrado en la versión profesional del paquete Adobe Acrobat y en él es posible almacenar dentro del mismo fichero PDF, aunque separado de cada una de las imágenes, el texto reconocido. Sus principales ventajas son la gran estandarización del formato PDF, utilizable en cualquier sistema operativo y navegador, así como la facilidad para que Google los recupere mediante su buscador.
• ALTO XML (Analized Layout and Text Object), un formato de texto estructurado en XML mantenido por la Library of Congress que permite describir la disposición, diseño gráfico, posición el texto, capítulos, ilustraciones…, además de registrar el contenido textual de un documento.
• PAGE-XML, similar al anterior.
• hOCR, también basado en XML y que permite como los dos anteriores almacenar no sólo el contenido, sino también la estructura de las páginas y otros aspectos para resultar en ficheros HTML (contenido y estructura) y CSS (presentación).
En el ámbito de las instituciones culturales, el formato de OCR más utilizado es el de Adobe, seguido por el formato ALTO XML. El principal condicionante del primero es la necesidad de utilizar el formato PDF como formato de difusión. Esto es algo habitual en documentos de texto como libros o revistas, pero no tanto para otros tipos de documentos que también incluyen texto como carteles o pósteres.
ALTO XML es un esquema XML que permite almacenar y describir el contenido y la estructura de un documento digitalizado tras haber sido sometido a un proceso de OCR. Se utiliza normalmente en combinación con el esquema de metadatos METS (ver apartado 3.2.4.5 Metadatos estructurales) para proporcionar una descripción detallada de la estructura física y lógica de un documento digitalizado. Un fichero ALTO contiene información sobre la maquetación de las páginas (párrafos, líneas, columnas... y su posición en la página), el texto reconocido resultado del OCR y metadatos sobre el documento en cuestión. Su uso destaca en proyectos de digitalización de bibliotecas y archivos ya que facilita la preservación a largo plazo de las obras.
Un ejemplo de implementación de esta tecnología lo encontramos en la colección digital Chronicling America: historic American newspapers de la Library of Congress.5
En el mercado existe una amplia oferta con diversas alternativas de software tales como ABBYY Finereader, OmniPage, Reconigform o Tesseract, esta última de bajo licencia de software libre.
Si bien tradicionalmente el software OCR utilizaba algoritmos de coincidencia de patrones para comparar el texto disponible en una imagen, carácter a carácter con su base de datos de patrones de imágenes y fuentes, esta tecnología presenta algunas limitaciones por lo que respecta al reconocimiento del texto manuscrito.
En la actualidad, como en tantos otros ámbitos, la inteligencia artificial se ha integrado en este software con el objetivo de mejorar la eficacia y la precisión del resultado. Así, una buena parte de las soluciones disponibles hoy utilizan modelos de aprendizaje automático, como redes neuronales convolucionales, capaces de analizar las características extraídas para identificar cada carácter.
Figura 7. Fragmento de un fichero ALTO-XML
Fuente: loc.gov/standards/alto
En proyectos como el de la Biblioteca Virtual Miguel de Cervantes o el Project Gutenberg, el reconocimiento óptico de caracteres permite o facilita la posibilidad de crear nuevas ediciones de textos clásicos en formatos como PDF, EPUB o HTML enriquecidos con funcionalidades como sumarios, índices o hiperenlaces.
Figura 8. Transcripción de un fragmento de la primera traducción al catalán de Alicia en el país de las maravillas (Mentora, 1927) generada con ChatGPT
Fuente del documento: Biblioteca de Catalunya, Memòria Digital de Catalunya. (mdc.csuc.cat/digital/collection/llibimps19/id/47867/rec/10)
La digitalización en tres dimensiones (3D) ha ganado protagonismo como método para la conservación y gestión del patrimonio cultural tangible. Este proceso genera representaciones digitales detalladas de objetos y emplazamientos históricos, permitiendo no sólo su preservación a largo plazo, sino también su accesibilidad y reutilización para múltiples fines y sectores. Dentro del contexto europeo, las directrices establecidas por la Unión Europea (recomendación EU 2021/1970) abogan por la digitalización de todos los monumentos y sitios en riesgo, así como del 50% de los monumentos, edificios y lugares del patrimonio cultural más visitados físicamente para el año 2030, garantizando así la conservación de este legado cultural mediante tecnologías avanzadas y mucho más adecuadas para el visionado e interpretación de estos emplazamientos y objetos. Estas tecnologías, además, facilitan la implementación de nuevas experiencias aplicables a lugares habitualmente inaccesibles, difíciles de visitar o comprender para personas con discapacidad, o incluso con menos recursos económicos. En este sentido, los modelos en 3D ofrecen nuevas oportunidades para la investigación, la educación y el turismo. Estos modelos pueden ser reutilizados en entornos de realidad virtual, realidad aumentada o en el metaverso, proporcionando experiencias inmersivas que mejoran la interacción con el patrimonio cultural. Además, pueden utilizarse para imprimir réplicas físicas mediante impresión 3D, lo que permite a las personas con discapacidades acceder al patrimonio de manera táctil (European Union›s REKonstructed Content in 3D, 2024).
La singularidad de cada objeto patrimonial y su valor histórico hacen que la digitalización en 3D sea crucial para preservar su memoria. Un modelo digital bien trabajado no sólo captura la forma y los detalles físicos del objeto, sino que también incorpora información contextual, como su origen, materiales y condiciones de conservación. Estos modelos digitales garantizan que las generaciones futuras tengan acceso a información precisa y detallada de los objetos y monumentos. Además, este proceso facilita el monitoreo continuo de los bienes patrimoniales y ayuda a prevenir su pérdida o deterioro.
La calidad en la digitalización 3D no se limita a la resolución del modelo o a otras características técnicas, sino que también depende de la completitud de los registros de datos que describen el objeto y el proceso de digitalización. Esto incluye tres tipos de datos clave:
• Ficheros: los archivos que componen el modelo 3D.
• Metadatos: información descriptiva del objeto (origen, materiales, historia, etc.).
• Paradatos: información sobre el proceso de digitalización, como las condiciones bajo las cuales se llevó a cabo (equipo utilizado, personal implicado, condiciones ambientales, etc.).
Si bien un proyecto de digitalización puede variar desde la creación rápida de un modelo básico con un móvil hasta capturas complejas que requieren equipos especializados y la participación de múltiples expertos, la obtención de modelos finales de alta calidad es fundamental no sólo para la conservación, sino también para asegurar su reutilización por diferentes actores (investigadores, arquitectos, educadores, etc.).
El nivel de complejidad de un proyecto de digitalización en 3D se determina a través de varios factores, como el tipo de objeto o sitio a digitalizar, las condiciones ambientales, la disponibilidad de equipo especializado y los recursos humanos necesarios. Un ejemplo de proyecto de alta complejidad sería la digitalización de un monumento expuesto a condiciones climáticas extremas, donde el viento, la lluvia o la luz solar pueden afectar a la calidad de la captura. Por otro lado, un entorno controlado, como una sala de museo, presenta menos desafíos.
En este sentido, el análisis del objeto o sitio es un paso esencial para identificar obstáculos potenciales. Esto incluye la evaluación de las condiciones físicas del objeto o las posibles interrupciones del entorno. A partir de esta evaluación inicial, es posible seleccionar la solución técnica más adecuada, ya sea mediante fotogrametría, escáneres láser terrestres o tecnologías híbridas que combinan varios métodos.
El equipo utilizado en la digitalización varía según el proyecto. Entre los más comunes se encuentran:
• Sistemas de escaneo láser (Terrestrial Laser Scanning, TLS, o Mobile Laser Scanners, MLS) y sistemas de triangulación óptica: utilizados para capturar detalles precisos en superficies complejas.
• Fotogrametría: pensados para objetos pequeños o sitios controlados. Consiste en tomar múltiples fotografías desde diferentes ángulos para luego combinarlas en un modelo tridimensional.
• Sistemas globales de navegación por satélite (Global Navigation Satellite Systems, GNSS) y estaciones totales6: utilizados en proyectos que requieren una alta precisión geoespacial, como la digitalización de sitios grandes.
Por otro lado, existen sistemas activos y pasivos de captura de datos. Los sistemas activos, como los escáneres láser, emiten señales que luego son registradas para generar los modelos. Los sistemas pasivos, como la fotogrametría, dependen de la luz ambiente y capturan imágenes que luego se procesan.
Como sucede con cualquier otro objeto digital, para garantizar la reutilización y la interoperabilidad a largo plazo, es recomendable utilizar formatos abiertos y estándares reconocidos. Entre los formatos de archivo más utilizados para el almacenamiento y distribución de modelos 3D se encuentran:
• OBJ (Wavefront OBJect): formato estándar que permite visualizar el modelo en la mayoría de los programas, aunque no es el más eficiente en términos de espacio.
• PLY (Polygon File Format): formato binario que ofrece mejor compresión y, por tanto, es más adecuado para la transmisión de datos a través de Internet.
• STL (Stereolithography): formato que define la geometría de un objeto en 3D muy utilizado en la creación de prototipos e impresión 3D.
• GLTF (GL Transmission Format): formato optimizado para la web que permite una visualización rápida de los modelos en 3D.
Como se ha comentado antes, a los ficheros obtenidos en estos formatos se les asocian registros con metadatos y paradatos para asegurar la calidad y permitir que los usuarios comprendan cómo y bajo qué circunstancias se crearon los modelos.
En la fase de producción se pueden generar diferentes versiones del modelo a partir de los archivos en crudo. Estos modelos 3D funcionales pueden estar en alta resolución o en versiones comprimidas mucho más adecuadas para su visualización por pantalla.
A continuación, se recogen los formatos y valores normalmente aconsejados para la digitalización de diferentes tipos de materiales.
Positivos fotográficos en papel
• Resolución de escaneado: entre 370 y 740 dpi según el tamaño.
• Profundidad de bits: 48 bits color / 16 bits escala de grises.
• Espacio de color: Adobe RGB / Gamma 2.2 (escala de grises).
• Formato máster: TIFF sin compresión.
Negativos y diapositivas (9x12 hasta 18x24)
• Resolución de escaneado: como mínimo, entre 370 y 740 dpi según el tamaño.
• Profundidad de bits: 48 bits color / 16 bits escala de grises.
• Espacio de color: Adobe RGB / Gamma 2.2 (escala de grises).
• Formato máster: TIFF sin compresión.
• Negativos y diapositivas de 120mm
• Resolución de escaneado: como mínimo, entre 1000 y 1500 dpi según el tamaño.
• Profundidad de bits: 48 bits color / 16 bits escala de grises.
• Espacio de color: Adobe RGB / Gamma 2.2 (escala de grises).
• Formato máster: TIFF sin compresión
Negativos y diapositivas de 135mm
• Resolución de escaneado: como mínimo, 2500 dpi.
• Profundidad de bits: 48 bits color / 16 bits escala de grises.
• Espacio de color: Adobe RGB / Gamma 2.2 (escala de grises).
• Formato máster: TIFF sin compresión.
Texto
• Resolución de escaneado: 300-400 dpi.
• Profundidad de bits: 24 bits color / 16 bits escala de grises.
• Espacio de color: Adobe RGB / Gamma 2.2 (escala de grises).
• Formato máster: TIFF sin compresión.
Cintas de casete
• Frecuencia de muestreo: 96KHz.
• Profundidad de bits: 16 bits.
• Canales: 2 estéreo o 1 mono según el original.
• Formato máster: WAV sin compresión.
Cintas VHS y Beta
• Resolución de escaneado: si bien los originales presentan un equivalente entre 320x480 y 333x486, las especificaciones de la totalidad de instituciones culturales de peso que han publicado sus especificaciones técnicas recomiendan una resolución de entre 640x480 y 720x480 para recoger toda la información existente en el original.
• Fotogramas por segundo: entre 25 y 30 fps, recomendable 30 fps.
• Tasa de bits: Entre 27 y 30.
• Profundidad de bits: 10 bits.
• Formato máster: H.262/MPEG-2 Part 2 o H.264/MPEG-4 AVC.
• Audio: la mayor parte de las grabaciones de vídeo también incluirán sonido, por lo que también será necesario establecer los parámetros para el audio integrado en el vídeo. AAC y MP3 son los dos formatos más utilizados.
El acrónimo GLAM (Galleries, Libraries, Archives and Museums) también expresado en ocasiones como LAM (Libraries, Archives and Museums) se utiliza para aglutinar los quehaceres comunes y proyectos de las instituciones que cuentan con fondos y colecciones patrimoniales. La denominación GLAM se origina en el ámbito anglosajón, específicamente dentro de los círculos profesionales y académicos. Comenzó a usarse de manera más prominente en la década de los 2000 para describir la colaboración y convergencia entre estas instituciones a medida que estas buscaban enfrentar desafíos comunes en el ámbito digital. El congreso Galleries, Libraries, Archives, Museums &Wikimedia: Finding the common ground lo acabó de popularizar, además de unirlo de alguna manera a Wikimedia Commons, convirtiéndose también en casi sinónimo de proyecto entre estas instituciones y la enciclopedia por excelencia de Internet. No obstante, también es bastante popular La variante LAM, introducida por Zorich et al. (2008), quienes la proponen como denominación alternativa a “instituciones de la memoria”, expresión comúnmente utilizada hasta ese momento para referirse al conjunto de estas instituciones. En este segundo acrónimo quedan fuera las galerías, instituciones con objetivos, funciones y proyectos algo alejados de las otras tres.
Lo cierto es que bibliotecas, archivos y museos nacen sin unas claras diferencias entre ellas (Warren y Matthews, 2020) y no es hasta finales del XIX cuando se establecen algunos de los principios teóricos que dan forma a las disciplinas propias de cada sector, aparecen las primeras asociaciones profesionales, se empiezan a imponer y normalizar prácticas profesionales diferenciadas, entre otras cuestiones que, poco a poco, las llevan a distanciarse. Para Warren y Matthews (2020), si bien el término instituciones de la memoria puede ser válido para referirse a la actividad de estas instituciones vinculadas al patrimonio, resulta algo pobre al obviar las funciones sociales, de soporte a la investigación o divulgativas, entre otras, que también las caracterizan.
Todo esto ha consolidado el término GLAM, especialmente en aquellas instituciones que cuentan con todas ellas. Por ejemplo, un museo que dispone de una biblioteca especializada y un archivo histórico o incluso universidades en las que también se cuentan con colecciones patrimoniales de los tres tipos.
Tal y como destaca Bicknell (2017), el usuario final no está especialmente interesado en saber de dónde proceden los recursos o como están descritos, sino que quiere consultarlos y poder acceder a ellos de la forma más unitaria y simple posible. Es decir, el usuario final no tiene una idea del patrimonio compartimentada en diferentes instituciones cada una de ellas con sus prácticas, procesos y productos específicos (Salse, 2023).
Proyectos como Europeana proponen precisamente una visión integradora, en este caso, del patrimonio cultural europeo, a través de un catálogo único que permite acceder a más de cincuenta y ocho millones de registros procedentes de fondos y colecciones de más de tres mil instituciones.
Otro ejemplo representativo, en este caso dentro de una misma institución es el del Museo del Diseño de Barcelona. Con el objetivo de poner en valor el conocimiento entorno a las piezas que conserva la institución, así como especialmente la idea de “proceso de diseño”, el proyecto Objetos enlazados busca, a través del acceso unificado a todos sus fondos, mostrar su ciclo de vida completo (encargo, proceso creativo, fabricación, comercialización y proyección pública y difusión) de forma contextualizada (Díaz y Folia, 2018). Como entidad que cuenta con un museo, archivo y biblioteca, dispone de las piezas museísticas, la documentación de archivo de los diseñadores y empresas editoras que las produjeron, así como de las publicaciones (catálogos, libros, revistas...) en las que se publicitaron o reseñaron. Cada uno de estos departamentos utiliza sus propios estándares y sistemas de gestión de fondos y colecciones: Museum+ para el archivo, AtoM para el fondo de archivo y Koha para el fondo bibliográfico. El proyecto Objetos enlazados funciona como una capa que se superpone a todas estas tecnologías y que ofrece una triple aproximación a los recursos del museo: a través de los autores, de los objetos o a partir de una cronología sobre la historia del diseño en España creada por un grupo de investigación de la Universidad de Barcelona (GRACMON),7 todo ello relacionado internamente.
En los últimos años el proyecto se ha ampliado con una iniciativa de memoria oral con la que se incorpora la voz en primera persona de los protagonistas de las colecciones. Gracias a tecnologías basadas en datos enlazados y el acceso a través de una interfaz común, el resultado es un recurso que permite acceder de forma enriquecida y contextualizada a todos estos materiales, sobre los que se aporta un nuevo relato.
Figura 9. Detalle de la interfaz del proyecto Objetos enlazados del Museo del Diseño de Barcelona
Fuente: Disseny Hub Barcelona
En el contexto del desarrollo de la World Wide Web (WWW) en los noventa, aparecen los primeros repositorios digitales de publicaciones científicas. Es en esta misma década cuando surgen plataformas como arXiv (1991), Etext (The Electronic Text Center, 1992), CogPrints (1997), NDLTD (Networked Digital Library of Theses and Dissertations, 1997), NCSTRL (Networked Computer Science Technical Reference Library, 1999) o RePEc (Research Papers in Economics, 1999).
En paralelo al desarrollo de estas plataformas académicas, las instituciones de la memoria, especialmente las bibliotecas de todo el mundo, están comenzando programas de digitalización retrospectiva de sus colecciones, que pasarán a formar parte de colecciones digitales en línea sustentadas por plataformas tecnológicas desarrolladas con tecnologías similares a las que habían servido en la primera década de la Web para distribuir publicaciones académicas. Estas tecnologías, en las que nos centraremos en los siguientes apartados, fueron evolucionando, incorporando características propias orientadas a la difusión e interpretación de los recursos de estas colecciones, ampliando el alcance de estos sitios web de meros catálogos con acceso al texto completo de los recursos a productos más sofisticados con componentes narrativos e interpretativos.
Si tomamos como referencia la definición que proporciona el modelo de referencia OAIS (Open Archival Information System),8 un objeto digital es un recurso compuesto por un conjunto de secuencias de bits (CCSDS, 2012).
OAIS define que cada objeto digital o agrupación de objetos (a las que denominaremos objetos digitales compuestos) debe acompañarse de un conjunto de elementos entre los que encontramos diferentes tipos de metadatos que servirán para garantizar su autenticidad e integridad, así como para facilitar su descripción, información técnica, administrativa o la relación que mantiene con otros objetos digitales, todo ello necesario para su gestión y preservación a largo plazo.
En ocasiones, un objeto digital puede estar formado por un único fichero. Este es el caso, por ejemplo, de una fotografía individual en el marco de un fondo fotográfico. En otros casos, el objeto digital puede estar formado por dos o más ficheros. Este es el caso de un libro formado por múltiples páginas o de un reportaje fotográfico que se trata documentalmente como una unidad documental compuesta.
En otros casos, más allá de los ficheros que forman parte del objeto digitalizado, también encontramos otros ficheros que forman parte intrínseca del objeto y que lo acompañan en el contexto de un sistema de gestión de colecciones digitales. Estos son, por ejemplo, un fichero de texto con información sobre la licencia de uso o un fichero SRT con los subtítulos de un vídeo, entre otros.
Por lo que respecta a los metadatos, si bien podemos encontrarlos incrustados dentro de los diferentes ficheros que forman el objeto digital, lo más habitual es que en el marco de un sistema de gestión de colecciones digitales, estos se asocien a los registros bibliográficos en los que se describe cada objeto a través de una base de datos. En algunos casos, también es posible asociar metadatos no sólo a nivel de registro u objeto, sino que algunos sistemas de gestión de colecciones digitales también permiten incorporar metadatos a nivel de fichero. Sea como sea, es decir, se encuentren incrustados en los bits del fichero o se asocien a este a través de una base de datos, entendemos que también forman parte intrínseca del objeto digital.
Toda esta amalgama de elementos forma el objeto digital, pieza fundamental en cualquier repositorio o colección digital.
Como hemos comentado anteriormente, los sistemas de gestión de repositorios y colecciones digitales patrimoniales tienen su origen en los repositorios académicos de las universidades, con los que comparten una buena parte de sus tecnologías y objetivos. Los repositorios académicos o institucionales se centran en “recoger, preservar y difundir la producción académica de una institución, permitiendo el acceso a los objetos digitales que contiene y a sus metadatos” (Abadal, 2012, p. 23), favoreciendo así la difusión, visibilidad y alcance de la investigación realizada por una institución y sus miembros. Por su parte, las colecciones digitales se construyen en torno a los fondos o colecciones patrimoniales específicos que gestionan las instituciones bibliotecarias, de archivo, museísticas o de cualquier otro tipo, a la luz de una política de desarrollo de la colección analógica que contempla los casos en los que procede la digitalización (Alcaraz y Urbano, 2024).
Figura 10. Representación gráfica de un objeto digital
Nota: formado por varios ficheros (imágenes, audio, vídeo…), un fichero con información sobre la licencia y metadatos asociados a nivel de registro y ficheros a través de una base de datos. Fuente: elaboración propia.
Actualmente, disponemos de un variado catálogo de soluciones tanto de software libre, como propietario para la gestión de colecciones digitales. Este mercado se caracteriza por un importante grado de especialización de las soluciones existentes. En este sentido, encontramos productos pensados específicamente para cada sector: bibliotecas, museos y archivos, aunque también existen otras soluciones que intentan satisfacer las necesidades comunes de todas estas tipologías de instituciones. En los apartados siguientes se mencionan algunas de las más utilizadas en el marco de proyectos de HD.
Omeka Classic y Omeka S son dos de las soluciones favoritas en el ámbito de las HD. Esto se debe a que, por un lado, resuelven las necesidades mínimas que habitualmente precisan las instituciones de la memoria en la creación y gestión de una colección digital y, por el otro, porque ofrecen un importante catálogo de módulos pensados para crear proyectos digitales más orientados a la narratividad en torno a los objetos digitales del repositorio.
Ambas aplicaciones se desarrollan y mantienen de forma independiente y aunque son perfectamente intercambiables en muchos tipos de proyectos, las principales diferencias entre estas es que Omeka Classic se orienta a la creación de colecciones digitales estancas, mientras que en el caso de Omeka S, es posible crear con una misma instalación, varios proyectos totalmente independientes, pero compartiendo un mismo backoffice, objetos digitales, usuarios… Por otro lado, mientras que Omeka Classic utiliza vocabularios basados en XML que parten de un modelo jerárquico para representar relaciones entre objetos digitales y sus propiedades, Omeka S usa un modelo de grafos propio de RDF (Resource Description Framework) conforme a los principios de los datos enlazados (linked data). Es precisamente la capacidad y facilidad para enlazar objetos una de las principales virtudes de Omeka S.
Omeka Classic se hizo popular por facilitar la creación de exposiciones virtuales mediante un módulo específico, así como a través de múltiples herramientas que permiten enriquecer la capacidad narrativa del sistema, todas ellas disponibles también con Omeka S: anotaciones sobre imágenes, líneas de tiempo, mapas, grafos de conocimiento, visores avanzados de documentos basados en el estándar IIIF, entre otras.
Además, ambas aplicaciones contemplan diversas opciones para involucrar a los usuarios en proyectos colaborativos mediante campañas de crowdsourcing. Un par de ejemplos representativos los encontramos en los módulos “Contribute” y “Scripto”. El primero de ellos está pensado para construir colecciones digitales a partir de contribuciones de los mismos usuarios, quienes pueden aportar imágenes, ficheros sonoros o vídeos, siendo muy interesante en proyectos de memoria oral o que buscan recuperar el patrimonio menos “oficial” no conservado por las instituciones de la memoria, pero que todavía conservan las familias. El segundo implementa una plataforma basada en MediaWiki –el software utilizado por Wikipedia– para facilitar transcripciones colaborativas de documentos.
Figura 11. Interfaz de administración de Omeka S en la que se puede observar un registro con metadatos Dublin Core
Fuente: elaboración propia
DSpace es el software más utilizado con diferencia en el ámbito universitario para la creación de repositorios académicos. DSpace-GLAM es una personalización de este software a cargo de la empresa italiana 4Science que se encuentra disponible bajo licencia de código abierto. DSpace-GLAM parte del núcleo de DSpace, es decir, dispone de todas las funcionalidades y componentes de esta aplicación, sobre la que integra una colección de módulos que permiten organizar las colecciones de forma mucho más flexible, así como crear recursos narrativos a partir de los objetos disponibles en el repositorio. Si a esto se le suma la integración de un servidor IIIF disponible en DSpace desde su versión 7.x, y el uso del visor de documentos Mirador, basado en la misma tecnología, el resultado es la posibilidad de integrar anotaciones, facilitar la navegación entre las partes de un documento o comparar varios documentos simultáneamente, entre otras muchas posibilidades.
Figura 12. Página de inicio del repositorio AMSHistorica de la Universidad de Bolonia creado con DSpace-GLAM
Fuente: historica.unibo.it
CollectiveAccess es otra solución de software libre para la gestión de colecciones digitales patrimoniales. A diferencia de Omeka y DSpace-GLAM, se centra tanto en la publicación, como en la gestión integral de los fondos (Alcaraz, 2014).
Una de las características más interesantes de esta aplicación es la posibilidad de personalizar una importante cantidad de aspectos relacionados tanto con el modelo de datos utilizado, como con los flujos de trabajo, formularios de catalogación, informes, etc. En este sentido, en el momento de instalar y configurar la aplicación, es posible cargar en el sistema múltiples conjuntos de elementos de metadatos orientados a la descripción de diferentes tipos de recursos (materiales bibliográficos, fondos de archivo, objetos de museo…) o de procesos (pensados para la recuperación de la información, su preservación digital…). Esta característica hace de CollectiveAccess una solución interesante para instituciones con contextos GLAM, es decir, que gestionan fondos de origen bibliotecario, archivístico o museológico, especialmente cuando una institución con esos mismos departamentos o fondos desea unificar la gestión y acceso a todas sus colecciones a través de una única plataforma.
Figura 13. Detalle de un registro del catálogo razonado de la Mark Rothko Works on Paper, National Gallery of Art (Washington) creado con CollectiveAccess
Fuente: rothko.nga.gov
AtoM (Access to Memory) es uno de los sistemas de gestión de contenidos más populares para la difusión de fondos de archivo. Desarrollado originalmente por Artefactual Systems con la colaboración del Consejo Internacional de Archivos (CIA/ICA), se trata de una aplicación de software libre que se alinea con los estándares más importantes del sector: ISAD(G) (General International Standard Archival Description), ISSAR-CPF (International Standard Archival Authority Records -Corporate bodies, persons, and families-), ISDIAH (International Standard for Describing Institutions with Archival Holdings), ISDF (International Standard for Describing Functions), Dublin Core o MODS (Metadata Object Description Schema). También es compatible con otros estándares como el protocolo de interoperabilidad OAI-PMH del que hablaremos con más detalle en el capítulo 3, junto con el resto de los estándares mencionados.
Como es lógico, AtoM soporta la creación de descripciones archivísticas multinivel basadas en un cuadro de clasificación, pudiendo llegar hasta el nivel de unidad documental simple y dar de esta manera acceso al texto o documento digitalizado. La estructura de sus registros se basa en el estándar internacional de descripción archivística y, por tanto, puede resultar algo complejo para los usuarios ajenos a este sector profesional, pero del todo familiar para un profesional de la archivística.
Otra característica que hace de AtoM una solución muy interesante es la posibilidad no sólo de gestionar diferentes fondos y colecciones, sino que también permite crear entornos multirepositorio. Este podría ser el caso, por ejemplo, de una red de archivos, museos o bibliotecas, las cuales quieran tener una presencia independiente y gestionar cada una de ellas sus materiales, pero compartir una instalación y recursos técnicos.
Figura 14. Registro con una de las fotografías disponibles en el fondo de Archivo de la Fundación Miguel Delibes
Nota: En la parte izquierda es posible observar el cuadro de clasificación, en la central la descripción archivística y en la derecha opciones de exportación de informes, metadatos y acceso a contenidos relacionados. Fuente: fondomigueldelibes.fundacionmigueldelibes.es.
Nacido en el marco del desarrollo del proyecto Museu de la Paraula del Museo de Etnología de Valencia y liberado bajo licencia de software libre algunos años después, Dédalo es un sistema de gestión de colecciones patrimoniales enfocado principalmente, aunque no de manera exclusiva, a la gestión y difusión de proyectos de historia oral.
Con este propósito en mente, Dédalo ofrece un sistema que, respetando la integridad de las entrevistas, posibilita su transcripción, traducción, así como la identificación e indexación de fragmentos los cuales pueden ser fácilmente recuperados con posterioridad a través del buscador del sistema.
Figura 15. Herramienta de indexación con un tesauro
Nota: El descriptor “Censorship” se aplica a un fragmento de la entrevista para facilitar la posterior recuperación de fragmentos a los usuarios interesados en esa temática. Fuente: dedalo.dev.
Dédalo también prevé la creación de catálogos de colecciones digitales en las que también se observa la importancia de los tesauros para la relación entre las piezas de la colección. Las opciones de acceso son múltiples: a través del buscador, navegando a través del tesauro o a través de páginas en las que se pueden destacar piezas seleccionadas.
Figura 16. Detalle de un registro del Museu de Quart de Poblet implementado con Dédalo
Fuente: museuquartdepoblet.org
Dédalo también cuenta con un sistema de gestión de flujos de trabajo configurables, así como un útil sistema de gestión de versiones e historial de cambios.
Las aplicaciones mencionadas en el apartado anterior responden a la lógica de una arquitectura cliente-servidor. De acuerdo con este modelo, la interacción entre los usuarios que buscan acceder a los contenidos de un sitio web se organiza en torno a dos entidades dentro de la red: cliente y servidor.
El cliente es el dispositivo o, específicamente, el software que utiliza un usuario para acceder a los datos de un servidor. Este software es, en un entorno web, el navegador, que se responsabiliza de traducir de manera totalmente transparente las peticiones del usuario utilizando las normas establecidas en el protocolo HTTP, entre otros. Alternativamente, los usuarios o, más específicamente, algunas aplicaciones del lado del cliente pueden realizar peticiones a través de una API. Una API (Application Programming Interface o Interfaz de Programación de Aplicaciones) es una interfaz que implementa protocolos para que dos aplicaciones puedan comunicarse entre sí de forma estandarizada a través de métodos y funciones en un lenguaje de programación específico. La gran aportación de las APIs es que el proceso se realiza de forma transparente o casi transparente para los usuarios. Es decir, permiten ocultar la complejidad interna de la aplicación final y sólo exponen aquellos elementos necesarios para que los clientes las utilicen. Por ejemplo, cuando realizamos una consulta en Google Maps, los datos que enviamos (dirección postal, coordenadas, nombre de un establecimiento…), la petición y la respuesta se gestionan a través de una API que devuelve una serie de datos que se muestran en diferentes formatos (sobre un mapa, en forma de texto…).
Por otro lado, el término servidor es una palabra polisémica que se refiere tanto a la máquina (ordenador con unas características específicas), como a un software denominado servidor web. Este servidor web tiene como función tratar las peticiones que se reciben desde los clientes, procesarlas y enviarles una respuesta. Ejemplos de servidores web populares son Apache, Nginx o Internet Information Services de Microsoft.
Los sistemas de gestión de colecciones digitales están directamente en contacto con el servidor web, reciben la petición del usuario, habitualmente el acceso a un fichero HTML, PDF, JPG, etc., lo gestionan internamente, normalmente involucrando una o varias consultas a una base de datos, y retornan esa información para que el mismo servidor web envíe la respuesta al cliente, quien tiene la responsabilidad de procesar la respuesta y renderizarla. Con renderizar una página web nos referimos al proceso mediante el cual el navegador interpreta el código HTML, CSS y JavaScript para convertirlo en una representación visual.
Figura 17. Diagrama de la arquitectura cliente-servidor
Fuente: elaboración propia
Si bien en entornos de producción (de funcionamiento real), se acostumbra a implementar configuraciones más robustas y personalizadas, XAMPP es la aplicación más popular para crear entornos de preproducción y pruebas compatibles con las tecnologías comentadas en apartados anteriores.
XAMPP es una solución “todo en uno” que incluye un servidor web Apache, un sistema de gestión de bases de datos MySQL (MariaDB) e intérpretes de los lenguajes de programación PHP y Perl. Se trata de una aplicación muy fácil de instalar que en unos pocos minutos permite disponer del entorno necesario para poner en funcionamiento en local cualquier software de gestión de contenidos compatible.
Abadal, E. (2012). Acceso abierto a la ciencia. UOC. http://hdl.handle.net/2445/24542
Alcaraz Martínez, R. (2012). Omeka: exposiciones virtuales y distribución de colecciones digitales. BiD: textos universitaris de biblioteconomia i documentación, 28. https://doi.org/10.1344/105.000001829
Alcaraz Martínez, R. (2014). CollectiveAccess, un sistema de gestión y difusión de colecciones de museos, archivos y bibliotecas. BiD: textos universitaris de biblioteconomia i documentación, 33. https://bid.ub.edu/es/33/alcaraz2.htm
Alcaraz Martínez, R. (2022). Omeka S como alternativa para el desarrollo de colecciones digitales y proyectos de humanidades digitales. BiD: textos universitaris de biblioteconomia i documentació, 48. https://doi.org/10.1344/BiD2022.48.06
Alcaraz Martínez, R. (2023). Dublin Core: guía de uso. http://hdl.handle.net/2445/203374
Alcaraz Martínez, R. y Massaguer, L. (2023). Exposiciones virtuales en instituciones culturales: de la idea a la publicación. UOC; Profesional de la Información.
Alcaraz Martínez, R. y Urbano, C. (2024). Análisis de requisitos para la selección de software de gestión para bibliotecas y colecciones digitales patrimoniales. Universitat de Barcelona. (Informes del CRICC). http://hdl.handle.net/2445/209582
Alcaraz Martínez, R. y Vázquez Puig, E. (2016). TEI: un estándar para codificar textos en el ámbito de las humanidades digitales. BiD: textos universitaris de biblioteconomia i documentació, 37. https://doi.org/10.1344/BiD2016.37.25
Berners-Lee, T. (2006). Linked data. Dessign issues.
Berners-Lee, T. y Miller, E. (2002). The semantic web lifts off. ERCIM News, 51, 9-11. https://www.ercim.eu/publication/Ercim_News/enw51/berners-lee.html https://www.w3.org/DesignIssues/LinkedData.html
Bia Platas, A. y Sánchez Quero, M. (2001). Diseño de un procedimiento de marcado para la automatización del procesamiento de textos digitales usando XML y TEI. En Fuente, P. y Pérez, A. (Eds.), JBIDI 2001, II Jornadas Bibliotecas Digitales (pp. 153-165). http://www.biblioteca.org.ar/libros/142321.pdf
Bicknell, K. (2017). The future looks GLAMorous: from resource sharing to collaboration and convergence. Online Searcher, 41(4), 11–14.
Boughida, K. (2005). CDWA Lite for cataloging cultural objects (CCO): a new XML schema for the cultural heritage community. En Humanities, computers, and cultural heritage: proceedings of the XVI International Conference of the Association for History and Computing (pp. 14-17).
Burrough P. A. (1986). Principles of geographical information systems for land resources assessment. Geocarto international, 1, 3, 54. https://doi.org/10.1080/10106048609354060 https://www.carli.illinois.edu/sites/files/digital_collections/documentation/guidelines_for_audio.pdf
Busa, R. (2004). Foreword: perspectives on the digital Humanities. En Schriebman, S., Siemens, R. y Unsworth, J. (Eds.), A Companion to digital humanities. Blackwell. https://companions.digitalhumanities.org/DH/?chapter=content/9781405103213_foreword.html
Card, S. K., Mackinlay, J. D. y Shneiderman, B. (1999). Readings in information visualization: using vision to think. Morgan Kaufmann.
CARLI (2017). Guidelines for the creation of digital collections: digitization best practices for audio. Illinois: CARLI Digital Collections Users’ Group.
Codd, E. F. (1970). A relational model of data for large shared data banks. Communications of the ACM, 13(6), 377-387. https://doi.org/10.1145/362384.362685
Consultative Committee for Space Data Systems (2012). Reference model for an open archival information system (OAIS). Magenta Book. https://public.ccsds.org/pubs/650x0m2.pdf
Coronel, C. y Morris, S. (2013). Database systems: design, implementation, and management. Cengage Learning.
Cukier, J. (2009). Can data visualization improve knowledge and decision-making? En Kosara, R., Cohe, S., Cukier, M. (Eds.), Panel: Changing the world with visualization. IEEE Visualization Conference Compendium. https://kosara.net/papers/2009/Kosara-InfoVisPanel-2009.pdf
Danko, D. M. (2012). Geospatial metadata. En K. Wolfgang y D. M. Danko (Eds.), Springer handbook of geographic information (pp. 359-391). Springer. https://doi.org/10.1007/978-3-540-72680-7_12
Díaz Mota, A., y Folia, M. (2018). Biblioteca i arxiu en un context museístic: experiències LAM institucionals en el Museu del Disseny de Barcelona. En 15es Jornades Catalanes d’Informació i Documentació. https://www.cobdc.net/15JCID/wp-content/uploads/2018/05/Exp36.pdf
Diaz-Ordoñez, M., Savio Rodríguez Baena, M., y Yun-Casalilla, B. (2023). A new approach for the construction of historical databases, NoSQL document oriented databases: the example of AtlantoCracies. Digital scholarship in the humanities, 38(3), 1014-1032. https://doi.org/10.1093/llc/fqad033
Donadeo, L. y Flores, Z. (2019). Transformando y enriqueciendo nuestros datos con OpenRefine. El blog de la BNE. https://www.bne.es/es/blog/blog-bne/transformando-y-enriqueciendo-nuestros-datos-con-openrefine
Drucker, J., Kim, D., Salehian, I. y Bushong, A. (2014). Introduction to digital humanities: concepts, methods, and tutorials for students and instructors. https://archive.org/details/IntroductionToDigitalHumanities
España. Ministerio de Cultura y Deporte (2021). Recomendaciones para proyectos de digitalización de patrimonio bibliográfico y fotografía histórica. Ministerio de Cultura y Deporte. http://hdl.handle.net/10421/9200
European Union’s REKonstructed Content in 3D (2024). 3D digitisation guidelines: steps to success a guide based on the EU VIGIE2020/654 study on quality in 3D digitisation of tangible cultural heritage. ISBN: 978-84-8496-324-0. https://eureka3d.eu/3d-digitisation-guidelines/
Fegraus, E. H., Andelman, S., Jones, M. B. y Schildhauer, M. (2005). Maximizing the value of ecological data with structured metadata: an introduction to ecological metadata language (EML) and principles for metadata creation. Bulletin of the Ecological Society of America, 86(3), 158-168. http://doi.org/10.1890/0012-9623(2005)86[158:MTVOED]2.0.CO;2
Franganillo Fernández, J. (2021). Formatos digitales: propiedades técnicas y contextos de uso. UOC; Profesional de la información.
Gartner, R. (2016). Metadata: shaping knowledge from antiquity to the semantic web. Springer International Publishing. https://doi.org/10.1007/978-3-319-40893-4
Gilliland, A. J. (2008). Setting the stage. En M. Baca (Ed.), Introduction to metadata: pathways to digital information. Getty Information Institute. https://www.getty.edu/publications/intrometadata/setting-the-stage
Gobierno Vasco. Departamento de Educación, Política y Cultura. (2011). Formatos de difusión y formatos de preservación de contenidos digitales. Kultura 2.0 (Cuadernos de formación; 2).
Gómez García, J. L., Conesa y Caralt, J. (2015). Introducción al big data. UOC.
González, M. P., Pascual, A. y Lorés, J. (2001). Evaluación heurística. En Introducción a la interacción persona-ordenador. AIPO, Asociación Interacción Persona-Ordenador. https://aipo.es/wp-content/uploads/2022/02/LibroAIPO.pdf
Greenberg, J. A. (2001). Quantitative categorical analysis of metadata elements in image-applicable metadata schemas. Journal of the American Society for Information Science and Technology, 52(11), 914-917. https://doi.org/10.1002/asi.1170
Greenberg, J. A. (2003). Metadata and the World Wide Web. En M. A. Drake (Ed.), Encyclopedia of library and information science (pp. 1876-1888). Marcel Dekker.
Greenberg, J. A. (2005). Understanding metadata and metadata schemes. Cataloging & classification quarterly, 40(3), 17-36. http://dx.doi.org/doi:10.1300/J104v40n03_02
Gregory, I. N. y Ell, P. S. (2007). Historical GIS: technologies, methodologies, and scholarship. Cambridge University Press.
Habermann, T. (2018). Metadata life cycles, use cases and hierarchies. Geosciences, 8(5), 179. https://doi.org/10.3390/geosciences8050179
Haklay, M. y Weber, P. (2008). OpenStreetMap: user-generated street maps. IEEE Pervasive Computing, 7(4), 12-18. https://doi.org/10.1109/MPRV.2008.80
Hassan Montero, Y. y Martín Fernández, F. J. (2003). Guía de evaluación heurística de sitios web. No solo usabilidad: revista sobre personas, diseño y tecnología, 2. https://www.nosolousabilidad.com/articulos/heuristica.htm
Hewett, T. T. y Baecker, R. (1992). ACM SIGCHI curricula for human-computer interaction. Association for Computing Machinery. https://doi.org/10.1145/2594128
Hodge, G. (2001). Metadata made simpler. NISO Press.
Huynh, D. (2011). Google refine. http://web.archive.org/web/20141021040915/http://davidhuynh.net/spaces/nicar2011/tutorial.pdf
Ide, N., College, V., Amsler, R., Waler, D., Hockey, S. y Zampolli, A. (1988). Proposal for funding for an initiative to formulate guidelines for the encoding and interchange of machine-readable texts. https://tei-c.org/Vault/SC/scg02.html
IFLA (2010). Directrices para materiales de lectura fácil. https://www.ifla.org/wp-content/uploads/2019/05/assets/hq/publications/professional-report/120-es.pdf
Iglésias Franch, D. (2008). La fotografía digital en los archivos: qué es y cómo se trata. Trea.
ISO (2006). ISO 21127:2006. Information and documentation -- A reference ontology for the inter-change of cultural heritage information. ISO.
ISO (2009). ISO 704:2009. Terminology work: principles and methods. ISO.
ISO (2014). ISO 21127:2014 Information and documentation – A reference ontology for the interchange of cultural heritage information. ISO.
ISO (2018). ISO 9241-11:2018: ergonomics of human-system interaction. Part 11: usability: definitions and concepts. ISO.
ISO (2019). ISO 9241-210:2019: ergonomics of human-system interaction. Part 210: human-centred design for interactive systems. ISO.
Johnson, G. I., Clegg, C. W. y Ravden, S. J. (1989). Towards a practical method for user interface evaluation. Applied ergonomics, 20(4), 255-260.
Keefer, A. y Gallart, N. (2007). La preservación de recursos digitales: el reto para las bibliotecas del siglo XXI. UOC.
Kim, M. C., Zhu, Y. y Chen, C. (2016). How are they different? a quantitative domain comparison of information visualization and data visualization (2000-2014). Scientometrics, 107, 123-165. https://doi.org/10.1007/s11192-015-1830-0
Kirschenbaum, M. (2010). What is digital humanities and what is doing in English departments? ADE Bulletin 150, 1-7. https://mkirschenbaum.files.wordpress.com/2011/01/kirschenbaum_ade150.pdf
Kosara, R. y Mackinlay, J. (2013). Storytelling: next step for visualization. IEEE Computer Society, 46(5), 44-50. http://dx.doi.org/10.1109/MC.2013.36
Law, J. (2004). After method: mess in social science research. Routledge.
Lawrance, B. N., Lowry, R., Miller, P., Snaith, H. y Woolf, A. (2009). Information in environmental data grids. Philosophical transactions of the Royal Society a: mathematical, physical and engineering sciences, 367(1890), 1003-1014. https://doi.org/10.1098/rsta.2008.0237
Lecomte, S. y Boulanger, T. (2009). XML práctico: bases esenciales, conceptos y casos prácticos. ENI.
Llosa Sanz, Á. (2019). De microrrelatos y memes literarios en las redes sociales: estrategias de edición digital en la mini ficción multimodal. Microtextualidades: revista internacional de microrrelato y minificción, 7, 26-45. https://doi.org/10.31921/microtextualidades.n7a2
Mansfield, J. S., Legge, G. E. y Bane, M. C. (1996). Psychophysics of reading XV: font effects in normal and low vision. Investigative ophthalmology and visual science, 37(8), 1492-1501. https://pubmed.ncbi.nlm.nih.gov/8675391
Mayer Schönberger, V. y Cukier, K. (2013). Big data: la revolución de los datos masivos. Turner.
Mayernik, M. S. (2020). Metadata. Knowledge Organization, 47(8), 696-713.https://doi.org/10.5771/0943-7444-2020-8-696
Merriam-Webster (s.f.). Metadata. En Merriam-Webster.com Dictionary. https://www.merriam-webster.com/dictionary/metadata
Morville, P. (2004). User experience design. http://semanticstudios.com/user_experience_design
Nielsen, J. (1994). 10 usability heuristics for user interface design. https://www.nngroup.com/articles/ten-usability-heuristics
Nielsen, J. (2012). Usability 101: introduction to usability. https://www.nngroup.com/articles/usability-101-introduction-to-usability/
Nielsen, J. y Molich, R. (1990). Heuristic evaluation of user interfaces. En CHI ‘90: proceedings of the SIGCHI Conference on Human Factors in Computing Systems (pp. 249-256). https://doi.org/10.1145/97243.97281
Norman, D. A., Miller, J. y Henderson, A. (1995). What you see, some of what’s in the future, and how we go about doing it: HI at apple computer. En Proceedings of the ACM conference on human factors in computing systems (CHI 1995). https://doi.org/10.1145/223355.223477
Odgen, C. K. y Richards, I. A. (1923). Meaning of meaning: a study of the influence of language upon thought and of the science of symbolism. Harcourt, Brace and Co.
Olmeda Gómez, C. (2014). Visualización de información. El profesional de la información, 23(3), 213-220. http://dx.doi.org/10.3145/epi.2014.may.01
Padgavankar, M. H. y Gupta, S. R. (2014). Big data storage and challenges. International journal of computer science and information technologies, 5(2), 2218-2223.
Parker, D. (2001). The World of Dante: a hypermedia archive for the study of the Inferno. Literary and linguistic computing: Journal of the Association for Literary and Linguistic Computing,16(3), 287-297. http://llc.oxfordjournals.org/content/16/3/287.abstract
Pástor Sánchez, J. A. (2012). Tecnologías de la web semántica. UOC.
Pérez-Montoro, M. (2009). Arquitectura de la información en entornos web. Trea.
Plana, A. (2011). Bases de datos geográficos: almacenes de datos geográficos. En Pérez Navarro, A. (Ed.). Introducción a los sistemas de información geográfica y geotelemática. UOC.
Plichta, B. y Kornbluh, M. (2002). Digitizing speech recordings for archival purposes. Matrix, Michigan State University. http://www.historicalvoices.org/papers/audio_digitization.pdf
Pomerantz, J. (2015). Metadata. MIT Press.
Riley, J. (2017). Understanding metadata: what is metadata and what is for? National Information Standards Organization.
Río Castañeda, L. y Benito Temprano, C. S. (2018). Flavita Banana: ilustración y microrrelato. Microtextualidades: revista internacional de microrrelato y minificción, 3, 41-55. https://doi.org/10.31921/microtextualidades.n3a3
Rosenfeld, L. y Morville, P. (2006). Information architecture for the World Wide Web. 3rd. O’Reilly.
Rueda, A. (2017). Perspectivas actuales para la minificción: un balance. En Minificción y nanofilología: latitudes de la hiperbrevedad. Iberoamericana-Vervuert.
Sáez Geoffroy, A. (2023). Humanidades Digitales y Roma: una aproximación a nuevas herramientas para el estudio de la geografía imperial romana. Publicaciones de la Asociación Argentina de Humanidades Digitales, 4, e047. https://doi.org/10.24215/27187470e047
Salse, M., Jornet, N. y Guallar, J. (2021). El patrimonio universitario desde una perspectiva GLAM: análisis de los sitios web de las universidades europeas. Revista general de información y documentación, 31(2), 521-543. https://dx.doi.org/10.5209/rgid.77215
Salse Rovira, M. (2023). La documentació del patrimoni universitari en contextos No Museu: propostes per a la seva organització i descripció a partir de les col·leccions de la Universitat de Barcelona. Tesis de doctorado, Universitat de Barcelona. http://hdl.handle.net/10803/690193
Sarasa, A. (2016). Introducción a las bases de datos NoSQL usando MongoDB. UOC.
Schmidt, D. (2012). The role of markup in the digital humanities. Historical social reserach, 37(3), 125-146. https://www.jstor.org/stable/41636601
Segel, E. y Heer, J. (2010). Narrative visualization: telling stories with data. En IEEE Transactions on Visualization and Computer Graphics (pp. 1139-1148). http://vis.stanford.edu/files/2010-Narrative-InfoVis.pdf
Slype, G. Van (1991). Los lenguajes de indización: concepción, construcción y utilización en los sistemas documentales. Fundación Germán Sánchez Ruipérez.
Smiraglia, R. P. (2005). Introducing metadata. En Metadata: a cataloger’s primer (pp. 1-15). Routledge.
Studer, R., Benjamins, V. Richards y Fensel, D. (1998). Knowledge engineering, principles and methods. Data & knowledge engineering, 25(1-2), 161-197. https://doi.org/10.1016/S0169-023X(97)00056-6
Sulé, A. (2015). Schema.org, la mejora de la visualización de los resultados en los buscadores y mucho más. BiD: textos universitaris de biblioteconomia i documentació, 34. https://dx.doi.org/10.1344/BiD2015.34.23
Talja, S., Keso, H. y Pietiläinen, T. (1999). The production of “context” in information seeking research: a metatheoretical view. Information processing & management, 35(6), 751-763. https://doi.org/10.1016/S0306-4573(99)00024-2
Térmens, M. y Ribera, M. (2009). El control de los formatos en la preservación digital. En XI Jornadas Españolas de Documentación: Interinformación. FESABID (pp. 139-146). http://www.fesabid.org/zaragoza2009/actas-fesabid-2009/139-146.pdf
The digital humanities manifesto 2.0. https://humanitiesblast.com/manifesto/Manifesto_V2.pdf
Vázquez-Herrero, J. (2023). Los documentales interactivos. En Herrera-Damas, S.; Rojas-Torrijos, J. L. (Eds.). Manual de nuevos formatos y narrativas para el periodismo y la no ficción. Tirant Lo Blanch.
W3C (2023a). EPUB 3.3. https://www.w3.org/publishing/EPUB3
W3C (2023b). Web Content Accessibility Guidelines (WCAG) 2.2. https://www.w3.org/TR/WCAG22
Ware, C. (2012). Information visualization: perception for design. 3rd ed. Elsevier; Morgan Kaufman.
Warren, E. y Matthews, G. (2020). Public libraries, museums and physical convergence: context, issues, opportunities: a literature review Part 2. Journal of librarianship and information science, 52(1), 54-56. https://doi.org/10.1177/0961000618769721
Zhang, Allison B. y Gourley, D. (2008). Creating digital collections: a practical guide. Chandos Publishing.
Zorich, D. M., Waibel, G. y Erway, R. (2008). Beyond the silos of the LAMs collaboration among libraries, archives and museums. OCLC Online Computer Library Center. https://doi.org/10.25333/x187-3w53
______________________________
1 Si bien lo más habitual es que todo fichero tenga una extensión, esto no siempre es así.
2 Ver capítulo 3. Datos, metadatos y ontologías.
3 La que se obtiene a través de un dispositivo (hardware) de entrada (escáner, cámara…).
4 Una óptica u objetivo macro es una óptica diseñada para disponer de una distancia mínima de enfoque y poder hacer fotografías desde muy cerca. Ambos son aspectos fundamentales para enfocar elementos como el texto o los detalles de una fotografía.
5 Chronicling America: historic American newspapers es la hemeroteca histórica de los Estados Unidos que abarca desde 1756 hasta 1963. Disponible en: https://chroniclingamerica.loc.gov.
6 Aparatos electroópticos utilizados en topografía.
7 Grup de Recerca en Història de l’Art i del Disseny Contemporani.
8 Desarrollado por el Consultative Committee for Space Data Systems (CCSDS) y publicado como norma ISO 14721:2012, su propósito es proporcionar un modelo conceptual para la preservación y el acceso a largo plazo de la información digital en entornos en los que se desea conservar a perpetuidad. Para ello, OAIS define una serie de conceptos, funciones y responsabilidades que deben abordarse para garantizar la autenticidad, fiabilidad y la accesibilidad de la información a lo largo del tiempo.