¿Cuáles son los distintos formatos de imagen fija que...

64
Trabajo Práctico N° X Investigación. Los avances tecnológicos y las herramientas digitales. El siguiente cuestionario implica un trabajo de investigación, pero también de reflexión. El objetivo principal, consiste en que puedan reconocer y comprender la importancia del correcto manejo de los distintos formatos de archivos que van a utilizar para realizar un trabajo de montaje (como lo es el trabajo práctico final que plantea esta cursada) en digital. De manera que, los conocimientos que adquieran a partir de lo investigado, deberán servirles a la hora de tomar decisiones en éste y todos los trabajos que impliquen el dominio de los sistemas digitales. 1. ¿Cuáles son los distintos formatos de imagen fija que existen y cuáles son sus características principales? (por ejemplo: jpeg, gif, tga, psd, tiff, etc.)

Transcript of ¿Cuáles son los distintos formatos de imagen fija que...

Page 1: ¿Cuáles son los distintos formatos de imagen fija que …fido.palermo.edu/servicios_dyc/blog/docentes/trabajos/... · Web viewSound Forge está reconocido como un estándar para

Trabajo Práctico N° X

Investigación. Los avances tecnológicos y las herramientas digitales.

El siguiente cuestionario implica un trabajo de investigación, pero también de reflexión. El objetivo principal, consiste en que puedan reconocer y comprender la importancia del correcto manejo de los distintos formatos de archivos que van a utilizar para realizar un trabajo de montaje (como lo es el trabajo práctico final que plantea esta cursada) en digital. De manera que, los conocimientos que adquieran a partir de lo investigado, deberán servirles a la hora de tomar decisiones en éste y todos los trabajos que impliquen el dominio de los sistemas digitales.

1. ¿Cuáles son los distintos formatos de imagen fija que existen y cuáles son sus características principales? (por ejemplo: jpeg, gif, tga, psd, tiff, etc.)

Page 2: ¿Cuáles son los distintos formatos de imagen fija que …fido.palermo.edu/servicios_dyc/blog/docentes/trabajos/... · Web viewSound Forge está reconocido como un estándar para
Page 3: ¿Cuáles son los distintos formatos de imagen fija que …fido.palermo.edu/servicios_dyc/blog/docentes/trabajos/... · Web viewSound Forge está reconocido como un estándar para
Page 4: ¿Cuáles son los distintos formatos de imagen fija que …fido.palermo.edu/servicios_dyc/blog/docentes/trabajos/... · Web viewSound Forge está reconocido como un estándar para
Page 5: ¿Cuáles son los distintos formatos de imagen fija que …fido.palermo.edu/servicios_dyc/blog/docentes/trabajos/... · Web viewSound Forge está reconocido como un estándar para

2. ¿Cuáles son los sistemas de color que se emplean generalmente? ¿Qué sistema de color se utiliza en imágenes digitales? ¿Qué determina la profundidad de color y la resolución de una imagen? (teniendo en cuenta el CMYK y el RGB, determinar sus diferencias y usos)

Los principales sistemas que se utilizan son RGB y MYK.El Sistema utilizado por los imágenes digitales son el RGBLa profundidad del color y la resolución de una imagen esta relacionada a la cantidad bits por píxel.

CMYK:

El modelo CMYK (acrónimo de Cyan, Magenta, Yellow y Key) es un modelo de color sustractivo que se utiliza en la impresión en colores. Es la versión moderna y más precisa del ya obsoleto Modelo de color RYB, que aún se utiliza aún en pintura y bellas artes. Permite representar una gama de color más amplia que este último, y tiene una mejor adaptación a los medios industriales.

Este modelo de 32 bits se basa en la mezcla de pigmentos de los siguientes colores para crear otros más:

C = Cyan (Cian). M = Magenta (Magenta). Y = Yellow (Amarillo). K = Black ó Key (Negro).

La mezcla de colores CMY ideales es sustractiva (pues imprimir cyan, magenta y amarillo en fondo blanco resulta en el color negro). El modelo CMYK se basa en la absorción de la luz. El color que presenta un objeto corresponde a la parte de la luz que incide sobre éste y que no es absorbida por el objeto.

El cian es el opuesto al rojo, lo que significa que actúa como un filtro que absorbe dicho color (-R +G +B). Magenta es el opuesto al verde (+R -G +B) y amarillo el opuesto al azul (+R +G -B).

RGB:

La descripción RGB (del inglés Red, Green, Blue; "rojo, verde, azul") de un color hace referencia a la composición del color en términos de la intensidad de los colores primarios con que se forma: el rojo, el verde y el azul. Es un modelo de color basado en la síntesis aditiva, con el que es posible representar un color mediante la mezcla por adición de los tres colores luz primarios. El modelo de color RGB no define por sí mismo lo que significa exactamente rojo, verde o azul, por lo que los mismos valores RGB pueden mostrar colores notablemente diferentes en diferentes dispositivos que usen este modelo de color. Aunque utilicen un mismo modelo de color, sus espacios de color pueden variar considerablemente.

Para indicar con qué proporción mezclamos cada color, se asigna un valor a cada uno de los colores primarios, de manera, por ejemplo, que el valor 0 significa que no interviene en

Page 6: ¿Cuáles son los distintos formatos de imagen fija que …fido.palermo.edu/servicios_dyc/blog/docentes/trabajos/... · Web viewSound Forge está reconocido como un estándar para

la mezcla y, a medida que ese valor aumenta, se entiende que aporta más intensidad a la mezcla. Aunque el intervalo de valores podría ser cualquiera (valores reales entre 0 y 1, valores enteros entre 0 y 37, etc.), es frecuente que cada color primario se codifique con un byte (8 bits). Así, de manera usual, la intensidad de cada una de las componentes se mide según una escala que va del 0 al 255.

Por lo tanto, el rojo se obtiene con (255,0,0), el verde con (0,255,0) y el azul con (0,0,255), obteniendo, en cada caso un color resultante monocromático. La ausencia de color —lo que nosotros conocemos como color negro— se obtiene cuando las tres componentes son 0, (0,0,0).

La combinación de dos colores a nivel 255 con un tercero en nivel 0 da lugar a tres colores intermedios. De esta forma el amarillo es (255,255,0), el cian (0,255,255) y el magenta (255,0,255).

Obviamente, el color blanco se forma con los tres colores primarios a su máximo nivel (255,255,255).

El conjunto de todos los colores se puede representar en forma de cubo. Cada color es un punto de la superficie o del interior de éste. La escala de grises estaría situada en la diagonal que une al color blanco con el negro.

3. ¿Cuáles son los distintos formatos de imagen en movimiento que existen digitalmente y cuáles son sus características principales (resolución, compresión, cuadros por segundo, etc.)? (.avi, .mov, .mpeg, secuencias de cuadros en distintos formatos, etc.)

Formatos digitales:

A la hora de hablar de los formatos digitales se puede hacer una división entre los que utilizan como soporte material magnético (generalmente cintas) y por otro lado los que utilizan soportes ópticos, como son el Vídeo CD o el DVD vídeo.

Todos los formatos digitales comunes utilizan cierto nivel de compresión. Las cámaras digitales más avanzadas utilizan un formato 4:2:2 "sin perjuicios" (compresión mínima, luminancia y crominancia registradas por separado, un porcentaje de muestreo más alto, etc.) Otras cámaras utilizan un formato 4:1:1 (DV, DVCAM, DVCPRO, etc.), que necesitan un nivel más alto de compresión, lo que va en detrimento de la calidad de video.

En cuanto a las cámaras DV, la mayoría utilizan cintas digitales más pequeñas que una cinta de audio estándar. Por ejemplo, la cámara mini DV Handycam de Sony es tan pequeña que se puede guardar en el bolsillo de un abrigo. Además del visor estándar, tiene un visor plano a color LCD, que se desdobla.

La primera cámara de grabación en disco fue lanzada el mercado por Hitachi a finales de 1997: la MPEG. También tenía el tamaño de un libro de bolsillo y podía grabar hasta 20

Page 7: ¿Cuáles son los distintos formatos de imagen fija que …fido.palermo.edu/servicios_dyc/blog/docentes/trabajos/... · Web viewSound Forge está reconocido como un estándar para

minutos de vídeo y audio en un disco duro extraíble de 260 MB. En este tipo de cámaras la salida del disco puede alimentar a un VCR estándar para grabar, o también el disco duro puede ser introducido en un ordenador para la edición digital.

Con la versión profesional, una vez que el audio y el video son grabados, los segmentos pueden ser reproducidos inmediatamente, en cualquier orden. Esto significa que la edición básica puede hacerse directamente en la cámara (para programar el orden y la duración de los segmentos) y el resultado puede ser reproducido o transmitido desde la cámara.

El video digital puede ser almacenado en DVD (disco versátil digital). Aunque se parece al CD de audio, son capaces de registrar al menos 7.4 GB, que es más de diez veces la capacidad del CD estándar (versiones recientes tienen incluso mayor capacidad).

El video en la informática:

El video digital dentro del mundo de la informática tiene un tipo de formato y un códec.

Un formato es la forma en la que se guardan los datos en el fichero; esta forma puede cumplir diferentes requisitos según el uso para el que este diseñado. El códec es la compresión algorítmica a la que se ha visto sometido el contenido del formato de video digital.

El más conocido de los algoritmos de compresión de datos es el MPEG, que fue establecido por la Unión Internacional de Telecomunicaciones. Originalmente se diferenciaron cuatro tipos, MPEG-1, 2, 3 y 4. La evolución de los distintos formatos de compresión ha marcado la aparición de productos capaces de reproducir imágenes con algún estándar de compresión, así como su difusión en el mercado de consumo y el mercado profesional.

El MPEG-1, establecido en 1991, se diseñó para introducir video en un CD-ROM. Por aquel entonces eran lentos, por lo que la velocidad de transferencia quedaba limitada a 1.5Mb/s y la resolución a 352 x 240 píxeles. La calidad es similar al VHS y se usa para videoconferencias, el formato CD-i, etc.

El MPEG-2 fue establecido en 1994 para ofrecer mayor calidad con un mayor ancho de banda (entre 3 y 10Mb/s). En esa banda, proporciona 720 x 486 píxeles de resolución, que equivale a la calidad de televisión. Además ofrece compatibilidad con MPEG-1.

El MPEG-3 fue una propuesta para la televisión de alta resolución, pero la posibilidad de que MPEG-2 con mayor ancho de banda cumpla las mismas expectativas se ha abandonado de momento.

El MPEG-4 está en desarrollo. Se trata de un formato de muy bajo ancho de banda y una resolución de 176 x 144 píxeles, pensado para videoconferencias sobre Internet, etc. Está evolucionando a grandes pasos y hay fantásticos codificadores software que dan una calidad semejante al MPEG-2 pero con menor ancho de banda. Puede ser el estándar del futuro debido a la excelente relación calidad-ancho de banda.

Page 8: ¿Cuáles son los distintos formatos de imagen fija que …fido.palermo.edu/servicios_dyc/blog/docentes/trabajos/... · Web viewSound Forge está reconocido como un estándar para

En la actualidad el estándar de compresión más utilizado es el MPEG-2, ya que ofrece una calidad similar a la de la televisión. Aunque la demanda de ancho de banda era bastante alta hace un tiempo, ahora es una cantidad razonable (hasta 10 Mb/s).

Si pasamos a hablar de los formatos podemos mencionar dos que son los más comunes: el MOV y el AVI (junto su versión AVI 2.0).

El formato MOV es el estándar para la visualización de imágenes dinámicas, compatible tanto para PC como para Macintosh. Según el algoritmo de compresión puede alcanzar calidades profesionales.

El formato AVI (Audio Video Interleave) tiene un funcionamiento muy simple, pues almacena la información por capas, guardando una capa de video seguida por una de audio.

Pero ahora ha nacido un nuevo formato, el DivX. Técnicamente, es un formato de codificación de video, que combinado con la compresión de audio MP3 consigue una alta calidad de imagen con un caudal inferior a 1Mb/s.

Cabe mencionar que este formato es la alternativa de la piratería al DVD, ya que es una alternativa barata y de calidad, semejante a lo que el MP3 ha significado para el mundo de la música. Hace posible, mediante un proceso de recodificación del contenido del DVD, introducir toda una película de DVD en un CD-Rom con una calidad superior al VHS y no muy inferior al propio DVD.

Reproductores de vídeo digital:

Para la reproducción del vídeo digital los antiguos reproductores familiares de DVD se están adaptando a los nuevos formatos, lo que hace posible reproducir en un mismo aparato señales AVI, MOV o DivX; así como reproducir CD's de audio de cualquier tipo o visionar imágenes con distintos formatos digitales. Auténticos reproductores todo-terreno que se incorporan a los avances de la tecnología.

Y por último hablar de los reproductores que encontramos para visionar vídeo en nuestro PC.

Uno de los más famosos es el Windows Media Player, que ha tenido gran impulso debido al Windows XP, ya que viene integrado en dicho sistema operativo. Con él ha nacido un nuevo formato: el Windows Media Video (WMV), que prácticamente solo se puede visualizar en este reproductor.

También encontramos el Quicktime player que sirve para visualizar los archivos MOV. Este reproductor tiene una versión sencilla gratuita y una versión profesional que entre otros permite realizar videos en dicho formato y editar algunas cualidades de los mismos.

Finalmente, otro tipo de video: el Real Video, que requiere de su propio reproductor para visualizarlo, el Real Player (aunque recientemente fue lanzado el Real One)

Page 9: ¿Cuáles son los distintos formatos de imagen fija que …fido.palermo.edu/servicios_dyc/blog/docentes/trabajos/... · Web viewSound Forge está reconocido como un estándar para

4. ¿Qué es la compresión en términos generales y en qué consiste? Teniendo en cuenta que se puede trabajar con o sin compresión en imágenes en movimiento, ¿cuáles son las diferencias en el trabajo y el manejo de los archivos?

Comprimir un archivo es reducir su tamaño. Existen muchos algoritmos de compresión. Se pueden distinguir en dos grandes grupos:

Algoritmos de compresión sin pérdida: es posible descomprimir el archivo comprimido y recuperar un archivo idéntico al original. Algoritmos de compresión con pérdida: no se puede recuperar el archivo original

La ventaja evidente de comprimir uno a varios archivos es que ocupan menos espacio. Veamos tres casos en los que resulta interesante comprimir archivos. Por ejemplo:

Quieres copiar un archivo en un disquete para llevarlo de un ordenador a otro, pero el archivo es mayor de 1,44 MB y no cabe en el disquete. Comprimiendo el archivo, puede caber ya en un disquete (y si no, los programas de compresión se encargan de repartirlo en los disquetes necesarios y luego reconstruirlo). Quieres hacer una copia de seguridad de uno o varios archivos (una buena costumbre). Si comprimes todos los archivos en uno sólo, la copia de seguridad ocupará menos espacio. Quieres enviar uno o varios archivos por Internet. Si están comprimidos tardarás menos en enviarlos y pagarás menos por el tiempo de conexión (y el buzón de correo del receptor lo agradecerá).

Una vez comprimido un archivo, normalmente no podrás modificarlo sin descomprimirlo antes (salvo que el programa que utilices realice automáticamente la descompresión y compresión).

Puedes aplicar cualquier algoritmo de compresión a cualquier archivo, pero lógicamente no se puede comprimir indefinidamente. Si al comprimir un archivo obtienes un archivo mayor que el original, es que ya has llegado al límite (aunque puede que otros algoritmos puedan comprimir más el archivo). Normalmente no sirve de casi nada comprimir un archivo ya comprimido.Algoritmos de compresión con pérdida

A primera vista los formatos de compresión con pérdida parecen absurdos, ya que consiguen una gran compresión a costa de la pérdida parcial de información. Evidentemente estos algoritmos no se pueden utilizar en archivos de texto o en programas, en los que al perder información, el archivo puede ser irreconocible o inutilizable. Sin embargo, en el caso de imágenes o sonido, la pérdida de información supone solamente una pérdida de calidad, pero el resultado puede ser utilizado. Normalmente los algoritmos de compresión con pérdida permiten elegir la pérdida de calidad que estás dispuesto a sufrir a cambio de aumentar la compresión.

Page 10: ¿Cuáles son los distintos formatos de imagen fija que …fido.palermo.edu/servicios_dyc/blog/docentes/trabajos/... · Web viewSound Forge está reconocido como un estándar para

Por ejemplo, los archivos de sonido de calidad CD (sonido estéreo muestreado a 44,1 kHZ y 16 bits) ocupan aproximadamente 10 MB/s. El algoritmo MP3, muy popular actualmente, reduce el tamaño del archivo a la décima parte sin que un oído medio perciba pérdida de calidad. Esta reducción se consigue eliminando las frecuencias inaudibles y los sonidos enmascarados por otros. Si estás dispuestos a degradar la calidad del sonido de forma apreciable, el algoritmo MP3 puede reducir el tamaño del archivo hasta la centésima parte (con esta compresión oirías la música como a través de un teléfono).

En el caso de fotografías el formato de compresión con pérdida más utilizado es el formato JPEG. En el caso de imágenes en movimiento el formato más utilizado es el MPEG-2 (también se está popularizando el formato DiVX, el MP3 de las películas).Algoritmos de compresión sin pérdida

Los algoritmos de compresión sin pérdida no pueden conseguir tanta compresión como los anteriores ya que tienen la obligación de ser reversibles, es decir, que se tiene que poder obtener un archivo idéntico al original a partir del archivo comprimido. Estos algoritmos se pueden aplicar a cualquier tipo de ficheros (texto, imágenes, etc.). Existen muchos algoritmos de compresión sin pérdida y se distinguen entre ellos por el porcentaje de compresión que pueden alcanzar o por la rapidez en la compresión o descompresión.

El formato más popular en Internet es el formato ZIP, basado en el algoritmo Lempel-Ziv (1977), que funciona buscando cadenas (ristras de símbolos) repetidas y sustituyéndolas por cadenas más cortas. Pero otros formatos, como ARJ, RAR o CAB, también relativamente populares . Las diferencias de rendimiento entre ellos no son demasiado significativas. A partir de Windows ME, Windows es capaz de comprimir o descomprimir archivos ZIP directamente, pero en versiones anteriores es necesario utilizar programas específicos.

Los programas de compresión son capaces de manejar normalmente muchos formatos de compresión. Los más populares son comerciales (como WinZip), pero existen otros completamente gratuitos, como 7-zip o IZArc y de calidad similar o incluso superior.

5. ¿Qué son los codecs? ¿Cuáles son los codecs más utilizados y cuáles son sus principales características (resolución, compresión, usos)? (por ejemplo: xvid, divx, indeo, Microsoft video 1, sorenson, etc.)

Códec es la abreviatura de codificador-decodificador. Describe una especificación desarrollada en software, hardware o una combinación de ambos, capaz de transformar un archivo con un flujo de datos (stream) o una señal. Los códecs pueden codificar el flujo o la señal (a menudo para la transmisión, el almacenaje o el cifrado) y recuperarlo o descifrarlo del mismo modo para la reproducción o la manipulación en un formato más apropiado para estas operaciones. Los códecs son usados a menudo en videoconferencias y emisiones de medios de comunicación.

Page 11: ¿Cuáles son los distintos formatos de imagen fija que …fido.palermo.edu/servicios_dyc/blog/docentes/trabajos/... · Web viewSound Forge está reconocido como un estándar para

La mayor parte de códecs provoca pérdidas de información para conseguir un tamaño lo más pequeño posible del archivo destino. Hay también códecs sin pérdidas (lossless), pero en la mayor parte de aplicaciones prácticas, para un aumento casi imperceptible de la calidad no merece la pena un aumento considerable del tamaño de los datos. La excepción es si los datos sufrirán otros tratamientos en el futuro. En este caso, una codificación repetida con pérdidas a la larga dañaría demasiado la calidad.

Muchos archivos multimedia contienen tanto datos de audio como de vídeo, y a menudo alguna referencia que permite la sincronización del audio y el vídeo. Cada uno de estos tres flujos de datos puede ser manejado con programas, procesos, o hardware diferentes; pero para que estos streams sean útiles para almacenarlos o transmitirlos, deben ser encapsulados juntos. Esta función es realizada por un formato de archivo de vídeo (contenedor), como .mpg, .avi, .mov, .mp4, .rm, .ogg, .mkv o .tta. Algunos de estos formatos están limitados a contener streams que se reducen a un pequeño juego de códecs, mientras que otros son usados para objetivos más generales.

Un endec es un concepto similar (pero no idéntico) para el hardware.

Códecs más conocidos:

DV: Es un Códecs usado en cámaras MiniDV y capturas vídeo (entre otros dispositivos) mediante el firewire, una vez terminada la captura el archivo resultante puede ser comprimido en otro formato (ej: DVD o MPG-2). Hay que tener en cuenta que este Códecs de vídeo ocupa bastante espacio en disco, dos horas de video DV con calidad similar a la del DVD, ronda cerca de los 15Gbytes, destacar que este códec solo comprime el vídeo, el audio lo trata sin comprimir.

DivX: Actualmente es uno de los códecs más usados (esta basado en MPEG-4) ya que permite una gran calidad de imagen con una buena compresión de vídeo, usa la extensión *.AVI como archivo contenedor del vídeo, permitiendo pasar una película de DVD a un CD con una calidad de vídeo más que aceptable. Sin embargo presenta una “pega” este códecs es de pago, lo comercializa DivxNetworks, a causa de esto han salido otros estándares libres como 3IVX o Xvid. Así mismo hasta hace muy poco este códecs solo era compatible con los ordenadores ya que los DVDs de sobremesa no reconocian este formato.

XviD: es un formato de video MPEG-4, similar al DivX (de DivxNetworks) pero con la diferencia que su código es abierto y gratuito, mientras que Divx es de pago, por lo que esta ganando seguidores rápidamente.

H.264, o MPEG-4 parte 10 ó H.264/MPEG-4 AVC: Es un códec digital de alta compresión estándar escrito por el ITU-T Video Coding Experts Group (VCEG) junto con el ISO/IEC Moving Picture Experts Group (MPEG) como producto del esfuerzo de colaboración colectivo conocido como Joint Video Team (JVT). El estándar ITU-T H.264 y el estándar ISO/IEC MPEG-4 part 10 (formalmente ISO/IEC 14496-10) son técnicamente idénticos, y la tecnología es conocida también como AVC (Codificación de Vídeo Avanzada). En

Page 12: ¿Cuáles son los distintos formatos de imagen fija que …fido.palermo.edu/servicios_dyc/blog/docentes/trabajos/... · Web viewSound Forge está reconocido como un estándar para

ocasiones se también se denomina “códec JVT”, en referencia a la organización que lo desarrollo.

La intención del proyecto H.264/AVC fue crear un estándar que sea capaz de proveer de una buena calidad de imagen con bitrates substancialmente menores (p.ej. la mitad o menos) que los estándares previos (p.ej. el MPEG-2, H.263 o MPEG-4 parte 2). Este estándar se desarrollo con varios objetivos:

No incrementar la complejidad de su implementación. Ser relativamente barato, ya que si es demasiado caro no seria fácil de implantar. Ser flexible para utilizarlo en una gran variedad de aplicaciones (p.ej. para altos y bajos bitrates o resoluciones de imagen) y para trabajar correctamente en una gran variedad de redes y sistemas.

6. ¿De qué se trata el sistema de compresión MPEG y en qué consisten los distintos formatos?

MPEG

En muchas secuencias de video, varias de las escenas son fijas o varían muy poco; esto se denomina redundancia temporal.

Cuando sólo se mueven los labios del actor, casi los únicos píxeles que se van a modificar de una imagen a la otra son los de la boca; por lo tanto, es suficiente describir el cambio de una imagen a la otra. Esta es la principal diferencia entre MPEG (Moving Pictures Experts Group, Grupo de expertos en imágenes en movimiento) y M-JPEG. Sin embargo, este método tendrá mucho menos impacto en una escena de acción.

El grupo MPEG se creó en 1988 con el fin de desarrollar estándares internacionales de compresión, descompresión, procesamiento y codificación de imágenes animadas y datos de audio.

Existen varios estándares MPEG:

MPEG-1, desarrollado en 1988, es un estándar de compresión de datos de video y de los canales de audio asociados (hasta 2 canales para sonido estéreo). Permite almacenar videos a una velocidad de 1,5 Mbps con una calidad cercana a la de las cintas VHS en un soporte de CD denominado VCD (CD de video). MPEG-2, un estándar dedicado originalmente a la televisión digital (HDTV, televisión de alta definición), ofrece alta calidad a una velocidad que puede llegar hasta los 40 Mbps y 5 canales de sonido envolvente. Además, MPEG-2 permite la identificación y la protección contra roturas. Es el formato que se usa para videos en DVD. MPEG-4 es un estándar diseñado para permitir la codificación de datos multimedia en forma de objetos digitales para lograr una mejor interactividad, lo que lo hace especialmente adecuado para la web y para los dispositivos periféricos móviles. MPEG-7 es un estándar que se emplea para brindar una representación de datos de audio y video estándar que permita la búsqueda de información en dichos flujos de datos.

Page 13: ¿Cuáles son los distintos formatos de imagen fija que …fido.palermo.edu/servicios_dyc/blog/docentes/trabajos/... · Web viewSound Forge está reconocido como un estándar para

Por eso, este estándar también es conocido como Interfaz de Descripción de Contenido Multimedia. MPEG-21, un estándar que todavía está en desarrollo, tiene como objetivo brindar un marco para todos los actores digitales (productores, consumidores, etc.) para estandarizar la gestión de estos contenidos, así como también los derechos de acceso, los derechos de autor, etc.

MPEG-1

El estándar MPEG-1 representa cada imagen como un conjunto de bloques de 16 X 16. Permite obtener una resolución de:

352 x 240 a 30 imágenes por segundo en NTSC 352 x 288 a 25 imágenes por segundo en PAL/SECAM

El MPEG-1 permite alcanzar velocidades de alrededor de 1,2 Mbps (que se pueden leer en un CD-ROM).

El MPEG-1 permite codificar videos a través de varias técnicas:

Marcos intracodificados (marcos I, que corresponden a una codificación interna): las imágenes se codifican de forma separada sin referirse a las imágenes precedentes Marcos de código predictivo (marcos P o codificación predictiva): las imágenes se describen por sus diferencias en relación con las imágenes precedentes Marcos de código predictivo bidireccionales (marcos B): las imágenes se describen por sus diferencias en relación con la imagen precedente y con la siguiente Marcos DC codificados: las imágenes se codifican haciendo promedios de los bloques

Marcos I

Estas imágenes se codifican usando únicamente la codificación JPEG, sin tener en cuenta las imágenes que las rodean. Dichas imágenes son necesarias en un video MPEG porque aseguran la cohesión de imágenes (ya que las otras imágenes se describen en relación con las imágenes que las rodean); son especialmente útiles para el flujo de video que se puede cambiar a gusto en cualquier momento (televisión) y son esenciales en el caso de cualquier error de recepción. Por lo tanto, en un video MPEG hay una o dos de estas por segundo.Marcos P

Estas imágenes se describen por su diferencia en relación con la imagen precedente. El codificador busca las diferencias de la imagen comparada con la imagen precedente y define bloques, llamados macrobloques (16 x 16 píxeles), que se superponen a la imagen precedente.

El algoritmo compara ambas imágenes bloque por bloque y, partiendo de un umbral de cierta diferencia, considera que el área de la imagen precedente sea diferente de la imagen en progreso y le aplica una compresión JPEG.

Lo que determina la velocidad de la codificación es la búsqueda de macrobloques, porque cuantos más bloques "buenos" busque el algoritmo, más tiempo pierde.

Page 14: ¿Cuáles son los distintos formatos de imagen fija que …fido.palermo.edu/servicios_dyc/blog/docentes/trabajos/... · Web viewSound Forge está reconocido como un estándar para

A diferencia de los marcos I (comprimidos directamente), los marcos P requieren que la imagen precedente siempre esté en la memoria.Marcos B

Al igual que los marcos P, los marcos B se basan en diferencias con respecto a la imagen de referencia, excepto que en el caso de los marcos B, esta diferencia se puede llevar a cabo ya sea en la imagen precedente (como en el caso de los marcos P) o en la siguiente, lo que permite una mejor compresión. Pero en este caso se genera un retraso (porque es necesario conocer la imagen siguiente) y se requiere mantener tres imágenes en la memoria (la precedente, la actual y la siguiente).Marcos D

Estas imágenes ofrecen una calidad de resolución muy baja pero permiten una descompresión muy veloz, que resulta particularmente útil en visualizaciones de avance rápido, ya que la decodificación "normal" usa demasiados recursos del procesador.En la práctica...

En la práctica, para optimizar la codificación MPEG, las secuencias de imágenes se codifican según una sucesión de imágenes I, B y P (las D, como se menciona arriba, se reservan para visualizaciones de avance rápido), cuyo orden se determina de forma experimental. La secuencia conocida como GOP (Group Of Pictures, grupo de imágenes) es la siguiente:

IBBPBBPBBPBBI

De este modo, una imagen I incluye los 12 marcos.

7. ¿En qué casos resulta más conveniente trabajar con archivos de secuencia de cuadros que con un sólo archivo de video?

Depende de que trabajo estemos reazliando.

8. Existen distintos formatos de audio digital, ¿cuáles son y en qué se diferencian? ¿Qué es necesario tener en cuenta a la hora de trabajar con compresión de audio? (por ejemplo: wav, mp3, aiff, etc.)

Formato de archivo de audio

Un formato de archivo de audio es un contenedor multimedia que guarda una grabación de audio (música, voces, etc.). Lo que hace a un archivo distinto del otro son sus propiedades; cómo se almacenan los datos, sus capacidades de reproducción, y cómo puede utilizarse el archivo en un sistema de administración de archivos (etiquetado).

Page 15: ¿Cuáles son los distintos formatos de imagen fija que …fido.palermo.edu/servicios_dyc/blog/docentes/trabajos/... · Web viewSound Forge está reconocido como un estándar para

La manera general de almacenar audio digital es maestreando el voltaje de audio, que al reproducirlo, corresponde a un nivel de señal en un canal individual con un cierto resolución -el número de bits por muestreo - en intervalos regulares (creando la frecuencia de muestreo). Estos datos después pueden ser almacenados sin comprimir o comprimidos para reducir el tamaño del formato.

Tipos De Formatos

Existen diferentes tipos de formato según la compresión del audio. Es importante saber distinguir entre formato de archivo y codec. El codec codifica y decodifica los datos del audio mientras estos datos son archivados en un archivo que tiene un formato de audio específico. La mayoría de los formatos de archivo de audio públicamente documentados pueden ser creados con uno de dos o más codificadores o codecs. Aunque la mayoría de formatos de archivo de audio solo soportan un tipo de data (creado con un codec de audio) un contenedor de formato de multimedia como MKV o AVI puede soportar múltiples tipos de datos de audio y vídeo.

Hay tres grupos principales de formatos de archivo de audio:

Formatos de audio sin comprimir, como WAV, AIFF o AU Formatos Lossless (formato de audio comprimido sin perdida) como FLAC,MPEG-4 SLS, MPEG-4 ALS, MPEG-4 DST, WavPack, Shorten, TTA, ATRAC, Apple Lossless y WMA Lossless Formato Lossy (algoritmo de compresión con perdida) como MP3, Vorbis, Musepack, AAC y WMA

Formatos De Audio Sin Comprimir

Hay un formato principal sin comprimir, PCM, que normalmente esta archivado como .wav en windows y .aiff en MAC. WAV y AIFF son formatos flexibles creados para almacenar varios combinaciones de frecuencia de muestreo o tasa de bits, esto los hacen adecuados para archivar grabaciones originales. Existe otro tipo de archivo llamado cda (audio CD Track) que es un archivo pequeño que sirve como acceso directo a parte de los datos de un CD. El formato AIFF esta Basado en el formato IFF mientras que el formato WAV esta Basado en el formato RIFF Que realmente son muy similares. BWF (Broadcast Wav Format)es el formato de audio estándar creado por el Union Europeo de Radiodifusión como sucesor a WAV. BWF permite el almacenamiento de meta-dato en el archivo. Este formato es principalmente usado por muchos programas profesionales de edición de audio en las industrias de televisión y cine. Archivos BWF contienen una referencia de timestamp estandarizado que permite sincronizar fácilmente con un elemento de foto separado. Stand-alone, Grabadoras milti-track de dispositivos de audio, Zaxcom, HHB USA, Fostex y Aaton utilizan BWF como su formato preferido.Formato Lossless (Comprimido sin Perdida)

El formato lossless

requiere más tiempo de procesamiento que formatos sin comprimir en cambio es más eficiente en cuanto el espacio que ocupa. Formatos de audio sin comprimir codifican tanto audio como silencio con el mismo número de bits por unidad de tiempo. Codificar un minuto de silencio en un formato sin comprimir produce un archivo del mismo tamaño que codificar un archivo sin comprimir de un minuto de música de orquesta. Sin embargo en

Page 16: ¿Cuáles son los distintos formatos de imagen fija que …fido.palermo.edu/servicios_dyc/blog/docentes/trabajos/... · Web viewSound Forge está reconocido como un estándar para

un archivo lossless la música ocupa un archivo ligeramente más pequeño y el silencio no ocupa casi nada. Formatos de compresión Lossless proporcionan un ratio de compresión de más o menos 2:1. El desarrollo de formatos de compresión lossless intenta reducir el tiempo de procesamiento mientras manteniendo un buen ratio de compresión.

Formato Lossy

Lossy es un método de codificación en que comprime los datos descartando partes de ello. El proceso intenta minimizar la cantidad de datos que mantiene el archivo reduciendo su peso y por lo tanto su calidad. Realmente solo pierde los canales no audibles al oído humano, de tal modo que conservan gran parte de su calidad.

Formatos Abiertos Libres

wav: Formato contenedor de archivo de audio utilizado principalmente en windows. comúnmente utilizado para almacenar archivos de calidad de cd sin comprimir. lo que significa que pueden ser de gran tamaño, al rededor de 10mb por minuto. Archivos de wav también pueden contener datos codificados por una variedad de codecs lossy para reducir el tamaño del archivo (por ejemplo codecs mp3 o GSM. Archivos wav utilizan una estructura RIFF ogg: Un archivo de formato código abierto que apoya una variedad de codecs, de los cuales el más popular es el audio codec vorbis. Vorbis ofrece compresion similar a ese de mp3 pero menos popular. mpc: Musepack o MPC ( anteriormente conocido como MPEGplus o MP+ ) es un formato código abierto, específicamente optimizado para la compresión transparente de audio stereo a una velocidad de bits de 160-180 bits/s. flac: (free lossless audio codec) un codec de compresión lossless TTA: (the true audio) un codec de audio lossless en tiempo real aiff: Formato estándar de apple. Se puede ser considerado el equivalente de wav de Apple raw: Un archivo raw puede contener audio de cualquier codec aunque suele ser utilizado con datos de audio PCM. Solo suele ser utilizado en pruebas técnicas. au: El formato de archivo estándar utilizado por Sun, Unix y Java. El audio de archivos au puede ser PCM o comprimido con a-law o G729 codecas.

Formatos Abiertos

GSM: Diseñado para el uso de telefonía en Europa. gsm es un formato muy practico para voces de calidad teléfono. Es un buen compromiso entre calidad y tamaño. Archivos de wav pueden ser codificados con GSM. dct: Es un codec variable diseñado para dictar. vox: Este formato es comúnmente utilizado para el codec ADPCM Dialogico (Adaptive differential pulse code modulation). Similar a otros formatos ADCPM comprime a 4 bits. Archivos vox son similares a archivos wav salvo que no contienen información sobre el archivo así que la frecuencia de muestreo y el número de canales debe ser especificada para reproducir un archivo vox. mmf: Un formato de audio creado por samsung utilizados en tonos de móvil.

Formatos Propietarios

Page 17: ¿Cuáles son los distintos formatos de imagen fija que …fido.palermo.edu/servicios_dyc/blog/docentes/trabajos/... · Web viewSound Forge está reconocido como un estándar para

mp3: Formato MPEG layer 3 es el más popular para bajar y almacenar música. Eliminando porciones del archivo que sean menos audibles, mp3 comprime a aproximadamente un décima parte de un archivo PCM sacrificando su calidad. aac: (advanced Audio Coding) este formato esta basado en MPEG2 y MPEG4. archivos acc suelen ser contenedores ADTs o ADIF. mp4 o m4a: MPEG-4 audio más a menudo ACC pero a veces MP2/MP3, MPEG-4 SLS, CELP, HVXC y otros tipos de objetos de audio pueden ser definidos en MPEG-4 audio. wma: (windows media audio) este formato esta creado por microsoft y esta diseñado con habilidades de gestión de derechos digitales parta protegerlo de copia. atrac (.wav): El estilo antiguo de formato Sony ATRAC. Siempre contiene un extensión de formato .wav. para abrir estos formatos hay que instalar unos drivers ATRAC3. ra & rm: Un formato realaudio diseñado para el streaming de audio por Internet. ram: Un archivo de texto que contiene un enlace a una página web donde el archivo realaudio esta almacenado. Archivos ram no contienen audio. dss: (digital speech standard) Es un formato de propiedad de corporación Olypus. Es relativamente viejo y su codec es mediocre. msv: Un formato de sony para archivos de voz comprimidos en tarjeta de memoria. dvf: Un formato de sony para archivos de voz comprimidos, normalmente utilizado en grabadoras de dictado. IVS: Un formato desarrollado por 3D solar UK ltd con gestión de derecho digital utilizado para descargar música de su tienda digital tronme y en su reproductor interactivo de música y vídeo. m4p: Un versión de ACC en mp4 desarrollada por Apple con gestión de derecho digital para la utilización de descargas de la tienda de Itunes. iklax: Es un formato de audio digital multi-track que permite varios acciones en datos musicales como arreglos de volumen y mezclas.

9. De todos los formatos de imagen (fija y en movimiento) y de sonido, ¿cuáles pueden utilizarse en múltiples plataformas? (Mac y PC)

Video:

QuickTime Movie (.mov) MPEG-4 (.mp4, .m4v) MPEG-2 (solo OS X Lion) MPEG-1 3GPP 3GPP2 AVI DV

Audio:

iTunes Audio (.m4a, .m4b, .m4p) MP3 Core Audio (.caf) AIFF AU

Page 18: ¿Cuáles son los distintos formatos de imagen fija que …fido.palermo.edu/servicios_dyc/blog/docentes/trabajos/... · Web viewSound Forge está reconocido como un estándar para

SD2 WAV SND AMR

10.En la transmisión de señales de televisión, ¿cuáles son los sistemas de codificación existentes y en qué se diferencian?

NTSC

NTSC (National Television System Committee, en español Comisión Nacional de Sistemas de Televisión) es un sistema de codificación y transmisión de Televisión a color analógica desarrollado en Estados Unidos en torno a 1940, y que se emplea en la actualidad en la mayor parte de América y Japón, entre otros países. Un derivado de NTSC es el sistema PAL que se emplea en Europa y países de Sudamérica.

El sistema de televisión NTSC consiste en una ampliación del sistema monocromático (blanco y negro) norteamericano, su desarrollo lo inició CBS al final de la década de los 30, pero fue en los años 50 cuando fue aprobado por la FCC. Este sistema consiste en la transmisión de cerca de 30 imágenes por segundo formadas por 486 (492) líneas horizontales visibles con hasta 648 píxeles cada una. Para aprovechar mejor el ancho de banda se usa video en modo entrelazado dividido en 60 campos por segundo, que son 30 cuadros con un total de 525 líneas horizontales y una banda útil de 4.25 MHz que se traduce en una resolución de unas 270 líneas verticales.

NTSC digital

En los dispositivos digitales, como televisión digital, consolas de videojuegos modernas, DVD, etc. , ni siquiera importa la codificación de color empleada, y ya no hay diferencia entre sistemas, quedando el significado de NTSC reducido a un número de líneas igual a 480 líneas horizontales (240 para mitad de resolución, como VCD) con una tasa de refresco de la imagen de 29,970 imágenes por segundo, o el doble en campos por segundo para imágenes entrelazadas.

PAL

PAL es la sigla de Phase Alternating Line (en español línea alternada en fase). Es el nombre con el que se designa al sistema de codificación empleado en la transmisión de señales de televisión analógica en color en la mayor parte del mundo. Es de origen alemán y se utiliza en la mayoría de los países africanos, asiáticos y europeos, además de Australia y algunos países latinoamericanos.

El sistema PAL surgió en el año 1963, de manos del Dr. Walter Bruch en los laboratorios de Telefunken en su intento por mejorar la calidad y reducir los defectos en los tonos de

Page 19: ¿Cuáles son los distintos formatos de imagen fija que …fido.palermo.edu/servicios_dyc/blog/docentes/trabajos/... · Web viewSound Forge está reconocido como un estándar para

color que presentaba el sistema NTSC. No obstante, los conceptos fundamentales de la transmisión de señales han sido adoptados del sistema NTSC.

El sistema de color PAL se usa habitualmente con un formato de vídeo de 625 líneas por cuadro (un cuadro es una imagen completa, compuesta de dos campos entrelazados) y una tasa de refresco de pantalla de 25 cuadros por segundo, entrelazadas, como ocurre por ejemplo en las variantes PAL-B, G, H, I y N. Algunos países del Este de Europa que abandonaron el sistema SECAM ahora emplean PAL D o K, adaptaciones para mantener algunos aspectos técnicos de SECAM en PAL.

El sistema PAL es más robusto que el sistema NTSC. Este último puede ser técnicamente superior en aquellos casos en los que la señal es transmitida sin variaciones de fase (por tanto, sin los defectos de tono de color anteriormente descritos). Pero para eso deberían darse unas condiciones de transmisión ideales (sin obstáculos como montes, estructuras metálicas...) entre el emisor y el receptor. En cualquier caso en el que haya rebotes de señal, el sistema PAL se ha demostrado netamente superior al NTSC (del que, en realidad, es una mejora técnica). Esa fue una razón por la cual la mayoría de los países europeos eligieron el sistema PAL, ya que la orografía europea es mucho más compleja que la norteamericana (todo el medio oeste es prácticamente llano). Otro motivo es que en los EE.UU. son habituales las emisiones de carácter local y en Europa lo son las estaciones nacionales, cuyas emisoras suelen tener un área de cobertura más extensa. En el único aspecto en el que el NTSC es superior al PAL es en evitar la sensación de parpadeo que se puede apreciar en la zona de visión periférica cuando se mira la TV en una pantalla grande (más de 21 pulgadas), porque la velocidad de refresco es superior (30Hz en NTSC frente a 25Hz en PAL). De todas formas este es un argumento relativamente nuevo ya que en los años 50 el tamaño medio de la pantalla de un receptor de televisión era de unas 15 pulgadas, siendo además que esta frecuencia de refresco de imagen se adoptó en su origen condicionada por la frecuencia de la corriente alterna en los países europeos, que es 50Hz frente a los 60Hz de los EE.UU.

Comúnmente en algunos países de Latinoamérica, fabricantes de equipos de vídeo presentan receptores trinorma que pueden ser usados en cualquier país del continente americano, donde NTSC-M, PAL-M y PAL-N son las normas usadas.

PAL digital

El sistema PAL es analógico. Hubo un intento de fabricar equipos que digitalizasen la señal PAL en los años 80, pero no tuvo ningún éxito comercial y ahora son una rareza. En los dispositivos digitales, como televisión digital, videoconsolas modernas, computadoras, etc., se utilizan sistemas en componentes de color donde se tansmiten por tres cables diferentes las señales R, G y B o bien Y (luminancia), R-Y y B-Y (diferencia de color). En estos casos sólo se tiene en cuenta el número de líneas 625 / 525 y la frecuencia de cuadros 25 / 30. Mención aparte merecen los sistemas basados en el estándar MPEG-2, como el DVD y la televisión por satélite, televisión por cable, o la televisión digital terrestre (TDT); pero es otro sistema de televisión que no tiene prácticamente nada que ver con el PAL.

Comparación PAL y NTSC

Page 20: ¿Cuáles son los distintos formatos de imagen fija que …fido.palermo.edu/servicios_dyc/blog/docentes/trabajos/... · Web viewSound Forge está reconocido como un estándar para

En PAL, también conocido por 576i, se utiliza un sistema de exploración de 625 líneas totales y 576 líneas activas, pues 49 líneas se utilizan para el borrado. En NTSC, también conocido por 480i, se utiliza un sistema de exploración de 525 líneas totales y 480 líneas activas (las que se restituyen en pantalla), pues 45 líneas, que no son visibles, se utilizan para el borrado. Debido a que el cerebro puede resolver menos información de la que existe realmente, podemos hablar de la "relación de utilización" o "factor de Kell", que se define como la razón entre la resolución subjetiva y la resolución objetiva. El factor de Kell para sistemas entrelazados como PAL y NTSC vale 0,7 (para sistemas progresivos vale 0,9). Entonces, tanto en PAL como NTSC tenemos que:

resolución subjetiva / resolución objetiva = 0,7

La resolución objetiva de PAL es 576 líneas, mientras que la de NTSC es de 480 líneas. De esta manera, en PAL tenemos una resolución subjetiva de 403,2 líneas; mientras que en NTSC se perciben 336 líneas. Por tanto, PAL ofrece una resolución subjetiva y objetiva de un 20% superior a NTSC.

Una de sus pocas ventajas de NTSC es estaPor otra parte los sistemas NTSC ofrece la ventaja de cansar menos la vista no tener el clásico parpadeo del sistema PAL funcionando a 50Hz/25FPS, en cambio NTSC funciona a 60Hz cansando menos la vista, esto es como comparar el parpadeo de una lampara o tubo fluorecente a una ampolleta incandecente en la actualidad este problema fue superado con televisores que actualizaban la imagen al doble del standart o sea a 100hz.

Secam

Secam son las siglas de Séquentiel Couleur à Mémoire, en francés, "Color secuencial con memoria". Es un sistema para la codificación de televisión en color analógica utilizado por primera vez en Francia.El sistema Secam fue inventado por un equipo liderado por Henri de France trabajando para la firma Thomson.Es históricamente la primera norma de televisión en color europea.

11. ¿Cómo está compuesto un cuadro de video? ¿Qué son las líneas de resolución y cuántas líneas de resolución poseen los distintos sistemas de grabación y/o codificación? Describa los soportes y formatos, de grabación, almacenamiento y reproducción que se utilizan mayoritariamente en la actualidad, señalando sus características principales (Betacam SP, Betacam Digital, MiniDV, DVCAM, DVD, HD, HDV). Asimismo, describa los puertos de transferencia de datos más usados (USB1 y 2, Firewire1 y 2, o los soportes remotos como la conexión RS422 entre otros)

¿Cómo está compuesto un cuadro de video?

Page 21: ¿Cuáles son los distintos formatos de imagen fija que …fido.palermo.edu/servicios_dyc/blog/docentes/trabajos/... · Web viewSound Forge está reconocido como un estándar para

El vídeo compuesto es una señal de vídeo analógica que se utiliza en la producción de televisión y en los equipos audiovisuales domésticos. Esta señal eléctrica es una señal compleja en la que se codifica la imagen en sus diferentes componentes de luz y color añadiendo los sincronismos necesarios para su posterior reconstrucción.

La señal de vídeo compuesto consta de las siguientes componentes: crominancia, que porta la información del color de una imagen; luminancia, que porta la información de luz (imagen en blanco y negro) y sincronismos que indican las características del barrido efectuado en la captación de la imagen.

Qué son las líneas de resolución y cuántas líneas de resolución poseen los distintos sistemas de grabación y/o codificación?

La resolución se refiere a la agudeza y claridad de una imagen. El término se utiliza normalmente para describir monitores, impresoras e imágenes. En el caso de impresoras de matriz de puntos y de impresoras láser, la resolución indica el número de puntos por pulgada. Por ejemplo, una impresora 300 dpi (dots per inch o puntos por pulgada) es aquella que es capaz de imprimir 300 puntos distintos en una línea de 1 pulgada de largo. Esto significa que puede imprimir 90.000 puntos por pulgada cuadrada.

Para monitores, la resolución de pantalla significa el número de puntos (pixels) en toda la pantalla. Por ejemplo, una pantalla de 640-por-480 píxeles es capaz de mostrar 640 puntos distintos en cada una de las 480 líneas, o cerca de 300.000 píxeles. Esto se traduce a diferentes medidas de dpi dependiendo del tamaño de la pantalla. Por ejemplo, un monitor VGA de 15-pulgadas (640x480) muestra cerca de 50 puntos por pulgada.

Los sistemas VGA muestran 640 por 480, o cerca de 300.000 píxeles, a diferencia de los sistemas de SVGA, que muestran 800 por 600, o 480.000 píxeles. Los sistemas True Color (Color verdadero) utilizan 24 bits por el píxel, permitiendo que exhiban más de 16 millones de colores diferentes.

Las impresoras, los monitores, los scanners, y otros dispositivos se clasifican como de alta resolución, de resolución media, o de resolución baja. Las gamas de resolución reales para cada uno de estos grados cambian constantemente a medida que la tecnología mejora.

Describa los soportes y formatos, de grabación, almacenamiento y reproducción que se utilizan mayoritariamente en la actualidad, señalando sus características principales (Betacam SP, Betacam Digital, MiniDV, DVCAM, DVD, HD, HDV).

Disco Compacto:

El disco compacto (conocido popularmente como CD, por las siglas en inglés de Compact Disc) es un soporte digital óptico utilizado para almacenar cualquier tipo de información (audio, imágenes, vídeo, documentos y otros datos)

Page 22: ¿Cuáles son los distintos formatos de imagen fija que …fido.palermo.edu/servicios_dyc/blog/docentes/trabajos/... · Web viewSound Forge está reconocido como un estándar para

Historia:

El disco compacto fue creado por el holandés Kees Immink, de Philips, y el japonés Toshitada Doi, de Sony, en 1979. Al año siguiente, Sony y Philips, que habían desarrollado el sistema de audio digital Compact Disc, comenzaron a distribuir discos compactos, pero las ventas no tuvieron éxito por la depresión económica de aquella época. Entonces decidieron abarcar el mercado de la música clásica, de mayor calidad. Comenzaba el lanzamiento del nuevo y revolucionario formato de grabación audio que posteriormente se extendería a otros sectores de la grabación de datos.

El sistema óptico fue desarrollado por Philips mientras que la Lectura y Codificación Digital corrió a cargo de Sony, fue presentado en junio de 1980 a la industria y se adhirieron al nuevo producto 40 compañías de todo el mundo mediante la obtención de las licencias correspondientes para la producción de reproductores y discos.

En 1983 se produciría el primer disco compacto en los Estados Unidos por CBS (Hoy Sony Music) siendo el primer título en el mercado un álbum de Billy Joel. La producción de discos compactos se centralizó por varios años en los Estados Unidos y Alemania de donde eran distribuidos a todo el mundo. Ya entrada la década de los noventas se instalaron fabricas en diversos países como ejemplo en 1992 Sonopress produjo en México el primer CD de Título "De Mil Colores" de Daniela Romo.

En el año 1984 salieron al mundo de la informática, permitiendo almacenar hasta 700 MB. El diámetro de la perforación central de los discos compactos fue determinado en 15 mm, cuando entre comidas, los creadores se inspiraron en el diámetro de la moneda de 10 centavos de florín de Holanda. En cambio, el diámetro de los discos compactos es de 12 cm, lo que corresponde a la anchura de los bolsillos superiores de las camisas para hombres, porque según la filosofía de Sony, todo debía caber allí.

Page 23: ¿Cuáles son los distintos formatos de imagen fija que …fido.palermo.edu/servicios_dyc/blog/docentes/trabajos/... · Web viewSound Forge está reconocido como un estándar para

Detalles físicos:

A pesar de que puede haber variaciones en la composición de los materiales empleados en la fabricación de los discos, todos siguen un mismo patrón: los discos compactos se hacen de un disco grueso, de 1,2 milímetros, de policarbonato de plástico, al que se le añade una capa reflectante de aluminio, utilizada para obtener más longevidad de los datos, que reflejará la luz del láser (en el rango espectro infrarrojo y por tanto no apreciable visualmente); posteriormente se le añade una capa protectora de laca, misma que actúa como protector del aluminio y, opcionalmente, una etiqueta en la parte superior. Los métodos comunes de impresión en los CD son la serigrafía y la impresión Offset. En el caso de los CD-R y CD-RW se usa oro, plata y aleaciones de las mismas que por su ductilidad permite a los láseres grabar sobre ella, cosa que no se podría hacer sobre el aluminio con láseres de baja potencia.

Velocidad de la exploración: 1,2–1,4 m/s, equivale aproximadamente a entre 500 rpm (revoluciones por minuto) y 200 rpm, en modo de lectura CLV (Constant Linear Velocity, 'Velocidad Lineal Constante').

Distancia entre pistas: 1,6 mm. Diámetro del disco: 120 u 80 mm. Grosor del disco: 1,2 mm. Radio del área interna del disco: 25 mm. Radio del área externa del disco: 58 mm.

Diámetro del orificio central: 15 mm.

Un CD de audio se reproduce a una velocidad tal que se leen 150 KB por segundo. Esta velocidad base se usa como referencia para identificar otros lectores como los de ordenador, de modo que si un lector indica 24x, significa que lee 24 x 150 kB = 3.600 kB/s, aunque se ha de considerar que los lectores con indicación de velocidad superior a 4x no funcionan con velocidad angular variable como los lectores de CD-DA, sino que emplean velocidad de giro constante, siendo el radio obtenible por la fórmula anterior el máximo alcanzable (esto es, al leer los datos grabados junto al borde exterior del disco).

El área del disco es de 86,05 cm², de modo que la longitud del espiral grabable será de 86,05/1,6 = 5,38 km. Con una velocidad de exploración de 1,2 m/s, el tiempo de duración de un CD-DA es 80 minutos, o alrededor de 700 MB de datos. Si el diámetro del disco en vez de 120 milímetros fuera 115 mm, el máximo tiempo de duración habría sido 68 minutos, es decir, 12 minutos menos.

Capacidades:

Los CD-Roms están constituidos por una pista en espiral que presenta el mismo número de bits por centímetro en todos sus tramos (densidad lineal constante),

Page 24: ¿Cuáles son los distintos formatos de imagen fija que …fido.palermo.edu/servicios_dyc/blog/docentes/trabajos/... · Web viewSound Forge está reconocido como un estándar para

para aprovechar mejor el medio de almacenamiento, y no desperdiciar espacio como sucede en los discos magnéticos. Es por esto que en la lectura y grabación de un CD, a medida que el haz láser se aleja del centro del disco, la velocidad debe disminuir, ya que en el centro el espiral es de menos longitud que en los bordes. Alternando las velocidades se logra que la cantidad de bits leídos por segundo sea constante en cualquier tramo, sea en el centro o en los bordes. Si esta velocidad fuese constante, se leerían menos bits por segundo si la zona esta más cerca del centro, y más si esta más cerca de los bordes. Todo esto significa que un CD gira a una velocidad angular variable.

Para poder lograr que los CD tengan igual densidad en cualquier tramo de la espiral, en la grabación, el haz láser emitido por la cabeza (que se mueve en línea recta radial desde el centro al borde del plato) genera la espiral a velocidad lineal constante (CLV), esto significa que la cantidad de bits grabados por segundos será constante.

Pero para poder lograr esto, y mantener una densidad lineal constante y la pista en espiral, será necesario que el CD gire a una velocidad angular variable (explicado anteriormente). Por lo tanto, por girar un CD a una velocidad angular variable, y ser escrito a velocidad linear constante, se escriben y leen la misma cantidad de bits por segundo y por centímetro, cualquiera sea la posición del mismo. Mientras que cada vuelta de la espiral contendrá más o menos bits según si este más cerca del centro o del borde.

Los datos digitales en un CD se inician en el centro del disco y terminan en el borde de estos, lo que permite adaptarlos a diferentes tamaños y formatos. Los CD estándares están disponibles en distintos tamaños y capacidades, así tenemos la siguiente variedad de discos:

120 mm (diámetro) con una duración de 74-80 minutos de audio y 650–700 MB de capacidad de datos.

120 mm (diámetro) con una duración de 90–100 minutos de audio y 800-875 MB de datos (no se encuentran en el mercado hoy en día).

80 mm (diámetro), que fueron inicialmente diseñados para CD singles. Estos pueden almacenar unos 21 minutos de música o 210 MB de datos. También son conocidos como Mini-CD o Pocket CD.

Un CD-ROM estándar puede albergar 650 o 700 (a veces 800) MB de datos. El CD-ROM es popular para la distribución de software, especialmente aplicaciones multimedia, y grandes bases de datos. Un CD pesa menos de 30 gramos.

Para poner la memoria del CD-ROM en contexto, una novela promedio contiene 60,000 palabras. Si se asume que una palabra promedio tiene 10 letras —de hecho es considerablemente menos de 10 de letras— y cada letra ocupa un byte, una novela por lo tanto ocuparía 600,000 bytes (600 kb). Un CD puede por lo tanto contener más de 1000 novelas. Si cada novela ocupa por lo menos un centímetro en un estante, entonces un CD puede contener el equivalente de más de 10

Page 25: ¿Cuáles son los distintos formatos de imagen fija que …fido.palermo.edu/servicios_dyc/blog/docentes/trabajos/... · Web viewSound Forge está reconocido como un estándar para

metros en el estante. Sin embargo, los datos textuales pueden ser comprimidos diez veces más, usando algoritmos compresores, por lo tanto un CD-ROM puede almacenar el equivalente a más de 100 metros de estante

Tipo de discos:

CD- A: Con el formato del CD-A se pretendía superar las limitaciones de los formatos convencionales, instituyéndose en el primer sistema de reproducción de sonido que no se deteriora con el uso, puesto que puede reproducirse una y otra vez, sin perder calidad de sonido.

CD-ROM: Siglas del inglés Compact Disc - Read Only Memory, "Disco Compacto - Memoria de Sólo Lectura"

CD-R: formato de disco compacto grabable. (Compact Disc Recordable = Disco Compacto Grabable).

CD-RW: (sigla del inglés de Compact Disc ReWritable). Este tipo de CD puede ser grabado múltiples veces, ya que permite que los datos almacenados sean borrados.

CD+V:

CD+G: Extensión del estándar de disco compacto que puede presentar gráficos de baja resolución

Page 26: ¿Cuáles son los distintos formatos de imagen fija que …fido.palermo.edu/servicios_dyc/blog/docentes/trabajos/... · Web viewSound Forge está reconocido como un estándar para

Mini CD:

Mini CD es un formato intermedio entre el CD convencional y el CD-Card en lo referente a capacidad (180 Mb) y tamaño (8 cm de diámetro).

El Mini CD Tiene la ventaja de ofrecer en un formato novedoso y más pequeño todas las características del CD estándar.

En el ámbito promocional el Mini CD es uno de los soportes más utilizados por el impacto visual que produce.

MPO le ofrece la posibilidad de duplicar Mini CD tanto en tiradas industriales como en pequeñas tiradas (hasta 999 unidades) ofreciéndole un servicio mucho más rápido.

Características:    - Capacidad en Mb 180 Mb  - Capacidad en minutos 23 minutos  - Tamaño Diámetro 8 cm

Legible en cualquier lector CDROM de computadora (Desktop, Notebook) y compatible con WINDOWS.

Almacena hasta 50Mb, dimensiones: 80x63mm; bordes redondeados; disponibles en Plateado y Dorado

Volumen de producción en 48horas: 150 unidades, grabados, laminados a todo color y empacados.

Almacena aprox. 12,000 páginas de texto, 4min de CD-Audio, 48min de música MP3 ó 500 páginas Web.

Mini CDR:

Page 27: ¿Cuáles son los distintos formatos de imagen fija que …fido.palermo.edu/servicios_dyc/blog/docentes/trabajos/... · Web viewSound Forge está reconocido como un estándar para

MINICDR es un disco compacto CD-ROM de tan solo 8cm de diámetro, totalmente compatible con cualquier unidad lectora de CD-ROM; cuenta con una capacidad de 180Mb o 21 minutos de audio, es decir más del triple que nuestros populares CDCard y mas del cuádruple de los especiales PocketDISK. Recomendados para la distribución de videos digitales de hasta 18 minutos de duración en 640x480 de tamaño de pantalla. Disponible en color plateado, azul, rojo, magenta y negro.

Características:

• Legible en cualquier lector CDROM de computadora (Desktop, Notebook) y compatible con WINDOWS.• Almacena hasta 180Mb, dimensiones: 80mm de diámetro; totalmente redondo; color disponible Plateado • Volumen de producción en 48horas: 150 unidades, grabados, laminados a todo color y empacados. • Puede guardar aprox. 42,000 páginas de texto, 14min de CD-Audio, 180min música MP3, 2000 pág Web.

PocketDISK:

El PocketDISK es un CD-ROM 100% compatible con cualquier unidad lectora de CDs, con dimensiones 85x58mm y con capacidad de hasta 40Mb . Usted aquí tiene la alternativa "cuadrada" en discos compactos. Sumamente innovador, flexible al punto que puede ser guardado como una tarjeta de crédito en la billetera, definitivamente el PocketDISK será el centro de atención al momento de promocionar productos o distribuir información de su empresa. Disponible en color plateado y blanco.

Características:

Legible en cualquier lector CDROM estándar de computadora Desktop y compatible con WINDOWS.

Almacena hasta 40Mb, dimensiones: 85x58mm; bordes rectangulares; disponible en Plateado

Volumen de producción en 48 horas: 150 unidades, grabados, laminados a todo color y empacados.

Puede guardar hasta 8,000 páginas de texto, 3min de Audio, 40min de música en MP3, 350 páginas Web.

Page 28: ¿Cuáles son los distintos formatos de imagen fija que …fido.palermo.edu/servicios_dyc/blog/docentes/trabajos/... · Web viewSound Forge está reconocido como un estándar para

Dvd:

El DVD, cuyas siglas corresponden a Digital Versatile Disc o Disco Versátil Digital, es un dispositivo de almacenamiento óptico cuyo estándar surgió en 1995.

El nombre de este dispositivo hace referencia a la multitud de maneras en las que se almacenan los datos: DVD-ROM (dispositivo de lectura únicamente), DVD-R y DVD+R (sólo pueden escribirse una vez), DVD-RW y DVD+RW (permiten grabar y borrar las veces que se quiera). También difieren en la capacidad de almacenamiento de cada uno de los tipos.

Historia:

A comienzo de los años 90 dos estándares de almacenamiento óptico de alta densidad estaban desarrollándose: uno era el Multimedia Compact Disc (MMCD) apoyado por Philips y Sony, el otro era el Super Density disc (SD), apoyado por Toshiba, Time-Warner, Matsushita Electric, Hitachi, Mitsubishi Electric, Pioneer, Thomson y JVC .

Philips y Sony abandonaron su formato MMCD y acordaron con Toshiba adoptar el Super Density disc (SD) con una modificación: La adopción del EFM Plus de Philips, creado por Kees Immink, que a pesar de ser un 6% menos eficiente que el sistema de codificación de Toshiba, de ahí que la capacidad sea de 4,7 GB en lugar del los 5 GB del SD original, cuenta con la gran ventaja de que EFMPlus posee gran resistencia a los daños físicos en el disco, como arañazos o huellas.

Page 29: ¿Cuáles son los distintos formatos de imagen fija que …fido.palermo.edu/servicios_dyc/blog/docentes/trabajos/... · Web viewSound Forge está reconocido como un estándar para

El resultado fue la creación del Consorcio del DVD, fundada por las compañías anteriores, y la especificación de la versión 1.5 del DVD, anunciada en 1995 y finalizada en septiembre de 1996.

Información técnica:

Un DVD tiene 24 bits, una velocidad de muestreo de 48000 Hz y un rango dinámico de 144 dB. Se dividen en dos categorías, los de capa simple y los de doble capa.

Los DVD de capa simple puede guardar hasta 4,7 gigabytes según los fabricantes en base decimal y aproximadamente 4,38 gigabytes reales en base binaria o gibibytes (se le conoce como DVD-5), alrededor de doce veces más que un CD estándar. Emplea un láser de lectura con una longitud de onda de 650 nm (en el caso de los CD, es de 780 nm) y una apertura numérica de 0,6 (frente a los 0,45 del CD), la resolución de lectura se incrementa en un factor de 1,65. Esto es aplicable en dos dimensiones, así que la densidad de datos física real se incrementa en un factor de 3,3.

El DVD usa un método de codificación más eficiente en la capa física: los sistemas de detección y corrección de errores utilizados en el CD, como la comprobación de redundancia cíclica CRC, la codificación Reed Solomon - Product Code, (RS-PC), así como la codificación de línea Eight-to-Fourteen Modulation, la cual fue reemplazada por una versión más eficiente, EFMPlus, con las mismas características que el EFM clásico. El subcódigo de CD fue eliminado. Como resultado, el formato DVD es un 47% más eficiente que el CD-ROM, que usa una tercera capa de corrección de errores.

A diferencia de los discos compactos, donde el sonido (CDDA) se guarda de manera fundamentalmente distinta que los datos, un DVD correctamente creado siempre contendrá datos siguiendo los sistemas de archivos UDF e ISO 9660.

El disco puede tener una o dos caras, y una o dos capas de datos por cada cara; el número de caras y capas determina la capacidad del disco. Los formatos de dos caras apenas se utilizan.

Tipos de DVD:

Los DVD se pueden clasificar:

Según su contenido: DVD-Video: Películas (vídeo y audio) DVD-Audio: Audio de alta fidelidad DVD-Data: Todo tipo de datos

Según su capacidad de regrabado: DVD-ROM: Sólo lectura, manufacturado con prensa

Page 30: ¿Cuáles son los distintos formatos de imagen fija que …fido.palermo.edu/servicios_dyc/blog/docentes/trabajos/... · Web viewSound Forge está reconocido como un estándar para

DVD-R y DVD+R: Grabable una sola vez. La diferencia entre los tipos +R y -R radica en la forma de grabación y de codificación de la información. En los +R los agujeros son 1 lógicos mientras que en los –R los agujeros son 0 lógicos.

DVD-RW y DVD+RW: Regrabable DVD-RAM: Regrabable de acceso aleatorio. Lleva a cabo una

comprobación de la integridad de los datos siempre activa tras completar la escritura

DVD+R DL: Grabable una sola vez de doble capa el DVD-ROM almacena desde 4,7 GB hasta 17 GB.

Según su número de capas o caras: DVD-5: una cara, capa simple. 4.7 GB o 4.38 gigabyte (GB) - Discos

DVD±R/RW. DVD-9: una cara, capa doble. 8.5 GB o 7.92 GB - Discos DVD+R

DL.La grabación de doble capa permite a los discos DVD-R y los DVD+RW almacenar significativamente más datos, hasta 8.5 Gigabytes por disco, comparado con los 4.7 GB que permiten los discos de una capa. Los DVD-R DL (dual layer) fueron desarrollados para DVD Forum por Pioneer Corporation. DVD+R DL fue desarrollado para el DVD+R Alliance por Philips y Mitsubishi Kagaku Media.Un disco de doble capa difiere de un DVD convencional en que emplea una segunda capa física ubicada en el interior del disco. Una unidad lectora con capacidad de doble capa accede a la segunda capa proyectando el láser a través de la primera capa semi-transparente. El mecanismo de cambio de capa en algunos DVD puede conllevar una pausa de hasta un par de segundosLos discos grabables soportan esta tecnología manteniendo compatibilidad con algunos reproductores de DVD y unidades DVD-ROM. Muchos grabadores de DVD soportan la tecnología de doble capa, y su precio es comparable con las unidades de una capa, aunque el medio continúa siendo considerablemente más caro.

DVD-10: dos caras, capa simple en ambas. 9.4 GB o 8.75 GiB - Discos DVD±R/RW.

DVD-14: dos caras, capa doble en una, capa simple en la otra. 13,3 GB o 12,3 GiB - Raramente utilizado.

DVD-18: dos caras, capa doble en ambas. 17.1 GB o 15.9 GiB - Discos DVD+R.

También existen DVD de 8 cm (no confundir con miniDVD, que son CD conteniendo información de tipo DVD video) que tienen una capacidad de 1.5 GB.

El DVD Forum creó los estándares oficiales DVD-ROM/R/RW/RAM, y Alliance creó los estándares DVD+R/RW para evitar pagar la licencia al DVD Forum. Dado que los discos DVD+R/RW no forman parte de los estándares oficiales, no muestran el logotipo DVD. En lugar de ello, llevan el logotipo "RW" incluso aunque sean discos que solo puedan grabarse una vez, lo que ha suscitado cierta

Page 31: ¿Cuáles son los distintos formatos de imagen fija que …fido.palermo.edu/servicios_dyc/blog/docentes/trabajos/... · Web viewSound Forge está reconocido como un estándar para

polémica en algunos sectores que lo consideran publicidad engañosa. Y desde luego que confunde a los usuarios.

La mayoría de grabadoras de DVD nuevas pueden grabar en ambos formatos y llevan ambos logotipos +RW y DVD-R/RW.

Mini DVD:

El mini-DVD es un disco de 80 mm de diámetro. En grabación normal (calidad DVD standard) admite 30 minutos de vídeo o 1,4 GB de datos (y los de 2 capas, hasta 2,92 GB). En modo SLP, comparable en calidad al VHS, puede grabar hasta 120 minutos de vídeo. Fue desarrollado para ser usado en cámaras de vídeo, como su versión de 120 mm, puede ser reproducida en la mayoría de reproductores de DVD.

El formato es conocido también como vídeo-single o DVD single, siendo análogo a los CD singles (mini-CD) como medio de distribución de vídeos musicales.

Los mini-DVD también se conocen como "DVD de 3 pulgadas", en referencia a su diámetro aproximado.

Los mini-DVD-R/-RW también están disponibles y se venden para su uso en algunas cámaras de vídeo más recientes que graban directamente en los discos de DVD de 80 mm. Normalmente estas cámaras soportan más de un ajuste de calidad, con la calidad máxima ofreciendo 30 minutos de grabación por disco.

Blue Ray y HD DVD

Las nuevas tecnologías que competirán con el DVD están haciendo poco a poco su aparición en el mercado. El Blu-Ray y el HD DVD son los formatos de nueva generación, especiales para video de alta definición. Los orígenes del Blu-Ray se remontan al 2002, cuando se anunció el primer disco que utilizaba láser azul, el cual, contaba con el respaldo de nueve compañías, integrantes del DVD forum. Sin embargo, el formato fue desarrollado fuera del seno de la corporación, y nunca llegó a ser sometido a votación por el mismo, porque resultaba incompatible con las características técnicas de los DVD. Seis meses después, otros miembros del organismo, entre los que se encontraban Toshiba, desarrollaron su propio sistema compatible con los formatos actuales, el HD DVD. Blu-Ray obtiene su nombre del color azul del rayo láser, la letra “e” de la palabra original “Blue” fue eliminada, debido a que, en algunos países no se puede registrar para un nombre comercial, una palabra común. Estos discos permiten almacenar sustancialmente más datos que un DVD o un CD. Ambas tecnologías comparten las mismas dimensiones y aspectos externos, a diferencia de que el Blu-Ray es liderado por Sony.

Page 32: ¿Cuáles son los distintos formatos de imagen fija que …fido.palermo.edu/servicios_dyc/blog/docentes/trabajos/... · Web viewSound Forge está reconocido como un estándar para

Definición de Blue Ray

Formato de disco óptico de alta densidad de 12 cm de diámetro (igual que el CD y el DVD) para el almacenamiento de datos y videos. Compite con el HD-DVD para convertirse en el nuevo estándar de medios ópticos sucesor del DVD.El Blu-Ray utiliza un láser azul/violeta de 405 nanómetros, permitiendo grabar más información en un disco del mismo tamaño que un DVD (láser rojo de 650 nanómetros), por lo tanto hay más densidad de información.El nombre blu-ray proviene del color azul (blue) de su rayo láser; fue eliminada la "e" de blue porque en algunos países no pueden registrarse comercialmente palabras comunes.Está siendo desarrollado por BDA (asociación de disco blu-ray), liderada por Sony y Philips.Una capa de disco Blu-ray puede contener unos 25 GB de información, existiendo discos blu-ray de cuatro capas que llegan a almacenar 100 GB.Permite transferencias de datos de 36 Mbit/s, y se proyecta desarrollar velocidades de 82 Mbit/s.También poseen una gran resistencia a ralladuras y suciedad debido a su morfología, pues utilizan una capa llamada Durabis, y supone una ventaja adicional a su competidor, los HD-DVD.Existen diferentes formatos: el BD-R, formato grabable, el BD-RE, formato re escribible, y el BD-ROM.

Definición de HD-DVD

Es el heredero, tecnológicamente hablando, del DVD ya que utiliza una tecnología muy similar, con lo que las mismas fabricas podrían adaptarse a fabricar este soporte con muy pocos cambios. Actualmente existen hasta de tres capas y su capacidad va desde los 15 Gbytes para el de una capa hasta los 45 Gbytes para el de tres capas. Puntos fuertes: Al ser diseñado tomando como base el DVD tradicional su implantación supondría muchos menos costes, tanto para los fabricantes como para los usuarios. Puntos débiles: Al ser un formato “similar” al DVD, el problema de la piratería no se solucionaría ya que prácticamente con las mismas maquinarias se podrían realizar copias ilegales igual que se realizan hoy.El HD-DVD utiliza un láser violeta con una longitud de onda de 400 nm, y tiene el mismo tamaño que un DVD tradicional.Los HD-DVD poseen por capa unos 15 GB de capacidad. Existen versiones de dos capas de 30 GB de capacidad, y en desarrollo de cuatro capas de 45 GB.La velocidad de transferencia es de 36.5 Mbps.

Diferencias entre Blu Ray, HD DVD Y DVD:

Page 33: ¿Cuáles son los distintos formatos de imagen fija que …fido.palermo.edu/servicios_dyc/blog/docentes/trabajos/... · Web viewSound Forge está reconocido como un estándar para
Page 34: ¿Cuáles son los distintos formatos de imagen fija que …fido.palermo.edu/servicios_dyc/blog/docentes/trabajos/... · Web viewSound Forge está reconocido como un estándar para
Page 35: ¿Cuáles son los distintos formatos de imagen fija que …fido.palermo.edu/servicios_dyc/blog/docentes/trabajos/... · Web viewSound Forge está reconocido como un estándar para
Page 36: ¿Cuáles son los distintos formatos de imagen fija que …fido.palermo.edu/servicios_dyc/blog/docentes/trabajos/... · Web viewSound Forge está reconocido como un estándar para

Puerto USBArtículo principal: USB

Un puerto USB6 7 8 permite conectar hasta 127 dispositivos y ya es un estándar en los ordenadores de última generación, que incluyen al menos cuatro puertos USB 2.0 en los más modernos, y algún USB 1.1 en los mas anticuados

Pero ¿qué otras ventajas ofrece este puerto? Es totalmente Plug & Play, es decir, con sólo conectar el dispositivo y "en caliente" (con el ordenador ya encendido), el dispositivo es reconocido, e instalado, de manera inmediata. Sólo es necesario que el Sistema Operativo lleve incluido el correspondiente controlador o driver. Presenta una alta velocidad de transferencia en comparación con otro tipo de puertos. USB 1.1 alcanza los 12 Mb/s y hasta los 480 Mb/s (60 MB/s) para USB 2.0, mientras un puerto serie o paralelo tiene una velocidad de transferencia inferior a 1 Mb/s. El puerto USB 2.0 es compatible con los dispositivos USB 1.1

A través del cable USB no sólo se transfieren datos; además es posible alimentar dispositivos externos. El consumo maximo de este controlador es de 2.5 Watts. Los dispositivos se pueden dividir en dispositivos de bajo consumo (hasta 100 mA) y dispositivos de alto consumo (hasta 500 mA). Para dispositivos que necesiten más de 500 mA será necesaria alimentación externa. Hay que tener en cuenta, además, que si se utiliza un concentrador y éste está alimentado, no será necesario realizar consumo del bus. Una de las limitaciones de este tipo de conexiones es que longitud del cable no debe superar los 5 ms y que éste debe cumplir las especificaciones del Standard USB iguales para la 1.1 y la 2.0

IEEE 1394

El IEEE 1394 (conocido como FireWire por Apple Inc. y como i.Link por Sony) es un estándar multiplataforma para la entrada y salida de datos en serie a gran velocidad. Suele utilizarse para la interconexión de dispositivos digitales como cámaras digitales y videocámaras a computadoras.

Versiones

Su velocidad hace que sea la interfaz más utilizada para audio y vídeo digital. Así, se usa mucho en cámaras de vídeo, discos duros, impresoras, reproductores de vídeo digital, sistemas domésticos para el ocio, sintetizadores de música y escáneres.

Existen cuatro versiones:

FireWire 400 (IEEE 1394-1995)

Lanzado en 1995. Tiene un ancho de banda de 400 Mbit/s, 30 veces mayor que el USB 1.1 (12 Mbit/s) y similar a la del USB 2.0 (480 Mbit/s), aunque en pruebas realizadas, en transferencias de lectura de 5000 ficheros con un total de 300 Mb, FireWire completó el proceso con un 33% más de velocidad que USB 2.0, debido a su arquitectura peer-to-peer mientras USB utiliza arquitectura slave-master [1]. La longitud máxima permitida con

Page 37: ¿Cuáles son los distintos formatos de imagen fija que …fido.palermo.edu/servicios_dyc/blog/docentes/trabajos/... · Web viewSound Forge está reconocido como un estándar para

un único cable es de 4,5 metros, pudiendo utilizarse hasta 16 repetidores para prolongar la longitud (no pudiendo sobrepasar nunca la distancia de 72 metros). Su conector está dotado de 6 pines, dos de ellos destinados a la alimentación del dispositivo (excepto en la versión distribuida por sony, iLink, que carece de estos dos pines de alimentación) ofreciendo un consumo de unos 7 u 8 W por puerto a 25 V (nominalmente).

Revisión IEEE 1394a-1995

En 2000 se implementó una revisión de IEEE 1394-1995, añadiéndole características como difusión asíncrona, una reconfiguración de bus más rápida, concatenación de paquetes, y ahorro de energía en modo suspensión.

FireWire 800 (IEEE 1394b-2000)

Publicado en 2000. Duplica aproximadamente la velocidad del FireWire 400, hasta 786.5 Mbps con tecnología full-duplex, cubriendo distancias de hasta 100 metros por cable. Firewire 800 reduce los retrasos en la negociación, utilizando para ello 8b10b (código que codifica 8 bits en 10 bits, que fue desarrollado por IBM y permite suficientes transiciones de reloj, la codificación de señales de control y detección de errores. El código 8b10b es similar a 4B/5B de FDDI (que no fue adoptado debido al pobre equilibrio de corriente continua), que reduce la distorsión de señal y aumenta la velocidad de transferencia. Así, para usos que requieran la transferencia de grandes volúmenes de información, resulta muy superior al USB 2.0. Posee compatibilidad retroactiva con Firewire 400 utilizando cables híbridos que permiten la conexión en los conectores de Firewire400 de 6 pines y los conectores de Firewire800, dotados de 9 pines. No fue hasta 2003 cuando Apple lanzó el primer uso comercial de Firewire800.

FireWire s1600 y s3200 (IEEE 1394-2008)

Anunciados en diciembre de 2007, permiten un ancho de banda de 1'6 y 3'2 Gbit/s, cuadruplicando la velocidad del Firewire 800, a la vez que utilizan el mismo conector de 9 pines.

FireWire s800T (IEEE 1394c-2006)

Anunciado en junio de 2007. Aporta mejoras técnicas que permite el uso de FireWire con puertos RJ45 sobre cable CAT 5, combinando así las ventajas de Ethernet con Firewire800.

Características generales

Soporta la conexión de hasta 63 dispositivos con cables de una longitud máxima de 425 cm con topología en árbol. Compatible con plug-and-play. Compatible con comunicación peer-to-peer que permite el enlace entre dispositivos sin necesidad de usar la memoria del sistema o el microprocesador. Compatible con conexión en caliente. Todos los dispositivos IEEE 1394 son identificados por un identificador IEEE EUI-64 exclusivo (una extensión de las direcciones MAC Ethernet).

Comparativa de velocidades

Page 38: ¿Cuáles son los distintos formatos de imagen fija que …fido.palermo.edu/servicios_dyc/blog/docentes/trabajos/... · Web viewSound Forge está reconocido como un estándar para

Conexiones de dispositivos externos

Firewire 800: 100 MB/s Firewire s1600: 200 MB/s Firewire s3200: 400 MB/s USB 1.0: 0,19 MB/s USB 1.1: 1,5 MB/s USB 2.0: 60 MB/s

Conexiones de dispositivos externos de Alta Velocidad

USB 3.0: 600 MB/s1 Thunderbolt: 1200 MB/s2

Conexiones para tarjetas de expansión

PCI Express 1.x (x1): 250 MB/s PCI Express 2.0 (x1): 500 MB/s PCI Express 3.0 (x1): 1000 MB/s PCI Express 1.x (x8): 2000 MB/s PCI Express 2 (x8): 4000 MB/s PCI Express 3 (x8): 8000 MB/s PCI Express 1.x (x16): 4000 MB/s PCI Express 2 (x16): 8000 MB/s PCI Express 3 (x16): 16000 MB/s

Conexiones de almacenamiento interno

ATA: 100 MB/s (UltraDMA 5) PATA: 133 MB/s (UltraDMA 6) SATA I: 150 MB/s SATA II: 300 MB/s SATA III: 600 MB/s

AplicacionesEdición de vídeo digital

La edición de vídeo digital con IEEE 1394 ha permitido que tuviera lugar una revolución en la producción del vídeo con sistemas de escritorio. La incorporación de FireWire en cámaras de vídeo de bajo costo y elevada calidad permite la creación de vídeo profesional en Macintosh o PC. Atrás quedan las carísimas tarjetas de captura de vídeo y las estaciones de trabajo con dispositivos SCSI de alto rendimiento. IEEE 1394 permite la captura de vídeo directamente de las nuevas cámaras de vídeo digital con puertos FireWire incorporados y de sistemas analógicos mediante conversores de audio y vídeo a IEEE 1394.

Page 39: ¿Cuáles son los distintos formatos de imagen fija que …fido.palermo.edu/servicios_dyc/blog/docentes/trabajos/... · Web viewSound Forge está reconocido como un estándar para

12. ¿Qué es el código de tiempo (TC)? ¿Qué es el Keycode? ¿Qué permite el Timecode (TC)y el Keycode (KC) en la postproducción? ¿Qué es y en qué consiste el LTC, MTC, VITC, SMPTE y el MIDI?

El código de tiempo o TC es una información que se utiliza en la grabación y edición en vídeo. Son varios tipos de código que permiten controlar, mediante un reloj, la ubicación en el tiempo de la cinta de cada frame y así tenerlo localizados para visionar, editar, para conocer duraciones, datos de información del usuario, etc.

El origen del código de tiempo está en el cine, con el llamado pietaje o key code, que no es más que la organización y ubicación del material en película según su longitud en pies y fotogramas. Esto permite un minutado de la película para identificar la localización de cada fotograma.

En el vídeo el código de tiempo es escrito por el cabezal del magnetoscopio. Es parte de la información que se graba, además de vídeo, audio y sincronismos. Las cintas vírgenes carecen de TC y sincronismos, por lo que la primera operación a realizar es un pistado, en el que se graba barras de color y tono de 1KHz y un negro a continuación (respecto a vídeo y audio) y LTC y track (respecto a sincronismos). De este modo un magnetoscopio tiene espacio para realizar un preroll e información previa para continuar grabando datos.

El código de tiempo tiene normalmente 8 dígitos. su forma es 00:00:00:00, que corresponde a horas:minutos:segundos:frames. En el U-BIT se usan los mismos espacios para introducir el texto deseado.

Hay cuatro tipos de código de tiempo, aunque su uso o no depende del formato de vídeo:

CTL: El CTL es un tipo de TC que se coordina con la pista de sincronismos o control track, que es una pista longitudinal. Es la señal del cabezal que escribe cuando se realiza una primera edición o una edición a lo bruto. En sí es la información que graba el motor para ser leída en cualquier reproducción y que sepa la velocidad a la que éste debe girar. Sirve por tanto para mantener la sincronía en la lectura. El magnetoscopio puede leer esta información y mostrarla al operador como un cuentavueltas y dar una lectura en pantalla. Sin embargo, el CTL no graba una numeración exacta, sino que el equipo lo pone a cero cada vez que se inserta una nueva cinta o se pone a cero el contador. Es el código de tiempo que muestra cualquier equipo doméstico y no es usado para la edición (salvo saltos en LTC/VITC). LTC: El LTC es un TC que se graba formalmente en cinta en la pista de código de tiempos. El operador al pistar la cinta selecciona un código de tiempo (por ejemplo, 00:00:00:00) al principio de cinta y a partir de ahí correrá el contador. Esto sólo se puede hacer en un grabador, puesto que se están introduciendo datos. El LTC es un código de tiempo longitudinal, por lo que tendrá problemas con velocidad variable (ya que el vídeo se graba en vertical). Es el usado normalmente en la edición o para cualquier uso como minutado, puesto que no se resetea al sacar la cinta del equipo, permanece en cinta sin modificaciones salvo que se haga expresamente. Una grabación o edición incorrecta dará lugar a saltos de código, que suele provocar que la máquina no encuentre correctamente las entradas o salidas asignadas. VITC: El VITC es similar al LTC, pero se graba en vertical, junto a la información de las pistas de vídeo. Esto hace que al utilizar velocidad variable o dynamic tracking se pueda

Page 40: ¿Cuáles son los distintos formatos de imagen fija que …fido.palermo.edu/servicios_dyc/blog/docentes/trabajos/... · Web viewSound Forge está reconocido como un estándar para

seguir usando, por lo que en ciertas ocasiones sustituye al LTC. Pero al pistarse la cinta la información es exactamente la misma que el LTC, simplemente es una segunda ubicación de reserva para postproducción. U-BIT: El U-BIT es un código de usuario que no es necesario, pero se utiliza en ocasiones para incluir información con caracteres alfanúmericos e identificar la cinta. Se introduce en un equipo grabador.

Con la incorporación de otros soportes además de la cinta, como el disco duro, las tarjetas de memoria de estado sólido y los discos ópticos, y otros equipos de edición además de los magnetoscopios, como los ordenadores, el TC se ha simplificado. Lo que permanece es el LTC/VITC, conocidos más genéricamente como TC, y acompaña a los archivos de vídeo como información de metadato en formatos como, por ejemplo, los OMF.

13. ¿Cuáles son los distintos softwares de edición y postproducción de imagen que se utilizan actualmente? Describir brevemente marcando virtudes y defectos.

Photoshop:

No es extraño que Photoshop haya sido el ganador por más de la mitad del total de votos. Photoshop es lo que viene a la mente cuando se trata de edición de imágenes. Es muy poco lo que puede decirse sobre este editor que no se haya dicho antes.

Con una cantidad insuperable de características que te ayudan a manipular y mejorar fotos, así como a crear gráficos web, al mismo tiempo que te permiten manejar tu ritmo de trabajo y el entorno de la edición de imágenes, Photoshop resulta ser el número uno como el mejor software de edición de imágenes hoy disponible en el mercado.

GIMP:

GIMP, que es la sigla de GNU Image Manipulation Program – Programa GNU de Manipulación de Imágenes – es un potente editor de imágenes que puede usarse en todos los principales sistemas operativos (Linux, Mac y Windows).Tiene una interfaz que permite personalizar sus características de modo que fácilmente puedas establecer la vista y el funcionamiento de GIMP.

Tiene un conjunto enorme de herramientas de retoque que te permiten realizar retoques y manipulaciones avanzadas de las imágenes. El GIMP entrega tu trabajo en muchos de los formatos más comunes como JPG, GIF, PNG, TIFF y también PSD (el formato original de Photoshop).

Page 41: ¿Cuáles son los distintos formatos de imagen fija que …fido.palermo.edu/servicios_dyc/blog/docentes/trabajos/... · Web viewSound Forge está reconocido como un estándar para

Pixelator:

Pixelmator es un editor de imágenes rápido y potente para el sistema operativo Mac. Con su intuitiva y hermosa interfaz Graphical User Interface (GUI), la ayuda para organizar tu documento, un amplio surtido de herramientas de pintura, y herramientas de corrección de fotos fáciles de usar, Pixelmator es una elección excelente para usuarios de Mac que no necesitan así recurrir al Photoshop.

14. ¿Cuáles son los distintos softwares de edición y postproducción de audio más utilizados? Describir brevemente marcando virtudes y defectos.

Sound Forge 8 Sony:

Sound Forge está reconocido como un estándar para la edición de audio en la plataforma Windows. Este programa es un completo editor de audio digital, que contiene una gran variedad de opciones para el proceso de audio. Sound Forge soporta video para Windows, lo que le permite sincronizar audio y video con la precisión de un fotograma.Soporta una gran lista de formatos de audio, incluyendo: RealAudio, RealVideo, formato de ASF, y Java, lo que lo convierte en una gran herramienta para crear ficheros de audio y video en Internet. También soporta plug-ins basados en la arquitectura de sevicios de DirectX.Algunas de sus características más destacadas son: edición no lineal en el disco duro; toneladas de efectos de audio, procesos, y herramientas; lee y escribe los formatos de todos los ficheros soportados; procesado especial de ficheros de audio orientado a Internet; producción con calidad de estudio para profesionales; compresión de ficheros en 8 bits para su distribución; listas de reproducción y listas de regiones para masterizado de CD; soporte de filtros especiales para la reducción de ruido, etc.

Adobe Soundbooth:

Adobe Soundbooth (Sb) era una aplicación en forma de estudio de sonido que estaba destinada a la edición de audio en un nivel básico. Fue creado y producido por Adobe Systems, Adobe Soundbooth hizo su aparición en la versión Creative Suite 3 de todas sus aplicaciones en marzo de 2007, principalmente adquirido en el conjunto de Post-Producción de video de Adobe Systems Adobe Creative Suite 3 Production Premium.

Adobe Soundbooth era considerado una forma resumida del reconocido editor profesional de audio, también producido por Adobe Systems, Adobe Audition. Soundbooth se hizo disponible tanto de forma individual como en paquetes como Adobe Creative Suite Master Collection y Adobe Creative Suite Production Premium como se mencionó antes. Adobe Audition había sido retirado, no descontinuado (Como se creía en un principio) de las versiones CS3, CS4 y CS5 de la suite para ser puesto a disposición de grandes especialistas en audio, radio y video vendido de una forma individual. Sin embargo, para la versión CS5.5 Adobe descontinuó el desarrollo de Soundbooth, integrando nuevamente Adobe Audition a la suite.

Page 42: ¿Cuáles son los distintos formatos de imagen fija que …fido.palermo.edu/servicios_dyc/blog/docentes/trabajos/... · Web viewSound Forge está reconocido como un estándar para

Adobe Soundbooth se integraba con otras aplicaciones clave dentro del paquete de post-producción de video Adobe CS Production Premium y de animación como son Adobe Premiere Pro, Adobe After Effects e inclusive el reconocido creador y entregador de contenido interactivo a nivel mundial Adobe Flash Profesional.

Adobe Anunció que a partir del 24 de abril de 2011, no continuará vendiendo este software para concentrarse en el desarrollo de Adobe Audition.

Adobe Audition:

Adobe Audition (anteriormente Cool Edit Pro) es una aplicación en forma de estudio de sonido destinado para la edición de audio digital de Adobe Systems Incorporated que permite tanto un entorno de edición mezclado de ondas multipista no-destructivo como uno destructivo, por lo que se lo ha referido como el "cuchillo suizo multiuso" del audio digital por su versatilidad. NO ES un DAW, es simplemente un editor de sonido.

15. ¿Cuáles son los distintos softwares de animación digital más utilizados y qué se debe tener en cuenta a la hora de exportar una animación realizada a través de alguno de ellos (formato, compresión, resolución) para luego ser utilizada en un software de edición? Del mismo modo, ¿qué recaudos hay que adoptar para la elección de tipografías?

3d max:

Autodesk 3ds Max (anteriormente 3D Studio Max) es un programa de creación de gráficos y animación 3D desarrollado por Autodesk, en concreto la división Autodesk Media & Entertainment (anteriormente Discreet). Creado inicialmente por el Grupo Yost para Autodesk, salió a la venta por primera vez en 1990 para DOS.

3ds Max, con su arquitectura basada en plugins, es uno de los programas de animación 3D más utilizado, especialmente para la creación de video juegos, anuncios de televisión, en arquitectura o en películas.

After effects:

Adobe After Effects es una aplicación en forma de estudio destinado para la creación o aplicación en una composición (realización de gráficos profesionales en movimiento) de efectos especiales y grafismo de video, que desde sus raíces han consistido básicamente en la superposición de imágenes. Adobe After Effects es uno los softwares basado en Linea de tiempo más potentes del mercado junto con Autodesk Combustion y Eyeon Fusion.

Una de las principales fortalezas del programa es que existen una gran cantidad de plugins desarrollados por otras compañías que ayudan a aligerar las cargas de trabajo continuo y repetitivo en lo que a aplicación de efectos se refiere, en las nuevas versiones

Page 43: ¿Cuáles son los distintos formatos de imagen fija que …fido.palermo.edu/servicios_dyc/blog/docentes/trabajos/... · Web viewSound Forge está reconocido como un estándar para

tales como 6.5 o la 7 su habilidad para manejar archivos de gráficos y video de distintos formatos y el hecho de que su interfaz le es muy familiar a muchos editores dedicados a la postproducción se convierte en una razón muy poderosa para utilizarlo.

Este software esta dirigido a diseñadores gráficos, productores de vídeo y a profesionales en la multimedia.

A la hora de exportar archivos, siempre es recomendable utilizar compresores que dejen la mejor calidad de imagen posible y a su vez que reduzcan el tamaño del archivo.

En lo personal creo que los mejores formatos son .MOV .AVI

16. A partir de lo investigado, ¿cuáles son los formatos de imagen (fija y en movimiento) y de audio más convenientes para utilizar en la posproducción digital, en función de características, ventajas, desventajas, plataformas y softwares? Describa algunos casos posibles en donde se evidencien las ventajas y las desventajas.

Imagen fija:

.JPG: JPEG (del inglés Joint Photographic Experts Group, Grupo Conjunto de Expertos en Fotografía), es el nombre de un comité de expertos que creó un estándar de compresión y codificación de archivos de imágenes fijas. Este comité fue integrado desde sus inicios por la fusión de varias agrupaciones en un intento de compartir y desarrollar su experiencia en la digitalización de imágenes. La ISO, tres años antes (abril de 1983), había iniciado sus investigaciones en el área.

Además de ser un método de compresión, es a menudo considerado como un formato de archivo. JPEG/Exif es el formato de imagen más común utilizado por las cámaras fotográficas digitales y otros dispositivos de captura de imagen, junto con JPG/JFIF, que también es otro formato para el almacenamiento y la transmisión de imágenes fotográficas en la World Wide Web. Estas variaciones de formatos a menudo no se distinguen, y se llaman JPEG. Los archivos de este tipo se suelen nombrar con la extensión .jpg.

Compresión del JPEG

El formato JPEG utiliza habitualmente un algoritmo de compresión con pérdida para reducir el tamaño de los archivos de imágenes. Esto significa que al descomprimir o visualizar la imagen no se obtiene exactamente la misma imagen de la que se partía antes de la compresión. Existen también tres variantes del estándar JPEG que comprimen la imagen sin pérdida de datos: JPEG2000, JPEG-LS y Lossless JPEG.

El algoritmo de compresión JPEG se basa en dos defectos visuales del ojo humano, uno es el hecho de que es mucho más sensible al cambio en la luminancia que en la crominancia, es decir, capta más claramente los cambios de brillo que de color. El otro es

Page 44: ¿Cuáles son los distintos formatos de imagen fija que …fido.palermo.edu/servicios_dyc/blog/docentes/trabajos/... · Web viewSound Forge está reconocido como un estándar para

que nota con más facilidad pequeños cambios de brillo en zonas homogéneas que en zonas donde la variación es grande, por ejemplo en los bordes de los cuerpos de los objetos.

Una de las características del JPEG es la flexibilidad a la hora de ajustar el grado de compresión. Un grado de compresión muy alto generará un archivo de pequeño tamaño, a costa de una pérdida significativa de calidad. Con una tasa de compresión baja se obtiene una calidad de imagen muy parecida a la del original, pero con un tamaño de archivo mayor.

La pérdida de calidad cuando se realizan sucesivas compresiones es acumulativa. Esto significa que si se comprime una imagen y se descomprime, se perderá calidad de imagen, pero si se vuelve a comprimir una imagen ya comprimida se obtendrá una pérdida todavía mayor. Cada sucesiva compresión causará pérdidas adicionales de calidad. La compresión con pérdida no es conveniente en imágenes o gráficos que tengan textos, líneas o bordes muy definidos, pero sí para archivos que contengan grandes áreas de colores sólidos.

.PNG: PNG (sigla en inglés de portable network graphics) es un formato gráfico basado en un algoritmo de compresión sin pérdida para bitmaps no sujeto a patentes. Este formato fue desarrollado en buena parte para solventar las deficiencias del formato GIF y permite almacenar imágenes con una mayor profundidad de contraste y otros importantes datos.

.TGA: Truevision TGA es un formato de fichero digital para imágenes rasterizadas o de mapas de bits. Fue el formato nativo para las tarjeta TARGA de Truevision Inc., que fueron unas de las primeras tarjetas gráficas para ordenadores personales en soportar imágenes truecolor o en millones de colores.

Los ficheros TGA tienen la extensión ".tga" en los sistemas DOS y Windows de PC, y ".tpic" en los sistemas Macintosh. El formato puede almacenar datos de imágenes de 1 a 32 bits de profundidad de color. Opcionalmente se puede utilizar la compresión sin pérdidas RLE.

El formato TGA fue definido originalmente por Truevision Inc. en 1984. Algunas mejoras como la incorporación de miniaturas (también llamadas thumbnails), el canal alfa, los valores de gamma y los metadatos en forma de texto fueron añadidos en 1989.

.TIF: (Tagged Image File Format) El formato TIFF fue desarrollado por la desaparecida Aldus y Microsoft, y es actualmente propiedad de Adobe Systems. La última revisión del formato es la número 6, del año 1992. Hay algunas extensiones, como las anotaciones que utiliza el Imaging de Microsoft, pero ninguna puede considerarse estándar.

Imagen en movimiento:

Page 45: ¿Cuáles son los distintos formatos de imagen fija que …fido.palermo.edu/servicios_dyc/blog/docentes/trabajos/... · Web viewSound Forge está reconocido como un estándar para

.MOV: mov es una instrucción en el lenguage ensamblador de la mayoría de procesadores, cuyo propósito es la transferencia de datos entre registros de procesador o registro y memoria.

Adicionalmente mov también permite el uso de datos absolutos, como por ejemplo mover el número 10 a un registro del procesador.[editar] Implementaciones

Está disponible en procesadores intel pentium, amd y sparc entre muchos otros, es a la práctica, una instrucción de ensamblador básica en cualquier procesador.

.AVI: (siglas en inglés de Audio Video Interleave) es un formato contenedor de audio y video lanzado por Microsoft en 1992.

El formato avi permite almacenar simultáneamente un flujo de datos de video y varios flujos de audio. El formato concreto de estos flujos no es objeto del formato AVI y es interpretado por un programa externo denominado códec. Es decir, el audio y el video contenidos en el AVI pueden estar en cualquier formato (AC3/DivX, u MP3/Xvid, entre otros). Por eso se le considera un formato contenedor.

Para que todos los flujos puedan ser reproducidos simultáneamente es necesario que se almacenen de manera intercalada (interleave). De esta manera, cada fragmento de archivo tiene suficiente información como para reproducir unos pocos fotogramas junto con el sonido correspondiente.

Obsérvese que el formato AVI admite varios flujos de datos de audio, lo que en la práctica significa que puede contener varias bandas sonoras en varios idiomas. Es el reproductor multimedia quien decide cuál de estos flujos debe ser reproducido, según las preferencias del usuario.

Los archivos AVI se dividen en fragmentos bien diferenciados denominados chunks. Cada chunk tiene asociado un identificador denominado etiqueta FourCC. El primer fragmento se denomina cabecera y su papel es describir meta-información respecto al archivo, por ejemplo, las dimensiones de la imagen y la velocidad en fotogramas por segundo. El segundo chunk contiene los flujos entrelazados de audio y video. Opcionalmente, puede existir un tercer chunk que actúa a modo de índice para el resto de chunks.

Audio:

.WAV: WAV (o WAVE), apócope de WAVEform audio file format, es un formato de audio digital normalmente sin compresión de datos desarrollado y propiedad de Microsoft y de IBM que se utiliza para almacenar sonidos en el PC, admite archivos mono y estéreo a diversas resoluciones y velocidades de muestreo, su extensión es .wav.

Es una variante del formato RIFF (Resource Interchange File Format, formato de fichero para intercambio de recursos), método para almacenamiento en "paquetes", y relativamente parecido al IFF y al formato AIFF usado por Macintosh. El formato toma en

Page 46: ¿Cuáles son los distintos formatos de imagen fija que …fido.palermo.edu/servicios_dyc/blog/docentes/trabajos/... · Web viewSound Forge está reconocido como un estándar para

cuenta algunas peculiaridades de la CPU Intel, y es el formato principal usado por Windows.

A pesar de que el formato WAV es compatible con casi cualquier códec de audio, se utiliza principalmente con el formato PCM (no comprimido) y, al no tener pérdida de calidad, es adecuado para uso profesional. Para tener calidad CD de audio se necesita que el sonido se grabe a 44100 Hz y a 16 bits. Por cada minuto de grabación de sonido se consumen unos 10 megabytes de espacio en disco. Una de sus grandes limitaciones es que solo se pueden grabar archivos de 4 gigabytes como máximo, lo cual equivale aproximadamente a 6,6 horas en calidad de CD de audio. Es una limitación propia del formato, independientemente de que el sistema operativo donde se utilice sea MS Windows u otro distinto, y se debe a que en la cabecera del fichero se indica la longitud del mismo con un número entero de 32 bits, lo que limita el tamaño del fichero a 4 GB, como ya hemos dicho.

En Internet no es popular, fundamentalmente porque los archivos sin compresión son muy grandes. Son más frecuentes los formatos comprimidos con pérdida, como el MP3 o el Ogg Vorbis. Como éstos son más pequeños, la transferencia a través de Internet es mucho más rápida. Además, existen códecs de compresión sin pérdida más eficaces, como Apple Lossless o FLAC

.AIFF: Audio Interchange File Format (AIFF) es un estándar de formato de audio usado para almacenar datos de sonido en computadoras personales. El formato fue codesarrollado por Apple Inc. en 1988 basado en el IFF1 (Interchange File Format) de Electronic Arts, usado internacionalmente en las computadoras Amiga y actualmente es muy utilizado en las computadoras Apple Macintosh. AIFF también es el utilizado por Silicon Graphics Incorporated.

Los datos de audio en el estándar AIFF no están comprimidos, almacenándose los datos en big-endian y emplea una modulación por impulsos codificados (PCM). También hay una variante del estándar donde sí que existe compresión, conocida como AIFF-C o AIFC, con varios códecs definidos.

El estándar AIFF es uno de los formatos líderes, junto a SDII y WAV, usados a nivel profesional para aplicaciones de audio ya que, a diferencia del conocido formato con pérdidas MP3, éste formato está comprimido sin ninguna pérdida, lo que ayuda a un rápido procesado de la señal pero con la desventaja del gran espacio en disco que supone: alrededor de 10MB para un minuto de audio estéreo con una frecuencia de muestreo de 44.1kHz y 16 bits. Además el estándar da soporte a bucles para notas musicales para uso de aplicaciones musicales o samplers.

Las extensiones de archivo para el formato estándar AIFF es .aiff o .aif. Para las variantes comprimidas se supone que es .aifc, pero las anteriores también son aceptadas por las aplicaciones que soportan este tipo de formato.