1.1 ¿QUE ES MULTIMEDIA?
Multimedia es un término que procede de la
lengua inglesa y que refiere a aquello que utiliza varios medios de
manera simultánea en la transmisión de una información. Por lo tanto,
puede incluir fotografías, vídeos, sonidos y texto.
El concepto se aplica a objetos y sistemas que
apelan a múltiples medios físicos y/o digitales para comunicar sus contenidos.
El término también se usa en referencia a los medios en sí que permiten
almacenar y difundir contenidos con estas características.
1.2 MEDIOS DIGITALES
Los medios digitales hacen referencia al contenido de audio, vídeo e
imágenes que se ha codificado (comprimido digitalmente). La codificación de
contenidos implica convertir la entrada de audio y vídeo en un archivo de medio
digital como, por ejemplo, un archivo de Windows Media. Una vez codificado el
medio digital, se puede manipular, distribuir y representar (reproducir)
fácilmente en otros equipos, así como transmitir a través de redes
informáticas.
1.2.1 Animación y Gráficos
Animación:
La animación es una simulación de movimiento
producida mediante imágenes que se crearon una por una; al proyectarse
sucesivamente estas imágenes(llamados cuadros) se produce una ilusión de
movimiento, pero el movimiento representado no existió en la realidad. Se basa
en la ilusión de movimiento, en la que intervienen la persistencia de la visión
y el fenómeno phi.
La animación pertenece al entorno del cine y
la televisión aunque guarda una estrecha relación con todo tipo de artes
visuales tales como el dibujo, pintura, fotografía y escultura.
Crear animación es un trabajo largo, complejo
e intensivo y debido a ello se forman estudios a través de los cuales se llevan
a cabo todo tipo de trabajos. Existen gran variedad de técnicas y estilos de
animación de entre los cuales destaco los siguientes:
Dibujos animados, también llamados animación tradicional,
estos se crean dibujando cada cuadro. Al principio se pintaba cada cuadro y
luego era filmado, este proceso se aceleró al aparecer la animación por celdas.
Stop motion, animación de objetos, muñecos, marionetas,
figuras de plastilina u otros materiales así como maquetas o modelos a escala.
Se utiliza la grabación "fotograma a fotograma" o "cuadro a
cuadro".
Pixelación, es una variante del stop-motion, en la que
los objetos animados son auténticos objetos comunes (no modelos ni maquetas), e
incluso personas. Al igual que en cualquier otra forma de animación, estos
objetos son fotografiados repetidas veces, y desplazados ligeramente entre cada
fotografía.. Es amplia mente utilizada en los vídeo-clips.
Rotoscopía, se basa en dibujar directamente sobre la
referencia, que pueden ser los cuadros de la filmación de una persona real.
Animación de recortes, es la técnica en que se usan figuras recortadas,
ya sea de papel o incluso fotografías. Los cuerpos de los personajes se
construyen con los recortes de sus partes. Moviendo y reemplazando las partes
se obtienen diversas poses, y así se da vida al personaje.
Sistema inercial, sistema inercial de captación de movimiento
humano, sin las limitaciones impuestas. Este sistema portátil está basado en
los ‘tracker’ 3D MTx de Xsens. La nueva tecnología permite utilizarse en
animación (cine, juegos virtuales) entrenamiento y simulación, investigación y
desarrollo biomecánico y otras áreas.
Gráficos:
Utilizados
para representar esquemas, planos, dibujos lineales, etc. Los gráficos son documentos
formados por una serie de primitivas gráficas (puntos, segmentos, círculos...)
y contienen por lo tanto una semántica que debe ser interpretada antes de
presentar la información al observador. Se pueden modificar de muchas maneras
diferentes (traslación, escalado, rotación, cambio de atributos...).
Habitualmente se generan de forma interactiva y ocupan relativamente poco
espacio. Se suele hablar de gráficos vectoriales.
Los
gráficos son fácilmente escalables y por esto son adecuados para el diseño de anagramas,
rotulación, etc.
1.2.2 Sonido
Los sonidos utilizados en un sistema multimedia
pueden clasificarse en tres grandes grupos:
- Habla.
- Música.
- Otros sonidos.
El habla es la forma de comunicación síncrona más
utilizada por los seres humanos, y evidentemente tiene un importante componente
semántico. Las posibilidades de procesamiento del habla en un sistema
informático incluyen:
- Reconocimiento de la voz:
consiste en la identificación de fonemas (sonidos elementales) y palabras.
- Comprensión del lenguaje
natural: una vez reconocidas las palabras, la comprensión del lenguaje es algo
mucho más complejo.
- Síntesis de voz: a partir
de un mensaje codificado, se genera una voz que lo pronuncia.
A pesar de todas estas posibilidades, la
utilización más habitual del habla en los sistemas multimedia actuales se
reduce a su grabación, edición y reproducción posterior.
1.2.3 Vídeo
Es la tecnología de la captación, grabación, procesamiento,
almacenamiento, transmisión y reconstrucción por medios electrónicos digitales o analógicos de una
secuencia de imágenes que representan escenas en movimiento. Etimológicamente la palabra video proviene del verbo latino video, vides, videre, que se traduce
como el verbo ‘ver’. Se suele aplicar este término a la señal de vídeo y muchas
veces se la denomina «el vídeo» o «la vídeo» a modo de abreviatura del nombre
completo de la misma.
La tecnología de vídeo fue desarrollada por primera
vez para los sistemas de televisión,
pero ha derivado en muchos formatos para permitir la grabación de vídeo de los
consumidores y que además pueda ser visto a través de Internet.
En algunos países se llama así también a una
grabación de imágenes y sonido en cinta
magnética o en disco óptico, aunque con la aparición
de estos últimos dicho término se identifica generalmente con las grabaciones
anteriores en cinta magnética, del tipo VHS, Betamax. Muchos videos se cuelgan en
sitios web, como YouTube.
Inicialmente la señal de vídeo está formada por un
número de líneas agrupadas en varios cuadros y estos a la vez divididos en dos
campos portan la información de luz y color de la imagen. El número de líneas,
de cuadros y la forma de portar la información del color depende del estándar
de televisión concreto. La amplitud de la señal de vídeo es de 1Vpp (1 voltio
de pico a pico) estando la parte de la señal que porta la información de la
imagen por encima de 0V y la de sincronismos por debajo el nivel de 0V. La
parte positiva puede llegar hasta 0,7V para el nivel de blanco, correspondiendo
a 0V el negro y los sincronismos son pulsos que llegan hasta -0,3V. En la
actualidad hay multitud de estándares diferentes, especialmente en el ámbito
informático.
1.3 ALMACENAMIENTO DE LA INFORMACIÓN
Los dispositivos o unidades
de almacenamiento de datos son dispositivos que leen o escriben datos en medios o soportes de almacenamiento, y
juntos conforman la memoria secundaria o almacenamiento
secundario de la computadora.
Los sistemas informáticos
pueden almacenar los datos tanto interna (en la memoria)
como externamente (en los dispositivos de almacenamiento). Internamente, las
instrucciones o datos pueden almacenarse por un tiempo en los chips de silicio de la RAM (memoria de acceso aleatorio) montados
directamente en la placa de circuitos principal de la computadora,
o bien en chips montados en tarjetas periféricas conectadas a la placa de
circuitos principal del ordenador.
Estos chips de RAM constan
de conmutadores sensibles a los cambios de la corriente eléctrica, esto quiere
decir que los datos son almacenados por tiempo limitado (hasta que dejamos de
suministrar energía eléctrica) por esta razón aparecen los dispositivos de
almacenamiento secundarios o auxiliares, los cuales son capaces de conservar la
información de manera permanente, mientras su estado físico sea óptimo.
Los dispositivos de
almacenamiento externo pueden residir dentro del CPU y están fuera de la placa de circuito
principal.
1.3.1 CD-ROM
Este
es el soporte de almacenamiento más común que se puede encontrar en los equipos
multimedia actualmente. Tiene sus orígenes en el CD-Audio (CD-A) convencional
desarrollado por Philips y Sony Corp., en el que se pueden encontrar
aproximadamente unos 76 minutos de música.
Aprovechando
la misma tecnología de base en cuanto al proceso de fabricación y el diseño
lógico y físico del disco, apareció el CD-ROM. En él se dispone del orden de
650/700/800 MB de información digital por cara. Esta se registra a lo largo de
un único surco en espiral. La densidad lineal es constante a lo largo de toda
la espiral lo cual implica un formato de velocidad lineal constante (CLV) en el
que el motor de rotación adecua su velocidad para que cada sector, esté en el
interior o en la periferia del disco, se lea en el mismo tiempo.
La
información se guarda en hendiduras tridimensionales (creadas con un láser de
alta potencia) que forman depresiones dentro de las áreas planas del disco.
Esta superficie irregular se resguarda de todo contacto con el lector mediante
un recubrimiento protector. Su lectura se hace mediante un rayo láser de baja
potencia que atraviesa la capa protectora de plástico y se refleja en las
hendiduras, por lo que no implica contacto físico ni desgaste. Así, la pérdida
o degradación de la información es virtualmente nula. Su enorme capacidad,
longevidad, bajo coste y portabilidad lo ha convertido en el medio estándar de
almacenamiento en los equipos informáticos. Puesto que se utilizan métodos
ópticos, no sufre alteraciones por el efecto de campos magnéticos y al no
existir contacto físico con el disco, la vida media de estos dispositivos se
incrementa de forma considerable. Proporcionan almacenamiento en modo de sólo
lectura y su coste de fabricación es bajo.
Habitualmente
un lector de CDs trabaja sobre un único disco, pero existen dispositivos
capaces de manejar 6, 12 y más de estos discos denominados jukebox. Existen
diversos estándares para los discos ópticos que reciben el nombre del color del
libro en que se publicaron, así se suele hablar de:
- Red Book para hacer
referencia al estándar de los discos compactos de audio digital. Define el soporte
físico y el original CD de audio (70s).
- Yellow Book para los
discos que se utilizan en los computadores: CD-ROMs, con una extensión para
CD-ROM XA (eXtended Architecture).
- Green Book completa esta
extensión definiendo el CD-I.
- Orange Book define discos
magneto-ópticos como el minidisco, y el formato de los CDs escribibles o
multi-sesión. El Photo CD de Kodak utiliza esta norma.
- White Book especifica el
Video-CD usando MPEG con la opción de interacción simple.
- Blue Book define una
extensión multimedia al CD audio, el CD+ o CD extendido.
Hay
otros estándares relacionados con los CDs, como el ISO 9660 (también llamado
CD-ISO), que especifica la estructura de ficheros, y puede ser leído en un gran
número de plataformas.
Existen
diferentes tipos de interfaces para CD-ROM, entre las que cabe nombrar:
- Sistemas propietarios,
generalmente asociados a las tarjetas de sonido.
- Interfaces SCSI.
- Interfaces IDE (o ATA),
entre las que destaca el estándar ATAPI o enhanced IDE.
Un CD y sus 650 Mb. potenciales permiten
aproximadamente:
•
- 250.000 páginas de texto
A4.
- • 7.000 imágenes en color
de calidad fotográfica.
- • 72 minutos de animaciones
gráficas o vídeo a pantalla completa con audio (con MPEG).
- • 74 minutos de audio con
calidad digital (CD audio normal)
- • 2 horas de audio estéreo
comprimido.
- • 19 horas de audio mono
comprimido con una frecuencia de 8 KHz.
1.3.2 Técnicas de Comprensión de
Datos
La compresión de datos se define como el proceso de
reducir la cantidad de datos necesarios para representar eficazmente una
información, es decir, la eliminación de datos redundantes. En el caso de las
imágenes, existen tres maneras de reducir el número de datos redundantes:
eliminar código redundante, eliminar píxeles redundantes y eliminar redundancia
visual.
• CÓDIGO REDUNDANTE: El código de una imagen representa el cuerpo de la
información mediante un conjunto de símbolos. La eliminación del código
redundante consiste en utilizar el menor número de símbolos para representar la
información. Las técnicas de compresión por codificación de Huffman y
codificación aritmética utilizan cálculos estadísticos para lograr eliminar
este tipo de redundancia y reducir la ocupación original de los datos.
• PIXELES REDUNDANTES: La mayoría de las imágenes presentan semejanzas o
correlaciones entre sus píxeles. Estas correlaciones se deben a la existencia
de estructuras similares en las imágenes, puesto que no son completamente
aleatorias. De esta manera, el valor de un píxel puede emplearse para predecir
el de sus vecinos. Las técnicas de compresión Lempel-Zivimplementan algoritmos
basados en sustituciones para lograr la eliminación de esta redundancia.
• REDUNDANCIA VISUAL: El ojo humano responde con diferente sensibilidad a
la información visual que recibe. La información a la que es menos sensible se
puede descartar sin afectar a la percepción de la imagen. Se suprime así lo que
se conoce como redundancia visual. La eliminación de la redundancia está
relacionada con la cuantificación de la información, lo que conlleva una
pérdida de información irreversible. Técnicas de compresión como JPEG, EZW o
SPIHT hacen uso de la cuantificación.
• CLASIFICACIÓN: Los métodos de compresión se pueden agrupar en dos
grandes clases: métodos de compresión sin pérdida de información y métodos con
pérdida de información.
• LOSSLESS: Los métodos de compresión sin pérdida de información (lossless)
se caracterizan porque la tasa de compresión que proporcionan está limitada por
la entropía (redundancia de datos) de la señal original. Entre estas técnicas
destacan las que emplean métodos estadísticos, basados en la teoría de Shannon,
que permite la compresión sin pérdida. Por ejemplo: codificación de Huffman,
codificación aritmética y Lempel-Ziv. Son métodos idóneos para la compresión
dura de archivos.
•
LOSSY: Los métodos de compresión con pérdida de
información (lossy) logran alcanzar unas tasas de compresión más
elevadas a costa de sufrir una pérdida de información sobre la imagen original.
Por ejemplo: JPEG, compresión fractal, EZW, SPIHT, etc. Para la compresión de
imágenes se emplean métodos lossy, ya que se busca alcanzar una
tasa de compresión considerable, pero que se adapte a la calidad deseada que la
aplicación exige sobre la imagen objeto de compresión.
1.4 PLATAFORMAS DE HARDWARE MULTIMEDIA
Las
herramientas básicas para desarrollar los proyectos de multimedia contienen uno
o más sistemas de desarrollo y varias aplicaciones de edición de texto,
imágenes, sonido y videos en movimientos. Otras aplicaciones adicionales son
útiles para capturar imágenes de la pantalla, traducir formato de archivo, etc.
Los programas, la computadora, las herramientas de multimedia y la habilidad al
emplear todo determinan la calidad de trabajo de multimedia que desarrollará.
Pintura y Dibujo. Canvas, Charisma, ColorStudio, CorelDraw, Superpaint,
Designer, Deskdraw, Fractal, Cricket Draw, MacPaint, MacDraw Pro, Professional
Draw, Desing Painter, Harvard Graphics, Image Studio.
CAD y 3-D: 3-D Studio, AutoCad, CarisCad, Infini-D,
Super3D, MacroModel, MiniCad, StrataVision, Three-D, VersaCad, Virtus Walk
Trough, Life Forms.
Edición de Imágenes: Color It, Dfoto, Digital,
Gallery Efects, Composer, Picture Publisher, ColorStudio, PhotoShop,
PhotoStyler.
OCR y Texto: OmniPage, TypeStyler, Typestry, TypeAling, Perceive.
Edición de Sonido: Alchemy, Encore, WaveEdit, Midisoft Studio, AudioTrax,
TurboTrax, AudioShop, SoundEdit Pro.
Vídeo y Producción de Películas: AnimationPro,
Elastic Reality, MediaMaker, Metaflo, Morph, VideoMachine, Premiere,
SuperVideo, VideoFusion, Vídeo Grafitti, VideoVision, MoviePak.
Accesorios: Capture, Clipmedia, Fetch, Hijaak, Image Alchemy,
Image Pals, Media Cataloger, MusicBytes, Phoro Disc, PICTpocket, Resedit,
SnapPro, Stuffit, Updift.
1.5 PLATAFORMAS DE SOFTWARE MULTIMEDIA
La selección de la
plataforma adecuada para el desarrollo de multimedia puede basarse en una
preferencia personal (MACINTOSH, WINDOWS).
Todas las computadoras
Macintosh pueden reproducir sonidos. La última generación incluye equipo y
programas de digitalización de sonido sin necesidad de equipo complementario:
Las series LC, IIsi, IIux, Centrix, Quadra, Performa y PowerBooks tiene
micrófonos incorporados. La mayoría tiene capacidad gráficas de 8,16 y 32 bits,
la serie AV puede digitalizar vídeo y sonido.
Para WINDOWS lo primero es
si su computadora es menor que 386SX, no satisfacen los requerimientos de
multimedia. No existe velocidad mínima mencionada, por la mayor parte de los
fabricantes suministran por lo menos 20 Mhz en un 386SX. En realidad es
recomendable como mínimo 25 Mhz con un procesador 386DX o superior.
Video complementario
Es la tecnología de la captación, grabación, procesamiento,
almacenamiento, transmisión y reconstrucción por medios electrónicos digitales o analógicos de una
secuencia de imágenes que representan escenas en movimiento. Etimológicamente la palabra video proviene del verbo latino video, vides, videre, que se traduce
como el verbo ‘ver’. Se suele aplicar este término a la señal de vídeo y muchas
veces se la denomina «el vídeo» o «la vídeo» a modo de abreviatura del nombre
completo de la misma.
La tecnología de vídeo fue desarrollada por primera
vez para los sistemas de televisión,
pero ha derivado en muchos formatos para permitir la grabación de vídeo de los
consumidores y que además pueda ser visto a través de Internet.
En algunos países se llama así también a una
grabación de imágenes y sonido en cinta
magnética o en disco óptico, aunque con la aparición
de estos últimos dicho término se identifica generalmente con las grabaciones
anteriores en cinta magnética, del tipo VHS, Betamax. Muchos videos se cuelgan en
sitios web, como YouTube.
Inicialmente la señal de vídeo está formada por un
número de líneas agrupadas en varios cuadros y estos a la vez divididos en dos
campos portan la información de luz y color de la imagen. El número de líneas,
de cuadros y la forma de portar la información del color depende del estándar
de televisión concreto. La amplitud de la señal de vídeo es de 1Vpp (1 voltio
de pico a pico) estando la parte de la señal que porta la información de la
imagen por encima de 0V y la de sincronismos por debajo el nivel de 0V. La
parte positiva puede llegar hasta 0,7V para el nivel de blanco, correspondiendo
a 0V el negro y los sincronismos son pulsos que llegan hasta -0,3V. En la
actualidad hay multitud de estándares diferentes, especialmente en el ámbito
informático.















No hay comentarios:
Publicar un comentario