La hipermedia toma su nombre de la
suma de hipertexto y multimedia, una red hipertextual en la que se incluye
no sólotexto, sino también otros
medios:imágenes,audio,vídeo, etc. (multimedia).
Muchos autores coinciden en esta definición
de Hipermedia como resultado de la combinación de hipertexto y multimedia,
dondehipertextose entiende como la organización de
una base de información en bloques discretos de contenido llamadosnodos(en su mínimo nivel),conectadosa través deenlacescuya selección genera distintas formas
de recuperar la información de la base; la multimedia consiste en la tecnología
que utiliza la información almacenada en diferentes formatos y medios,
controlados por unusuario.
Así pues, la hipermedia conjuga tanto la
tecnología hipertextual, como la multimedia. Si la multimedia proporciona una
gran riqueza en los tipos de datos, el hipertexto aporta unaestructuraque permite que los datos puedan
presentarse y explorarse siguiendo distintas secuencias, de acuerdo a las
necesidades y preferencias delusuario.
2.1.1. Nuevas cuestiones en torno a
la hipermedia
En la actualidad existen un sin número de maneras
de presentar la hipermedia, utilizando un sinfín de enlaces dinámicos de
distintas maneras, intentando ofrecer entornos flexibles formados con
herramientas como el Hw y Sw.
También se bebe tomar en
cuenta la necesidad de incluir eventos ante los que el sistema debe responder
adecuadamente y que sean capaces de recoger la interactividad intrínseca a la
multimedia.
Como por ejemplo la sincronización que debe
existir en la información de acuerdo a como lo plantea el autor. También aparecen
problemas de almacenamiento y gestión de la información, puesto que el volumen
de datos que se requiere para representar determinados elementos multimedia y
la estructura y filosofía hipermediales imponen una serie de importantes
condicionantes en este nivel.
2.1.2. La aplicación de la
hipermedia
Existen distintas maneras de aplicar la
hipermedia uno de los ejemplos más claros seria el uso de material didáctico,
mapas conceptuales de navegación, etc.
La hipermedia conjuga los beneficios de las
técnicas que la componen: multimedia proporciona una gran riqueza en los tipos
de datos, dotando de mayor flexibilidad a la expresión de la información; el
hipertexto aporta una geometría que permite que estos datos puedan ser
explorados y presentados siguiendo diferentes secuencias, de acuerdo con las
necesidades del usuario.
De entre los múltiples desarrollos hipermediales
comerciales que se pueden citar se pueden destacar:
·Diccionarios
y enciclopedias: p.ej El Oxford English Dictionary (OED).
·Manuales:
p. ej. el sistema de ayuda de Windows.
·Humanidades:
p.ej. los múltiples sistemas de visitas virtuales a museos.
·Internet:
el intercambio de información en el WWW tiene lugar usando un conjunto de
normas (protocolo) de transferencia de hipertextos.
2.2. ¿QUE ESPERAR DE LA HIPERMEDIA?
De la hipermedia se
pueden esperar demasiados casos pero uno de sus principales objetivos es el ser
un beneficiario de múltiples ámbitos y aplicaciones.
A continuación se en listan algunos puntos:
·Manejarla
con ordenadores
·Que sea
útil al mundo de la empresa
·Usarla
como herramienta de trabajo
·Válido
al mundo educativo
2.2.1. Ventajas de la hipermedia
El hecho de
presentar la información deforma asociativa y por varios canales sensoriales
simultáneamente supone una gran ventaja. Si se utiliza adecuadamente, esta tecnología
de la información proporciona una serie de ventajas que pueden resultar de
utilidad en múltiples campos de la aplicación.
·Genera
ámbitos de integración
·Altamente
estimulante
·Interacción
permanente
·Permite
variar las estrategias didácticas de acuerdo al objetivo pedagógico
·Permite
la autoevaluación del usuario
·Ofrece
un medio idóneo para representar información poco o nada estructurada
·Se puede
estructurar la información si se desea
·Su
interfaz de usuario es, en principio, intuitiva
·La
información puede recuperarse sin ningún tipo de problemas
·Se da
soporte a diferentes modos de acceso a la información
2.2.2. La desorientación y
sobrecarga de conocimiento
Son los dos principales inconvenientes con
los que cuenta la hipermedia:
Desorientación:
La desorientación dentro del
hiperdocumento sugiere la incapacidad del usuario para controlar la información
en un espacio confuso hiperconectado.
Cuando el lector navega con un
fin determinado o de forma errático, es decir activando indiscriminadamente los
diversos enlaces que van apareciendo, corre el riesgo de perderse en el
hiperespacio.
Alcanzando una posición que no
le resulta interesante pero de la que se ve incapaz de salir hacia otro punto
conocido.
Sobrecarga:
Refleja el esfuerzo que supone
adquirir el conocimiento adicional requerido para utilizar el sistema.
Recurriendo así a los métodos tradicionales.
Es por ello que debe hacerse de
la manera más intuitiva posible y evitar el exceso en el empleo de elementos
multimedia.
2.3. ARQUITECTURA DE UN SISTEMA
HIPERMEDIA
La arquitectura basica para un sistema
hipermedia es la siguiente:
Diseño
Modular: Favorece la
comunicación y el intercambio de información con otros sistemas y facilita
notablemente el mantenimiento
Abstracción: cada uno de los niveles de la arquitectura
aporta una percepción diferente aunque complementaria de las anteriores.
Autoría
en la Colaboración: Se debe
tener en cuenta la necesidad al compartir la información así como preservar su
seguridad
Distribución:
Cada usuario debería poder
expresar sus preferencias de forma que se pudiese personalizar el entorno
Vídeo sobre el Hipertexto:
Conclusión:
Se entiende que la hipermedia es la fusión
de la multimedia y el hipertexto, dando asi el nacimiento a este, la hipermedia
a constituido uno de las principales herramientas para la humanidad en la creación
de aplicaciones y sistemas que nos permiten interactuar, brindar
entretenimiento, etc.
Respetando asi algunas características esenciales
y no hacerlos tan tediosos para el ojo del usuario.
Multimedia es un término que procede de la
lengua inglesa y que refiere a aquello que utiliza varios medios de
manera simultánea en la transmisión de una información. Por lo tanto,
puede incluir fotografías, vídeos, sonidos y texto.
El concepto se aplica a objetos y sistemas que
apelan a múltiples medios físicos y/o digitales para comunicar sus contenidos.
El término también se usa en referencia a los medios en sí que permiten
almacenar y difundir contenidos con estas características.
1.2 MEDIOS DIGITALES
Los medios digitales hacen referencia al contenido de audio, vídeo e
imágenes que se ha codificado (comprimido digitalmente). La codificación de
contenidos implica convertir la entrada de audio y vídeo en un archivo de medio
digital como, por ejemplo, un archivo de Windows Media. Una vez codificado el
medio digital, se puede manipular, distribuir y representar (reproducir)
fácilmente en otros equipos, así como transmitir a través de redes
informáticas.
1.2.1 Animación y Gráficos
Animación:
Laanimaciónes una simulación de movimiento
producida mediante imágenes que se crearon una por una; al proyectarse
sucesivamente estas imágenes(llamados cuadros) se produce una ilusión de
movimiento, pero el movimiento representado no existió en la realidad. Se basa
en la ilusión de movimiento, en la que intervienen la persistencia de la visión
y el fenómeno phi.
La animación pertenece al entorno del cine y
la televisión aunque guarda una estrecha relación con todo tipo de artes
visuales tales como el dibujo, pintura, fotografía y escultura.
Crear animación es un trabajo largo, complejo
e intensivo y debido a ello se forman estudios a través de los cuales se llevan
a cabo todo tipo de trabajos. Existen gran variedad de técnicas y estilos de
animación de entre los cuales destaco los siguientes:
Dibujos animados, también llamados animación tradicional,
estos se crean dibujando cada cuadro. Al principio se pintaba cada cuadro y
luego era filmado, este proceso se aceleró al aparecer la animación por celdas.
Stop motion, animación de objetos, muñecos, marionetas,
figuras de plastilina u otros materiales así como maquetas o modelos a escala.
Se utiliza la grabación "fotograma a fotograma" o "cuadro a
cuadro".
Pixelación, es una variante del stop-motion, en la que
los objetos animados son auténticos objetos comunes (no modelos ni maquetas), e
incluso personas. Al igual que en cualquier otra forma de animación, estos
objetos son fotografiados repetidas veces, y desplazados ligeramente entre cada
fotografía.. Es amplia mente utilizada en los vídeo-clips.
Rotoscopía, se basa en dibujar directamente sobre la
referencia, que pueden ser los cuadros de la filmación de una persona real.
Animación de recortes, es la técnica en que se usan figuras recortadas,
ya sea de papel o incluso fotografías. Los cuerpos de los personajes se
construyen con los recortes de sus partes. Moviendo y reemplazando las partes
se obtienen diversas poses, y así se da vida al personaje.
Sistema inercial, sistema inercial de captación de movimiento
humano, sin las limitaciones impuestas. Este sistema portátil está basado en
los ‘tracker’ 3D MTx de Xsens. La nueva tecnología permite utilizarse en
animación (cine, juegos virtuales) entrenamiento y simulación, investigación y
desarrollo biomecánico y otras áreas.
Gráficos:
Utilizados
para representar esquemas, planos, dibujos lineales, etc. Los gráficos son documentos
formados por una serie de primitivas gráficas (puntos, segmentos, círculos...)
y contienen por lo tanto una semántica que debe ser interpretada antes de
presentar la información al observador. Se pueden modificar de muchas maneras
diferentes (traslación, escalado, rotación, cambio de atributos...).
Habitualmente se generan de forma interactiva y ocupan relativamente poco
espacio. Se suele hablar de gráficos vectoriales.
Los
gráficos son fácilmente escalables y por esto son adecuados para el diseño de anagramas,
rotulación, etc.
1.2.2 Sonido
Los sonidos utilizados en un sistema multimedia
pueden clasificarse en tres grandes grupos:
Habla.
Música.
Otros sonidos.
El habla es la forma de comunicación síncrona más
utilizada por los seres humanos, y evidentemente tiene un importante componente
semántico. Las posibilidades de procesamiento del habla en un sistema
informático incluyen:
Reconocimiento de la voz:
consiste en la identificación de fonemas (sonidos elementales) y palabras.
Comprensión del lenguaje
natural: una vez reconocidas las palabras, la comprensión del lenguaje es algo
mucho más complejo.
Síntesis de voz: a partir
de un mensaje codificado, se genera una voz que lo pronuncia.
A pesar de todas estas posibilidades, la
utilización más habitual del habla en los sistemas multimedia actuales se
reduce a su grabación, edición y reproducción posterior.
1.2.3 Vídeo
Es la tecnología de la captación,grabación, procesamiento,
almacenamiento, transmisión y reconstrucción por medioselectrónicosdigitales o analógicos de una
secuencia deimágenesque representan escenas en movimiento.Etimológicamentela palabravideoproviene del verbolatinovideo, vides, videre, que se traduce
como el verbo ‘ver’. Se suele aplicar este término a la señal de vídeo y muchas
veces se la denomina «el vídeo» o «la vídeo» a modo de abreviatura del nombre
completo de la misma.
La tecnología de vídeo fue desarrollada por primera
vez para los sistemas detelevisión,
pero ha derivado en muchos formatos para permitir la grabación de vídeo de los
consumidores y que además pueda ser visto a través de Internet.
En algunos países se llama así también a una
grabación de imágenes y sonido encinta
magnéticao endisco óptico, aunque con la aparición
de estos últimos dicho término se identifica generalmente con las grabaciones
anteriores en cinta magnética, del tipoVHS,Betamax. Muchos videos se cuelgan en
sitios web, comoYouTube.
Inicialmente la señal de vídeo está formada por un
número de líneas agrupadas en varios cuadros y estos a la vez divididos en dos
campos portan la información de luz y color de la imagen. El número de líneas,
de cuadros y la forma de portar la información del color depende del estándar
de televisión concreto. La amplitud de la señal de vídeo es de 1Vpp (1 voltio
de pico a pico) estando la parte de la señal que porta la información de la
imagen por encima de 0V y la de sincronismos por debajo el nivel de 0V. La
parte positiva puede llegar hasta 0,7V para el nivel de blanco, correspondiendo
a 0V el negro y los sincronismos son pulsos que llegan hasta -0,3V. En la
actualidad hay multitud de estándares diferentes, especialmente en el ámbito
informático.
1.3 ALMACENAMIENTO DE LA INFORMACIÓN
Los dispositivos o unidades
de almacenamiento de datos sondispositivosque leen o escriben datos enmedios o soportes de almacenamiento, y
juntos conforman la memoria secundaria o almacenamiento
secundariode lacomputadora.
Los sistemas informáticos
pueden almacenar los datos tanto interna (enla memoria)
como externamente (en los dispositivos de almacenamiento). Internamente, las
instrucciones o datos pueden almacenarse por untiempoen los chips de silicio de laRAM(memoria de acceso aleatorio) montados
directamente en la placa decircuitosprincipal de lacomputadora,
o bien en chips montados en tarjetasperiféricas conectadas a la placa de
circuitos principal del ordenador.
Estos chips de RAM constan
de conmutadores sensibles a los cambios de la corriente eléctrica, esto quiere
decir que los datos son almacenados por tiempo limitado (hasta que dejamos de
suministrar energía eléctrica) por esta razón aparecen los dispositivos de
almacenamiento secundarios o auxiliares, los cuales son capaces de conservar la
información de manera permanente, mientras su estadofísico sea óptimo.
Los dispositivos de
almacenamiento externo pueden residir dentro delCPUy están fuera de la placa de circuito
principal.
1.3.1 CD-ROM
Este
es el soporte de almacenamiento más común que se puede encontrar en los equipos
multimedia actualmente. Tiene sus orígenes en el CD-Audio (CD-A) convencional
desarrollado por Philips y Sony Corp., en el que se pueden encontrar
aproximadamente unos 76 minutos de música.
Aprovechando
la misma tecnología de base en cuanto al proceso de fabricación y el diseño
lógico y físico del disco, apareció el CD-ROM. En él se dispone del orden de
650/700/800 MB de información digital por cara. Esta se registra a lo largo de
un único surco en espiral. La densidad lineal es constante a lo largo de toda
la espiral lo cual implica un formato de velocidad lineal constante (CLV) en el
que el motor de rotación adecua su velocidad para que cada sector, esté en el
interior o en la periferia del disco, se lea en el mismo tiempo.
La
información se guarda en hendiduras tridimensionales (creadas con un láser de
alta potencia) que forman depresiones dentro de las áreas planas del disco.
Esta superficie irregular se resguarda de todo contacto con el lector mediante
un recubrimiento protector. Su lectura se hace mediante un rayo láser de baja
potencia que atraviesa la capa protectora de plástico y se refleja en las
hendiduras, por lo que no implica contacto físico ni desgaste. Así, la pérdida
o degradación de la información es virtualmente nula. Su enorme capacidad,
longevidad, bajo coste y portabilidad lo ha convertido en el medio estándar de
almacenamiento en los equipos informáticos. Puesto que se utilizan métodos
ópticos, no sufre alteraciones por el efecto de campos magnéticos y al no
existir contacto físico con el disco, la vida media de estos dispositivos se
incrementa de forma considerable. Proporcionan almacenamiento en modo de sólo
lectura y su coste de fabricación es bajo.
Habitualmente
un lector de CDs trabaja sobre un único disco, pero existen dispositivos
capaces de manejar 6, 12 y más de estos discos denominados jukebox. Existen
diversos estándares para los discos ópticos que reciben el nombre del color del
libro en que se publicaron, así se suele hablar de:
Red Book para hacer
referencia al estándar de los discos compactos de audio digital. Define el soporte
físico y el original CD de audio (70s).
Yellow Book para los
discos que se utilizan en los computadores: CD-ROMs, con una extensión para
CD-ROM XA (eXtended Architecture).
Green Book completa esta
extensión definiendo el CD-I.
Orange Book define discos
magneto-ópticos como el minidisco, y el formato de los CDs escribibles o
multi-sesión. El Photo CD de Kodak utiliza esta norma.
White Book especifica el
Video-CD usando MPEG con la opción de interacción simple.
Blue Book define una
extensión multimedia al CD audio, el CD+ o CD extendido.
Hay
otros estándares relacionados con los CDs, como el ISO 9660 (también llamado
CD-ISO), que especifica la estructura de ficheros, y puede ser leído en un gran
número de plataformas.
Existen
diferentes tipos de interfaces para CD-ROM, entre las que cabe nombrar:
Sistemas propietarios,
generalmente asociados a las tarjetas de sonido.
Interfaces SCSI.
Interfaces IDE (o ATA),
entre las que destaca el estándar ATAPI o enhanced IDE.
Un CD y sus 650 Mb. potenciales permiten
aproximadamente:
•
250.000 páginas de texto
A4.
•7.000 imágenes en color
de calidad fotográfica.
•72 minutos de animaciones
gráficas o vídeo a pantalla completa con audio (con MPEG).
•74 minutos de audio con
calidad digital (CD audio normal)
•2 horas de audio estéreo
comprimido.
•19 horas de audio mono
comprimido con una frecuencia de 8 KHz.
1.3.2 Técnicas de Comprensión de
Datos
La compresión de datos se define como el proceso de
reducir la cantidad de datos necesarios para representar eficazmente una
información, es decir, la eliminación de datos redundantes. En el caso de las
imágenes, existen tres maneras de reducir el número de datos redundantes:
eliminar código redundante, eliminar píxeles redundantes y eliminar redundancia
visual.
•CÓDIGO REDUNDANTE: El código de una imagen representa el cuerpo de la
información mediante un conjunto de símbolos. La eliminación del código
redundante consiste en utilizar el menor número de símbolos para representar la
información. Las técnicas de compresión por codificación de Huffman y
codificación aritmética utilizan cálculos estadísticos para lograr eliminar
este tipo de redundancia y reducir la ocupación original de los datos.
•PIXELES REDUNDANTES:La mayoría de las imágenes presentan semejanzas o
correlaciones entre sus píxeles. Estas correlaciones se deben a la existencia
de estructuras similares en las imágenes, puesto que no son completamente
aleatorias. De esta manera, el valor de un píxel puede emplearse para predecir
el de sus vecinos. Las técnicas de compresión Lempel-Zivimplementan algoritmos
basados en sustituciones para lograr la eliminación de esta redundancia.
•REDUNDANCIA VISUAL: El ojo humano responde con diferente sensibilidad a
la información visual que recibe. La información a la que es menos sensible se
puede descartar sin afectar a la percepción de la imagen. Se suprime así lo que
se conoce como redundancia visual. La eliminación de la redundancia está
relacionada con la cuantificación de la información, lo que conlleva una
pérdida de información irreversible. Técnicas de compresión como JPEG, EZW o
SPIHT hacen uso de la cuantificación.
•CLASIFICACIÓN: Los métodos de compresión se pueden agrupar en dos
grandes clases: métodos de compresión sin pérdida de información y métodos con
pérdida de información.
•LOSSLESS: Los métodos de compresión sin pérdida de información (lossless)
se caracterizan porque la tasa de compresión que proporcionan está limitada por
la entropía (redundancia de datos) de la señal original. Entre estas técnicas
destacan las que emplean métodos estadísticos, basados en la teoría de Shannon,
que permite la compresión sin pérdida. Por ejemplo: codificación de Huffman,
codificación aritmética y Lempel-Ziv. Son métodos idóneos para la compresión
dura de archivos.
•LOSSY:Los métodos de compresión con pérdida de
información (lossy) logran alcanzar unas tasas de compresión más
elevadas a costa de sufrir una pérdida de información sobre la imagen original.
Por ejemplo: JPEG, compresión fractal, EZW, SPIHT, etc. Para la compresión de
imágenes se emplean métodos lossy, ya que se busca alcanzar una
tasa de compresión considerable, pero que se adapte a la calidad deseada que la
aplicación exige sobre la imagen objeto de compresión.
1.4 PLATAFORMAS DE HARDWARE MULTIMEDIA
Las
herramientas básicas para desarrollar los proyectos de multimedia contienen uno
o más sistemas de desarrollo y varias aplicaciones de edición de texto,
imágenes, sonido y videos en movimientos. Otras aplicaciones adicionales son
útiles para capturar imágenes de la pantalla, traducir formato de archivo, etc.
Los programas, la computadora, las herramientas de multimedia y la habilidad al
emplear todo determinan la calidad de trabajo de multimedia que desarrollará.
La selección de la
plataforma adecuada para el desarrollo de multimedia puede basarse en una
preferencia personal (MACINTOSH, WINDOWS).
Todas las computadoras
Macintosh pueden reproducir sonidos. La última generación incluye equipo y
programas de digitalización de sonido sin necesidad de equipo complementario:
Las series LC, IIsi, IIux, Centrix, Quadra, Performa y PowerBooks tiene
micrófonos incorporados. La mayoría tiene capacidad gráficas de 8,16 y 32 bits,
la serie AV puede digitalizar vídeo y sonido.
Para WINDOWS lo primero es
si su computadora es menor que 386SX, no satisfacen los requerimientos de
multimedia. No existe velocidad mínima mencionada, por la mayor parte de los
fabricantes suministran por lo menos 20 Mhz en un 386SX. En realidad es
recomendable como mínimo 25 Mhz con un procesador 386DX o superior.