martes, 17 de septiembre de 2013

U2 Hipermedia


2.1. ¿QUE ES LA HIPERMEDIA?

La hipermedia toma su nombre de la suma de hipertexto y multimedia, una red hipertextual en la que se incluye no sólo texto, sino también otros medios: imágenes, audio, vídeo, etc. (multimedia).

Muchos autores coinciden en esta definición de Hipermedia como resultado de la combinación de hipertexto y multimedia, donde hipertexto se entiende como la organización de una base de información en bloques discretos de contenido llamados nodos (en su mínimo nivel), conectados a través de enlaces cuya selección genera distintas formas de recuperar la información de la base; la multimedia consiste en la tecnología que utiliza la información almacenada en diferentes formatos y medios, controlados por un usuario. 

Así pues, la hipermedia conjuga tanto la tecnología hipertextual, como la multimedia. Si la multimedia proporciona una gran riqueza en los tipos de datos, el hipertexto aporta una estructura que permite que los datos puedan presentarse y explorarse siguiendo distintas secuencias, de acuerdo a las necesidades y preferencias del usuario.


2.1.1. Nuevas cuestiones en torno a la hipermedia

En la actualidad existen un sin número de maneras de presentar la hipermedia, utilizando un sinfín de enlaces dinámicos de distintas maneras, intentando ofrecer entornos flexibles formados con herramientas como el Hw y Sw.

También se bebe tomar en cuenta la necesidad de incluir eventos ante los que el sistema debe responder adecuadamente y que sean capaces de recoger la interactividad intrínseca a la multimedia.

Como por ejemplo la sincronización que debe existir en la información de acuerdo a como lo plantea el autor. También aparecen problemas de almacenamiento y gestión de la información, puesto que el volumen de datos que se requiere para representar determinados elementos multimedia y la estructura y filosofía hipermediales imponen una serie de importantes condicionantes en este nivel.



2.1.2. La aplicación de la hipermedia

Existen distintas maneras de aplicar la hipermedia uno de los ejemplos más claros seria el uso de material didáctico, mapas conceptuales de navegación, etc.

La hipermedia conjuga los beneficios de las técnicas que la componen: multimedia proporciona una gran riqueza en los tipos de datos, dotando de mayor flexibilidad a la expresión de la información; el hipertexto aporta una geometría que permite que estos datos puedan ser explorados y presentados siguiendo diferentes secuencias, de acuerdo con las necesidades del usuario.

De entre los múltiples desarrollos hipermediales comerciales que se pueden citar se pueden destacar:

· Diccionarios y enciclopedias: p.ej El Oxford English Dictionary (OED).
·         Manuales: p. ej. el sistema de ayuda de Windows.
· Humanidades: p.ej. los múltiples sistemas de visitas virtuales a museos.
·     Internet: el intercambio de información en el WWW tiene lugar usando un conjunto de normas (protocolo) de transferencia de hipertextos.



2.2. ¿QUE ESPERAR DE LA HIPERMEDIA?

    De la hipermedia se pueden esperar demasiados casos pero uno de sus principales objetivos es el ser un beneficiario de múltiples ámbitos y aplicaciones.

     A continuación se en listan algunos puntos:

·         Manejarla con ordenadores
·         Que sea útil al mundo de la empresa
·         Usarla como herramienta de trabajo

·         Válido al mundo educativo




2.2.1. Ventajas de la hipermedia

El hecho de presentar la información deforma asociativa y por varios canales sensoriales simultáneamente supone una gran ventaja. Si se utiliza adecuadamente, esta tecnología de la información proporciona una serie de ventajas que pueden resultar de utilidad en múltiples campos de la aplicación.

·         Genera ámbitos de integración
·         Altamente estimulante
·         Interacción permanente
·         Permite variar las estrategias didácticas de acuerdo al objetivo pedagógico
·         Permite la autoevaluación del usuario
·         Ofrece un medio idóneo para representar información poco o nada estructurada
·         Se puede estructurar la información si se desea
·         Su interfaz de usuario es, en principio, intuitiva
·         La información puede recuperarse sin ningún tipo de problemas
·         Se da soporte a diferentes modos de acceso a la información



2.2.2. La desorientación y sobrecarga de conocimiento

Son los dos principales inconvenientes con los que cuenta la hipermedia:

Desorientación:
La desorientación dentro del hiperdocumento sugiere la incapacidad del usuario para controlar la información en un espacio confuso hiperconectado.
Cuando el lector navega con un fin determinado o de forma errático, es decir activando indiscriminadamente los diversos enlaces que van apareciendo, corre el riesgo de perderse en el hiperespacio.
Alcanzando una posición que no le resulta interesante pero de la que se ve incapaz de salir hacia otro punto conocido.

Sobrecarga:
Refleja el esfuerzo que supone adquirir el conocimiento adicional requerido para utilizar el sistema. Recurriendo así a los métodos tradicionales.
Es por ello que debe hacerse de la manera más intuitiva posible y evitar el exceso en el empleo de elementos multimedia.



2.3. ARQUITECTURA DE UN SISTEMA HIPERMEDIA

La arquitectura basica para un sistema hipermedia es la siguiente:
Diseño Modular: Favorece la comunicación y el intercambio de información con otros sistemas y facilita notablemente el mantenimiento
Abstracción: cada uno de los niveles de la arquitectura aporta una percepción diferente aunque complementaria de las anteriores.
Autoría en la Colaboración: Se debe tener en cuenta la necesidad al compartir la información así como preservar su seguridad
Distribución: Cada usuario debería poder expresar sus preferencias de forma que se pudiese personalizar el entorno



Vídeo sobre el Hipertexto:



Conclusión:
     
Se entiende que la hipermedia es la fusión de la multimedia y el hipertexto, dando asi el nacimiento a este, la hipermedia a constituido uno de las principales herramientas para la humanidad en la creación de aplicaciones y sistemas que nos permiten interactuar, brindar entretenimiento, etc.

Respetando asi algunas características esenciales y no hacerlos tan tediosos para el ojo del usuario.

Bibliografía:
http://www.scribd.com/doc/99054049/2-2-Que-esperar-de-la-hipermedia

jueves, 5 de septiembre de 2013

U1 MULTIMEDIA

1.1 ¿QUE ES MULTIMEDIA?

Multimedia es un término que procede de la lengua inglesa y que refiere a aquello que utiliza varios medios de manera simultánea en la transmisión de una información. Por lo tanto, puede incluir fotografías, vídeos, sonidos y texto.

El concepto se aplica a objetos y sistemas que apelan a múltiples medios físicos y/o digitales para comunicar sus contenidos. El término también se usa en referencia a los medios en sí que permiten almacenar y difundir contenidos con estas características.



1.2 MEDIOS DIGITALES

Los medios digitales hacen referencia al contenido de audio, vídeo e imágenes que se ha codificado (comprimido digitalmente). La codificación de contenidos implica convertir la entrada de audio y vídeo en un archivo de medio digital como, por ejemplo, un archivo de Windows Media. Una vez codificado el medio digital, se puede manipular, distribuir y representar (reproducir) fácilmente en otros equipos, así como transmitir a través de redes informáticas.



1.2.1 Animación y Gráficos 

Animación:

     La animación es una simulación de movimiento producida mediante imágenes que se crearon una por una; al proyectarse sucesivamente estas imágenes(llamados cuadros) se produce una ilusión de movimiento, pero el movimiento representado no existió en la realidad. Se basa en la ilusión de movimiento, en la que intervienen la persistencia de la visión y el fenómeno phi.

La animación pertenece al entorno del cine y la televisión aunque guarda una estrecha relación con todo tipo de artes visuales tales como el dibujo, pintura, fotografía y escultura.

Crear animación es un trabajo largo, complejo e intensivo y debido a ello se forman estudios a través de los cuales se llevan a cabo todo tipo de trabajos. Existen gran variedad de técnicas y estilos de animación de entre los cuales destaco los siguientes:

Dibujos animados, también llamados animación tradicional, estos se crean dibujando cada cuadro. Al principio se pintaba cada cuadro y luego era filmado, este proceso se aceleró al aparecer la animación por celdas.



Stop motion, animación de objetos, muñecos, marionetas, figuras de plastilina u otros materiales así como maquetas o modelos a escala. Se utiliza la grabación "fotograma a fotograma" o "cuadro a cuadro".


Pixelación, es una variante del stop-motion, en la que los objetos animados son auténticos objetos comunes (no modelos ni maquetas), e incluso personas. Al igual que en cualquier otra forma de animación, estos objetos son fotografiados repetidas veces, y desplazados ligeramente entre cada fotografía.. Es amplia mente utilizada en los vídeo-clips.


Rotoscopía, se basa en dibujar directamente sobre la referencia, que pueden ser los cuadros de la filmación de una persona real.


Animación de recortes, es la técnica en que se usan figuras recortadas, ya sea de papel o incluso fotografías. Los cuerpos de los personajes se construyen con los recortes de sus partes. Moviendo y reemplazando las partes se obtienen diversas poses, y así se da vida al personaje.


Sistema inercial, sistema inercial de captación de movimiento humano, sin las limitaciones impuestas. Este sistema portátil está basado en los ‘tracker’ 3D MTx de Xsens. La nueva tecnología permite utilizarse en animación (cine, juegos virtuales) entrenamiento y simulación, investigación y desarrollo biomecánico y otras áreas.


Gráficos:

Utilizados para representar esquemas, planos, dibujos lineales, etc. Los gráficos son documentos formados por una serie de primitivas gráficas (puntos, segmentos, círculos...) y contienen por lo tanto una semántica que debe ser interpretada antes de presentar la información al observador. Se pueden modificar de muchas maneras diferentes (traslación, escalado, rotación, cambio de atributos...). Habitualmente se generan de forma interactiva y ocupan relativamente poco espacio. Se suele hablar de gráficos vectoriales.

Los gráficos son fácilmente escalables y por esto son adecuados para el diseño de anagramas, rotulación, etc.


1.2.2 Sonido 

Los sonidos utilizados en un sistema multimedia pueden clasificarse en tres grandes grupos:
  • Habla.
  • Música.
  • Otros sonidos.
El habla es la forma de comunicación síncrona más utilizada por los seres humanos, y evidentemente tiene un importante componente semántico. Las posibilidades de procesamiento del habla en un sistema informático incluyen:
  •     Reconocimiento de la voz: consiste en la identificación de fonemas (sonidos elementales) y palabras.
  •    Comprensión del lenguaje natural: una vez reconocidas las palabras, la comprensión del lenguaje es algo mucho más complejo. 
  •       Síntesis de voz: a partir de un mensaje codificado, se genera una voz que lo pronuncia.
A pesar de todas estas posibilidades, la utilización más habitual del habla en los sistemas multimedia actuales se reduce a su grabación, edición y reproducción posterior.


1.2.3 Vídeo

     Es la tecnología de la captación, grabación, procesamiento, almacenamiento, transmisión y reconstrucción por medios electrónicos digitales o analógicos de una secuencia de imágenes que representan escenas en movimiento. Etimológicamente la palabra video proviene del verbo latino video, vides, videre, que se traduce como el verbo ‘ver’. Se suele aplicar este término a la señal de vídeo y muchas veces se la denomina «el vídeo» o «la vídeo» a modo de abreviatura del nombre completo de la misma.

    La tecnología de vídeo fue desarrollada por primera vez para los sistemas de televisión, pero ha derivado en muchos formatos para permitir la grabación de vídeo de los consumidores y que además pueda ser visto a través de Internet.
En algunos países se llama así también a una grabación de imágenes y sonido en cinta magnética o en disco óptico, aunque con la aparición de estos últimos dicho término se identifica generalmente con las grabaciones anteriores en cinta magnética, del tipo VHS, Betamax. Muchos videos se cuelgan en sitios web, como YouTube.


   Inicialmente la señal de vídeo está formada por un número de líneas agrupadas en varios cuadros y estos a la vez divididos en dos campos portan la información de luz y color de la imagen. El número de líneas, de cuadros y la forma de portar la información del color depende del estándar de televisión concreto. La amplitud de la señal de vídeo es de 1Vpp (1 voltio de pico a pico) estando la parte de la señal que porta la información de la imagen por encima de 0V y la de sincronismos por debajo el nivel de 0V. La parte positiva puede llegar hasta 0,7V para el nivel de blanco, correspondiendo a 0V el negro y los sincronismos son pulsos que llegan hasta -0,3V. En la actualidad hay multitud de estándares diferentes, especialmente en el ámbito informático.


1.3 ALMACENAMIENTO DE LA INFORMACIÓN

Los dispositivos o unidades de almacenamiento de datos son dispositivos que leen o escriben datos en medios o soportes de almacenamiento, y juntos conforman la memoria secundaria o almacenamiento secundario de la computadora.

Los sistemas informáticos pueden almacenar los datos tanto interna (en la memoria) como externamente (en los dispositivos de almacenamiento). Internamente, las instrucciones o datos pueden almacenarse por un tiempo en los chips de silicio de la RAM (memoria de acceso aleatorio) montados directamente en la placa de circuitos principal de la computadora, o bien en chips montados en tarjetas periféricas conectadas a la placa de circuitos principal del ordenador.

Estos chips de RAM constan de conmutadores sensibles a los cambios de la corriente eléctrica, esto quiere decir que los datos son almacenados por tiempo limitado (hasta que dejamos de suministrar energía eléctrica) por esta razón aparecen los dispositivos de almacenamiento secundarios o auxiliares, los cuales son capaces de conservar la información de manera permanente, mientras su estado físico sea óptimo.

Los dispositivos de almacenamiento externo pueden residir dentro del CPU y están fuera de la placa de circuito principal.


1.3.1 CD-ROM

     Este es el soporte de almacenamiento más común que se puede encontrar en los equipos multimedia actualmente. Tiene sus orígenes en el CD-Audio (CD-A) convencional desarrollado por Philips y Sony Corp., en el que se pueden encontrar aproximadamente unos 76 minutos de música.

    Aprovechando la misma tecnología de base en cuanto al proceso de fabricación y el diseño lógico y físico del disco, apareció el CD-ROM. En él se dispone del orden de 650/700/800 MB de información digital por cara. Esta se registra a lo largo de un único surco en espiral. La densidad lineal es constante a lo largo de toda la espiral lo cual implica un formato de velocidad lineal constante (CLV) en el que el motor de rotación adecua su velocidad para que cada sector, esté en el interior o en la periferia del disco, se lea en el mismo tiempo.

  La información se guarda en hendiduras tridimensionales (creadas con un láser de alta potencia) que forman depresiones dentro de las áreas planas del disco. Esta superficie irregular se resguarda de todo contacto con el lector mediante un recubrimiento protector. Su lectura se hace mediante un rayo láser de baja potencia que atraviesa la capa protectora de plástico y se refleja en las hendiduras, por lo que no implica contacto físico ni desgaste. Así, la pérdida o degradación de la información es virtualmente nula. Su enorme capacidad, longevidad, bajo coste y portabilidad lo ha convertido en el medio estándar de almacenamiento en los equipos informáticos. Puesto que se utilizan métodos ópticos, no sufre alteraciones por el efecto de campos magnéticos y al no existir contacto físico con el disco, la vida media de estos dispositivos se incrementa de forma considerable. Proporcionan almacenamiento en modo de sólo lectura y su coste de fabricación es bajo.

    Habitualmente un lector de CDs trabaja sobre un único disco, pero existen dispositivos capaces de manejar 6, 12 y más de estos discos denominados jukebox. Existen diversos estándares para los discos ópticos que reciben el nombre del color del libro en que se publicaron, así se suele hablar de: 
  •  Red Book para hacer referencia al estándar de los discos compactos de audio digital. Define el soporte físico y el original CD de audio (70s).
  • Yellow Book para los discos que se utilizan en los computadores: CD-ROMs, con una extensión para CD-ROM XA (eXtended Architecture).
  •  Green Book completa esta extensión definiendo el CD-I.
  •  Orange Book define discos magneto-ópticos como el minidisco, y el formato de los CDs escribibles o multi-sesión. El Photo CD de Kodak utiliza esta norma.
  •   White Book especifica el Video-CD usando MPEG con la opción de interacción simple.
  •  Blue Book define una extensión multimedia al CD audio, el CD+ o CD extendido. 

   Hay otros estándares relacionados con los CDs, como el ISO 9660 (también llamado CD-ISO), que especifica la estructura de ficheros, y puede ser leído en un gran número de plataformas.

    Existen diferentes tipos de interfaces para CD-ROM, entre las que cabe nombrar: 
  • Sistemas propietarios, generalmente asociados a las tarjetas de sonido.
  • Interfaces SCSI.
  • Interfaces IDE (o ATA), entre las que destaca el estándar ATAPI o enhanced IDE. 
   Un CD y sus 650 Mb. potenciales permiten aproximadamente:
  •   250.000 páginas de texto A4.
  •  7.000 imágenes en color de calidad fotográfica.
  •  72 minutos de animaciones gráficas o vídeo a pantalla completa con audio (con MPEG).
  •  74 minutos de audio con calidad digital (CD audio normal)
  •  2 horas de audio estéreo comprimido.
  •  19 horas de audio mono comprimido con una frecuencia de 8 KHz.


1.3.2 Técnicas de Comprensión de Datos

La compresión de datos se define como el proceso de reducir la cantidad de datos necesarios para representar eficazmente una información, es decir, la eliminación de datos redundantes. En el caso de las imágenes, existen tres maneras de reducir el número de datos redundantes: eliminar código redundante, eliminar píxeles redundantes y eliminar redundancia visual.

  CÓDIGO REDUNDANTE: El código de una imagen representa el cuerpo de la información mediante un conjunto de símbolos. La eliminación del código redundante consiste en utilizar el menor número de símbolos para representar la información. Las técnicas de compresión por codificación de Huffman y codificación aritmética utilizan cálculos estadísticos para lograr eliminar este tipo de redundancia y reducir la ocupación original de los datos.
   PIXELES REDUNDANTES: La mayoría de las imágenes presentan semejanzas o correlaciones entre sus píxeles. Estas correlaciones se deben a la existencia de estructuras similares en las imágenes, puesto que no son completamente aleatorias. De esta manera, el valor de un píxel puede emplearse para predecir el de sus vecinos. Las técnicas de compresión Lempel-Zivimplementan algoritmos basados en sustituciones para lograr la eliminación de esta redundancia.
   REDUNDANCIA VISUAL: El ojo humano responde con diferente sensibilidad a la información visual que recibe. La información a la que es menos sensible se puede descartar sin afectar a la percepción de la imagen. Se suprime así lo que se conoce como redundancia visual. La eliminación de la redundancia está relacionada con la cuantificación de la información, lo que conlleva una pérdida de información irreversible. Técnicas de compresión como JPEG, EZW o SPIHT hacen uso de la cuantificación.
     CLASIFICACIÓN: Los métodos de compresión se pueden agrupar en dos grandes clases: métodos de compresión sin pérdida de información y métodos con pérdida de información.
 LOSSLESS: Los métodos de compresión sin pérdida de información (lossless) se caracterizan porque la tasa de compresión que proporcionan está limitada por la entropía (redundancia de datos) de la señal original. Entre estas técnicas destacan las que emplean métodos estadísticos, basados en la teoría de Shannon, que permite la compresión sin pérdida. Por ejemplo: codificación de Huffman, codificación aritmética y Lempel-Ziv. Son métodos idóneos para la compresión dura de archivos.
   LOSSY: Los métodos de compresión con pérdida de información (lossy) logran alcanzar unas tasas de compresión más elevadas a costa de sufrir una pérdida de información sobre la imagen original. Por ejemplo: JPEG, compresión fractal, EZW, SPIHT, etc. Para la compresión de imágenes se emplean métodos lossy, ya que se busca alcanzar una tasa de compresión considerable, pero que se adapte a la calidad deseada que la aplicación exige sobre la imagen objeto de compresión.



1.4 PLATAFORMAS DE HARDWARE MULTIMEDIA

Las herramientas básicas para desarrollar los proyectos de multimedia contienen uno o más sistemas de desarrollo y varias aplicaciones de edición de texto, imágenes, sonido y videos en movimientos. Otras aplicaciones adicionales son útiles para capturar imágenes de la pantalla, traducir formato de archivo, etc. Los programas, la computadora, las herramientas de multimedia y la habilidad al emplear todo determinan la calidad de trabajo de multimedia que desarrollará.

Pintura y Dibujo. Canvas, Charisma, ColorStudio, CorelDraw, Superpaint, Designer, Deskdraw, Fractal, Cricket Draw, MacPaint, MacDraw Pro, Professional Draw, Desing Painter, Harvard Graphics, Image Studio.

CAD y 3-D: 3-D Studio, AutoCad, CarisCad, Infini-D, Super3D, MacroModel, MiniCad, StrataVision, Three-D, VersaCad, Virtus Walk Trough, Life Forms.

Edición de Imágenes: Color It, Dfoto, Digital, Gallery Efects, Composer, Picture Publisher, ColorStudio, PhotoShop, PhotoStyler.

OCR y Texto: OmniPage, TypeStyler, Typestry, TypeAling, Perceive.

Edición de Sonido: Alchemy, Encore, WaveEdit, Midisoft Studio, AudioTrax, TurboTrax, AudioShop, SoundEdit Pro.

Vídeo y Producción de Películas: AnimationPro, Elastic Reality, MediaMaker, Metaflo, Morph, VideoMachine, Premiere, SuperVideo, VideoFusion, Vídeo Grafitti, VideoVision, MoviePak.

Accesorios: Capture, Clipmedia, Fetch, Hijaak, Image Alchemy, Image Pals, Media Cataloger, MusicBytes, Phoro Disc, PICTpocket, Resedit, SnapPro, Stuffit, Updift.


1.5 PLATAFORMAS DE SOFTWARE MULTIMEDIA

La selección de la plataforma adecuada para el desarrollo de multimedia puede basarse en una preferencia personal (MACINTOSH, WINDOWS).

Todas las computadoras Macintosh pueden reproducir sonidos. La última generación incluye equipo y programas de digitalización de sonido sin necesidad de equipo complementario: Las series LC, IIsi, IIux, Centrix, Quadra, Performa y PowerBooks tiene micrófonos incorporados. La mayoría tiene capacidad gráficas de 8,16 y 32 bits, la serie AV puede digitalizar vídeo y sonido.

Para WINDOWS lo primero es si su computadora es menor que 386SX, no satisfacen los requerimientos de multimedia. No existe velocidad mínima mencionada, por la mayor parte de los fabricantes suministran por lo menos 20 Mhz en un 386SX. En realidad es recomendable como mínimo 25 Mhz con un procesador 386DX o superior.


Video complementario