Monografias.com > Computación > Redes
Descargar Imprimir Comentar Ver trabajos relacionados

Video sobre red




Enviado por luib



    Indice
    1.
    Introducción

    2. Transmisión de vídeo:
    vídeo digital.

    3. Formato MPEG
    4. Soluciones de
    vídeo

    5. Conclusiones

    1.
    Introducción

    La transmisión de vídeo sobre redes de telecomunicaciones está llegando al punto
    de convertirse en un sistema habitual
    de comunicación debido al crecimiento masivo
    que ha supuesto Internet en estos
    últimos años. Lo estamos utilizando para ver
    películas o comunicarnos con conocidos, pero
    también se usa para dar clases remotas, para hacer
    diagnósticos en medicina,
    videoconferencia, distribución de TV, vídeo bajo
    demanda, para
    distribuir multimedia en
    Internet…
    Debido a la necesidad de su uso que se plantea en el presente y
    futuro, se han proporcionado distintas soluciones y
    sucesivos formatos para mejorar su transmisión.
    Pero hoy, ya hemos oído
    hablar negativamente de los sistemas actuales
    de distribución de vídeo debido a su dudosa
    calidad en
    redes como Internet.
    Estas aplicaciones normalmente demandan un elevado ancho de banda
    y a menudo crean cuellos de botella en las redes. Este es el gran
    problema al que esta sometida la transmisión de
    vídeo. ¿Por qué es el vídeo tan
    problemático?

    ¿Qué es el vídeo?
    El vídeo no es nada más que la reproducción en forma secuencial de
    imágenes, que al verse con una determinada
    velocidad y
    continuidad dan la sensación al ojo humano de apreciar el
    movimiento
    natural. Junto con la imagen, el otro
    componente es el sonido.

    2. Transmisión de
    vídeo: vídeo digital.

    La transmisión digital y la distribución
    de información audiovisual permite la
    comunicación multimedia sobre las redes que soportan
    la comunicación de datos, brindando
    la posibilidad de enviar imágenes en movimiento a lugares
    remotos. Pero no es todo tan bonito a la hora de transmitirlo por
    red, debido a que
    nos encontramos con sucesos como lentitud entre la
    reproducción de imágenes, errores de
    transmisión, o perdidas de datos…
    Existen dos formas de transmisión de datos,
    analógico y digital. Una de las características del vídeo es que
    está compuesto por señales analógicas, con
    lo que se pueden dar las dos formas de transmisión. En los
    últimos años la transmisión de datos se ha
    volcado hacia el mundo digital ya que supone una serie de
    ventajas frente a la transmisión analógica. Al
    verse la información reducida a un flujo de bits, se
    consigue una mayor protección contra posibles fallos ya
    que se pueden introducir mecanismos de detección de
    errores, se elimina el problema de las interferencias, podemos
    disminuir el efecto del ruido en los
    canales de comunicación, conseguir codificaciones
    más óptimas y encriptado, mezclar con otros tipos
    de información a través de un mismo canal, y
    poder
    manipular los datos con ordenadores para comprimirlos, por
    ejemplo.
    Además si queremos difundir el vídeo por
    vías digitales tendremos que digitalizarlo, con lo que
    debe ser capturado en su formato analógico y almacenado
    digitalmente logrando así que sea menos propenso a
    degradarse durante la transmisión.
    Existen dos tipos de redes
    de comunicación, de conmutación de circuitos y de
    conmutación de paquetes. En la conmutación de
    circuitos, donde la comunicación está
    permanentemente establecida durante toda la sesión, un
    determinado ancho de banda es asignado para la conexión, y
    el tiempo de
    descarga del vídeo puede predecirse, pero tienen la
    desventaja de que las sesiones son punto a punto y limitan la
    capacidad de usuarios.
    En la conmutación de paquetes pueden acomodarse más
    fácilmente las conferencias multipunto. Aquí el
    ancho de banda esta compartido pero es variable, lo que supone
    una importante mejora puesto que, si el bit rate (o número
    de bits por segundo) es fijo la calidad de la imagen
    variará dependiendo del contenido de los fotogramas. Debe
    de cumplirse que el ancho de banda, la resolución, y la
    compresión de audio sean idénticos para cada
    cliente que
    recibe el vídeo, lo que dificulta la configuración
    del sistema.
    El vídeo es muy sensible al retardo de la red, ya que
    puede provocar cortes en las secuencias. La pérdida de
    alguna información en el vídeo sin comprimir no es
    muy relevante, ya que al perderse un fotograma, el siguiente
    fotograma proporciona la suficiente información para poder
    interpretar la secuencia. En cambio el
    vídeo comprimido es mucho más sensible a errores de
    transmisión, ya que las técnicas
    de compresión que se valen de la redundancia espacial y
    temporal pueden perder la información de esta redundancia
    y los efectos de la falta de datos pueden propagarse en los
    próximos fotogramas. Es por eso que actualmente la
    comunicación con vídeo vía Internet no
    prometen una elevada fiabilidad de transmisión.
    Algunas técnicas de compresión compensan esta
    sensibilidad a la pérdida de datos enviando la
    información completa sobre un fotograma cada cierto
    tiempo, incluso si los datos del fotograma no han cambiado. Esta
    técnica también es útil para los sistemas de
    múltiples clientes, para
    que los usuarios que acaban de conectarse, reciban las
    imágenes completas.
    Nos podemos preguntar cuál es la tecnología de red
    adecuada para las aplicaciones de vídeo, pero siempre
    dependeremos del entorno en el que trabajemos. Por ejemplo si
    disponemos de una alto ancho de banda el tipo de red adecuada
    seria ATM; para un
    entorno de red de área local podríamos usar Fast
    Ethernet, y
    actualmente para que el usuario de Internet, ADSL.
    Pero la solución para resolver el cuello de botella del
    ancho de banda del vídeo no está en un solo tipo de
    red, sino en una infraestructura de red flexible que pueda
    manejar e integrar diferentes redes y que deje paso
    también a futuras redes sin cambiar el hardware. También
    debe ser capaz de negociar las variables de
    ancho de banda, resolución, número de fotogramas
    por segundo y algoritmo de
    compresión de audio. Así que se necesita un nodo
    que permita la interconectividad entre todas las redes. Es el MCU
    (unidad de control
    multipunto). Cada red- RDSI, IP, ASTM- usa
    protocolos
    específicos que definen la naturaleza de las
    ráfagas de vídeo. Las combinaciones de protocolos y
    estándares son muchas: para vídeo H.261 o H.263,
    CIF o QCIF, de 7.5 fps a 30 fps; y para audio G.711, G.728, G.722
    o G.723. Por ejemplo en una conferencia
    múltiple el número de posibles combinaciones de
    estándares y protocolos es muy elevado y puede saturar el
    MCU. Muchos MCU no son capaces de negociar todas estas variables,
    forzando a los terminales de los clientes a reducir sus
    protocolos al más bajo común denominador de todos
    los participantes, bajando así la calidad del
    vídeo.

    Digitalización
    La información a digitalizar será la de las
    imágenes. Cada cuadro de la imagen es muestreado en
    unidades de pixeles, con lo que los datos a almacenar
    serán los correspondientes al color de cada
    pixel.
    Tres componentes son necesarias y suficientes para representar el
    color y para ser interpretado por el ojo humano. El sistema de
    codificación de color usado es el RGB (Red, Green,
    Blue).
    Para digitalizar una señal de vídeo
    analógico es necesario muestrear todas la líneas de
    vídeo activo. La información de brillo y color son
    tratadas de forma diferente por el sistema visual humano, ya que
    es más sensible al brillo que al color. Con lo que se usa
    un componente especial para representar la información del
    brillo, la luminancia, una para el color y la saturación,
    la crominancia. Cada muestra de color
    se codifica en señal Y-U-V (Y- luminancia, U y V
    crominancia) partiendo de los valores
    del sistema RGB. Con este sistema las diferencias de color pueden
    ser muestreadas sin resultados visibles, lo que permite que la
    misma información sea codificada con menos ancho de
    banda.
    Un ejemplo de conversión de señal analógica
    de televisión
    en color a una señal en vídeo digital
    sería:
    Sistema PAL : 576 líneas activas, 25 fotogramas por
    segundo, para obtener 720 pixels y 8 bit por muestra a
    13,5Mhz:

    • Luminancia(Y): 720x576x25x8 = 82.944.000 bits por
      segundo
    • Crominancia(U): 360x576x25x8 = 41.472.000 bits por
      segundo
    • Crominancia(V): 360x576x25x8 = 41.472.000 bits por
      segundo

    Número total de bits: 165.888.000 bits por
    segundo (aprox. 166Mbits/sg). Ninguno de los sistemas comunes de
    transmisión de vídeo proporcionan transferencias
    suficientes para este caudal de información
    Las imágenes de vídeo están compuestas de
    información en el dominio del
    espacio y el tiempo. La información en el dominio
    del espacio es provista por los pixels, y la información
    en el dominio del tiempo es provista por imágenes que
    cambian en el tiempo. Puesto que los cambios entre cuadros
    colindantes son diminutos, los objetos aparentan moverse
    suavemente.
    El valor de
    luminancia de cada pixel es cuantificado con ocho bits para el
    caso de imágenes blanco y negro. En el caso de
    imágenes de color, cada pixel mantiene la
    información de color asociada; una imagen completa es una
    composición de tres fotogramas, uno para cada componente
    de color, así los tres elementos de la información
    de luminancia designados como rojo, verde y azul, son
    cuantificados a ocho bits.
    Pero la transmisión digital de vídeo tiene
    también alguna desventaja respecto a la analógica,
    por ejemplo, en una videoconferencia, cuando distintos usuarios
    envían sonido al mismo tiempo, si el proceso fuera
    analógico las distintas ondas se
    sumarían y podríamos escuchar el conjuntos de
    todas ellas. Al ser digital, los datos llegan en paquetes
    entremezclados, lo que dificulta la compresión.

    Tipos comprimido/descomprimido
    Como hemos dicho para cada punto de la imagen se le asigna un
    determinado número de bits que representarán el
    color de dicho punto. Si la imagen es en blanco y negro,
    bastará un bit para representarlo, mientras que para 256
    colores
    serán necesarios 8 bits. De esta forma tendremos la imagen
    digitalizada, pero almacenar esta información
    dependerá del número de pixels que utilicemos por
    imagen. Por ejemplo una imagen de 640 x 480 puntos con 256
    colores ocupan 300 Kb, y si tenemos una secuencia de vídeo
    a 25 fotogramas por segundo significaría que un solo
    segundo ocuparía 7.500 Kb. Y todo esto sin contar el
    audio.
    La información de vídeo compuesta de esta manera
    posee una cantidad tremenda de información; por lo que,
    para transmisión o almacenamiento,
    se requiere de la compresión de la imagen.
    La compresión del vídeo generalmente implica una
    pérdida de información y una consecuente
    disminución de calidad. Pero esto es aceptable porque los
    algoritmos de
    codificación están diseñados para descartar
    la información redundante o que no es perceptible por el
    ojo humano. Aunque sabemos que la calidad del vídeo es
    inversamente proporcional al factor de compresión.
    La compresión es un arma de doble filo, ya que el
    vídeo comprimido es más sensible a los errores. Un
    error en vídeo comprimido puede hacer ilegible la imagen,
    con lo que se añade redundancia para recuperar esa
    información.
    El vídeo comprimido en general debe transmitir
    información por un canal más pequeño del que
    necesitaría para ser transmitido y poder ser visualizado
    en tiempo real. Así la información de audio y
    vídeo deben ser procesadas por los codecs antes de ser
    transmitidos. Los codecs derivan de las palabras compresor y
    descompresor, y son los módulos de software que permiten la
    compresión y descompresión de los ficheros de audio
    y vídeo para que puedan ser transmitidos por redes de baja
    velocidad.
    La digitalización y la compresión pueden darse
    conjuntamente y en tiempo real para facilitar la
    comunicación y la interacción.
    Los codecs más utilizados son los siguientes: Microsoft
    Video1, Microsoft RLE, Intel Indeo R2, Intel Indeo R3, Intel
    YUV9, CinePak, Captain Crinch, Creative Compressor.
    Las señales recibidas deben ser decodificadas antes de
    poder ser visualizadas por el usuario. Durante este proceso se
    puede producir:
    – lo que se llama "vídeo fantasma" o suavización de
    imagen, que es la forma con la que los codecs compensan los
    elevados flujos de información. Cuando ocurre esto, el
    codec comprime la información reduciendo el "frame rate"
    (número de imágenes por segundo), el cual puede
    hacer que los movimientos rápidos parezcan borrosos. El
    codec también modifica la resolución para comprimir
    la información lo cual puede hacer que la imagen se vea
    desplazada. Entonces, para reducir estos efectos, se disminuye el
    flujo de información visual.

    También puede darse un retardo de audio.
    En la red de Internet por ejemplo la mayoría de los
    usuarios están conectados a velocidades de 56.6 kilobits
    por segundo (Kbps), 33.6 kbps o 28.8 kbps, y el vídeo
    descomprimido para ser enviado en calidad broadcast requiere un
    ancho de banda de red de 160 megabits por segundo (Mbps), en
    calidad CD requiere
    aproximadamente 2.8 Mbps, y con los modems actuales sería
    imposible conseguir las velocidades requeridas para su
    transmisión. Aquí es donde juegan un papel
    importante los codecs.
    Los codecs se optimizan para conseguir la mayor calidad posible
    en bajos índices de transferencia. Son usados para
    codificar el vídeo en tiempo real o pregrabado y ser
    mandado por la red para que el usuario final solamente con una
    aplicación que lo descomprima podrá al instante
    visionar en su terminal.

    Compresión
    La técnica de compresión de vídeo consiste
    de tres pasos fundamentalmente, primero el preprocesamiento de la
    fuente de vídeo de entrada, paso en el cual se realiza el
    filtrado de la señal de entrada para remover componentes
    no útiles y el ruido que pudiera haber en esta. El segundo
    paso es la conversión de la señal a un formato
    intermedio común (CIF), y por último el paso de la
    compresión. Las imágenes comprimidas son
    transmitidas a través de la línea de
    transmisión digital y se hacen llegar al receptor donde
    son reconvertidas al formato común CIF y son desplegadas
    después de haber pasado por la etapa de
    post-procesamiento.
    Mediante la compresión de la imagen se elimina
    información redundante. Se ayuda de la redundancia
    espacial y temporal. La redundancia temporal es reducida primero
    usando similitudes entre sucesivas imágenes, usando
    información de las imágenes ya enviadas. Cuando se
    usa esta técnica, sólo es necesario enviar la
    diferencia entre las imágenes, es decir las zonas de la
    imagen que han variado entre dos fotogramas consecutivos, lo que
    elimina la necesidad de transmitir la imagen completa. La
    compresión espacial se vale de las similitudes entre
    pixeles adyacentes en zonas de la imagen lisas, y de las
    frecuencias espaciales dominantes en zonas de color muy variado.

    El método
    para eliminar las redundancias en el dominio del tiempo pueden
    ser eliminadas mediante el método de codificación
    de intercuadros, que también incluye los métodos de
    compensación/estimación del movimiento, el cual
    compensa el movimiento a través de la estimación
    del mismo.
    En el otro extremo, las redundancias en el dominio espacio es
    llamado codificación intracuadros, la cual puede ser
    dividida en codificación por predicción y
    codificación de la transformada usando la transformada del
    coseno.
    La transformada del coseno o DCT es una implementación
    específica de la transformada de Fourier donde la imagen
    es transformada de su representación espacial a su
    frecuencial equivalente. Cada elemento de la imagen se representa
    por ciertos coeficientes de frecuencia. Las zonas con colores
    similares se representan con coeficientes de baja frecuencia y
    las imágenes con mucho detalle con coeficientes de alta
    frecuencia. La información resultante son 64 coeficientes
    DCT. El DCT reordena toda la información y la prepara para
    la cuantización.
    El proceso de cuantización es la parte del algoritmo que
    causa pérdidas. La cuantización asigna un
    número de bits específico a cada coeficiente de
    frecuencias y entonces comprime los datos asignando unos cuantos
    bits a los coeficientes de alta frecuencia. sin que lo note el
    observador. Los parámetros de la cuantización son
    optimizados, pero el proceso aún deteriora la calidad del
    vídeo. Generalmente se acepta que un factor de
    compresión de 2:1 (aproximadamente 10Mb/seg), se pueden
    apreciar visualmente algunas pérdidas en la integridad del
    vídeo.

    El proceso de decodificación es
    básicamente el inverso del proceso de
    codificación.
    La compresión del audio está descrita por tres
    parámetros: ratio de muestreo (numero
    de muestras por segundo), bits por muestra (numero de bits para
    representar cada valor), y número de canales (mono o
    estéreo).
    Los estándares de vídeo digital más
    conocidos son: MPEG, Quicktime, AVI, MOV, real vídeo,
    ASF…
    Y para vídeo analógico: NTSC, PAL, SECAM

    3. Formato
    MPEG

    MPEG (Grupo de
    Expertos en Imágenes en movimiento) es un estándar
    internacional, definido por un comité llamado MPEG formado
    por la ISO, para la
    representación codificada y comprimida de imágenes
    en movimiento y audio asociado, orientado a medios de
    almacenamiento digital
    El algoritmo que utiliza además de comprimir
    imágenes estáticas compara los fotogramas presentes
    con los anteriores y los futuros para almacenar sólo las
    partes que cambian. La señal incluye sonido en calidad
    digital. El inconveniente de este sistema es que debido a su alta
    complejidad necesita apoyarse en hardware específico.
    MPEG aplica la compresión temporal y la espacial. En
    primer lugar se aplica una transformada d coseno discreta,
    seguida de una cuantización para finalmente comprimir
    mediante un algoritmo RLE. Los bloques de imagen y los de
    predicción de errores tienen una gran redundancia
    espacial, que se reduce gracias a la transformación de los
    bloques desde el dominio del espacio al dominio de
    frecuencia.
    MPEG requiere una intensiva computación para su codificación,
    aunque se consiguen ratios desde 50:1 hasta 200:1
    Existen diferentes opciones dependiendo del uso:
    MPEG-1 guarda una imagen, la compara con la siguiente y almacena
    sólo las diferencias. Se alcanzan así grados de
    compresión muy elevados. Define tres tipos de
    fotogramas:

    • Fotogramas I o Intra-fotogramas, son los fotogramas
      normales o de imagen fija, proporcionando una compresión
      moderada, en JPEG.
    • Fotogramas P o Predichos: son imágenes
      predichas a partir de la inmediatamente anterior. Se alcanza
      una tasa de compresión muy superior.
    • Fotogramas B o bidireccionales: se calculan en base a
      los fotogramas inmediatamente anterior y posterior. Consigue el
      mayor grado de compresión a costa de un mayor tiempo de
      cálculo. Estándar escogido por
      Vídeo-CD: calidad VHS con sonido digital.

    MPEG-2
    Con una calidad superior al MPEG-1, MPEG-2 fue universalmente
    aceptado para transmitir vídeo digital comprimido con
    velocidades mayores de 1Mb/s aproximadamente.
    Con MPEG-2 pueden conseguirse elevados ratios de hasta 100:1,
    dependiendo de las características del propio
    vídeo.
    MPEG-2 normalmente define dos sistemas de capas, el flujo de
    programa y el
    flujo de transporte. Se
    usa uno u otro pero no los dos a la vez. El flujo de programa
    funcionalmente es similar al sistema MPEG-1. La técnica de
    encapsulamiento y multiplexación de la capa de
    compresión produce paquetes grandes y de varios
    tamaños. Los paquetes grandes producen errores aislados e
    incrementan los requerimientos de buffering en el
    receptor/decodificador para demultiplexar los flujos de bits. En
    contraposición el flujo de transporte consiste en paquetes
    fijos de 188 bytes lo que decrementa el nivel de errores ocultos
    y los requerimientos del buffering receptor.
    Los estándares MPEG fueron desarrollados para ser
    independientes de la red específica para proporcionar un
    punto de interoperabilidad en entornos de red
    heterogéneos.

    MPEG4
    Es un estándar relativamente nuevo orientado inicialmente
    a las videoconferencias, y para Internet. El objetivo es
    crear un contexto audiovisual en el cual existen unas primitivas
    llamadas AVO (objetos audiovisuales). Se definen métodos
    para codificar estas primitivas que podrían clasificarse
    en texto y
    gráficos
    La comunicación con los datos de cada primitiva se realiza
    mediante uno o varios "elementary streams" o flujos de datos,
    cuya característica principal es la calidad de
    servicio requerida para la transmisión.
    Ha sido especialmente diseñado para distribuir videos con
    elevados ratios de compresión, sobre redes con bajo ancho
    de banda manteniendo una excelente calidad para usuarios con buen
    ancho de banda.
    Ofrece un ancho rango de velocidades desde usuarios con modems de
    10kbps a usuarios con anchos de banda de 10Mbps.
    Es rápido codificando el vídeo de alta calidad,
    para contenidos en tiempo real y bajo demanda.

    Codificación de vídeo MPEG bajo
    demanda
    En soluciones como vídeo bajo demanda los datos
    codificados en el formato MPEG tienen que ser transmitidos sobre
    redes de comunicaciones. Puesto que el ancho de banda del
    medio de transmisión es limitado, para mantener una
    constante velocidad de salida, debe hacerse una negociación entre la velocidad y la calidad
    de la imagen. De esto se encargan los algoritmos de
    cuantización, los cuales seleccionan diferentes tablas de
    cuantización para diferentes tipos de imágenes
    durante la codificación de datos. Una solución
    simple es codificar los datos originales dinámicamente en
    el servidor, pero
    necesita grandes recursos. Una
    alternativa es almacenar los ficheros codificados en MPEG en el
    servidor y adaptativamente recodificarlo en base a las
    velocidades disponibles.
    El objetivo es recodificar y codificar los ficheros MPEG dinámica y eficientemente en un flujo de
    bits constante.

    MJPEG
    Motion-JPEG es una
    versión extendida del algoritmo JPEG que comprime
    imágenes. Básicamente consiste en tratar al
    vídeo como una secuencia de imágenes
    estáticas independientes a las que se aplica el proceso de
    compresión del algoritmo JPEG una y otra vez para cada
    imagen de la secuencia de vídeo. Existen cuatro modos de
    operación para el JPEG: secuencial, progresiva, sin
    perdida, y jerárquica. Normalmente se utiliza el modo
    secuencial.
    La ventaja es que se puede realizar en tiempo real e incluso con
    poca inversión en hardware. El inconveniente de
    este sistema es que no se puede considerar como un
    estándar de vídeo pues ni siquiera incluye la
    señal de audio. Otro problema es que el índice de
    compresión no es muy grande.
    JPEG utiliza una técnica de compresión espacial, la
    intracuadros o DCT. El sistema JPEG solamente utiliza la
    compresión espacial al estar diseñado para
    comprimir imágenes individuales.
    Motion-JPEG es el metodo elegido para las aplicaciones donde se
    envia la misma informacióin a todos los usuarios, las
    broadcast.

    Servir el vídeo
    Muchas aplicaciones actuales como el vídeo requieren que
    los mismos datos de un servidor sean distribuidos a
    múltiples clientes. Si varios clientes solicitan los
    mismos datos y esta información fuera enviado una vez por
    cada cliente, estaríamos malgastando el ancho de banda ya
    que estaríamos transmitiendo la misma información
    varias veces por el mismo tramo de red y el número de
    clientes estaría limitado por el ancho de banda
    disponible. La solución es IP multicast. Soporta
    eficientemente este tipo de transmisión permitiendo al
    servidor enviar una sola copia de la información a
    múltiples clientes quienes deseen recibir la
    información.

    4. Soluciones de
    vídeo

    El vídeo puede servirse como un fichero, o en
    tiempo real. A este última forma de enviar el vídeo
    se le conoce como streaming.
    Streaming video
    Streaming video, o
    vídeo en tiempo real, es la tecnología que permite
    la transmisión y recepción de imágenes y
    sonidos de manera continua a través de una red. A diferencia de
    otros formatos de audio y vídeo, en los que es necesario
    esperar que el archivo sea
    cargado en el equipo para su visualización, esta
    tecnología permite apreciar el contenido conforme se va
    teniendo acceso a la información del archivo.
    EL servidor de streaming permite visionar el vídeo de
    forma continua porque hace uso de un buffer, donde van
    cargándose algunos segundos de la secuencia antes de que
    sean mostrados. Entonces cuando se detecta un periodo de
    congestión de red, se visualizarán los datos que
    tenemos ya almacenados en el buffer. De esta forma el cliente
    obtiene los datos tan rápido como el servidor y la red lo
    permitan. Hay pocos formatos hoy en dia que soporten este tipo de
    visualización progresiva, probablemente en el futuro
    próximo, el estandar para el streaming vídeo
    será en Advanced streaming format (ASF).
    El streaming puede decirse que funciona de forma inteligente ya
    que asegura al usuario que recibirá la más alta
    calidad posible dependiendo de la velocidad de conexión o
    de los problemas de
    conexión de la red. Tradicionalmente la congestión
    de la red forzaba al usuario a detener la visualización
    del vídeo almacenando en un buffer la información
    para posteriormente continuar mostrando la secuencia. Con los
    nuevos formatos de streaming como el MPEG-4, el cliente y el
    servidor pueden degradar la calidad de forma inteligente para
    asegurar una reproducción continua del
    vídeo.

    ¿Cómo funciona?
    Si se dan problemas de congestión de red, primeramente el
    servidor de vídeo disminuye el número de fotogramas
    que está enviando para mantener la calidad del audio e ir
    llenando el búffer mínimamente. Si las condiciones
    empeoran, el servidor deja de mandar frames de vídeo, pero
    mantiene la calidad del audio. Finalmente, si la calidad del
    audio empieza a degradarse, el cliente reconstruye de manera
    inteligente las secuencias que tiene almacenadas para no perder
    calidad.

    Video en Internet
    Existen dos métodos para la distribución de
    contenido con audio y vídeo sobre la Web. El primer
    método usa un Servidor Web estándar para repartir
    los datos a un medio visualizador. El segundo método usa
    un servidor de streaming.
    ¿Cómo funciona un servidor web para
    distribución de vídeo? Una vez disponemos del
    vídeo digitalizado el archivo será codificado o
    comprimido a un fichero para ser distribuido sobre una red con un
    específico ancho de banda como un modem de 56.6
    kbps. Entonces el fichero se almacena en un servidor web. Ahora
    sólo hemos de crear una página web
    en un servidor con un enlace al fichero, el cual cuando sea
    pulsado por un cliente permitirá la descarga
    automática.
    El protocolo usado
    es el HTTP (Hypertext
    Tansport Protocol), que opera en la parte alta del TCP el cual
    maneja la transferencia de datos. Este protocolo no esta
    optimizado para aplicaciones en tiempo real, con lo que el
    objetivo es maximizar el ratio de transferencia, para lograrlo
    usa un algoritmo llamado "comienzo lento", TCP manda primero
    datos con un bajo ratio, y gradualmente va incrementando el ratio
    hasta que el destinatario comunica una perdida de paquetes.
    Entonces el TCP asume que ha llegado al límite del ancho
    de banda y vuelve a enviar datos a baja velocidad, y a
    volverá a incrementar la velocidad repitiendo el proceso
    anterior. TCP se asegura una fiable transmisión de datos
    con la retransmisión de los paquetes perdidos. Sin embargo
    lo que no puede asegurar es que todos los paquetes recientes
    llegarán al cliente para ser visualizados a tiempo, con lo
    que podremos experimentar pérdida de imágenes en
    las secuencias de vídeo.

    Una solución sobre Internet
    Internet no puede considerarse un medio adecuado para la
    transmisión de vídeo en tiempo real. La calidad de
    los vídeos transmitidos en tiempo real es bastante pobre
    con lo que debes elegir poca velocidad y mucha calidad o ganar
    velocidad y perder calidad en imagen. Pese a todo esto existen
    soluciones desarrolladas que con las mejoras de las
    técnicas y de la velocidad de los modems han ido
    evolucionando.
    Veamos como podríamos montar un servidor de vídeo
    como podría ser el que hasta ahora ha sido el
    estándar de transmisión de vídeo sobre
    Internet, RealVídeo.
    Para poder distribuir vídeo sobre Internet, y
    especialmente un sistema de stream vídeo, los componentes
    que necesitamos son un codificador para digitalizar el
    vídeo y comprimirlo, un software de servidor web, que
    puede ser una máquina distinta o la misma que el
    codificador, y una conexión a la red con suficiente ancho
    de banda, dependiendo del número de usuarios a los que
    queremos dar servicio. El
    usuario final necesitará solamente el programa cliente
    para descargar y visualizar los flujos de
    vídeo.

    Videoconferencia
    Como dijimos, el problema básico del vídeo es el
    gran ancho de banda que requiere.
    En videoconferencia suele trabajarse con ventanas de 300×200
    pixeles
    El vídeo estándar utiliza 30 imágenes
    (frames) por segundo, por tanto, 30 imágenes de 60 KB dan
    la friolera de 1,8 millones de bytes por segundo, la
    mayoría de los fabricantes se orienta hacia la adopción
    de la RDSI
    Otra solución al cuello de botella del ancho de banda en
    videoconferencia es la compresión de las imágenes.
    Complejos algoritmos basados en la transformada discreta del
    coseno (DTC) suelen ser los más utilizados. Lo más
    significativo de la compresión es la ratio que se puede
    alcanzar.
    El formato JPEG permite definir la calidad de la imágenes,
    es decir, cuanta pérdida queremos aceptar en la
    compresión.
    Los sistemas de videoconferencia establecen la compresión
    mediante un dispositivo de hardware y/o software llamado
    códec (codificador/decodificador), encargado además
    de muestrear las señales de audio y vídeo
    así como de transmitirlas.

    5.
    Conclusiones

    Hace algunos años podíamos pensar en la
    comunicación mediante video digital en tiempo real, pero
    sólo imaginarlo. Hoy en día puede decirse que es
    una realidad. Pero no está todo logrado. Tenemos la
    posibilidad de solicitar una película de cine desde
    casa, y que se nos sea servida inmediatamente via
    satélite. Pero no sólo queremos eso, queremos poder
    disfrutar de la comunicación multimedia y a bajo precio. Ahora
    mismo esto significa que a través de Internet ya que es la
    red que nos llega a todos hasta la puerta de nuestras casas. Pero
    no nos vale ver a nuestro amigo en blanco y negro, o
    estático, o borroso, queremos verlo como si lo
    tuviéramos delante. Y para esto, todavía tendremos
    que esperar un poco. Y es que no puede circular un camión
    por un carril de bicicleta; al menos hasta que no ensanchemos el
    carril.

     

     

     

     

    Autor:

    Luis

    Nota al lector: es posible que esta página no contenga todos los componentes del trabajo original (pies de página, avanzadas formulas matemáticas, esquemas o tablas complejas, etc.). Recuerde que para ver el trabajo en su versión original completa, puede descargarlo desde el menú superior.

    Todos los documentos disponibles en este sitio expresan los puntos de vista de sus respectivos autores y no de Monografias.com. El objetivo de Monografias.com es poner el conocimiento a disposición de toda su comunidad. Queda bajo la responsabilidad de cada lector el eventual uso que se le de a esta información. Asimismo, es obligatoria la cita del autor del contenido y de Monografias.com como fuentes de información.

    Categorias
    Newsletter
    Comments
    All comments.
    Comments