Monografias.com > Computación > General
Descargar Imprimir Comentar Ver trabajos relacionados

Microprocesadores, Pentium II, DVD y Video Digital




Enviado por markel



    • Microprocesadores Pentium II
    • El Año 2000
    • DVD (Digital Video
      Disc)
    • Video Digital

    Microprocesadores

    Como ya sabemos, el microprocesador
    es el corazón de
    la PC, con millones de transistores,
    funcionando con el sistema
    binario.

    Cada 18 meses los microprocesadores
    doblan su velocidad. En
    tal sentido dentro de 25 años una computadora
    será más poderosa que todas las que estén
    instaladas actualmente en el Silicon Valley californiano. La
    performance de estos pequeños y grandes artefactos ha
    mejorado 25.000 veces en sus 25 años de vida y he
    aquí algunas prospectivas :

    • Los microprocesadores del futuro brindarán
      aún mas recursos a la
      memoria
      cache para acercar la actual brecha de velocidad
      que existe entre ambos.
    • Los modernos microprocesadores superescalables
      desempeñan desde tres a seis instrucciones por ciclo de
      reloj. Por tal motivo, a 250 MHz, un microprocesador superescalable de cuatro
      direcciones puede ejecutar un billón de instrucciones
      por segundo. Un procesador del
      siglo XXI podría lanzar docenas de instrucciones en cada
      paso.
    • Algunos sostienen que la tecnología óptica reemplazará inevitablemente
      a la tecnología electrónica. Las computadoras
      podrían ser, por ejemplo, construidas completamente de
      materiales
      biológicos.
    • Pipeling, organizaciones
      superescalares y cachés continuarán
      protagonizando los avances de la tecnología, estando presente
      también el multiprocesamiento
      paralelo.
    • Probablemente, los microprocesadores existan en varias formas,
      desde llaves de luz
      páginas de papel. En el
      espectro de aplicaciones, estas extraordinarias unidades
      soportarán desde reconocimiento de voz hasta realidad
      virtual.
    • En el futuro cercano, los procesadores y
      memorias
      convergirán en un chip, tal como en su momento el
      microprocesador unió componentes
      separados en un solo chip. Esto permitirá achicar la
      distancia entre el procesado y la memoria y
      sacar ventajas del procesamiento en paralelo, amortizar los
      costos y usar a
      pleno la cantidad de transistores de
      un chip.
    • El microprocesador del siglo XXI será una
      computadora
      completa. Podría denominársela IRAM, para
      expresar Intelligent Random Access Memory :
      la mayoría de los transistores en
      este chip dependerán de la memoria.
      Mientras que los microprocesadores actuales están
      asentados sobre cientos de cables para conectar a los chips de
      memoria
      externa, los IRAMs no necesitarán más que una
      red y un cable
      de electricidad.
      Todas las unidades de entrada y salida estarán
      vinculadas a ellos vía red. Si precisan
      más memoria,
      tendrán mas poder de
      procesamiento y viceversa. Mantendrán la capacidad de
      memoria y
      velocidad de
      procesamiento en equilibrio.
    • Los microprocesadores IRAMs son la arquitectura
      ideal para el procesamiento en paralelo. Debido a que
      requerirían tan pocas conexiones externas, estos chips
      podrían ser extraordinariamente pequeños.
      Podríamos estar ante microprocesadores más
      pequeños que el antiguo 4004 de Intel. Si el
      procesamiento en paralelo prospera, este mar de transistores
      podría ser, además frecuentado por
      múltiples procesadores en
      un solo chip, creándose el
      "micromultiprocesador".
    • La performance de los microprocesadores se
      duplicará cada 18 meses cerca del giro del milenio. Una
      comparación no descabellada para el primer cuarto del
      siglo venidero señala que una computadora
      del 2020 será tan poderosa como todas las que
      están instaladas en este momento en Silicon
      Valley.

    NUEVAS
    TECNOLOGIAS

    Con décadas de innovaciones potenciales por
    delante, los diseños microelectronicos convencionales
    dominarán el siglo próximo. Esta tendencia impulsa
    a los laboratorios a explorar una variedad de nuevas
    tecnologías que podrían ser útiles en el
    diseño
    de nuevas computadoras y
    unidades de procesamiento. En algunos casos estos avances
    contribuirán a obtener chips más diminutos, niveles
    inalcanzables a través de las técnicas
    convencionales litográficas. Entre las tecnologías
    que se investigan en el presente, de cara al siglo XXI, se
    encuentran las siguientes :

    • Cuántica de puntos y otras unidades de
      electrones simples la cuántica de puntos son "acuerdos
      moleculares "que habilitan a los investigadores a circunscribir
      los electrones individuales y monitorear sus movimientos. Estas
      unidades pueden, en teoría ser usadas como registro
      binarios en los cuales la presencia o ausencia de un solo
      electrón se utiliza para representar los ceros y unos de
      los bits. En una variante de este esquema, el rayo láser
      iluminado sobre los átomos podría producir el
      intercambio entre sus estados electrónicos
      mínimos de energía y los de excitación con
      el fin de activar el valor de
      bit. Una complicación de fabrica los transistores y
      cables extremadamente pequeños está dada cuando
      los efectos mecánicos comienzan a interrumpir su
      función. Los componentes lógicos mantienen sus
      valores I y
      O menos confiables porque la ubicación de los electrones
      Individuales se vuelve difícil de especificar. Pero aun
      esta propiedad
      puede ser mejorada : los investigadores del MIT (Instituto
      Tecnológico de Massachusetts) estudian en este momento,
      las posibilidades de desarrollar técnicas de computación cuántica, que
      ayudarían a los sistemas
      informáticos a cumplir comportamientos no
      convencionales.
    • Computación molecular: en lugar de
      fabricar componentes de silicio, se investiga el desarrollo
      de almacenamiento utilizando moléculas
      biológicas. Por ejemplo, se analiza el potencial
      computacional de moléculas relacionadas con
      "bacteriorhodopsin", un pigmento que altera su
      configuración cuando reacciona a la luz. Una
      ventaja de este sistema
      molecular es que puede ser aplicado a una computadora
      óptica, en la que los flujos de fotones
      tomarían el lugar de los electrones. Otra posibilidad es
      que muchas de estas moléculas podrían ser
      sintetizadas por microorganismos, más que fabricados en
      plantas
      industriales. De acuerdo con algunas estimaciones, los
      biomoléculas activadas fotónicamente pueden
      vincularse en un sistema de
      memoria
      tridimensional que tendría una capacidad 300 veces mayor
      que los actuales CD-ROMs
    • Puertas lógicas reversibles: como la
      densidad de los
      componentes de los chips crece, la disipación del
      calor
      generado por los sistemas de
      microprocesamiento se volverá más dificultosa.
      Investigadores de Xerox e IBM están testeando las
      posibilidades de retornar a los capacitores
      a sus estados originales al final de los cálculos.
      Debido a que las puertas de acceso lógico podrían
      recapturar algo de la energía expulsada,
      generarían menos pérdidas de calor.
    • Aún no está claro de que manera
      se las ingeniará la industria
      informática para crear transistores
      más delgados y más rápidos en los
      años venideros. Por ejemplo, en la técnica
      fotolitográfica, la luz es empleada
      para transferir patrones de circuitos de
      una máscara o plantilla de cuarzo a un chip de silicio.
      Ahora la tecnología modela diseños de chips
      de alrededor de 0,35 micrones de ancho, pero achicar esta
      medida parece imposible mientras se utilice la luz; las
      ondas
      luminosas son muy anchas. Muchas compañías han
      invertido en la búsqueda de maneras de sustituir los
      más pequeños haces de luz por
      rayos X. De
      cualquier manera, los rayos X
      aún no han resultado como método
      para masificar la producción de los chips de última
      generación.

    Pentium II

    El procesador
    Pentium con
    tecnología
    MMX™, ahora disponible con 166 MHz y 200
    MHz.

    Con tecnología MMX de Intel, las PCs
    obtienen un nuevo nivel de funcionamiento en multimedia y
    otras nuevas capacidades que sobre pasan lo experimentado
    anteriormente.

    • sonido intenso
    • colores brillantes
    • rendimiento 3D
      realístico
    • animación y video
      fluido

    Para beneficios de funcionamiento completo, se
    debe combinar un procesador
    Pentium con una
    PC basada en tecnología MMX con programas
    especialmente diseñados para tecnología
    MMX.

    Características

    Con el procesador
    Pentium II, se
    obtienen todos los últimos avances de la familia de
    microprocesadores de Intel: la potencia del
    procesador
    Pentium Pro
    más la riqueza en capacidad de la tecnología
    mejorada de medios MMX. El
    procesador Pentium II,
    entregando el más alto desempeño de Intel, tiene
    abundante capacidad de desempeño para medios,
    comunicaciones
    e Internet a nivel
    empresarial.

    Operando a 233 MHz y 266 MHz para desktops y
    servidores y a
    300 MHz para estaciones de trabajo, el procesador utiliza la
    tecnología de alto desempeño Dual Independent
    Bus (Bus Dual Independiente) para
    entregar un amplio ancho de banda adecuado para su elevado
    poder de
    procesamiento. El diseño
    del cartucho Single Edge Contact (S.E.C) [Contacto de un Solo
    Canto] incluye 512KB de cache dedicada de nivel dos (L2). El
    procesador Pentium II también incluye 32KB de cache L1
    (16K para datos, 16K para
    instrucciones), el doble de la del procesador Pentium
    Pro.

    Características
    Técnicas:

    • Arquitectura Dual Independent Bus (Bus Dual
      Independiente): al igual que el procesador Pentium Pro, el
      procesador Pentium II también usa la arquitectura
      D.I.B. Ésta tecnología de alto desempeño
      combina ambos, un bus cache L2
      dedicado de alta velocidad
      más un bus del sistema con
      anticipación que hace posible múltiples
      transacciones simultáneas.
    • La tecnología MMX de Intel: la nueva
      tecnología mejorada de medios de
      Intel permite al procesador Pentium II ofrecer un alto
      rendimiento para aplicaciones de medios y
      comunicaciones.
    • Ejecución dinámica: el procesador Pentium II usa
      esta combinación única de técnicas de
      procesamiento, utilizadas por primera vez en el procesador
      Pentium Pro, para acelerar el desempeño del software.
    • Cartucho Single Edge Contact (S.E.C) [Contacto
      de un Solo Canto]: el nuevo e innovador diseño de empaquetamiento de Intel para
      éste y los procesadores
      futuros, el cartucho S.E.C. permite que todas las
      tecnologías de alto desempeño de los procesadores
      Pentium II sean entregadas en los sistemas
      dominantes de hoy en día.

    Todas estas características serán luego
    explicadas con mayor profundidad.

    El Procesador Pentium II
    Trabajando:

    Diseñado para desktops, estaciones de
    trabajo y servidores de
    alto desempeño, la familia de
    procesadores
    Pentium II es completamente compatible con las generaciones
    precedentes de procesadores de Arquitectura
    Intel.

    Las empresas
    pequeñas tanto como las grandes pueden beneficiarse del
    procesador Pentium II. Éste entrega el mejor
    desempeño disponible para las aplicaciones que se ejecutan
    en sistemas
    operacionales avanzados tales como Windows 95,
    Windows NT y
    UNIX.

    Sobre su poder
    intrínseco como procesador Pentium Pro, el procesador
    Pentium II aprovecha el software diseñado
    para la tecnología MMX de Intel para desbordar la pantalla
    plena, video de movimiento
    total, colores
    más vivos, gráficas más rápidas y
    otras mejoras en los medios. Con el
    tiempo, muchas
    aplicaciones para empresas se
    beneficiarán del desempeño de la tecnología
    MMX. Éstas incluyen:

    • suites para oficina
    • lectura óptica de documentos
    • manejo de imágenes
    • video conferencia
    • edición y ejecución de video

    La tecnología MMX mejora la
    compresión/descompresión de video,
    manipulación de imágenes,
    criptografía y el procesamiento I/O – todas estas se usan
    hoy en día en una variedad de características de las suites de oficina y medios
    avanzados, comunicaciones
    e Internet.

    Técnica de la
    Instrucción Simple, Datos
    Múltiples (SIMD)

    Las aplicaciones de multimedia y
    comunicaciones
    de hoy en día con frecuencia usan ciclos repetitivos que,
    aunque ocupan 10 por ciento o menos del código total de la
    aplicación, pueden ser responsables hasta por el 90 por
    ciento del tiempo de
    ejecución. Un proceso
    denominado Instrucción Simple Múltiples Datos (SIMD, por
    sus siglas en inglés)
    hace posible que una instrucción realice la misma
    función sobre múltiples datos, en forma
    semejante a como un sargento de entrenamiento
    ordena a la totalidad de un pelotón "media vuelta", en
    lugar de hacerlo soldado a soldado. SIMD permite al chip reducir
    los ciclos intensos en computación comunes al video,
    gráfica y animación.

    Nuevas
    Instrucciones

    Los ingenieros de Intel también agregaron
    57 poderosas instrucciones nuevas, diseñadas
    específicamente para manipular y procesar datos de video,
    audio y gráficas más eficientemente. Estas
    instrucciones están orientadas a las sucesiones
    supremamente paralelas y repetitivas que con frecuencia se
    encuentran en las operaciones de
    multimedia.

    Aunque la tecnología MMX del procesador
    Pentium II es compatible binariamente con la usada en el
    procesador Pentium con tecnología MMX, también
    está sinérgicamente combinada con la avanzada
    tecnología central del procesador Pentium II. Las
    poderosas instrucciones de la tecnología MMX aprovechan
    completamente las eficientes técnicas de procesamiento de
    la Ejecución Dinámica, entregando las mejores
    capacidades para medios y comunicaciones.

    Arquitectura Dual Independent
    Bus (Bus Dual Independiente)

    Para satisfacer las demandas de las aplicaciones y
    anticipar las necesidades de las generaciones futuras de
    procesadores, Intel ha desarrollado la arquitectura Dual
    Independent Bus (Bus Dual Independiente) para resolver las
    limitaciones en el ancho de banda de la arquitectura de
    la plataforma actual de la PC.

    La arquitectura Dual Independent Bus (Bus Dual
    Independiente) fue implementada por primera vez en el procesador
    Pentium Pro y tendrá disponibilidad más amplia con
    el procesador Pentium II. Intel creó la arquitectura del
    bus dual independiente para ayudar al ancho de banda del bus del
    procesador. Al tener dos buses independientes el procesador
    Pentium II está habilitado para acceder datos desde
    cualesquiera de sus buses simultáneamente y en paralelo,
    en lugar de hacerlo en forma sencilla y secuencial como ocurre en
    un sistema de bus
    simple.

    Cómo
    Trabaja

    • Dos buses conforman la arquitectura Dual
      Independent Bus (Bus Dual Independiente): el "bus del
      caché L2" y el "bus del sistema" entre
      el procesador y la memoria
      principal.
    • El procesador Pentium II puede utilizar
      simultáneamente los dos buses.
    • La arquitectura Dual Independent Bus (Bus Dual
      Independiente) permite al caché L2 del procesador
      Pentium II de 266MHz, por ejemplo, operar al doble de velocidad
      del caché L2 de los procesadores Pentium. Al aumentar la
      frecuencia de los procesadores Pentium II futuros,
      también lo hará la velocidad del caché
      L2.
    • El bus del sistema de procesamiento por
      canalización permite transacciones múltiples
      simultáneas (en lugar de transacciones únicas
      secuenciales), acelerando el flujo de la información dentro del sistema y elevando
      el desempeño total.

    Conjuntamente estas mejoras en la arquitectura
    Dual Independent Bus (Bus Dual Independiente) brindan hasta tres
    veces el desempeño del ancho de banda sobre un procesador
    de arquitectura de bus sencillo. Además, la arquitectura
    Dual Independent Bus (Bus Dual Independiente) soporta la evolución del bus de memoria del
    sistema actual de 66 MHz a velocidades más elevadas en el
    futuro. Esta tecnología de bus de alto ancho de banda
    está diseñada para trabajar concertadamente con el
    poder de
    procesamiento de alto desempeño del procesador Pentium
    II.

    Ejecución
    Dinámica

    ¿Qué es Ejecución Dinámica?

    Utilizada por primera vez en el procesador Pentium
    Pro, la Ejecución Dinámica es una innovadora
    combinación de tres técnicas de procesamiento
    diseñada para ayudar al procesador a manipular los datos
    más eficientemente. Éstas son la predicción
    de ramificaciones múltiples, el análisis del flujo de datos y la
    ejecución especulativa. La ejecución dinámica hace que el procesador sea
    más eficiente manipulando datos en lugar de sólo
    procesar una lista de instrucciones.

    La forma cómo los programas de
    software
    están escritos puede afectar el desempeño de un
    procesador. Por ejemplo, el desempeño del software será
    afectado adversamente si con frecuencia se requiere suspender lo
    que se está haciendo y "saltar" o "ramificarse" a otra
    parte en el programa.
    Retardos también pueden ocurrir cuando el procesador no
    puede procesar una nueva instrucción hasta completar la
    instrucción. La ejecución dinámica permite
    al procesador alterar y predecir el orden de las
    instrucciones.

    La Ejecución
    Dinámica Consiste de:

    Predicción de
    Ramificaciones Múltiples

    Predice el flujo del programa a
    través de varias ramificaciones:
    mediante un algoritmo de
    predicción de ramificaciones múltiples, el
    procesador puede anticipar los saltos en el flujo de las
    instrucciones. Éste predice dónde pueden
    encontrarse las siguientes instrucciones en la memoria con
    una increíble precisión del 90% o mayor. Esto es
    posible porque mientras el procesador está buscando y
    trayendo instrucciones, también busca las instrucciones
    que están más adelante en el programa. Esta
    técnica acelera el flujo de trabajo enviado al
    procesador.

    Análisis del Flujo de
    Datos

    Analiza y ordena las instrucciones a ejecutar
    en una sucesión óptima, independiente del orden
    original en el programa:

    mediante el análisis del flujo de datos, el procesador
    observa las instrucciones de software decodificadas y
    decide si están listas para ser procesadas o si dependen
    de otras instrucciones. Entonces el procesador determina la
    sucesión óptima para el procesamiento y ejecuta las
    instrucciones en la forma más eficiente.

    Ejecución
    Especulativa

    Aumenta la velocidad de ejecución
    observando adelante del contador del programa y
    ejecutando las instrucciones que posiblemente van a necesitarse.
    Cuando el procesador ejecuta las instrucciones (hasta cinco a la
    vez), lo hace mediante la "ejecución especulativa". Esto
    aprovecha la capacidad de procesamiento superescalar del
    procesador Pentium II tanto como es posible para aumentar el
    desempeño del software. Como las instrucciones del
    software que se procesan con base en predicción de
    ramificaciones, los resultados se guardan como "resultados
    especulativos". Una vez que su estado final
    puede determinarse, las instrucciones se regresan a su orden
    propio y formalmente se les asigna un estado de
    máquina.

    Cartucho Single Edge Contact
    (S.E.C) (Contacto de un Solo Canto)

    ¿Qué es el cartucho de
    empaquetamiento S.E.C.?

    El cartucho Single Edge Contact (S.E.C) [Contacto
    de un Solo Canto] es el diseño
    innovador de empaquetamiento de Intel que permite la entrega de
    niveles de desempeño aún más altos a los
    sistemas
    predominantes.

    Utilizando esta tecnología, el
    núcleo y el caché L2 están totalmente
    encerrados en un cartucho de plástico y metal. Estos
    subcomponentes están montados superficialmente a un
    substrato en el interior del cartucho para permitir la
    operación a alta frecuencia. La tecnología del
    cartucho S.E.C. permite el uso de los BSRAMs de alto
    desempeño y gran disponibilidad para el caché L2
    dedicado, haciendo posible el procesamiento de alto
    desempeño a los precios
    predominantes. Esta tecnología de cartucho también
    permite al procesador Pentium II usar la misma arquitectura Dual
    Independent Bus (Bus Dual Independiente) utilizada en el
    procesador Pentium Pro.

    El procesador Pentium II se conecta a una tarjeta madre
    mediante un conector simple de borde en lugar de hacerlo mediante
    las patillas múltiples utilizadas en los empaquetamientos
    PGA existentes. Similarmente, el conector de la ranura 1
    reemplaza al zócalo PGA utilizado en los sistemas
    anteriores. Las versiones futuras del procesador Pentium II
    también serán compatibles con el conector de la
    ranura 1.

    Aplicaciones del cartucho S.E.C.
    de Intel

    Intel se está moviendo hacia el diseño
    del cartucho S.E.C. como la solución para los procesadores
    de alto rendimiento de la siguiente década. El primer
    cartucho S.E.C. está diseñado para desktops,
    estaciones de trabajo y servidores de
    procesamiento sencillo y dual. Posteriormente, Intel
    optimizará los diseños del cartucho para estaciones
    de trabajo y servidores de
    desempeño aún mayor y diseñará
    soluciones
    similares, altamente integradas para los sistemas de computación móvil.

    La llamada crisis del
    año 2000

    Se trata del hecho de que en algunas computadoras, en particular en las
    de

    modelos viejos, las fechas son almacenadas en
    tres campos de dos dígitos cada uno, lo cual impide
    distinguir entre las fechas del siglo XX y las del siglo XXI.
    Por si esto fuera poco, algunos programadores utilizaron en
    aquella época el 99 como un valor
    especial suponiendo que para 1999 ya existirían otras
    aplicaciones.

    Los especialistas en informática consideran hoy en día
    que se trata del problema más grande al que se ha
    enfrentado la industria de
    la computación en sus 50 años de
    existencia. Por desgracia, muy pocas organizaciones
    están preparadas para encontrar una solución
    oportuna.

    La dimensión real del
    problema

    Cada cuatro años suele haber un
    pequeño ajuste en el calendario gregoriano utilizado hoy
    en día desde su implantación en 1582. Dicho ajuste
    es el que ha llevado a la existencia de un día adicional
    en febrero de cada cuatro años, o sea, al llamado
    año bisiesto. Muchos programadores de computadoras
    no tomaron en cuenta este hecho al definir sus fórmulas
    para el cálculo de
    fechas. No obstante, el ajuste de un día cada cuatro
    años no representa el mayor reto de los sistemas
    complejos: la llegada del año 2000 y los problemas que
    implica van mucho más allá.

    Considere, por ejemplo, un sistema gubernamental
    de pagos que maneje cifras de 5 años hacia atrás.
    En el año 2001, al visualizar los pagos anteriores, los
    operadores esperarán obtener en su pantalla una lista de
    arriba hacia abajo con indicaciones acerca de los años 01,
    00, 99, 98, 97, etc. Sin embargo, las listas clasificadas en
    forma descendente por fechas les mostrarán los datos
    correspondientes a los años 99, 98, 97… 01 y 00 en vez
    de lo originalmente deseado. El significado de los datos
    será totalmente alterado.

    Entre las necesidades existentes debido a la
    llegada del año 2000 cabe mencionar los
    siguientes:

    • El rediseño de formas y de reportes en
      los cuales el campo de fecha no aparece completo o de manera
      adecuada.
    • La reindexación de aquellas bases de datos
      que utilizan la fecha como índice.
    • La reprogramación de sistemas de los que
      no existe el código fuente.
    • La elaboración de procedimientos
      especiales para el manejo de listas basadas en fechas, o para
      la recuperación de información existente en cintas de
      respaldo en las cuales el 99 aparece como separador o como
      indicador de terminación de una
      lista.
    • El rediseño de los sistemas de
      código de barras dado que hasta ahora ninguno de los
      dispositivos existentes para tal fin utiliza 4 dígitos
      para el manejo del año.
    • La reingeniería de casi todas las computadoras
      portátiles dado que no están preparadas para el
      cambio de
      fecha del 31 de diciembre de 1999 al 01 de enero de 2000
      (porque el BIOS no
      soporta el año 2000).

    Desgraciadamente, el problema causado por la
    crisis del
    2000 abarca muchos más aspectos no necesariamente
    técnicos:

    Por ejemplo, para calcular la edad de una
    persona nacida
    en 1960, la fórmula utilizada hasta ahora es 97-60=37,
    pero en el año 2000 dicha fórmula sería
    00-60=?. En este caso la lógica implícita para calcular los
    años transcurridos puede fallar. El resultado puede ser
    un número negativo, o bien, un entero extremadamente
    grande. En ambos casos, el resultado puede dar lugar a la
    cancelación de tarjetas de
    crédito, a errores en el cálculo
    de pensiones, al pago indebido de intereses, a la
    obtención de saldos telefónicos erróneos,
    etc.

    Han de ser verificados el 100%
    de los sistemas actuales

    Las pruebas de
    cómputo en los mainframes y las bases de datos
    muy grandes implican

    simular el año 2000, pero son muy pocas las
    organizaciones
    con la capacidad de cómputo requerida para duplicar todos
    los sistemas, los archivos, los
    respaldos, etc. Además, la prueba de todos los sistemas
    obliga probablemente a trabajar los fines de
    semana.

    Ha de ser debidamente
    presupuestada la estrategia a
    seguir

    La manera más efectiva de evitar esta
    crisis
    consiste en cambiar el 100% del software por versiones listas
    para operar con fechas del año 2000. Este procedimiento
    sería de un costo
    excesivamente alto, en especial para programas cuyo
    código fuente ya es inaccesible.

    En este contexto cabe señalar que el
    costo de
    corrección de una línea de código en
    COBOL fue
    estimado por Gartner Group entre $1.10 y $1.50 dólares, lo
    cual implica que el costo total de la
    solución a la crisis del
    2000, tan solo en los Estados Unidos,
    es superior a $1500 millones de dólares.

    En términos de desarrollo de
    aplicaciones, existirán problemas
    sólo si los campos tipo fecha no son debidamente
    utilizados. Estos problemas son
    ajenos a la herramienta de desarrollo
    pero dependen de cada programador. Por ejemplo, Microsoft
    Visual Basic
    está preparado para calcular correctamente fechas del
    próximo siglo, pero si no se utilizan las funciones
    internas de cálculo de
    fechas, o sea, se convierten las fechas en números
    seriales, o se utilizan campos enteros como fechas, las
    aplicaciones pueden ser incompatibles a la
    larga.

    Existen otros problemas de
    menor importancia, como por ejemplo el hecho de que MS-DOS no ha
    de aceptar la fecha 00 y de que ha de obligar a la captura
    completa del "2000", o bien de que ciertos programas tales
    como Microsoft
    Windows 3.1,
    despliegan incorrectamente las fechas de los archivos del
    año 2000 mostrándolos con caracteres no
    numéricos (basura). Este
    problema se solucionaría con el simple hecho de que ya
    todos los usuarios se actualicen a los nuevos sistemas
    operativos.

    DVD (Digital Video
    Disc)

    No es fácil encontrar, en el campo de la
    electrónica de consumo, un
    estándar capaz de poner de acuerdo a los principales
    fabricantes de CD-ROM,
    vídeos VHS, laserdiscs y equipos musicales. La
    tecnología DVD ha
    obrado el milagro, situándose en una posición de
    privilegio para convertirse en el estándar de almacenamiento digital del próximo
    milenio.

    Introducción

    Migrar de un sistema a otro, en cualquiera de los
    eslabones de la compleja cadena que da lugar al hardware de un ordenador, es
    uno de los procesos
    más complicados a los que un avance tecnológico
    debe enfrentarse.

    En el caso de los compatibles PC, con cientos de
    millones de máquinas funcionando bajo miles de
    configuraciones distintas, en manos de millones de usuarios con
    distintos niveles económicos, es todavía más
    complejo.

    A modo de ejemplo, tenemos el sistema de almacenamiento
    que todos conocemos con el nombre de CD-ROM y que,
    paradójicamente, si todas las previsiones se cumplen,
    será sustituido por las nuevas unidades DVD-ROM, que
    aquí vamos a tratar de analizar. Han sido necesarios
    más de 10 años, cinco desde que se produjo la
    espectacular bajada de precios de los
    lectores, para que el CD-ROM se haya
    convertido en un elemento imprescindible en todos los
    ordenadores. Ahora que casi todo el mundo se ha habituado a
    utilizar este derivado de los clásicos CD musicales,
    un nuevo formato amenaza con enterrarlo definitivamente. El
    proceso, por
    supuesto, será muy lento; tendrán que pasar unos
    cuantos años para que alcance el nivel de popularidad de
    los CD, pero pocos
    dudan que acabará convirtiéndose en el
    estándar digital del siglo XXI.

    Al contrario que otros sistemas similares, como es
    el caso de los discos removibles, donde cada fabricante utiliza
    su propio estándar -con la dificultad que esto implica a
    la hora de implantarse en todos los ordenadores-, la
    tecnología DVD no
    sólo unifica aquellos criterios relacionados con el
    almacenamiento de
    datos informáticos, sino que va mucho más
    allá, abarcando todos los campos donde se utilice la
    imagen y el
    sonido.

    Todavía es muy pronto para predecir el
    impacto que las siglas mágicas DVD
    provocarán en nuestras vidas. Pero, si las previsiones de
    sus creadores se cumplen, dentro de dos o tres años no
    existirán los televisores, altavoces, vídeos,
    laserdiscs, cadenas musicales, consolas, tarjetas
    gráficas, o lectores de CD-ROM, tal
    como hoy los conocemos.

    Una primera
    aproximación

    La especificación DVD
    -según algunos fabricantes, Digital Vídeo Disc,
    según otros, Digital Versatile Disc-, no es más que
    un nuevo intento por unificar todos los estándares
    óptico-digitales de almacenamiento,
    es decir, cualquier sistema de grabación que almacene
    imágenes o sonido. DVD
    abarca todos los campos actualmente existentes, por lo que, si
    llega a implantarse, un mismo disco DVD podrá utilizarse
    para almacenar películas, música, datos
    informáticos, e incluso los juegos de
    consolas.

    La gran ventaja del DVD, en relación a los
    sistemas actuales, es su mayor velocidad de lectura -hasta
    4 veces más que los reproductores CD
    tradicionales-, y su gran capacidad de almacenamiento, que
    varía entre los 4.7 y los 17 Gigas, es decir, el
    tamaño aproximado de 25 CD-ROM. Todo
    ello, en un disco DVD que, externamente, es exactamente igual que
    un CD
    tradicional. Esta elevada capacidad permite, no sólo
    almacenar gran cantidad de información, aplicable a todo tipo de
    enciclopedias, programas o
    bases de
    datos, sino también reproducir 133 minutos de
    vídeo con calidad de
    estudio, sonido Dolby
    Surround AC-3 5.1, y 8 pistas multilenguaje para reproducir el
    sonido en 8
    idiomas, con subtítulos en 32 idiomas. Estos minutos
    pueden convertirse en varias horas, si se disminuye la calidad de la
    imagen hasta
    los límites actuales. Las más importantes
    compañías electrónicas, los más
    influyentes fabricantes de hardware y software, y las
    más sobresalientes compañías
    cinematográficas y musicales están apoyando
    fuertemente el proyecto.

    No obstante, pese a todas estas características tan espectaculares, la gran
    baza de la tecnología DVD está todavía por
    desvelar: gracias a la compatibilidad con los sistemas actuales,
    los lectores DVD-ROM son capaces de leer los CD-ROM y CD
    musicales que actualmente existen, por lo que el cambio de
    sistema será mucho más llevadero, ya que podremos
    seguir utilizando los cientos de millones de discos digitales
    existentes en el mercado.

    Distintas
    ramificaciones

    Tal como hemos visto, las siglas DVD se
    implantarán en los más dispares medios de
    almacenamiento. Para satisfacer todas las necesidades y
    bolsillos, está previsto que se comercialicen tres
    reproductores DVD independientes: DVD-Audio, DVD-Vídeo, y
    DVD-ROM. En realidad, son el equivalente a las cadenas musicales,
    los vídeos VHS o laserdisc, y el CD-ROM. Los lectores
    DVD-Audio serán los más baratos, ya que sólo
    podrán reproducir discos sonoros DVD. Los DVD-Vídeo
    se conectarán al televisor, y se utilizarán para
    visionar películas, con imagen de alta
    calidad.
    Incluso es posible que la propia película venga
    acompañada de la banda sonora completa, todo en un mismo
    disco. Más de 50 películas han sido anunciadas para
    este mes, y se han planeado más de 500 para final de
    año, con una estimación de unos 8000 títulos
    en el año 2000.

    Los lectores más apetecibles son los
    conocidos como DVD-ROM, ya que son capaces de reproducir CD-ROM,
    CD musicales, discos DVD-ROM, discos de audio DVD y, bajo ciertas
    condiciones que veremos a continuación, las mencionadas
    películas DVD. En definitiva, los tres aparatos
    señalados quedan condensados en uno
    sólo.

    Las primeras unidades DVD-ROM, fabricadas por
    Pioneer y Hitachi, ya pueden encontrarse en Japón. Para
    finales de año, aparecerán las unidades grabables,
    que cerrarán el ciclo reproducción-grabación
    que todo estándar óptico-digital debe
    completar.

    La especificacion
    DVD-ROM

    Pese a que los lectores DVD-Vídeo y
    DVD-Audio son, a priori, muy interesantes, vamos a centrarnos en
    los lectores DVD-ROM, más acordes con la temática
    de nuestra revista. Pero,
    antes de discutir sus posibilidades, vamos a conocer todas sus
    características
    principales.

    Los lectores DVD-ROM más básicos nos
    permiten leer discos DVD-ROM -obviamente-, así como CD
    musicales y CD-ROM, a una velocidad 8X, es decir, 1200 Ks/sg, y
    un tiempo de
    acceso situado entre los 150 y 200 milisegundos. Esta
    compatibilidad es posible, no sólo porque soporta el
    estándar ISO 9660
    utilizado por los CD-ROM, sino también porque los discos,
    externamente, son iguales a los CD convencionales. Al contrario
    que los CD-ROM, existen discos DVD de distinto tamaño.
    Todos están formados por dos capas de sustratos de 0.6 mm,
    que se unen para formar un sólo disco.

    En primer lugar, tenemos los discos que podemos
    considerar estándar (120 mm), de una cara, una capa, y una
    capacidad de 4.7 Gigas, o 133 minutos de vídeo de alta
    calidad,
    reproducido a una velocidad de 3.5 Megas. Puesto que un CD-ROM
    sólo puede almacenar 650 Megas, este espacio es el
    equivalente a 6 CD-ROM. Estos serán los discos utilizados
    para almacenar películas.

    Llegados este punto, hay que decir que los Gigas
    ofrecidos por los fabricantes de unidades DVD, no se corresponden
    exactamente con Gigas informáticos, ya que los primeros
    utilizan múltiplos de 1000, mientras que en informática, el cambio de
    unidad se realiza multiplicando o dividiendo por 1024.
    Así, los 4.7 Gigas de esta primera clase de discos se
    corresponden con 4.38 Gigas informáticos, mientras que 17
    Gigas equivalen a 15.9 Gigas reales. A pesar de ello,
    mantendremos durante todo el artículo la primera nomenclatura, ya
    que es la utilizada por los diferentes
    fabricantes.

    Continuaremos con el segundo tipo de disco DVD.
    Hasta ahora, hemos hablado de los discos de una cara, y una capa.
    Si se almacena información en la segunda cara, entonces
    tenemos un disco de dos caras y una capa, con 9.4 Gigas de
    capacidad. También es posible añadir una segunda
    capa a cualquiera de las dos caras. Esta doble capa utiliza un
    método
    distinto al de los CD tradicionales, ya que se implementa
    mediante resinas y distintos materiales
    receptivos/reflectantes. Si la capa es de 120 mm, y dispone de
    una sola cara, la cantidad almacenada es de 8.5 Gigas, o 17 Gigas
    si dispone de dos caras. En el caso, también posible, de
    que la capa disponga de un grosor de 80 mm, la capacidad se
    sitúa entre los 2.6 y 5.3 Gigas de capacidad -simple o
    doble cara-. Puede parecer un galimatías, pero sólo
    se trata de distintos discos con distintas
    capacidades

    Para leer la información, el lector DVD-ROM utiliza un
    láser rojo con una longitud de onda situada entre los 630
    y los 650 nanómetros, frente a los 780 nanómetros
    de los CD convencionales. Otras diferencias, con respecto a la
    arquitectura de los CD-ROM, está en el tamaño de
    las pistas y los pits –marcas que
    guardan la información-, ya que son más
    pequeños, por lo que hay muchos más y,
    consecuentemente, se almacena más
    información.

    Con estos primeros datos, podemos sacar las
    primeras conclusiones. En primer lugar sobresalen, por encima de
    todo, sus grandes ventajas: la compatibilidad CD y CD-ROM, su
    velocidad, y la gran capacidad de almacenamiento, que
    varía entre los 1.4 y los 17 Gigas. Todas las aplicaciones
    que, por definición, necesiten una gran cantidad de
    espacio, se verán beneficiadas: bases de datos,
    programas con secuencias de vídeo, recopilaciones,
    enciclopedias, etc. Estas últimas podrán mejorar su
    contenido, al añadir muchos más vídeos,
    animaciones y sonidos. Igualmente, se podrán comercializar
    las versiones dobladas de un programa en todos los idiomas, y en
    un sólo disco. A pesar de todo, como cualquier
    tecnología nueva, no está exenta de problemas. El
    primero de ellos es la incompatibilidad con ciertos
    estándares. En algunos casos, como puede ser el laserdisc,
    es inevitable, ya que se trata de discos de diferentes
    tamaños. Pero, a estas alturas, todavía no
    está muy claro si las unidades DVD serán
    compatibles Photo CD y CD-I. Los DVD-ROM tampoco pueden leer
    CD-R, es decir, CD-ROM grabados con una grabadora de CD-ROM. De
    forma recíproca, una grabadora CD-R no puede crear discos
    DVD.

    La compatibilidad CD-R es un tema tan importante
    que es posible que quede solucionado en muy poco tiempo, incluso
    antes de que los lectores DVD-ROM vean la luz en el mercado
    europeo.

    Un CD-ROM grabado no es reconocido por un lector
    DVD-ROM, debido a que utiliza un láser con una longitud de
    onda que es incapaz de detectar las marcas realizadas
    en un CD-R. Esta limitación tecnológica
    provocaría que millones de CD-R grabados con valiosa
    información quedasen inutilizados, por lo que ya se han
    propuesto distintas medidas para superarlo. En primer lugar, los
    fabricantes de CD-ROM grabables están trabajando en un
    nuevo formato de disco llamado CD-R 2, que permitirá a las
    grabadoras actuales crear CD-R que pueden ser leídos en
    las unidades DVD-ROM. Para reconocer los discos ya grabados en el
    formato CD-R 1, se barajan distintas soluciones.
    Samsung ha anunciado que sus lectores DVD dispondrán de
    unas lentes holográficas que reconocerán los CD-R.
    Los reproductores de Sony irán equipados con dos lasers,
    uno para leer DVD-ROM, y otro para los CD y CD-R. Philips
    también asegura su compatibilidad con los discos
    grabados… En definitiva, parece ser que este tema
    quedará solucionado a lo largo del
    año.

    Otra de las dificultades tiene que ver con la
    reproducción de películas en el ordenador. El
    estándar utilizado por el sistema DVD-Vídeo es el
    formato MPEG-2, a una velocidad de 24 fps (cuadros por segundo).
    El problema es que ni siquiera los ordenadores más
    potentes son capaces de soportar semejante flujo de datos por
    segundo.

    En la actualidad, los ordenadores equipados con la
    tarjeta apropiada (adquirida en el último año)
    pueden reproducir vídeo MPEG-1, que dispone de una
    calidad
    inferior al mencionado formato MPEG-2. Para solucionar esto,
    existen distintos enfoques, tal como se explica en uno de los
    recuadros adjuntos.

    Todo se reduce a comercializar tarjetas
    gráficas compatibles MPEG-2, o incluir los chips
    necesarios en los propios lectores de DVD-ROM.

    Como podemos observar, los posibles
    obstáculos van a poder ser
    solucionados en muy poco tiempo, por lo
    que las posibilidades que se nos avecinan no pueden ser
    más prometedoras, posibilidades que se verán
    reflejadas en las actuales unidades que están a punto de
    ser comercializadas.

    El software, presente y
    futuro

    Gracias a su compatibilidad con los sistemas
    actuales, los lectores de DVD-ROM nacen con decenas de miles de
    títulos a sus espaldas, tanto en el apartado musical, como
    en el informático. Además, aprovechando que soporta
    el formato MPEG-1, también pueden utilizarse para ver las
    cientos de películas existentes en formato
    Vídeo-CD.

    Lo más interesante de todo, se centra en
    comprobar sus posibilidades como sistema de almacenamiento
    independiente, es decir, utilizando discos DVD-ROM. De momento,
    los títulos comercializados no son excesivos, aunque se
    espera que una gran cantidad de DVD-ROM se publiquen a lo largo
    del año. En un principio, los títulos más
    abundantes serán las películas y las recopilaciones
    de programas. En el primer caso, ya se han puesto a la venta varios
    títulos (en EE.UU. y Japón), como "Blade Runner",
    "Eraser", "Batman Forever" o "Entrevista con
    el Vampiro". Para primeros de marzo, han sido anunciados
    más de 100 títulos, que superarán los 500 a
    finales de año. En el caso de las aplicaciones en DVD-ROM,
    el proceso es
    algo más lento, pero casi la mitad de los distribuidores
    de software han anunciado que publicarán programas en
    formato DVD-ROM. Algunos títulos ya presentados son
    «Silent Steel», de Tsunami Media, y «PhoneDisc
    PowerFinger USA I», de Digital Directory. Este
    último es nada menos que la guía telefónica
    de Estados
    Unidos, en donde se guardan más de 100 millones de
    números de teléfonos, a los que se puede acceder
    por nombre, dirección, e incluso distancias. Por
    ejemplo, es posible localizar las tiendas de informática que se encuentran en un
    radio de 5 Km
    de un determinado lugar. El programa original ocupaba 6 CD-ROM,
    que ahora pueden agruparse en un sólo DVD-ROM con 3.7
    Gigas, y sobra espacio para ampliar la base de datos de
    telefónica.

    DVD-R y DVD-RAM

    Los discos DVD-ROM no se pueden grabar, pero a
    finales de año esto va a cambiar, con la entrada en escena
    de las grabadoras DVD, en dos versiones diferentes. Las
    grabadoras DVD-R serán el equivalente a las grabadoras
    CD-R actuales, es decir, mecanismos "write once" que permiten
    escribir en un disco DVD en blanco una sola vez. Los discos
    dispondrán de una capacidad cercana a los 3 Gigas, aunque
    se acercarán a los 4.7, para equipararse al formato
    DVD-Vídeo. Así, las grabadoras DVD-RAM. son discos
    DVD que pueden borrarse y escribirse múltiples veces. Su
    capacidad es de 2,6 Gigas.

    MPEG-2: EL NUEVO ESTÁNDAR
    DE VÍDEO

    La tecnología DVD utiliza el formato MPEG-2
    para reproducir vídeo digital. La primera consecuencia
    lógica
    de esta decisión, es que será necesario disponer de
    una tarjeta gráfica compatible MPEG-2 para visionar
    películas almacenadas en formato DVD, en un ordenador. El
    problema es que ningún ordenador actual, ni siquiera los
    Pentium Pro más potentes, son capaces de reproducir
    vídeo MPEG-2, y las tarjetas MPEG-2
    son demasiado caras o están poco extendidas en el mercado.

    Las placas gráficas actuales reproducen
    vídeo MPEG-1, ya sea mediante hardware o software, pero no
    pueden ir más allá. Antes de conocer las soluciones que
    los distintos fabricantes tienen pensado aportar, vamos a
    descubrir las características principales que encierra el
    sistema MPEG-2.

    Es un hecho conocido por todos, que el
    almacenamiento digital de imágenes
    en movimiento
    necesita una gran cantidad de espacio. Por ejemplo, una sola
    película de hora y media de duración con unas
    mínimas garantías de calidad, bajo una
    resolución de 640×480 y color de 16 bits,
    puede utilizar varios CD-ROM. La única solución
    viable, si se quiere reducir este espacio a uno o dos CD, es
    comprimir el vídeo. Así nacieron los conocidos
    formatos de compresión AVI y QuickTime. No obstante, la
    compresión de vídeo trae consigo dos desventajas:
    la calidad de la imagen es mucho
    menor, y además se necesita un hardware relativamente
    elevado para descomprimir las imágenes
    en tiempo real, mientras se reproducen.

    El estándar MPEG es otro más de
    estos sistemas de compresión, solo que mucho más
    avanzado. La calidad de imagen se acerca
    a la del vídeo no comprimido, pero se necesita un hardware muy potente -es
    decir, una tarjeta de vídeo muy rápida, y un
    procesador muy veloz-, para poder reproducirlo. Con la
    tecnología actual, es posible reproducir vídeo
    MPEG-1 mediante software, en un Pentium con una tarjeta
    medianamente rápida. Sin embargo, el nuevo protocolo MPEG-2,
    utilizado por los reproductores DVD-Vídeo, es mucho
    más exigente.

    El formato MPEG-2 está basado en el
    protocolo
    ISO/IEC 13818.
    La especificación DVD toma sólo algunas de sus
    reglas, para reproducir vídeo de alta calidad,
    según el estándar NTCS (720×640), a 24 fps (cuadros
    por segundo).

    En realidad, éste es el estándar DVD
    de máxima calidad, ya que la propia especificación
    es compatible AVI, QuickTime, MPEG-1 y Vídeo CD, en donde
    la resolución es más o menos la mitad, es decir,
    vendría a ser: 352×240.

    Por lo tanto, para reproducir una película
    DVD en un ordenador, será necesario disponer, no
    sólo de un decodificador MPEG-2 para las imágenes,
    sino también un decodificador Dolby para el sonido.

    Las soluciones
    previstas para solucionar esto, son muy variadas. Algunos
    fabricantes adaptarán sus tarjetas
    gráficas al formato MPEG-2. Precisamente, los nuevos
    procesadores MMX pueden jugar un papel esencial
    en este apartado, ya que la aceleración multimedia que
    aportan es ideal para este tipo de procesos. Otra
    solución consiste en comercializar placas independientes,
    que incorporen los chips necesarios para reproducir vídeo
    DVD. Finalmente, la propuesta más lógica
    apuesta por incluir los mencionados chips en los propios
    reproductores DVD-ROM, como ya han confirmado algunas empresas. Esto
    encarecerá un poco el precio de la
    unidad, pero asegurará la total compatibilidad con los
    miles de títulos cinematográficos que
    comenzarán a comercializarse en el segundo cuatrimestre de
    1997.

    CÓDIGOS REGIONALES: LA
    PRIMERA POLÉMICA

    Una de las primeras discusiones que se han
    entablado, relacionadas con las unidades DVD, es la más
    que previsible implantación de códigos regionales
    que impedirán que ciertos discos DVD puedan leerse en
    lectores DVD adquiridos en zonas regionales distintas a la zona
    de venta del
    disco.

    Afortunadamente, no serán utilizados en los
    discos DVD-ROM, ya que sólo afectan a las películas
    DVD.

    El código regional no es más que un
    byte de información, que llevarán implantados
    algunos discos DVD. Cada reproductor DVD tendrá su propio
    código regional, por lo que, si encuentra un byte que no
    se corresponde con el suyo, no leerá el disco. Esta medida
    de protección ha sido impuesta por las
    compañías cinematográficas, ya que las
    películas no se estrenan simultáneamente en todo el
    mundo. Puesto que es una protección opcional, sólo
    los estrenos llevarán este código. En un principio,
    parece ser que las zonas geográficas serán las
    siguientes, aunque pueden variar:

    1: Norteamérica (Estados Unidos
    y Canadá).

    2: Japón.

    3: Europa,
    Australia y Nueva Zelanda.

    4: Sudamérica y México.

    5: Asia (excepto
    China y
    Japón) y Africa.

    6: China.

    Como no podía ser de otra forma, hecha la
    ley, hecha la
    trampa, y no ha faltado tiempo para extenderse el rumor de que
    algunas compañías asiáticas ya disponen de
    chips que anulan la protección. Incluso se habla de la
    posible comercialización de reproductores capaces
    de leer DVD con cualquier código
    regional.

    VIDEO
    DIGITAL

    INTRODUCCION.

    La información de video es provista en una
    serie de imágenes ó "cuadros" y el efecto del
    movimiento es
    llevado a cabo a través de cambios pequeños y
    continuos en los cuadros. Debido a que la velocidad de estas
    imágenes es de 30 cuadros por segundo,los cambios
    continuos entre cuadros darán la sensación al ojo
    humano de movimiento
    natural. Las imágenes de video están compuestas de
    información en el dominio del
    espacio y el tiempo. La información en el dominio del
    espacio es provista en cada cuadro, y la información en el
    dominio del
    tiempo es provista por imágenes que cambian en el tiempo
    (por ejemplo, las diferencias entre cuadros). Puesto que los
    cambios entre cuadros colindantes son diminutos, los objetos
    aparentan moverse suavemente. En los sistemas de video digital,
    cada cuadro es muestreado en unidades de pixeles ó
    elementos de imagen. El valor de
    luminancia de cada pixel es cuantificado con ocho bits por pixel
    para el caso de imágenes blanco y negro. En el caso de
    imágenes de

    color, cada pixel mantiene la información
    de color asociada;
    por lo tanto, los tres elementos de la información de
    luminancia designados como rojo, verde y azul, son cuantificados
    a ocho bits. La información de video compuesta de esta
    manera posee una cantidad tremenda de información; por lo
    que, para transmisión o almacenamiento, se requierede la
    compresión (o codificación) de la imagen. La
    técnica de compresión de video consiste de tres
    pasos fundamentalmente, primero el preprocesamiento de las
    diferentes fuentes de
    video de entrada (señales de TV, señales de
    televisión de alta definición HDTV,
    señales de videograbadoras VHS, BETA, S-VHS, etc.), paso
    en el cual se realiza el filtrado de las señal de entrada
    para remover componentes no útiles y el ruido que
    pudiera haber en esta. El segundo paso es la conversión de
    la señal a un formato intermedio común (CIF), y por
    último el paso de la compresión. Las
    imágenes comprimidas son transmitidas a través de
    la línea de transmisión digitaly se hacen llegar al
    receptor donde son reconvertidas a el formato común CIF y
    son desplegadas después de haber pasado por la etapa de
    post-procesamiento. Mediante la compresión de la imagen se
    elimina información redundante, principalmente la
    información redundante en el dominio de
    espacio y del tiempo. En general, las redundancias en eldominio
    del espacio son debidas a las pequeñas diferencias entre
    pixeles contiguos de un cuadrodado, y aquellas dadas en el
    dominio del
    tiempo son debidas a los pequeños cambios dados en
    cuadroscontiguos causados por el movimiento de
    un objeto. El método
    para eliminar las redundancias en el dominio del espacio es
    llamado codificación intracuadros, la cual puede ser
    dividida en codificación por predicción,
    codificación de la transformada y codificación de
    la subbanda. En el otro extremo, las redundancias en el dominio
    del tiempo pueden ser eliminadas mediante el método de
    codificación de intercuadros, que también incluye
    los métodos de
    compensación/estimación del movimiento, el cual
    compensa el movimiento a través de la estimación
    del mismo.

    El Estándar MPEG (Grupo de
    Expertos en Imágenes en movimiento).

    Codificación de
    video.

    El estándar MPEG especifica la
    representación codificada de video para medios de
    almacenam iento digital y especifica el proceso de
    decodificación. La representación soporta la
    velocidad normal de reproducción así como
    también la función especial de acceso aleatorio,
    reproducción rápida, reproducción hacia
    atrás normal, procedimientos de
    pausa y congelamiento de imagen. Este estándar
    internacional es compatible con los formatos de televisión
    de 525 y 625 líneas y provee la facilidad de
    utilización con monitores de
    computadoras personales y estaciones de trabajo. Este
    estándar internacional es aplicable primeramente a los
    medios de almacenamiento digital que soporten una velocidad de
    transmisión de más de 1.5 Mbps tales como el
    Compact Disc, cintas digitales de audio y discos duros
    magnéticos. El almacenamiento digital puede ser conectado
    directamente al decodificador o a través de vías de
    comunicación como lo son los bus, LANs o
    enlaces de telecomunicaciones. Este estándar
    internacional esta destinado a formatos de video no interlazado
    de 288 líneas de 352 pixeles aproximadamente y con
    velocidades de imagen de alrededor de 24 a 30
    Hz.

    Codificación de
    audio

    Este estándar especifica la
    representación codificada de audio de alta calidad para
    medios de almacenamiento y el método
    para la decodificación de señales de audio de alta
    calidad. Es compatible con los formatos corrientes (Compact disc
    y cinta digital de audio) para el almacenamiento y
    reproducción de audio. Esta representación soporta
    velocidades normales de reproducción. Este estándar
    esta hecho para aplicaciones a medios de almacenamiento digitales
    a una velocidad total de 1.5 mbps para las cadenas de audio y
    video, como el CD, DAT y discos duros
    magnéticos. El medio de almacenamiento digital puede ser
    conectado directamente al decodificador, ó vía otro
    medio tal como líneas de comunicación y la capa de sistemas MPEG.
    Este estándar fue creado para velocidades de muestreo de 32
    khz, 44.1 khz, 48 khz y 16 bit PCM entrada/salida al
    codificador/decodificador.

    Trabajo realizado por:
    Gustavo Markel

    Nota al lector: es posible que esta página no contenga todos los componentes del trabajo original (pies de página, avanzadas formulas matemáticas, esquemas o tablas complejas, etc.). Recuerde que para ver el trabajo en su versión original completa, puede descargarlo desde el menú superior.

    Todos los documentos disponibles en este sitio expresan los puntos de vista de sus respectivos autores y no de Monografias.com. El objetivo de Monografias.com es poner el conocimiento a disposición de toda su comunidad. Queda bajo la responsabilidad de cada lector el eventual uso que se le de a esta información. Asimismo, es obligatoria la cita del autor del contenido y de Monografias.com como fuentes de información.

    Categorias
    Newsletter