Monografias.com > Computación > Hardware
Descargar Imprimir Comentar Ver trabajos relacionados

Componentes Digitales




Enviado por kenyiro_ry



Partes: 1, 2

    Indice
    1.
    Introducción

    2. La Unidad Central De
    Proceso

    3. Buses Del Sistema
    4. Entrada Y
    Salida

    5.
    Conclusiones

    6.
    Bibliografía

    1.
    Introducción

    La arquitectura del computador es
    el estudio de todas y cada una de las partes que hacen funcionar
    dicha maquina llamada computador,
    todas estas serie de partes llegan a ser un gran numero de
    componentes que al estudiarlos dejan un concepto mas
    completo de dicha maquina, estructurándolos,
    diferenciándolos ya sea por su funcionamiento o tareas
    para una mejor comprensión del mismo, de esta manera se
    aprende gran cantidad de procesos y
    piezas que en algún momento se pasaron por alto y que
    después nos puede servir para comprender el porvenir del
    largo camino que tenemos por descubrir. Por ello los componentes
    digitales tienen su lugar en la materia para
    una mejor comprensión de la misma y llegar a conocer
    componentes resaltantes para entender mejor el funcionamiento de
    la maquina.

    2. La Unidad Central De
    Proceso

    Funciones que realiza

    La Unidad central de proceso o
    CPU, se puede
    definir como un circuito microscópico que interpreta y
    ejecuta instrucciones. La CPU se ocupa
    del control y el
    proceso de
    datos en los
    ordenadores. Habitualmente, la CPU es un microprocesador
    fabricado en un chip, un único trozo de silicio que
    contiene millones de componentes electrónicos. El microprocesador
    de la CPU está formado por una unidad
    aritmético-lógica
    que realiza cálculos y comparaciones, y toma decisiones
    lógicas (determina si una afirmación es cierta o
    falsa mediante las reglas del álgebra de
    Boole); por una serie de registros donde
    se almacena información temporalmente, y por una unidad
    de control que
    interpreta y ejecuta las instrucciones. Para aceptar
    órdenes del usuario, acceder a los datos y presentar
    los resultados, la CPU se comunica a través de un conjunto
    de circuitos o
    conexiones llamado bus. El bus conecta la CPU a los
    dispositivos de
    almacenamiento (por ejemplo, un disco duro),
    los dispositivos de
    entrada (por ejemplo, un teclado o un
    mouse) y los
    dispositivos de salida (por ejemplo, un monitor o una
    impresora).

    Elementos que la componen
    Unidad de control: controla el funcionamiento de la CPU y por
    tanto de el computador.
    Unidad aritmético-lógica
    (ALU): encargada de llevar a cabo las funciones de
    procesamiento de
    datos del computador.
    Registros:
    proporcionan almacenamiento
    interno a la CPU.
    Interconexiones CPU: Son mecanismos que proporcionan comunicación entre la unidad de control, la
    ALU y los registros.

    Tipos
    Básicamente nos encontramos con dos tipos de diseño
    de los microprocesadores: RISC (Reduced-Instruction-Set
    Computing) y CISC (complex-instruction-set computing). Los
    microprocesadores RISC se basan en la idea de que
    la mayoría de las instrucciones para realizar procesos en el
    computador son relativamente simples por lo que se minimiza el
    número de instrucciones y su complejidad a la hora de
    diseñar la CPU. Algunos ejemplos de arquitectura RISC
    son el SPARC de Sun Microsystem’s, el microprocesador Alpha
    diseñado por la antigua Digital, hoy absorbida por Compaq
    y los Motorola 88000 y PowerPC. Estos procesadores se
    suelen emplear en aplicaciones industriales y profesionales por
    su gran rendimiento y fiabilidad.

    Los microprocesadores CISC, al contrario, tienen una
    gran cantidad de instrucciones y por tanto son muy rápidos
    procesando código
    complejo. Las CPU´s CISC más extendidas son las de
    la familia
    80×86 de Intel cuyo último micro es el Pentium II.
    Últimamente han aparecido otras compañías
    como Cirix y AMD que fabrican procesadores con
    el juego de
    instrucciones 80×86 y a un precio
    sensiblemente inferior al de los microprocesadores de Intel.
    Además, tanto Intel con MMX como AMD con su
    especificación 3D-Now! están apostando por extender
    el conjunto de instrucciones de la CPU para que trabaje
    más eficientemente con tratamiento de imágenes y
    aplicaciones en 3 dimensiones.

    La Memoria
    Funciones que
    realiza
    La memoria de
    un computador se puede definir como los circuitos que
    permiten almacenar y recuperar la información. En un sentido más
    amplio, puede referirse también a sistemas externos
    de almacenamiento,
    como las unidades de disco o de cinta.
    Hoy en día se requiere cada vez más memoria para
    poder utilizar
    complejos programas y para
    gestionar complejas redes de
    computadores.

    Elementos que la componen
    Una memoria. vista
    desde el exterior, tiene la estructura
    mostrada en la figura 3-1. Para efectuar una lectura se
    deposita en el bus de direcciones la dirección de la palabra de memoria que se
    desea leer y entonces se activa la señal de lectura (R);
    después de cierto tiempo (tiempo de
    latencia de la memoria),
    en el bus de datos aparecerá el contenido de la dirección buscada. Por otra parte, para
    realizar una escritura se
    deposita en el bus de datos la información que se desea
    escribir y en el bus de direcciones la dirección donde
    deseamos escribirla, entonces se activa la señal de
    escritura (W),
    pasado el tiempo de latencia, la memoria escribirá la
    información en la dirección deseada. Internamente
    la memoria tiene un registro de
    dirección (MAR, memory address register), un registro buffer
    de memoria o registro de datos (MB, memory buffer, o MDR, memory
    data register) y, un decodificador como se ve en la figura 3-2.
    Esta forma de estructurar la memoria se llama organización lineal o de una
    dimensión. En la figura cada línea de palabra
    activa todas las células de
    memoria que corresponden a la misma palabra.

    Por otra parte, en una memoria ROM
    programable por el usuario con organización lineal, las uniones de los
    diodos
    correspondientes a lugares donde deba haber un "0" deben
    destruirse. También se pueden sustituir los diodos por
    transistores y
    entonces la célula
    de memoria tiene el esquema de la figura 3-3. en este caso la
    unión que debe destruirse para grabar un "0" es la del
    emisor.

    En el caso de una memoria RAM
    estática con organización lineal
    cada célula de
    memoria toma la forma mostrada en la figura 3-4. En este esquema
    las primeras puertas AND sólo son necesarias en el una de
    las células de
    cada palabra. Se debe comentar la necesidad de la puerta de tres
    estados a la salida del biestable: esta puerta se pone para
    evitar que se unan las salidas de los circuitos de las
    células de diferentes palabras a través del hilo de
    bit. Si esa puerta no se pusiera (o hubiera otro tipo de puerta
    en su lugar, como una puerta AND) la información
    correspondiente a la palabra activa entraría por los
    circuitos de salida de las demás células, lo que
    los dañaría.

    Organizar 1a memoria de esta forma, tiene el
    inconveniente de que la complejidad del decodificador crece
    exponencialmente con el número de entradas y, en una
    memoria de mucha capacidad, la complejidad del decodificador la
    hace inviable. Esto hace necesaria una alternativa que
    simplifique los decodificadores. Esta alternativa la constituye
    la
    organización en dos dimensiones en que los bits del
    registro de dirección se dividen en dos partes y cada una
    de ellas va a un decodificador diferente. En este caso, las
    líneas procedentes de ambos decodificadores (X e Y) se
    cruzan formando un sistema de
    coordenadas en que cada punto de cruce corresponde a una palabra
    de memoria. Dado que en cada decodificador sólo se activa
    una línea, sólo se activará la palabra
    correspondiente al punto de cruce de las dos líneas
    activadas. Fácilmente se puede comprender que los
    decodificadores se simplifican mucho ya que cada uno tiene la
    mitad de entradas que en el caso anterior. Hay que decir, sin
    embargo, que la célula
    de memoria se complica un poco porque hay que añadir una
    puerta AND en cada palabra para determinar si coinciden las
    líneas X e Y.

    La organización de la memoria en dos dimensiones
    también es útil para las memorias
    dinámicas ya que el refresco de estas memorias se
    realiza por bloques y éstos pueden coincidir con una de
    las dimensiones (la que corresponda a los bits de
    dirección de mayor peso).
    En la práctica, las memorias dinámicas son
    más lentas que las estáticas y además son de
    lectura destructiva, pero resultan más baratas, aunque
    necesiten circuitos de refresco, si la memoria no es de mucha
    capacidad.

    Tipos
    Jerarquía de memoria
    En un ordenador hay una jerarquía de memorias atendiendo
    al tiempo de acceso y a la capacidad que. normalmente son
    factores contrapuestos por razones económicas y en muchos
    casos también físicas. Comenzando desde el procesador al
    exterior, es decir en orden creciente de tiempo de acceso y
    capacidad, se puede establecer la siguiente jerarquía:
    Registros de procesador: Estos
    registros interaccionan continuamente con la CPU (porque forman
    parte de ella). Los registros tienen un tiempo de acceso muy
    pequeño y una capacidad mínima, normalmente igual a
    la palabra del procesador (1 a 8 bytes).
    Registros intermedios: Constituyen un paso intermedio entre el
    procesador y la memoria, tienen un tiempo de acceso muy breve y
    muy poca capacidad.

    Memorias caché: Son memorias de pequeña
    capacidad. Normalmente una pequeña fracción de la
    memoria principal. y pequeño tiempo de acceso. Este nivel
    de memoria se coloca entre la CPU y la memoria central. Hace
    algunos años este nivel era exclusivo de los ordenadores
    grandes pero actualmente todos los ordenadores lo incorporan.
    Dentro de la memoria caché puede haber, a su vez, dos
    niveles denominados caché on chip, memoria caché
    dentro del circuito integrado, y caché on board, memoria
    caché en la placa de circuito impreso pero fuera del
    circuito integrado, evidentemente, por razones físicas, la
    primera es mucho más rápida que la segunda. Existe
    también una técnica, denominada Arquitectura
    Harvard, en cierto modo contrapuesta a la idea de Von Newmann,
    que utiliza memorias caché separadas para código
    y datos. Esto tiene algunas ventajas como se verá en este
    capítulo.

    Memoria central o principal: En este nivel residen los
    programas y
    los datos. La CPU lee y escribe datos en él aunque con
    menos frecuencia que en los niveles anteriores. Tiene un tiempo
    de acceso relativamente rápido y gran capacidad.
    Extensiones de memoria central: Son memorias de la misma naturaleza que la
    memoria central que amplían su capacidad de forma modular.
    El tiempo de similar, a lo sumo un poco mayor, al de la memoria
    central y su capacidad puede ser algunas veces mayor.

    Memorias de masas o auxiliares: Son memorias que residen
    en dispositivos externos al ordenador, en ellas se archivan
    programas y datos para su uso posterior. También se usan
    estas memorias para apoyo de la memoria central en caso de que
    ésta sea insuficiente (memoria
    virtual). Estas memorias suelen tener gran capacidad pero
    pueden llegar a tener un tiempo de acceso muy lento. Dentro de
    ellas también se pueden establecer varios niveles de
    jerarquía.

    Clasificación de memorias semiconductoras de
    acceso aleatorio
    Las memorias se clasifican, por la tecnología empleada
    y, además según la forma en que se puede modificar
    su contenido, A este respecto, las memorias se clasifican en dos
    grandes grupos:
    1) Memorias RAM: Son memorias
    en las que se puede leer y escribir, si bien su nombre (Random
    access memory) no
    representa correctamente este hecho. Por su tecnología pueden ser
    de ferritas (ya en desuso) o electrónicas, Dentro de
    éstas últimas hay memorias estáticas (SRAM,
    static RAM), cuya
    célula de
    memoria está basada en un biestable, y memorias
    dinámicas (DRAM, dinamic RAM, en las que la célula
    de memoria es un pequeño condensador cuya carga representa
    la información almacenada. Las memorias dinámicas
    necesitan circuitos adicionales de refresco ya que los condensadores
    tienen muy poca capacidad y, a través de las fugas, la
    información puede perderse, por otra parte, son de lectura
    destructiva.
    2) Memorias ROM (Read 0nly Memory): Son memorias en las que
    sólo se puede leer. Pueden ser:
    ROM programadas por máscara, cuya información se
    graba en fábrica y no se puede modificar.
    PROM, o ROM programable una sola vez.
    EPROM (erasable PROM) o RPROM (reprogramable ROM), cuyo contenido
    puede borrarse mediante rayos ultravioletas para
    regrabarlas.

    EAROM (electrically alterable ROM) o EEROM (electrically
    erasable ROM), que son memorias que está en la frontera
    entre las RAM y las ROM ya que su contenido puede regrabarse por
    medios
    eléctricos, estas se diferencian de las RAM en que no son
    volátiles. En ocasiones a este tipo de memorias
    también se las denomina NYRAM (no volátil RAM).
    Memoria FLASH, denominada
    así por la velocidad con
    la que puede reprogramarse, utilizan tecnología de borrado
    eléctrico al igual que las EEPROM. Las memorias flash pueden
    borrarse enteras en unos cuantos segundos, mucho más
    rápido que las EPROM.
    Básicamente las memorias ROM se basan en una matriz de
    diodos cuya unión se puede destruir aplicando sobre ella
    una sobretensión (usualmente comprendida ente -12.5 y -40
    v.). De fábrica la memoria sale con 1's en todas sus
    posiciones, para grabarla se rompen las uniones en que se quieran
    poner 0's. Esta forma de realizar la grabación se denomina
    técnica de los fusibles.  

    3. Buses Del
    Sistema

    Funciones que realiza
    El bus se puede definir como un conjunto de líneas
    conductoras de hardware utilizadas para la
    transmisión de datos entre los componentes de un sistema
    informático. Un bus es en esencia una ruta compartida que
    conecta diferentes partes del sistema, como el microprocesador,
    la controladora de unidad de disco, la memoria y los puertos de
    entrada/salida (E/S), para permitir la transmisión de
    información.

    En el bus se encuentran dos pistas separadas, el bus de
    datos y el bus de direcciones. La CPU escribe la dirección
    de la posición deseada de la memoria en el bus de
    direcciones accediendo a la memoria, teniendo cada una de las
    líneas carácter
    binario. Es decir solo pueden representar 0 o 1 y de esta manera
    forman conjuntamente el número de la posición
    dentro de la memoria (es decir: la dirección). Cuanto mas
    líneas haya disponibles, mayor es la dirección
    máxima y mayor es la memoria a la cual puede dirigirse de
    esta forma. En el bus de direcciones original habían ya 20
    direcciones, ya que con 20 bits se puede dirigir a una memoria de
    1 MB y esto era exactamente lo que correspondía a la
    CPU.

    PROCESADOR

    Bus de direcciones
    (bits)

    Bus de datos (bits)

    8086

    20

    16

    8088

    20

    8

    80186

    20

    16

    80188

    20

    8

    80286

    24

    16

    80386 SX

    32

    16

    80386 DX

    32

    32

    80486 DX

    32

    32

    80486 SX

    32

    32

    PENTIUM

    32

    64

    PENTIUM PRO

    32

    64

    Esto que en le teoría
    parece tan fácil es bastante mas complicado en la
    práctica, ya que aparte de los bus de datos y de
    direcciones existen también casi dos docenas más de
    líneas de señal en la
    comunicación entre la CPU y la memoria, a las cuales
    también se acude. Todas las tarjetas del bus
    escuchan, y se tendrá que encontrar en primer lugar una
    tarjeta que mediante el envío de una señal adecuada
    indique a la CPU que es responsable de la dirección que se
    ha introducido. Las demás tarjetas se
    despreocupan del resto de la
    comunicación y quedan a la espera del próximo
    ciclo de transporte de
    datos que quizás les incumba a ellas.

    Este mismo concepto es
    también la razón por la cual al utilizar tarjetas
    de ampliación en un PC surgen problemas una
    y otra vez, si hay dos tarjetas que reclaman para ellas el mismo
    campo de dirección o campos de dirección que se
    solapan entre ellos.

    Los datos en si no se mandan al bus de direcciones sino
    al bus de datos. El bus XT tenía solo 8 bits con lo cual
    sólo podía transportar 1 byte a la vez. Si la CPU
    quería depositar el contenido de un registro de 16 bits o
    por valor de 16
    bits, tenía que desdoblarlos en dos bytes y efectuar la
    transferencia de datos uno detrás de otro.
    De todas maneras para los fabricantes de tarjetas de
    ampliación, cuyos productos
    deben atenderse a este protocolo, es de
    una importancia básica la regulación del tiempo de
    las señales del bus, para poder trabajar
    de forma inmejorable con el PC. Pero precisamente este protocolo no ha
    sido nunca publicado por lBM con lo que se obliga a los
    fabricantes a medir las señales con la ayuda de tarjetas
    ya existentes e imitarlas. Por lo tanto no es de extrañar
    que se pusieran en juego
    tolerancias que dejaron algunas tarjetas totalmente
    eliminadas.

    Estructuras de interconexión
    Existen dos organizaciones
    físicas de operaciones E/S
    que tienen que ver con los buses que son:
    Bus único
    Bus dedicado
    La primera gran diferencia entre estas dos tipos de estructuras es
    que el bus único no permite un controlador DMA (todo se
    controla desde la CPU), mientras que el bus dedicado si que
    soporta este controlador.
    El bus dedicado trata a la memoria de manera distinta que a los
    periféricos (utiliza un bus especial) al
    contrario que el bus único que los considera a ambos como
    posiciones de memoria (incluso equipara las operaciones E/S
    con las de lectura/escritura en memoria). Este bus especial que
    utiliza el bus dedicado tiene 4 componentes fundamentales:
    Datos: Intercambio de información entre la CPU y los
    periféricos.
    Control: Lleva información referente al estado de los
    periféricos (petición de interrupciones).
    Direcciones: Identifica el periférico referido.
    Sincronización: Temporiza las señales de reloj.
    La mayor ventaja del bus único es su simplicidad de
    estructura que
    le hace ser más económico, pero no permite que se
    realice a la vez transferencia de información entre la
    memoria y el procesador y entre los periféricos y el
    procesador.
    Por otro lado el bus dedicado es mucho más flexible y
    permite transferencias simultáneas. Por contra su
    estructura es más compleja y por tanto sus costes son
    mayores.

    Tipos
    Ahora vamos a ver los distintos tipos de buses que se han ido
    desarrollando y los que se emplean en la actualidad.
    EL BUS XT y EL BUS ISA (AT)
    Cuando en 1980 IBM fabricó su primer PC, este contaba con
    un bus de expansión conocido como XT que funcionaba a la
    misma velocidad que
    los procesadores Intel 8086 y 8088 (4.77 Mhz). El ancho de banda
    de este bus (8 bits) con el procesador 8088 formaba un tandem
    perfecto, pero la ampliación del bus de datos en el 8086 a
    16 bits dejo en entredicho este tipo de bus (aparecieron los
    famosos cuellos de botella).

    Dada la evolución de los microprocesadores el bus
    del PC no era ni mucho menos la solución para una comunicación fluida con el exterior del
    micro. En definitiva no podía hablarse de una autopista de
    datos en un PC cuando esta sólo tenía un ancho de 8
    bits. Por lo tanto con la introducción del AT apareció un
    nuevo bus en el mundo del PC, que en relación con el bus
    de datos tenía finalmente 16 bits (ISA), pero que era
    compatible con su antecesor. La única diferencia fue que
    el bus XT era síncrono y el nuevo AT era asíncrono.
    Las viejas tarjetas de 8 bits de la época del PC pueden
    por tanto manejarse con las nuevas tarjetas de 16 bits en un
    mismo dispositivo. De todas maneras las tarjetas de 16 bits son
    considerablemente más rápidas, ya que transfieren
    la misma cantidad de datos en comparación con las tarjetas
    de 8 bits en la mitad de tiempo (transferencia de 16 bits en
    lugar de transferencia de 8 bits).

    No tan solo se amplió el bus de datos sino que
    también se amplió el bus de direcciones,
    concretamente hasta 24 bits, de manera que este se podía
    dirigir al AT con memoria de 16 MB. Además también
    se aumentó la velocidad de cada una de las señales
    de frecuencia, de manera que toda la circulación de bus se
    desarrollaba más rápidamente. De 4.77 Mhz en el XT
    se pasó a 8.33 Mhz. Como consecuencia el bus forma un
    cuello de botella por el cual no pueden transferirse nunca los
    datos entre la memoria y la CPU lo suficientemente rápido.
    En los discos duros
    modernos por ejemplo, la relación (ratio) de transferencia
    de datos ya es superior al ratio del bus.
    A las tarjetas de ampliación se les ha asignado incluso un
    freno de seguridad,
    concretamente en forma de una señal de estado de
    espera (wait state), que deja todavía mas tiempo a las
    tarjetas lentas para depositar los datos deseados en la CPU.
    Especialmente por este motivo el bus AT encontró sucesores
    de más rendimiento en Micro Channel y en el Bus EISA, que
    sin embargo, debido a otros motivos, no han tenido éxito.

    BUS MICRO CHANNEL (MCA)
    Vistas las limitaciones que tenía el diseño
    del bus ISA en IBM se trabajó en un nueva
    tecnología de bus que comercializó con su gama de
    ordenadores PS/2. El diseño MCA (Micro Channel
    Arquitecture) permitía una ruta de datos de 32 bits,
    más ancha, y una velocidad de reloj ligeramente más
    elevada de 10 Mhz, con una velocidad de transferencia
    máxima de 20 Mbps frente a los 8 Mbps del bus ISA.
    Pero lo que es más importante el novedoso diseño de
    bus de IBM incluyó un circuito de control especial a cargo
    del bus, que le permitía operar independientemente de la
    velocidad e incluso del tipo del microprocesador del sistema.
    Bajo MCA, la CPU no es más que uno de los posibles
    dispositivos dominantes del bus a los que se puede acceder para
    gestionar transferencias. La circuitería de control,
    llamada CAP (punto de decisión central), se enlaza con un
    proceso denominado control del bus para determinar y responder a
    las prioridades de cada uno de los dispositivos que dominan el
    bus.
    Para permitir la conexión de más dispositivos, el
    bus MCA especifica interrupciones sensibles al nivel, que
    resultan más fiables que el sistema de interrupciones del
    bus ISA. De esta forma es posible compartir interrupciones. Pero
    además se impusieron estándares de rendimiento
    superiores en las tarjetas de expansión.
    Es cierto que el progreso conlleva un precio: La
    arquitectura de IBM era totalmente incompatible con las tarjetas
    de expansión que se incluyen en el bus ISA. Esto viene
    derivado de que los conectores de las tarjetas de
    expansión MCA eran más pequeños que las de
    los buses ISA. De esto se pueden sacar dos conclusiones. Por un
    lado el coste de estas tarjetas era menor y por otro
    ofrecía un mayor espacio interior en las pequeñas
    cajas de sobremesa.
    Las señales del bus estaban reorganizadas de forma que se
    introducía una señal de tierra cada 4
    conectores. De esta forma se ayudaba a reducir las
    interferencias.

    EISA (Extended ISA)
    El principal rival del bus MCA fue el bus EISA, también
    basado en la idea de controlar el bus desde el microprocesador y
    ensanchar la ruta de datos hasta 32 bits. Sin embargo EISA
    mantuvo compatibilidad con las tarjetas de expansión ISA
    ya existentes lo cual le obligo a funcionar a una velocidad de 8
    Mhz (exactamente 8.33). Esta limitación fue a la postre la
    que adjudico el papel de
    estándar a esta arquitectura, ya que los usuarios no
    veían factible cambiar sus antiguas tarjetas ISA por otras
    nuevas que en realidad no podían aprovechar al
    100%.

    Su mayor ventaja con respecto al bus MCA es que EISA era
    un sistema abierto, ya que fue desarrollado por la mayoría
    de fabricantes de ordenadores compatibles PC que no aceptaron el
    monopolio que
    intentó ejercer IBM. Estos fabricantes fueron: AST,
    Compaq, Epson, Hewlett Packard, NEC, Olivetti, Tandy, Wyse y
    Zenith.
    Esta arquitectura de bus permite multiproceso, es decir, integrar
    en el sistema varios buses dentro del sistema, cada uno con su
    procesador. Si bien esta característica no es utilizada más
    que por sistemas
    operativos como UNIX o Windows
    NT.
    En una máquina EISA, puede haber al mismo tiempo hasta 6
    buses principales con diferentes procesadores centrales y con sus
    correspondientes tarjetas auxiliares.

    En este bus hay un chip que se encarga de controlar el
    tráfico de datos señalando prioridades para cada
    posible punto de colisión o bloqueo mediante las reglas de
    control de la especificación EISA. Este chip recibe el
    nombre de Chip del Sistema Periférico Integrado (ISP).
    Este chip actúa en la CPU como un controlador del
    tráfico de datos.
    El motivo para que ni MCA ni EISA hayan sustituido por completo a
    ISA es muy sencillo: Estas alternativas aumentaban el coste del
    PC (incluso más del 50%) y no ofrecían ninguna
    mejora evidente en el rendimiento del sistema. Es más, en
    el momento en que se presentaron estos buses (1987-1988) esta
    superioridad en el rendimiento no resultaba excesivamente
    necesaria: Muy pocos dispositivos llegaban a los límites
    del rendimiento del bus ISA ordinario.

    Local Bus
    Teniendo en cuenta las mencionadas limitaciones del bus AT y la
    infalibilidad de los buses EISA y MCA para asentarse en el
    mercado, en estos
    años se han ideado otros conceptos de bus. Se
    inició con el llamado Vesa Local Bus (VL-Bus), que fue
    concebido y propagado independientemente por el comité
    VESA, que se propuso el definir estándares en el
    ámbito de las tarjetas gráficas y así por primera vez y
    realmente tuviera poco que ver con el diseño del bus del
    PC. Fueron y son todavía las tarjetas gráficas quienes sufren la menor velocidad
    del bus AT. Por eso surgió, en el Comité VESA, la
    propuesta para un bus más rápido que fue el VESA
    Local Bus.  

    Vesa Local Bus
    Al contrario que con el EISA, MCA y PCI, el bus VL no sustituye
    al bus ISA sino que lo complementa. Un PC con bus VL dispone para
    ello de un bus ISA y de las correspondientes ranuras (slots) para
    tarjetas de ampliación. Además, en un PC con bus VL
    puede haber, sin embargo, una, dos o incluso tres ranuras de
    expansión, para la colocación de tarjetas
    concebidas para el bus VL, casi siempre gráficos. Solamente estos slots
    están conectados con la CPU a través de un bus VL,
    de tal manera que las otras ranuras permanecen sin ser molestadas
    y las tarjetas ISA pueden hacer su servicio sin
    inconvenientes.

    El VL es una expansión homogeneizada de bus
    local, que funciona a 32 bits, pero que puede realizar
    operaciones a 16 bits.
    VESA presentó la primera versión del
    estándar VL-BUS en agosto de 1992. La aceptación
    por parte del mercado fue
    inmediata. Fiel a sus orígenes, el VL-BUS se acerca mucho
    al diseño del procesador 80486. De hecho presenta las
    mismas necesidades de señal de dicho chip, exceptuando
    unas cuantas menos estrictas destinadas a mantener la
    compatibilidad con los 386.

    La especificación VL-Bus como tal, no establece
    límites, ni superiores ni inferiores, en la
    velocidad del reloj, pero una mayor cantidad de conectores supone
    una mayor capacitancia, lo que hace que la fiabilidad disminuya a
    la par que aumenta la frecuencia. En la práctica, el
    VL-BUS no puede superar los 66 Mhz. Por este motivo, la
    especificación VL-BUS original recomienda que los
    diseñadores no empleen más de tres dispositivos de
    bus local en sistemas que
    operan a velocidades superiores a los 33 Mhz. A velocidades de
    bus superiores, el total disminuye: a 40 Mhz solo se pueden
    incorporar dos dispositivos; y a 50 Mhz un único
    dispositivo que ha de integrarse en la placa. En la
    práctica, la mejor combinación de rendimiento y
    funciones aparece a 33 Mhz.

    Tras la presentación del procesador Pentium a 64
    bits, VESA comenzó a trabajar en un nuevo estándar
    (VL-Bus versión 2.0).
    La nueva especificación define un interface de 64 bits
    pero que mantienen toda compatibilidad con la actual
    especificación VL-BUS. La nueva especificación 2.0
    redefine además la cantidad máxima de ranuras
    VL-BUYS que se permiten en un sistema sencillo. Ahora consta de
    hasta tres ranuras a 40 Mhz y dos a 50 Mhz, siempre que el
    sistema utilice un diseño de baja capacitancia.
    En el nombre del bus VL queda de manifiesto que se trata de un
    bus local. De forma distinta al bus ISA éste se acopla
    directamente en la CPU. Esto le proporciona por un lado una
    mejora substancial de la frecuencia de reloj (de la CPU) y hace
    que dependa de las línea de control de la CPU y del reloj.
    A estas desventajas hay que añadirle que no en todos los
    puntos están bien resueltas las especificaciones del
    comité VESA, hecho que a la larga le llevará a que
    el éxito
    del bus VL se vea empañado por ello. En sistemas 486
    económicos se podía encontrar a menudo, pero su
    mejor momento ya ha pasado.

    PCI (Peripheral Component Interconnect)
    Visto lo anterior, se puede ver que el bus del futuro es
    claramente el PCI de Intel. PCI significa: interconexión
    de los componentes periféricos (Peripheral Component
    Interconnect) y presenta un moderno bus que no sólo
    está meditado para no tener la relación del bus ISA
    en relación a la frecuencia de reloj o su capacidad sino
    que también la sincronización con las tarjetas de
    ampliación en relación a sus direcciones de puerto,
    canales DMA e interrupciones se ha automatizado finalmente de tal
    manera que el usuario no deberá preocuparse más por
    ello.

    El bus PCI es independiente de la CPU, ya que entre la
    CPU y el bus PCI se instalará siempre un controlador de
    bus PCI, lo que facilita en gran medida el trabajo de
    los diseñadores de placas. Por ello también
    será posible instalarlo en sistemas que no estén
    basados en el procesador Intel si no que pueden usar otros, como
    por ejemplo, un procesador Alpha de DEC. También los
    procesadores PowerMacintosh de Apple se suministran en la
    actualidad con bus PCI.
    Las tarjetas de expansión PCI trabajan eficientemente en
    todos los sistemas y pueden ser intercambiadas de la manera que
    se desee. Solamente los controladores de dispositivo deben
    naturalmente ser ajustados al sistema anfitrión (host) es
    decir a su correspondiente CPU.

    Como vemos el bus PCI no depende del reloj de la CPU,
    porque está separado de ella por el controlador del bus.
    Si se instalara una CPU más rápida en su ordenador.
    no debería preocuparse porque las tarjetas de
    expansión instaladas no pudieran soportar las frecuencias
    de reloj superiores, pues con la separación del bus PCI de
    la CPU éstas no son influidas por esas frecuencias de
    reloj. Así se ha evitado desde el primer momento este
    problema y defecto del bus VL.

    El bus PCI emplea un conector estilo Micro Channel de
    124 pines (188 en caso de una implementación de 64 bits)
    pero únicamente 47 de estas conexiones se emplean en una
    tarjeta de expansión( 49 en caso de que se trate de un
    adaptador bus-master); la
    diferencia se debe a la incorporación de una línea
    de alimentación y otra de tierra. Cada
    una de las señales activas del bus PCI está bien
    junto o frente a una señal de alimentación o de
    tierra, una técnica que minimiza la radiación.
    El límite práctico en la cantidad de conectores
    para buses PCI es de tres; como ocurre con el VL, más
    conectores aumentarían la capacitancia del bus y las
    operaciones a máxima velocidad resultarían menos
    fiables.
    A pesar de presentar un rendimiento similar al de un bus local
    conectado directamente, en realidad PCI no es más que la
    eliminación de un paso en el microprocesador. En lugar de
    disponer de su propio reloj, un bus PCI se adapta al empleado por
    el microprocesador y su circuitería, por tanto los
    componentes del PCI están sincronizados con el procesador.
    El actual estándar PCI autoriza frecuencias de reloj que
    oscilan entre 20 y 33 Mhz.

    A pesar que de que las tarjetas ISA no pueden ser
    instaladas en una ranura PCI, no debería renunciarse a la
    posibilidad de inserción de una tarjeta ISA. Así
    pues, a menudo se puede encontrar en un equipo con bus PCI la
    interfaz «puente» llamada
    «PCI-To-ISA-Bridge». Se trata de un chip que se
    conecta entre los distintos slots ISA y el controlador del bus
    PCI. Su tarea consiste en transponer las señales
    provenientes del bus PCI al bus ISA. De esta manera pueden seguir
    siendo utilizadas las tarjetas ISA al amparo del bus
    PCI.
    A pesar de que el bus PCI es el presente, sigue habiendo buses y
    tarjetas de expansión ISA ya que no todas las tarjetas de
    expansión requieren las ratios de transferencia que
    permite el bus PCI. Sin embargo las tarjetas gráficas,
    tarjetas SCSI y tarjetas de red
    se han decantando cada vez más fuertemente hacia el bus
    PCI. La ventaja de la velocidad de este sistema de bus es que
    este hardware puede
    participar del continuo incremento de velocidad de los
    procesadores.

    SCSI (Small Computer System Interface)
    Además de todas las arquitecturas mencionadas
    anteriormente, también hay que mencionar a SCSI. Esta
    tecnología tiene su origen a principios de los
    años 80 cuando un fabricante de discos desarrollo su
    propia interface de E/S denominado SASI (Shugart Asociates System
    Interface) que debido a su gran éxito comercial fue
    presentado y aprobado por ANSI en 1986.
    SCSI no se conecta directamente al microprocesador sino que
    utiliza de puente uno de los buses anteriormente nombrados.
    Podríamos definir SCSI como un subsistema de E/S
    inteligente, completa y bidireccional. Un solo adaptador host
    SCSI puede controlar hasta 7 dispositivos inteligentes SCSI
    conectados a él.
    Una ventaja del bus SCSI frente a otros interfaces es que los
    dispositivos del bus se direccionan lógicamente en vez de
    físicamente. Esto sirve para 2 propósitos:
    Elimina cualquier limitación que el PC-Bios imponga a
    las unidades de disco.
    El direccionamiento lógico elimina la sobrecarga que el
    host podría tener en manejar los aspectos físicos
    del dispositivo como la tabla de pistas dañadas. El
    controlador SCSI lo maneja.
    Es un bus que a diferencia de otros buses como el ESDI puede
    tener hasta 8 dispositivos diferentes conectados al bus (incluido
    el controlador). Aunque potencialmente varios dispositivos pueden
    compartir un mismo adaptador SCSI, sólo 2 dispositivos
    SCSI pueden comunicarse sobre el bus al mismo tiempo.

    El bus SCSI puede configurarse de tres maneras
    diferenciadas que le dan gran versatilidad a este bus:
    Único iniciador/Único objetivo: Es
    la configuración más común donde el
    iniciador es un adaptador a una ranura de un PC y el objetivo es el
    controlador del disco duro.
    Esta es una configuración fácil de implementar pero
    no aprovecha las capacidades del bus SCSI, excepto para controlar
    varios discos
    duros.

    Único iniciador/Múltiple objetivo: Menos
    común y raramente implementado. Esta configuración
    es muy parecida a la anterior excepto para diferentes tipos de
    dispositivos E/S que se puedan gestionar por el mismo adaptador.
    Por ejemplo un disco duro y un reproductor de CD-ROM.

    Múltiple iniciador/Múltiple objetivo: Es
    mucho menos común que las anteriores pero así es
    como se utilizan a fondo las capacidades del bus.
    Dentro de la tecnología SCSI hay 2 generaciones y una
    tercera que está a punto de generalizarse. La primera
    generación permitía un ancho de banda de 8 bits y
    unos ratios de transferencia de hasta 5 MBps. El mayor problema
    de esta especificación fue que para que un producto se
    denominara SCSI solo debía cumplir 4 códigos de
    operación de los 64 disponibles por lo que proliferaron en
    el mercado gran cantidad de dispositivos SCSI no compatibles
    entre sí.
    Esto cambió con la especificación 2.0 ya que
    exigía un mínimo de 12 códigos, por lo que
    aumentaba la compatibilidad entre dispositivos. Otro punto a
    favor de SCSI 2.0 es el aumento del ancho de banda de 8 a 16 y 32
    bits. Esto se consigue gracias a las implementaciones wide
    (ancho) y fast (rápido). Combinando estas dos
    metodologías se llega a conseguir una transferencia
    máxima de 40 Mbps con 32 bits de ancho (20 Mbps con un
    ancho de banda de 16 bits).
    El protocolo SCSI 3.0 no establecerá nuevas prestaciones
    de los protocolos, pero
    si refinará el funcionamiento de SCSI.  

    AGP (Accelerated Graphics Port)
    La tecnología AGP, creada por Intel, tiene como objetivo
    fundamental el nacimiento de un nuevo tipo de PC, en el que se
    preste especial atención a dos facetas: gráficos y conectividad.
    La especificación AGP se basa en la especificación
    PCI 2.1 de 66 Mhz (aunque ésta apenas se usa, dado que la
    mayoría de las tarjetas gráficas disponibles tan
    sólo son capaces de utilizar la velocidad de bus de 33
    Mhz), y añade tres características fundamentales para
    incrementar su rendimiento: operaciones de lectura/escritura en
    memoria con pipeline, demultiplexado de datos y direcciones en el
    propio bus, e incremento de la velocidad hasta los 100 Mhz (lo
    que supondría unos ratios de transferencia de unos 800
    Mbytes por segundo, superiores en más de 4 veces a los
    alcanzados por PCI).

    Pero el bus AGP es también un bus exclusivamente
    dedicado al apartado gráfico, tal y como se deriva de su
    propio nombre, Accelerated Graphics Port o bus acelerado para
    gráficos. Esto tiene como consecuencia inmediata que no se
    vea obligado a compartir el ancho de banda con otros componentes,
    como sucede en el caso del PCI.
    Otra característica interesante es que la arquitectura AGP
    posibilita la compartición de la memoria principal por
    parte de la aceleradora gráfica, mediante un modelo que
    Intel denomina DIME (Direct Memory Execute, o ejecución
    directa a memoria) y que posibilitará mejores texturas en
    los futuros juegos y
    aplicaciones 3D, al almacenar éstas en la RAM del sistema
    y transferirlas tan pronto como se necesiten.  

    Partes: 1, 2

    Página siguiente 

    Nota al lector: es posible que esta página no contenga todos los componentes del trabajo original (pies de página, avanzadas formulas matemáticas, esquemas o tablas complejas, etc.). Recuerde que para ver el trabajo en su versión original completa, puede descargarlo desde el menú superior.

    Todos los documentos disponibles en este sitio expresan los puntos de vista de sus respectivos autores y no de Monografias.com. El objetivo de Monografias.com es poner el conocimiento a disposición de toda su comunidad. Queda bajo la responsabilidad de cada lector el eventual uso que se le de a esta información. Asimismo, es obligatoria la cita del autor del contenido y de Monografias.com como fuentes de información.

    Categorias
    Newsletter