Monografias.com > Sin categoría
Descargar Imprimir Comentar Ver trabajos relacionados

Fundamentos de la arquitectura de las computadoras (página 2)



Partes: 1, 2

Los primeros eran de 8 bits y funcionaba a 4,77 MHz, la misma
velocidad que
el procesador Intel
8088 empleado en el IBM PC. Posteriormente, cuando se lanzaron
nuevos PCs con el procesador Intel 80286, se creó una
extensión de 16 bits y se aumentó su velocidad a 8
MHz. Esta extensión es compatible con el bus ISA de 8 bits.

Este bus es insuficiente para las necesidades actuales, tales
como tarjetas de
vídeo de alta resolución, por lo que el bus ISA ya
no se emplea en las PCs de hoy en día siendo sustituido
por el bus PCI.

Las ranuras del bus ISA miden 8,5 cm. en la versión de
8 bits y 14 cm. en la de 16 bits; su color suele ser
negro.

2. – BUS EXTENDED INDUSTRY STANDARD ARCHITECTURE (EISA)

El Extended Industry Standard Architecture (en inglés,
Arquitectura
Estándar Industrial Extendida – EISA) es una
arquitectura de bus para computadores compatibles. Fue anunciado
a finales de 1988 y desarrollado por el llamado "Grupo de los
Nueve" (AST, Compaq, Epson, Hewlett-Packard, NEC Corporation,
Olivetti, Tandy, Wyse y Zenith), vendedores de computadores
clónicos como respuesta al uso por parte de IBM de su
arquitectura propietaria MicroChannel (MCA) en su serie PS/2.

Tuvo un uso limitado en computadores personales con procesadores
80386 y 80486 hasta mediados de los años noventa cuando
fue reemplazado por los buses locales tales como VESA y PCI.

EISA amplía la arquitectura de bus ISA a 32 bits y
permite que más de una CPU comparta
el bus. EISA es compatible con ISA.

2.- PCI (PERIPHERAL COMPONENT INTERCONNECT)

Se trata de un bus estándar para conectar dispositivos
periféricos directamente a la mainboard.
Desplazó al bus ISA de la mayoría de las PC"s.
Entre sus principales características podemos notar:

  • Ruta de datos más ancha.

  • El bus PCI proporciona un ancho de bus de 32 bits o 64
    bits. Conteniendo un espacio de dirección de 32 bits
    (4 GB)

  • Alta Velocidad

  • El bus PCI permite configuración dinámica de
    un dispositivo periférico.

3.- AGP (ACCELERATED GRAPHICS PORT)

Creado por Intel en 1996 como solución a los cuellos de
botella que se producían en las tarjetas gráficas que usaban el bus PCI. Solo se
puede conectar un dispositivo en este puerto mientras que en el
bus PCI se pueden conectar varios.

El puerto AGP se utiliza exclusivamente para conectar tarjetas de
video y debido a su arquitectura sólo puede haber una
ranura en cada mainboard. Dicha ranura mide unos 8 cm. y se
encuentra a un lado de las ranuras PCI. Entre sus principales
características tenemos:

  • El bus AGP es de 32 bit como PCI.

  • Tiene 8 canales más para acceso a la memoria RAM.
    Además puede acceder directamente a esta a
    través del NorthBrigde pudiendo emular así
    memoria de vídeo en la RAM.

  • La velocidad del bus es de 66 MHz.

  • El bus AGP cuenta con diferentes modos de
    funcionamiento:

  • AGP 1X: velocidad 66 MHz con una tasa de transferencia de
    264 MB/s y funcionando a un voltaje de 3,3V.

  • AGP 2X: velocidad 133 MHz con una tasa de transferencia de
    528 MB/s y funcionando a un voltaje de 3,3V.

  • AGP 4X: velocidad 266 MHz con una tasa de transferencia de
    1 GB/s y funcionando a un voltaje de 3,3 o 1,5V para
    adaptarse a los diseños de las tarjetas
    gráficas.

  • AGP 8X: velocidad 533 MHz con una tasa de transferencia de
    2 GB/s y funcionando a un voltaje de 0,7V o 1,5V.

Ya no se desarrollan mejoras sobre el puerto AGP, pues esta
siendo reemplazado por el bus PCI-Express.

PCI-EXPRESS

PCI-Express es un nuevo desarrollo del
bus PCI que usa los conceptos de programación y los estándares de
comunicación existentes, pero se basa en un
sistema de
comunicación mucho más rápida.

Es una evolución de PCI, en la que se consigue
aumentar el ancho de banda mediante el incremento de la
frecuencia llegando a ser 32 veces más rápido que
el PCI 2.1.

PCI-Express se creó para ser usado sólo como bus
local. Debido a que se basa en el bus PCI las tarjetas actuales
pueden ser reconvertidas a PCI-Express cambiando solamente la
capa física. La
velocidad superior del PCI-Express permitirá reemplazar a
casi todos los demás buses.

4.- UNIDAD CENTRAL DE PROCESAMIENTO (CPU)

El CPU o Unidad Central de Proceso es la
unidad donde se ejecutan las instrucciones de los programas y se
controla el funcionamiento de los distintos componentes del
computador, es
un microchip con una alta escala de
integración, es decir, que aloja millones
de transistores en
su interior. Se dice que si la mainboard es el sistema nervioso
de la
computadora, el procesador o correctamente llamado CPU, es el
cerebro.

Suele estar integrada en un chip denominado microprocesador.
Sin el la computadora no
podría funcionar. 

El CPU gestiona cada paso en el proceso de los datos.
Actúa como el conductor de supervisión de los componentes de hardware del sistema.

El CPU está compuesto por: registros, la
unidad de control, la
unidad aritmético-lógica,
y dependiendo del procesador, una unidad de coma flotante.

Cada fabricante de microprocesadores
tiene sus propias familias de productos y
cada familia su propio
conjunto de instrucciones.

El microprocesador realiza en varias fases de ejecución
la realización de cada instrucción:

  • Lee la instrucción desde la memoria
    principal.

  • Decodifica la instrucción, es decir,
    determinar qué instrucción es y por tanto
    qué se debe hacer.

  • Realiza la operación
    correspondiente.

  • Ejecuta la operación.

  • Escribe los resultados en la memoria
    principal o en los registros.

Cada una de estas fases se realiza en uno o varios ciclos de
CPU dependiendo de la estructura del
procesador. La duración de estos ciclos viene determinada
por la frecuencia de reloj, y nunca podrá ser inferior al
tiempo
requerido para realizar la tarea individual (realizada en un solo
ciclo) de mayor coste temporal.

El microprocesador dispone de un oscilador o cristal de cuarzo
capaz de generar pulsos a un ritmo constante de modo que genera
varios ciclos (o pulsos) en un segundo.

Para determinar las diferentes capacidades que tienen los
procesadores se pueden evaluar algunas características de
ellos, por ejemplo:

1.- VELOCIDADES DEL CPU

Trabaja en frecuencias de Megahercios (MHz) o Gigahercios
(GHz), lo que quiere decir millones o miles de millones,
respectivamente, de ciclos por segundo. El indicador de la
frecuencia de un microprocesador es un buen referente de la
velocidad de proceso del mismo, pero no el único.

La cantidad de instrucciones necesarias para llevar a cabo una
tarea concreta, así como la cantidad de instrucciones
ejecutadas por ciclo son los otros dos factores que determinan la
velocidad de la CPU. La cantidad de instrucciones necesarias para
realizar una tarea depende directamente del juego de
instrucciones disponible.

2.- BUS DE DATOS

Esta es otra de las formas de medir la capacidad que tiene un
procesador. Como ya lo explicamos en la sección anterior,
un bus es un conjunto de conductos que permiten la transferencia
de datos. El ancho del bus de datos determina la cantidad de
señales
o datos que puede transmitir al mismo tiempo. Cuanto mayor sea el
número de líneas, mayor será la capacidad
del procesador.

3.- BUS DE DIRECCIONES

Este es otro parámetro muy usado para la medición de los procesadores. Al igual que
el bus de datos, el bus de direcciones es un conjunto de canales
cuyo número indica la cantidad de direcciones de memoria a la que
el procesador puede acceder.

4.- REGISTROS INTERNOS

Los registros internos de un procesador es un indicador de
qué tanta información puede manejar el procesador de
manera simultánea.

5.- MEMORIA:

  • Este es uno de los componentes principales y que es
    más sensible a los cambios en su estándar
    comercial. A lo largo de la historia, han sido muchos los
    esfuerzos para mejorar su performance y su capacidad de
    almacenamiento. Los avances en el software y en las demandas
    de video han exigido que las memorias siempre estén un
    paso adelante de estas necesidades.

  • La memoria o memoria RAM como es comunmente conocida se
    clasifica en :

  • SIMM.

  • DIMM

  • DDR / DDR2

  • SO-DIMM

  • RIMM

Adicionalmente existen dos memorias
más que son las PC CARD para PC portátiles y la
Stick Memory o USB drive,
pero no serán consideradas en esta sección.

Esta pequeña clasificación reune a los tipos de
memoria más conocidos y que se encuentran aún
en vigencia. Las diferencias entre ellos radican en el
número de contactos, en su capacidad de almacenamiento y
en su velocidad de acceso.

Además existe una clasificación por velocidad de
acceso la cual se describe en el Cuadro 1:

TIPO

AÑO

VELOCIDAD RELOJ (Mhz)

FPM

1990

25

EDO

1994

40

SDRAM

1996

66

SDRAM

1998

100

SDRAM

1999

133

RDRAM

1999

400

RDRAM

2003

533

DDR SDRAM

2001

100

DDR SDRAM

2001

133

DDR SDRAM

2002

166

DDR SDRAM

2004

200

DDR2

2004

200

DDR2

2005

333

Cuadro 1

Podemos decir que en la actualidad las memorias DDR2 son las
más rápidas alcanzando 400 Mhz. A esta importante
característica se añade su bajo consumo de
energía y por consiguiente su baja producción de calor.

6.- FUENTE DE PODER

Este es tal vez uno de los componentes menos considerados por
los usuarios de PC. Sin embargo, cumple una función
muy importante al suministrar de la energía
eléctrica necesaria para el funcionamiento del
sistema. La fuente de
poder recibe la corriente
eléctrica alterna desde la línea pública
y la transforma en continua. Debido a que muchos componentes de
la PC funcionan a 3 / 5 v. y otros a 12 v.

La fuente de poder se debe
encargar del suministro de ambos voltajes.

A pesar que el ámbito de las fuentes de
poder puede estar inclinado hacia el campo de la electricidad y no
de la informática, existen algunos criterios que
si son de interés
del presente trabajo como
el de las formas que las fuentes adquieren. En el Cuadro 2 se
hace un resumen de éstos:

NOMBRE

DESCRIPCION

AÑO DE APARICION

PC/XT/AT

Usado en placas con procesador 286. En
desuso en la actualidad.

1984

BABY AT/LPX

Alcanzó gran popularidad entre 1985
y 1995. Tenía los mismos conectores que el AT, pero
era de menor tamaño.

1985

ATX/NLX

Se suprimió el conector del monitor.
Primer estándar.

1995

MINI ATX / MICRO-ATX/SFX

Más pequeño que el ATX, no
cuenta con suministro de 5v.

1996

WTX

Desarrollado por Intel. Destinado al uso de
servidores.

1998

ATX12V

Más reciente estándar con
suministro de 12 v.

2000

Cuadro 2

Componentes de
entrada y salida

DISPOSITIVOS DE
ENTRADA:

1.- MOUSE

El mouse es un
periférico, generalmente fabricado en plástico,
utilizado como dispositivo de entrada de datos y de control. En
los programas relacionados con el diseño
y entornos operativos gráficos el mouse permite utilizar el
software de forma
más sencilla y rápida que si se realizara con el
teclado. Sin
embargo, el software pone a disposición todas sus funciones siempre
accesibles desde el teclado de manera que sea el usuario quien
voluntariamente escoja el periférico que le resulte
más cómodo.

TIPOS DE MAUSE:

Mouse mecánico:

Un mouse mecánico tiene una gran bola en su fondo y
esta bola conduce dos ruedas internas, una para cada eje
coordenado, que generan pulsos en respuesta al movimiento del
mouse.

La circuitería dentro del mouse cuenta los pulsos
generados por las ruedas internas y manda información
sobre los movimientos del mouse al computador. Ésta es
procesada en el controlador del sistema operativo
correspondiente.

Mouse óptico:

Es una variante de mouse que carece de bola de goma con lo que
se consigue evitar el frecuente problema de la acumulación
de suciedad en el eje de transmisión y por sus
características ópticas es mucho menos propenso a
sufrir este inconveniente. Se considera uno de los mouse
más modernos y prácticos.

Mouse láser:

Este tipo de mouse es mucho más sensible que el mouse
óptico haciéndolo ideal para los diseñadores
gráficos y los fanáticos de los juegos por
computadora. En vez de utilizar el sistema de refracción y
el halo de luz roja que
utilizan los ópticos, tiene un motor de captura
de movimiento a base de un láser que es invisible al ojo
humano.

Otro tipo de clasificación es por la
conexión que tiene los mouse con la PC.

Mouse con cables:

Hoy en día se puede conseguir un mouse con cable a
precios
sumamente módicos lo que hace de éste el más
popular. Sin embargo, también se puede conseguir un mouse
con cable de altas prestaciones;
por ejemplo, un mouse láser. Los hay de todos los tipos.
Vienen con uno de 2 tipos de conectores posibles en la
actualidad: Puerto USB y puerto PS/2. Aún existen
versiones del mouse que se conectan por puerto Serial,
pero son poco comunes.

Mouse inalámbrico:

Es un mouse que se usa sin cables de comunicación entre
el computador y el mouse. Al usarlo, se requiere de un punto de
concentración de la señal inalámbrica
producida por el mouse. A este punto se le llama receptor y
normalmente se conecta al computador por un puerto USB, aunque se
le puede colocar un adaptador para que se conecte por el puerto
PS/2.

Existen dos tipos importantes de mouse
inalámbricos:

  • Radio Frecuencia (RF) Es el tipo más común y
    económico. Funciona enviando una señal a una
    frecuencia de 2.4Ghz, la misma que utilizan muchos
    teléfonos inalámbricos y las tecnologías
    inalámbricas IEEE 802.11b y IEEE 802.11g. No sufre de
    muchas desconexiones ni interferencias de los otros equipos
    en su misma frecuencia y tiene un rango aceptable de 3m.

  • Infrarrojo (IR) Éste utiliza la tecnología
    de transmisión de datos por señal infrarroja la
    misma que utilizan teléfonos móviles/celulares,
    los controles remotos de nuestros televisores y equipos de
    sonido. El rango de alcance es bastante inferior que el de
    radio frecuencia. También tienen el inconveniente de
    tener que mantener una línea visual directa e
    ininterrumpida entre el mouse y el receptor de la
    señal.

  • Bluetooth (Bt) Utiliza el relativamente nuevo
    estándar de transmisión inalámbrica
    Bluetooth, el mismo que utilizan los auriculares
    inalámbricos de los teléfonos
    celulares/móviles. El rango es de 10 metros.

2.- TECLADO:

Un teclado es un periférico utilizado para la introducción de órdenes y datos en
un computador. Existen distintas disposiciones de teclado, para
que se puedan utilizar en diversos idiomas.

Se han sugerido distintas alternativas a la disposición
de teclado indicando ventajas tales como mayores velocidades de
tecleado. La alternativa más famosa es el Teclado
Simplificado Dvorak.

La disposición de las teclas se remonta a las primeras
máquinas de escribir. Aquellas
máquinas eran enteramente mecánicas. Al pulsar una
letra en el teclado se movía un pequeño martillo
mecánico que golpeaba el papel a través de una
cinta impregnada en tinta. Al escribir con varios dedos de forma
rápida, los martillos no tenían tiempo de volver a
su sitio antes de que se moviesen los siguientes, de forma que se
atoraban unos contra otros. Para que esto ocurriese lo menos
posible se hizo una distribución de las letras de forma
contraria a lo que hubiese sido lógico con base en la
frecuencia con la que cada letra aparecía en un texto. De esta
manera la pulsación era más lenta y los martillos
se atoraban menos veces.

Cuando aparecieron las máquinas de escribir
eléctricas y después los computadores, con sus
teclados también eléctricos, se consideró
seriamente modificar la distribución de las letras en los
teclados, colocando las letras más corrientes en la zona
central. El nuevo teclado ya estaba diseñado y los
fabricantes preparados para iniciar la fabricación. Sin
embargo, el proyecto se
canceló debido al temor de que los usuarios tuvieran
excesivas incomodidades para habituarse al nuevo teclado, y que
ello perjudicara la introducción de los computadores
personales, que por aquel entonces se encontraban en pleno
auge.

El primer teclado apareció en 1981 y tenía 83
teclas, luego en 1984 apareció el teclado PC/AT con 84
teclas (una más al lado de SHIFT IZQ).

En 1987 IBM desarrolló el MF-II (Multifunción II
o teclado extendido) a partir del AT. Sus características
son que usa el mismo interfaz que el AT. Añade muchas
teclas más, se ponen leds y soporta el Scan Code set 3,
aunque usa por defecto el 2. De este tipo hay dos versiones, la
americana con 101 teclas y la europea con 102. Los teclados PS/2
son básicamente iguales a los MF-II. Las únicas
diferencias son el conector (mini-DIN de 6 pin) más
pequeño que el AT y más comandos, pero
la
comunicación es la misma, usan el protocolo AT.
Incluso los ratones PS/2 usan el mismo protocolo.

Actualmente la denominación AT ó PS/2
sólo se refiere al conector porque hay una gran diversidad
de ellos.

Un teclado está realizado mediante un microcontrolador,
normalmente de las familias 8048 u 8051 de Intel. Estos microcontroladores ejecutan sus propios programas
que están grabados en sus respectivas ROMs internas. Estos
programas realizan la exploración matricial de las teclas
para determinar cuales están pulsadas.

Por cada pulsación o liberación de una tecla el
microcontrolador envía un código
identificativo que se llama Scan Code. Para permitir que varias
teclas sean pulsadas simultáneamente, el teclado genera un
código diferente cuando una tecla se pulsa y cuando dicha
tecla se libera.

La comunicación del teclado es vía serial,
aunque las tecnologías inalámbricas explicadas en
la sección de mouse también son extensibles a estos
dispositivos.

DISPOSITIVOS DE SALIDA:

1.- MONITOR:

El monitor es el componente más evidente cuando se
habla de una computadora. En los primeros años de las PC,
las computadoras
no contaban con un sistema de comunicación visual con el
usuario, en su lugar las luces parpadeantes que indicaban el
procesamiento de los datos y una máquina de escribir que
imprimía el resultado hacían ver lo que era capaz
de hacer una PC.

Hoy en día los días en que prácticamente
todo nuestro escritorio era ocupado por un monitor han quedado
atrás con la aparición de los monitores LCD
que cuentan con la misma tecnología que los
monitores de laptop. Hoy en día existen monitores desde
14" hasta 21-22" muy recomendables para trabajos de edición
fotográfica o para los fanáticos de los juegos de
video.

2.- TARJETA DE
VIDEO:

Es una tarjeta de ampliación o un conjunto de chips
incorporados en una placa para poder visualizar texto y
gráficos en el monitor de un computador. La también
incluye un conector físico para el cable del monitor.

Una característica importante de una tarjeta de video
es su resolución y la cantidad de colores que
ésta puede soportar. La resolución es una medida de
la cantidad de puntos horizontales y verticales que se pueden
dibujar en una pantalla. Su notación es: 640 x 480, por
citar la resolución más básica. Esto quiere
decir 640 píxeles de ancho y 480 píxeles de alto,
siempre con referencia a la pantalla. Las tarjetas de video
cuentan con una pequeña memoria integrada que
determinará la cantidad de colores y la resolución
que podrá manejar.

El Cuadro 3 muestra un
resumen de las diferentes resoluciones disponibles en el mercado:

TIPO DE TARJETA

RESOLUCIÓN

COLORES SOPORTADOS

CGA

Hasta 640 x 200

Hasta 4 ( resol. 300×200)

EGA

640 x 350

16

VGA

640 x 480

256

SVGA

2048 x 1536

16 millones

Cuadro 3

Unidades de
almacenamiento

1.- DISQUETERA:

Es un dispositivo que poco a poco va quedando obsoleto y es
utilizado para leer y grabar información en un
disquete. 

2.- LECTORAS DE CD
ROM:

Los CD-ROM son
leídos por una lectora de CD-ROM y escritos por grabadoras
de CD (a menudo llamadas "quemadoras"). Los lectores CD-ROM puede
ser conectados a la computadora por la interfase IDE (ATA), por
una interfaz SCSI o a través del puerto USB. La
mayoría de los lectores de CD-ROM leen CD de audio y CD de
vídeo (VCD) con el software apropiado.

3.- LECTORAS DE DVD:

Los lectores de DVD-ROM también leen los DVD-Video y
los formatos en CD, como CD-ROM, CD-R, CD-RW y CDs de Video. Para
que pueda leer los DVD y CD las lectoras contienen en su parte
interna un ojo óptico en la cual lee el formato de unos y
ceros con la que se encuentran grabados estos tipos de CD"s.

4.- EL DISCO
DURO:

Se llama disco duro (en inglés hard disk, abreviado con
frecuencia HD o HDD) al dispositivo encargado de almacenar
información de forma persistente en un computador. Los
discos duros
generalmente utilizan un sistema de grabación
magnética analógica. El disco aloja dentro de una
carcasa una serie de platos metálicos apilados girando a
gran velocidad. Sobre estos platos se sitúan los cabezales
encargados de leer o escribir los impulsos magnéticos. Hay
distintos estándares a la hora de comunicar un disco duro
con el sistema. Los más utilizados son IDE/ATA, SCSI,
Ultra ATA y Serial ATA. Dada la importancia y complejidad de los
discos duros explicaremos brevemente algunas
características de este dispositivo.

1.- ESTRUCTURA FÍSICA DEL DISCO DURO:

Dentro de un disco duro hay varios platos (entre 2 y 4), que
son discos (de aluminio o
cristal) concéntricos y que giran todos a la vez.

El cabezal de lectura y
escritura es
un conjunto de brazos alineados verticalmente que se mueven hacia
dentro o fuera según convenga, todos a la vez. En la punta
de dichos brazos están las cabezas de lectura/escritura,
que gracias al movimiento del cabezal pueden leer tanto zonas
interiores como exteriores del disco. Cada plato tiene dos caras,
y es necesaria una cabeza de lectura/escritura para cada cara (no
es una cabeza por plato, sino una por cara). Si se mira el
esquema Cilindro-Cabeza-Sector (más abajo), a primera
vista se ven 4 brazos, uno para cada plato. En realidad, cada uno
de los brazos es doble, y contiene 2 cabezas: una para leer la
cara superior del plato, y otra para leer la cara inferior. Por
tanto, hay 8 cabezas para leer 4 platos.

Las cabezas de lectura/escritura nunca tocan el disco, sino
que pasan muy cerca (hasta a 3 nanómetros). Si alguna
llega a tocarlo, causaría muchos daños en el disco,
debido a lo rápido que giran los platos (uno de 7.200
revoluciones por minuto se mueve a 120 Km/h en el borde).

2.- ESTRUCTURA LÓGICA DEL DISCO DURO:

Dentro del disco se encuentran:

  • El Master Boot Record (en el sector de arranque), que
    contiene la tabla de particiones.

  • Las particiones, necesarias para poder colocar los
    sistemas de ficheros

CARÁCTERISTICAS DEL DISCO DURO:

Las características que se deben tener en cuenta en un
disco duro son:

Tiempo medio de acceso:

Tiempo medio que tarda en situarse la aguja en el cilindro
deseado; suele ser aproximadamente un 1/3 del tiempo que tarda en
ir desde el centro al exterior o viceversa.

Tiempo de Giro:

Tiempo que tarda el disco en girar media vuelta, que equivale
al promedio del tiempo de acceso (tiempo medio de acceso). Una
vez que la aguja del disco duro se sitúa en el cilindro el
disco debe girar hasta que el dato se sitúe bajo la
cabeza; el tiempo en que esto ocurre es, en promedio, el tiempo
que tarda el disco en dar medio giro; por este motivo la latencia
es diferente a la velocidad de giro, pero es aproximadamente
proporcional a esta.

Tasa de transferencia:

Velocidad a la que puede transferir la información al
computador. Puede ser velocidad sostenida o de pico.

Caché de pista:

Es una memoria de estado
sólido, tipo RAM, dentro del
disco duro de estado sólido. Los discos duros de estado
sólido utilizan cierto tipo de memorias construidas con
semiconductores para almacenar la
información. El uso de esta clase de
discos generalmente se limita a las supercomputadoras, por su
elevado precio.

5. – USB DRIVE O FLASH DRIVE:

Este dispositivo es de reciente aparición y se esta
convirtiendo rápidamente en un medio de almacenamiento muy
utilizado por el público, pues tiene una gran portabilidad
y un bajo costo. Esta
tecnología aprovecha la gran estandarización con
que cuentan los puertos USB generalmente incluido en todas las
mainboard. Además, casi no existe sistema operativo que no
le brinde soporte. Su dimensiones muy pequeñas hacen que
no solo sea utilizado para el almacenamiento de datos sino
también como reproductores de música y video.

Clasificación de las
computadoras

Las computadoras de uso general vienen en muchos
tamaños y capacidades. Estos términos existentes
desde hace mucho tiempo, pero sus capacidades han cambiado. Los
términos son: supercomputadora, macrocomputadora,
minicomputadora, estación de trabajo y computadora
personal.
Veamos sólo algunas características de cada
clasificación

1.- MACROCOMPUTADORA:

– Son grandes, rápidas y bastante costosas.

– Permiten que cientos de terminales puedan compartir grandes
bases centrales de datos.

– Terminal – computadora que no tiene su propio CPU o
almacenamiento, es sólo un dispositivo de entrada/salida
que se conecta a otra computadora localizada en otra parte.

– Las utilizan las empresas privadas
u oficinas de gobierno para
tener centralizado el almacenamiento, procesamiento y la
administración de grandes cantidades de
información.

2.- SUPERCOMPUTADORA:

– Constituyen el tipo más grande, rápido y
costoso de estos aparatos.

– Usan su gran poder de procesamiento en la solución de
problemas
complejos.

– Su velocidad impresionante puede llegar a la de billones de
instrucciones por segundo.

– Generan una gran cantidad de calor.

– Pueden costar de millones en adelante.

– Consume gran cantidad de energía
eléctrica.

3.- MICROCOMPUTADORA:

– Vienen en todas formas y tamaños.

– Se encuentran en oficinas, salones de clase y hogares.

– Cuestan generalmente desde $1,000 en adelante.

Enseguida se dará una explicación de cada una de
las anteriores para especifica sus orígenes, desarrollo
futuro, algunos ejemplos y los usos de cada una de ellas.

4.- MINICOMPUTADORAS:

– Son algo mayores que las micros.

– Se utilizan para tareas específicas.

– Cuestan miles

– Conservan algunas características de "mainframe".

– Maneja tareas de procesamiento para usuarios
múltiples.

5.- ESTACIONES DE TRABAJO:

– Está entre las mini y las macro.

– Es una computadora personal

– Las estaciones de trabajo tienen casi la misma capacidad que
las microcomputadoras, pero generalmente es usada por una sola
persona.

MACROCOMPUTADORAS

La macrocomputadora es un sistema de aplicación general
cuya característica principal es el hecho de que el CPU es
el centro de casi todas las actividades de procesamiento
secundario.

Por lo general cuenta con varias unidades de disco para
procesar y almacenar grandes cantidades de información. El
CPU actúa como arbitro de todas las solicitudes y controla
el acceso a todos los archivos, lo
mismo hace con las operaciones de
Entrada / Salida cuando se preparan salidas impresas o
efímeras. El usuario se dirige a la computadora central de
la
organización cuando requiere apoyo de
procesamiento.

De mayor tamaño en uso común es el
macrocomputador. Las macrocomputadoras o también llamados
mainframes están diseñadas para manejar grandes
cantidades de entrada, salida y almacenamiento.

Tomemos como ejemplo el Departamento de Vehículos
Automotores (DMV) de California. Esta agencia estatal mantiene
oficinas en cada ciudad importante en California, cada una de las
cuales tiene muchos empleados que trabajan con terminales de
computadora.

Una terminal que es una especie de computadora que no tiene su
propio CPU o almacenamiento; es sólo un dispositivo de
entrada y salida que actúa como una ventana hacia otra
computadora localizada en alguna parte. Todas las terminales en
las oficinas del DMV de California están conectadas a una
base de datos
común en la capital del
estado. La base de datos está controlada por una
computadora mainframe que puede manejar las necesidades de
entrada y salida de todas las terminales conectadas a ella. Cada
usuario tiene acceso continuo a los registros de manejo e
información administrativa de cada conductor con licencia
y vehículo del estado (literalmente millones de
registros). El manejo de este volumen de
accesos de usuarios sería imposible en sistemas
más pequeños.

Las computadoras mainframe de hoy generalmente cuestan desde
$120,000 hasta varios millones de dólares. Era usual que
las computadoras mainframe ocuparan cuartos completos o incluso
pisos enteros de edificios. Generalmente eran colocadas dentro de
oficinas con vidrios sellados y aire
acondicionado especial para mantenerlas a una temperatura
baja, y sobre pisos falsos para ocultar todos los cables
necesarios para las conexiones de la máquina.

Este tipo de instalación ya no es muy utilizada. Hoy en
día, una computadora mainframe común se ve como una
hilera sencilla de grandes archiveros, aunque puede seguir
requiriendo de un ambiente
controlado.

Orígenes

Nadie sabe realmente dónde se originó el
término mainframe. Algunos viejos documentos de IBM
definen explícitamente el término "frame" como una
parte integral de una computadora: "el bastidor… estructuras de
soporte de hardware… y todas las partes y componentes que
contiene". Sólo podemos especular que cuando empezaron a
aparecer computadoras de todos los tamaños y formas en los
ambientes de cómputo, se referían a la computadora
grande como el "mainframe" (el bastidor principal), como en el
término "the main computer" (la computadora principal).
Eventualmente el término se acortó a una palabra
"mainframe". Desarrollos futuros

La "BLUE GENE", esa macrocomputadora que podrá realizar
operaciones billonarias en segundos para descifrar los 3
millardos de letras químicas que integran el genoma humano
o "mapa de la vida", representa un desafió y un logro de
la inteligencia
jamás imaginado.

Ciertamente que la tentación del conocer y del saber no
tiene límites en
el ser humano, y ello, de suyo nos ha diferenciado de las
especies animales
inferiores. Y, en teoría,
tal capacidad para desbordar en el afán por descubrir y
también para poner nuestros descubrimientos al servicio de la
vida –e incluso de la muerte
debería llevarnos hacia una valorización más
acabada del sentido último de nuestra esencia y de nuestra
propia existencia. Lamentablemente no es así.

En la medida en que el hombre se
percata de la realidad de ese "ser" que somos, expresada en la
magnitud casi sobrenatural de sus logros, igualmente olvida que
los límites de su libertad
terrena sólo puede fijarlos él y que esa libertad
de actuar y de hacer -a partir de un "punto" X- puede revertirse
contra la propia libertad y la existencia humanas.

La reflexión al respecto es crucial y oportuna. El
logro del genoma humano es el producto de
una alquimia entre la biología, la química y la cibernética. Pero avanzamos sin cesar hacia
el saber de la causa material última que todo lo explica,
en otras palabras, nos movemos hacia el secreto humano de la
vida, sin detenernos un instante para preguntarnos acerca del
¿porqué? y sobretodo del ¿para qué?
de tan maravillosa travesía.

El genoma y su disección detallada contribuirán
a un amplio desarrollo de la medicina
predictiva y ayudarán a resolver a tiempo numerosas
enfermedades que
hoy aquejan al Hombre y de no
mediar una consideración ética
proporcional sobre lo que hoy hacemos y sobre lo que,
además, hará por nosotros en un futuro inmediato
"BLUE GENE", quizá lleguemos a la convicción de que
como humanos somos tan "producibles" y "prescindibles" como las
salchichas que adquirimos en un automercado.

Y en dicho momento, sin lugar a dudas, no sólo podremos
clonar o duplicar a hombres y a mujeres, en sus
características genéticas: realidad ya en cierne;
lo que es peor, cuando estorbemos –exceso de trabajadores,
crecimiento de comensales, límites de vivienda o espacio
habitable- probablemente se nos podrá enviar como basura hacia el
depósito de androides reciclables o, de ser el caso, al de
los desperdicios. Téngase presente, sólo a manera
de ejemplo, que el muy actual debate sobre
la pena de muerte
para los delincuentes –que angustia moralmente incluso a no
pocos de sus partidarios- pasarían a ser, durante la era
de BLUE GENE, una verdadera trivialidad. ! Lo que sería
bastante grave ¡

De alguna forma los mainframes son más poderosos que
las supercomputadoras porque soportan más programas
simultáneamente. Pero las supercomputadoras pueden
ejecutar un solo programa
más rápido que un mainframe.

En el pasado, los Mainframes ocupaban cuartos completos o
hasta pisos enteros de algún edificio, hoy en día,
un Mainframe es parecido a una hilera de archiveros en
algún cuarto con piso falso, esto para ocultar los cientos
de cables de los periféricos, y su temperatura tiene que
estar controlada.

Aplicaciones El CPU actúa como árbitro de todas
las solicitudes y controla el acceso a todos los archivos, lo
mismo hace con las operaciones de Entrada/Salida cuando se
preparan salidas impresas o efímeras.

El usuario se dirige a la computadora central de la organización cuando requiere apoyo de
procesamiento.

– El CPU es el centro de procesamiento

– Diseñadas para sistemas multiusuario

S U P E R C O M P U T A D O R A

Es una computadora de gran capacidad, tremendamente
rápida y de coste elevado, utilizada en cálculos
complejos o tareas muy especiales. Normalmente se trata de una
máquina capaz de distribuir el procesamiento de
instrucciones y que puede utilizar instrucciones vectoriales. Las
supercomputadoras se usan, por ejemplo, para hacer el enorme
número de cálculos que se necesitan para dibujar y
animar una nave espacial, o para crear un dinosaurio en
movimiento para una película.

También se utilizan para hacer las previsiones
meteorológicas, para construir modelos
científicos a gran escala y en los cálculos de las
prospecciones petrolíferas.

Orígenes

Charles J. Murray [1] menciona cómo después de
una rara presentación pública en el Centro de
Investigación Atmosférica en
Boulder, Colorado (E.E.U.U.) en 1976, Seymour Cray se
ofreció a responder preguntas de la audiencia. Sin
embargo, los asistentes, que eran en su mayoría
programadores de las supercomputadoras que él había
diseñado, se quedaron completamente callados durante
varios largos minutos. Tras haberse marchado Cray, el director de
la división de cómputo del centro de
investigación en cuestión reprimió a sus
programadores. "¿Por qué nadie alzó la
mano?", espetó.

Después de un momento de tensión, un programador
se atrevió a replicar tímidamente:
"¿Cómo se le habla a Dios?". Esa era la forma en
que los programadores y los diseñadores de computadoras de
todo el mundo veían en aquel entonces a Cray. Y tal vez
esa visión, por extrema que parezca, tenía algo de
sentido. Después de todo, Cray había logrado
construir con sus propias manos las computadoras más
rápidas sobre la Tierra. El
"ingeniero supremo" como lo llamaban sus admiradores,
había revolucionado la industria de
las computadoras, haciendo temblar a gigantes como Control Data
Corporation y la misma IBM, que no pudieron superar sus "cosas
simples y tontas", que era como él llamaba a sus
diseños tan radicales y eficientes. La primera
supercomputadora

Cray quería construir una computadora de transistores,
ya que pensaba que los bulbos eran una tecnología
obsoleta, y su primer problema fue conseguir dinero para
comprarlos, pues la situación financiera de CDC era muy
endeble. Acudió a una tienda de Radio Shack y
pidió los transistores más baratos que
tenían, y empezó a trabajar con ellos. Pronto
descubrió que sus características eléctricas
eran tremendamente inconsistentes, pero no tuvo más
remedio que diseñar un circuito que fuera muy tolerante a
errores para compensar estos defectos de fabricación.
Posteriormente, se hizo de más transistores mediante el
artilugio de invitar a distribuidores de partes
electrónicas a CDC, con la excusa de que comprarían
grandes lotes de transistores y que querían ver
cuáles les convenían más. En su afán
por lograr una buena venta, los
representantes de las compañías no sólo les
regalaban varios transistores de muestra, sino que además
solían invitar a los ingenieros de CDC a comer. Pese a
todas sus carencias, Cray construyó la CDC 1604 que se
puso a la venta en 1960. Con ello, se comenzó a forjar la
leyenda del ingeniero de sólo 35 años de edad que
había construído la computadora más
rápida del mundo usando transistores defectuosos. Esta
máquina no sólo le dio fama a CDC, sino
también mucho dinero.

Esto trajo consigo más administradores y una mayor
burocracia que
nuevamente hastió a Cray. Entonces un día
decidió pedirle a Norris que reubicara su laboratorio a
150 kilómetros de Minneapolis, en su pueblo natal,
Chippewa Falls, pues necesitaba tranquilidad y quietud para sus
nuevos proyectos. De tal
forma, Cray partió con un puñado de ingenieros con
el plan de
diseñar la CDC 6600, que sería 50 veces más
rápida que la CDC 1604. Utilizando transistores de
silicio, disminuyendo la cantidad de alambre de los circuitos e
introduciendo un innovador sistema de refrigeración usando freón para
compensar por la gran cantidad de calor generada en su unidad
central de proceso, la CDC 6600 fue introducida en 1963, con una
capacidad para realizar 3 millones de operaciones por segundo,
muy por arriba de la máquina líder
de aquella época, la IBM 7094. En un memo interno de IBM
escrito por Thomas Watson que se filtró a la prensa, el
presidente de la gigantesca compañía
reprendió fuertemente a sus empleados por haber perdido el
liderazgo en
el mercado ante "un equipo formado por sólo 34 personas
incluyendo al que hace la limpieza". La fama de Cray se fue a las
nubes, y la CDC 6600 se volvió tan importante que el
gobierno de los Estados Unidos
comenzó incluso a regular su venta al extranjero, para no
poner en riesgo su
supremacía tecnológica.

Tras completar la CDC 7600 (una máquina 4 veces
más rápida que la 6600), el proyecto de Cray era
construir la CDC 8600. Hacia 1972, el proyecto hubo de ser
abandonado, pues la CDC decidió que estaba absorbiendo
demasiados recursos y que no
sería suficientemente redituable. Fue entonces cuando Cray
decidió abandonar CDC tomando a 5 ingenieros con él
para formar su propia empresa: Cray
Research (CR). Su siguiente proyecto era la CRAY-1, una
supercomputadora que usaría circuitos
integrados. El único problema era que no tenían
mucho dinero disponible y que no se veía de dónde
podrían obtener más. En un alarde de osadía,
Cray envió a John Rollwagen (su único administrador) a
Nueva York a obtener dinero de inversionistas interesados en
una empresa
que no había completado todavía su primer producto,
el cual costaría $8.8 millones de dólares, y del
que habían no más de 80 clientes
potenciales. Contra todos los pronósticos, CR logró reunir $10
millones de dólares con lo cual pudo concluirse la CRAY-1
en marzo de 1976. Sin embargo, su éxito
tecnológico tuvo costos
personales, y Cray se divorció de Verene en 1975. Un
año después conoció a Geri M. Harrand, con
quien contraería nupcias más tarde. Fue en esta
época que comenzó a realizar más actividades
fuera de su trabajo. Aprendió a esquiar, y empezó a
viajar con frecuencia.

El proyecto de la CRAY-2, como era de esperarse, era sumamente
ambicioso. Cray pensaba utilizar los indomables chips de
arseniuro de galio para construir una máquina al menos 5
veces más rápida que la CRAY-1. Sin embargo, sus
múltiples problemas técnicos lo convencieron de
retornar a los chips de silicio y terminó la
máquina en 1985. Usando 4 procesadores, la CRAY-2
resultó ser de 6 a 12 veces más rápida que
la CRAY-1, pero a pesar de eso sólo 27 unidades se
lograron vender (la mitad que las que se vendieron de la CRAY-1).
Además, debido a sus numerosos retrasos, la
compañía había decidido apoyar a otro
genio naciente
llamado Steve Chen, que los salvó de la bancarrota con el
modelo CRAY
X-MP, que era como una CRAY-1½. Eventualmente, Rollwagen
se vio forzado a elegir entre Chen y Cray para mantener a la
compañía a flote, y decidió optar por el
primero. Cray abandonó CR en 1989 para iniciar Cray
Computer Corporation, la cual se daría a la tarea de
construir la CRAY-3 (que usaría arseniuro de galio) con
recursos provenientes en su mayor parte de CR, mientras al mismo
tiempo se patrocinaba la CRAY Y-MP que Chen estaba
construyendo.

Pronto la empresa se vio
en problemas financieros, y en su afán por recortar
gastos acabaron
por perder a Chen y a Cray. El primero formó su propia
empresa: Supercomputer Systems, la cual gozó de un fugaz
éxito para luego desaparecer. A Cray le tomó 3
años y $300 millones de dólares convencerse que la
CRAY-3 no podía construirse. Sin inmutarse, empezó
a trabajar inmediatamente en la CRAY-4, una máquina que
tendría 64 procesadores y que correría a 1
Gigahertz de velocidad. Pero sus sueños se vieron cortados
de tajo al no poder obtener $20 millones de dólares
más para su empresa, y en marzo de 1995 hubo de declararse
en bancarrota.

Como siempre, todo esto le afectó muy poco, y en agosto
de 1996 formó una nueva empresa llamada SRC Computers,
pero debido a su tradicional hermetismo con la prensa, poco pudo
saberse de sus planes futuros, excepto que intentaría
producir la CRAY-5.

Desarrollo futuro

Las supercomputadoras son una herramienta de apoyo importante
para las ciencias, dada
su alta capacidad para realizar modelos de simulación
y cálculos complejos. En la región sólo
Brasil cuenta
con una máquina de este tipo, que en los países
desarrollados es muy utilizada por los centros de
investigación. Con CLEMENTINA 2 se sienta además,
una base para el desarrollo de Internet 2 en la
Argentina, una vía de alta velocidad para usos
científicos y académicos

La supercomputadora CLEMENTINA 2. es una herramienta, de uso
intensivo en los países desarrollados, que
permitirá a los científicos y tecnólogos de
la Argentina disponer de un recurso vital para las investigaciones
que enfrentan necesidades de cómputos de alta complejidad
y precisión.

Por otra parte, un significativo porcentaje de investigaciones
científicas y desarrollos tecnológicos requieren la
utilización de una herramienta de alta performance capaz
de ejecutar procesamientos en paralelo. El paralelismo es,
precisamente, la característica distintiva de la
supercomputadora, según definen los profesionales que
trabajaron en el diseño de CLEMENTINA 2.

La supercomputadora facilitará además el
abordaje de problemas nuevos o de mayor complejidad y
facilitará el desarrollo de tecnología de punta: a
mediano plazo, su aplicación ayudará a mejorar la
competitividad
científico-tecnológica de la Argentina sobre todo
en el Mercosur. En la
región, sólo existe una supercomputadora en Brasil,
por lo que un centro que ofrezca tecnología de avanzada
tendrá influencia no solamente en la Argentina sino en
otros países del continente. Disponer de un centro
informático de estas características facilita el
proceso numérico y permite la simulación de
problemas científicos, industriales, ambientales o
sociales en modelos complejos, difíciles de abordar desde
los mecanismos convencionales.

Para la comunidad
científica argentina, que hasta hoy no poseía un
acceso sencillo a este tipo de herramientas,
contar con CLEMENTINA 2 tendrá consecuencias a largo
alcance, ya sea por el eventual cambio de
enfoque en las metodologías de investigación o el
abordaje de nuevos planteos.

Entre los objetivos
propuestos por la Secretaría de Ciencia,
Tecnología e Innovación Productiva con el proyecto
CLEMENTINA 2 están:

Potenciar proyectos de
investigación y desarrollo y de interacción con la industria de la
Argentina y el Mercosur.

Contribuir a la formación de recursos
humanos en técnicas
de supercomputación y sus aplicaciones.

Promover su uso en la educación
superior de postgrado.

Además, conectada con instituciones
de investigación científica y
desarrollo tecnológico a través de enlaces, la
supercomputadora facilitará:

La promoción de la
investigación básica y aplicada.

La transferencia tecnológica.

La incorporación como usuarios del centro a las
empresas de desarrollo tecnológico productivo para que
mejoren la calidad de sus
productos.

En el curso de la presentación, se realizaron
videocoferencias con Estados Unidos y Resistencia
(Chaco), además de demostraciones sobre aplicaciones en
Telemedicina,
imágenes Satelital, Logística y Modelos de Procesamiento.

¿Una supercomputadora por 1.000 dólares? (IDG)
— Dentro de 18 meses y por sólo 1.000 dólares
podrá tener en su escritorio el equivalente actual a una
supercomputadora. La unidad de proceso central (CPU), elemento
clave en los ordenadores personales de hoy, podría ser un
componente innecesario en las computadoras de alto rendimiento
del mañana.

La nueva máquina será capaz de procesar 100.000
millones de instrucciones por segundo, según Kent Gilson,
técnico de la empresa Star Bridge Systems. Representantes
de la compañía debatieron esta semana sus planes
para una nueva computadora personal de altas prestaciones,
mientras anunciaban la HAL-300GrW1, una "hipercomputadora" que se
dice es 60.000 veces más rápida que un procesador
Pentium a 350
megahertzios, y varias veces más veloz que la Pacific
Blue, la supercomputadora de IBM (la prueba utilizada para medir
el desempeño de HAL fue diferente a la
empleada para probar la Pacific Blue, por lo que es
difícil comparar los dos aparatos).

El nuevo ordenador de 1.000 dólares cumplirá
muchas de las funciones de una supercomputadora, como
reconocimiento de voz, lenguaje
natural de procesamiento y presentaciones holográficas,
añadió. Además, Gilson dice, este
super-ordenador "podrá utilizar aplicaciones de PC con un
emulador". Y además de todo esto ahora es posible tener
una supercomputadora en casa

Ejemplo Un ejemplo de estas computadoras puede ser la
Supercomputadora Cray

La supercomputadora Cray-1 (diseñada por Seymour Cray
de Cray Research, de Eagan, Minnesota, EEUU) fue la primera capaz
de ejecutar más de 100 millones de operaciones de coma
flotante por segundo.

Entre los numerosos problemas tecnológicos que hubo que
resolver, uno de los más importantes fue eliminar el calor
generado por la alta velocidad de las operaciones
lógicas.

Esto se consiguió montando los circuitos sobre placas
verticales enfriadas mediante un sistema basado en gas freón.
Aunque en la actualidad ya se han construido máquinas
más rápidas, la Cray-1 sigue utilizándose
para estudios matemáticos de problemas muy complejos,
como por ejemplo el análisis del habla, la previsión
climatológica e interrogantes básicos en
física y química.

Además, la Cray-1 se utiliza como unidad de medida
informal para las supercomputadoras más nuevas, algunas de
las cuales se proyectan ahora para ser equivalentes a 1.000
crays. Dale E. Boyer/Photo Researchers, Inc.

Aplicaciones:

Así mismo son las más caras, sus precios
alcanzan los 30 MILLONES de dólares y más; y
cuentan con un control de temperatura especial, ésto para
disipar el calor que algunos componentes alcanzan a tener. Unos
ejemplos de tareas a las que son expuestas las supercomputadoras
son los siguientes:

1. Búsqueda y estudio de la energía y armas
nucleares.

2. Búsqueda de yacimientos petrolíferos con
grandes bases de datos sísmicos.

3. El estudio y predicción de tornados.

4. El estudio y predicción del clima de
cualquier parte del mundo.

5. La elaboración de maquetas y proyectos de la
creación de aviones, simuladores de vuelo.

M I C R O C O M P U T A D O R A

Es un dispositivo de computación de sobremesa o portátil,
que utiliza un microprocesador como su unidad central de
procesamiento o CPU.

Los microordenadores más comunes son las computadoras u
ordenadores personales, PC, computadoras domésticas,
computadoras para la pequeña empresa o micros. Las
más pequeñas y compactas se denominan laptops o
portátiles e incluso palm tops por caber en la palma de la
mano. Cuando los microordenadores aparecieron por primera vez, se
consideraban equipos para un solo usuario, y sólo eran
capaces de procesar cuatro, ocho o 16 bits de información
a la vez. Con el paso del tiempo, la distinción entre
microcomputadoras y grandes computadoras corporativas o mainframe
(así como los sistemas corporativos de menor tamaño
denominados minicomputadoras) ha perdido vigencia, ya que los
nuevos modelos de microordenadores han aumentado la velocidad y
capacidad de procesamiento de
datos de sus CPUs a niveles de 32 bits y múltiples
usuarios.

Los microordenadores están diseñados para uso
doméstico, didáctico y funciones de oficina. En casa
pueden servir como herramienta para la gestión
doméstica (cálculo de
impuestos,
almacenamiento de recetas) y como equipo de diversión
(juegos de computadora, catálogos de discos y libros). Los
escolares pueden utilizarlos para hacer sus deberes y, de hecho,
muchas escuelas públicas utilizan ya estos dispositivos
para cursos de aprendizaje
programado independiente y cultura
informática. Las pequeñas empresas pueden adquirir
microcomputadoras para el procesamiento de textos, para la
contabilidad y
el almacenamiento y gestión de correo
electrónico.

Desde su lanzamiento al mercado, hace unos 20 años, los
sistemas informáticos de escritorio han sido adoptados por
numerosas empresas. Los ordenadores o computadoras también
son útiles a la investigación y compilación
de proyectos estudiantiles, y numerosos centros docentes han
incorporado hoy estas máquinas al proceso de aprendizaje.
Una de las principales ventajas de las computadoras es la
cantidad de información que ofrecen mediante la
conexión en red a una gran variedad de
bases de
datos.

Los gráficos que estudian estos alumnos representan una
de las numerosas opciones y posibilidades que ofrece el software
educativo.

– Pequeñas

– de bajo costo

– múltiples aplicaciones.

O R Í G E N E S

El desarrollo de las microcomputadoras fue posible gracias a
dos innovaciones tecnológicas en el campo de la
microelectrónica: el circuito integrado, también
llamado IC (acrónimo de Integrated Circuit), que fue
desarrollado en 1959, y el microprocesador que apareció
por primera vez en 1971. El IC permite la miniaturización
de los circuitos de memoria de la computadora y el
microprocesador redujo el tamaño de la CPU al de una sola
pastilla o chip de silicio.

El hecho de que la CPU calcule, realice operaciones
lógicas, contenga instrucciones de operación y
administre los flujos de información favoreció el
desarrollo de sistemas independientes que funcionaran como
microordenadores completos.

El primer sistema de sobremesa de tales
características, diseñado específicamente
para uso personal, fue presentado en 1974 por Micro
Instrumentation Telemetry Systems (MITS).

El editor de una revista de
divulgación tecnológica

ESTACIONES DE TRABAJO O WORKSTATIONS

Las estaciones de trabajo se encuentran entre las
minicomputadoras y las macrocomputadoras (por el procesamiento).
Las estaciones de trabajo son un tipo de computadoras que se
utilizan para aplicaciones que requieran de poder de procesam
iento moderado y relativamente capacidades de gráficos de
alta calidad. Son usadas para:

Estaciones de red Son dispositivos de cómputo
diseñados para operar como estaciones de usuario, por lo
general configurados sin disco duro y con capacidades de
procesamiento independientes del servidor. Para
programas y almacenamiento de datos, dependen por lo general de
un servidor y de estar conectadas a una red.

Estaciones de trabajo (Workstations) Son dispositivos de
cómputo diseñados para realizar trabajos y procesos
más complejos y pesados que los que podrían
realizarse en una PC. Por su naturaleza, se
encuentran conectados a una red.

Desarrollo hacia el futuro

SGI presenta la nueva familia de estaciones de trabajo Silicon
Graphics® 230, Silicon Graphics® 330 y Silicon
Graphics® 550 para sistemas
operativos Microsoft®
Windows
NT® y Linux.

Los nuevos sistemas están basados en procesadores Intel
Pentium III e Intel Pentium III Xeon y certificados para los
sistemas
operativos Microsoft® Windows
NT® 4.0 y Red Hat® 6.1.

Las workstations Silicon Graphics® 230, Silicon
Graphics® 330 y Silicon Graphics® 550 aceleran las
funciones gráficas OpenGL®,
permitiendo a los usuarios obtener mayor realismo en
los modelos 3D.

Estas características son esenciales para aquellos
profesionales que trabajan sobre Windows NT y están
disponibles también, y por primera vez, para usuarios
Linux.

"Los clientes no son todos iguales. Algunos necesitan la
simplicidad y fácil acceso a diferentes aplicaciones que
ofrece Windows NT, otros quieren la confiabilidad y el bajo costo
de Linux, mientras hay quienes requieren de la increíble
escalabilidad de nuestros productos IRIX," dijo Greg Goelz,
vicepresidente de la división de workstations y servidores
basados en arquitectura Intel para SGI.

"Sin importar sus requerimientos particulares, nuestros
clientes concuerdan en la necesidad de sistemas con capacidades
gráficas, expertise y soporte como solo SGI puede ofrecer"
Las nuevas workstations fueron diseñadas teniendo en
cuenta las demandantes necesidades de profesionales
técnicos y creativos de las áreas de
generación de contenidos digitales, diseño por
computadora, gobierno, medicina e investigación
científica.

La primera workstation Linux optimizada para gráficos
Este anuncio significa la introducción de la primera
estación de trabajo de la compañía para
usuarios Linux, y es la primer workstation de la industria
diseñada para acelerar gráficos 3D OpenGL sobre SO
Linux.

"Los nuevos sistemas SGI proveen una excelente plataforma
tanto para aquellos profesionales que trabajan en ambientes
Windows NT como en Linux," dijo Tom Copeland, vicepresidente de
workstations y sistemas de alta performance para IDC.

"Adicionalmente, la implementación optimizada de OpenGL
para Linux provee un ambiente excelente para desarrolladores de
nuevas aplicaciones para Linux.

"Expansión hacia nuevos mercados La
workstation Silicon Graphics 230, ofrece capacidades
gráficas a una amplia base de usuarios y a precios
realmente competitivos. Beneficios de la nueva familia de
workstations SGI Performance de Sistema.

Las workstations están disponibles en configuraciones
de uno o dos procesadores Intel Pentium III o Pentium III Xeon,
front-side bus de 133 Mhz, hasta 2 GB de memoria y hasta 90 GB de
espacio en disco interno.

Performance Gráfica. La compañía ofrece
los gráficos VPro en sus estaciones de trabajo Windows y
Linux. Estos gráficos, sobre las estaciones de trabajo
Silicon Graphics 230, 330 y 550, ofrecen hasta 64 MB de memoria
gráfica DDR (double data rate) de alta velocidad.

Los sistemas ofrecen, asimismo, performance geométrica
sobre 17 millones de triángulos* por segundo y hasta 540
megapíxeles por segundo, permitiendo obtener mayor
realismo e interactividad en modelos 3D.

Capacidad de expansión. SGI ha diseñado el
sistema para adaptarse a las necesidades actuales y futuras de
los profesionales técnicos y creativos. Los sistemas
pueden ser expandidos para ofrecer hasta 90 GB de espacio en
disco, capacidad crítica
para quienes trabajan con archivos extensos.

Adicionalmente, los sistemas han sido diseñados de
manera tal de poder sacar provecho de avances
tecnológicos futuros en lo que a gráficos y
capacidad de procesamiento se refiere. Flexibilidad. La nueva
familia de workstations viene con sistema operativo Windows o
Linux preinstalado, así como también sin sistema
operativo.

Los canales de
distribución y partners de SGI podrán
configurar y customizar los sistemas dependiendo de los
requerimientos específicos. La Silicon Graphics 230 ya
está disponible; las Silicon Graphics 330 y 550
estarán disponibles para mediados de este año.
*Geometry performance based on 5 pixel, smooth shaded, Z-buffered
triangles.

Ejemplo RS/6000 43P MODELO 140 SERVIDOR O ESTACIONES DE
TRABAJO DESCRIPCION GENERAL:

El modelo 43P 140 tiene un procesador a 166 Mhz ó a
200Mhz PowerPC 604e soportando una gran variedad de
gráficos de 2D y 3D ofreciendo excelentes gráficos
con el mejor precio y rendimiento. Este soporta adaptadores de
comunicación asíncronos de alta velocidad Ethernet.

Una selección
de veloces procesadores, múltiples sistemas operativos, y
robustas características hacen de este modelo una buena
inversión tanto estaciones de trabajo
cliente como en
servidores de trabajo en grupo.

CONFIGURACION BASICA:

Procesador PowerPC 604e

Uniprocesador

166Mhz/200Mhz

32MB/768MB en memoria

Memoria de datos/instrucciones de 32KB

Memoria cache de 512KB L2 de 64 bit

6 slots de memoria

3 bus PCI, 2 PCI/ISA

2.1GB en discos hasta 13.3GB

Hasta 291GB en disco externo SCSI.

POSICIONAMIENTO

El modelo 140 esta en el nivel de rango medio para estaciones
de trabajo en la plataforma RS/6000 al igual que servidores de
trabajo en grupo. Este modelo es de la línea de productos
43P y los siguientes modelos podr n ser reemplazados por los
nuevos modelos de la 43P. El modelo 140 puede satisfacer los
requerimientos si necesita tener sistema 4XX Con la
configuración base agresiva en precio, funcionalidad
adicional y un rango extenso en gráficos 2D y 3D el modelo
140 provee alto rendimiento sobre todos los modelos 43P.

Aplicaciones de ingeniería

CAD (Diseño asistido por computadora)

CAM (manufactura
asistida por computadora)

Publicidad

Creación de Software:

En redes, la palabra
"workstation" o "estación de trabajo" se utiliza para
referirse a cualquier computadora que está conectada a una
red de área local.

MINICOMPUTADORA

Miniordenador o Minicomputadora, un ordenador o computadora de
nivel medio diseñada para realizar cálculos
complejos y gestionar eficientemente una gran cantidad de
entradas y salidas de usuarios conectados a través de un
terminal. Normalmente, los miniordenadores se conectan mediante
una red con otras minicomputadoras, y distribuyen los procesos
entre todos los equipos conectados. Las minicomputadoras se
utilizan con frecuencia en aplicaciones transaccionales y como
interfaces entre sistemas de mainframe y redes de área
extensa.

El primer miniordenador fue lanzado al mercado por Digital
Equipment Corp. en 1959; era el PDP-1. A continuación,
otras empresas como Hewlett-Packard, Data General, Wang, Tandem y
Datapoint, entre otras, lanzaron sistemas similares.

Actualmente, el término miniordenador se sustituye con
frecuencia por el de servidor, como elemento central de una red
de medianas dimensiones a la que se conectan ordenadores
personales —hasta varios centenares de usuarios.

Las máquinas de capacidad inferior a los
miniordenadores, pero mayor que los ordenadores personales
(microordenadores), que se utilizan de forma asilada o conectados
a una red, se denominan Workstations (estaciones de
trabajo) y se emplean, habitualmente, para aplicaciones
científicas y CAD. Con el aumento de la capacidad de
proceso de los ordenadores personales, el término
Workstation ha perdido parte de su significado
distintivo.

Influencia de la
tecnología en la evolución de la arquitectura de
las PC

La ciencia y la tecnología evolucionan a pasos
agigantados. La revolución
científico-tecnológica de las últimas
décadas significo una espectacular transformación
de las ideas básicas de la denominada "ciencia
convencional".Si el siglo XVIII dio lugar a la "primera revolución
industrial", producto de la cibernética que
culminó cuando en el año 1944 Howard Aiken creo el
primer ordenador electrónico. Dicho invento
modificó sustancialmente el tratamiento de toda la
información de datos, lo que sin duda ha provocado una
verdadera eclosión científica que viene dando
indudables frutos a toda la humanidad.

"La informática es una disciplina que
incluye diversas técnicas y actividades relacionadas con
el tratamiento automático y lógico de la
información".Esta disciplina conoce en nuestros
días, un enorme desarrollo gracias a las computadoras,
pues tienen gran capacidad de memoria y el acceso a los datos e
informaciones se realiza de manera sencilla y rápida.La
revolución producida por la computadora en el saber humano
proviene de la concentración de conocimientos que puede
memorizar, la elaboración que de ellos pueden hacer
(procesamiento), y de la complejidad de los estudios y tareas que
puede realizar mediante instrucciones programadas. Además,
contribuye a que el saber, tan disperso en el mundo, tienda a ser
más accesible para los interesados
(telecomunicación e informática = telemática = transmisión de
informaciones a distancia entre equipos
informáticos).Haciendo un esbozo historiográfico
durante la segunda guerra
mundial, se desarrollo una imponente maquina calculadora en
la universidad de
pennsylvania, bautizada con el nombre de ENIAC (Electronic
numerical integrator and calculator), pesaba 30 toneladas,
ocupaba una superficie de mas de 200 m2, su existencia se
debió a la necesidad de calcular las tablas de disparos de
los proyectiles que implicaban una enorme cantidad de operaciones
aritméticas.La evolución de las computadoras se
tiende a dividir en generaciones, teniendo en cuenta desarrollos
tecnológicos que las hacen más eficaces, en cuanto
a su velocidad y cantidad de operaciones a realizar; más
moda por su
tamaño y sencillez en su utilización y más
inteligentes, con relación a las tareas que puedan llegar
a cumplir, así tenemos:

Primera generación: año 40, con válvulas
(circuitos con tubos al vació) Segunda generación:
año 54, reemplazo de las válvulas por transistores.
(Mucho más pequeños, no generan calor y menor
costo)

Tercera generación: año 60, reemplazo de
transistores por circuitos integrados (llamados chips construidos
sobre cilicio; menor costo, tamaño y tiempo de
operación)

Cuarta generación: año 70, circuitos integrados
en gran escala. Quinta generación: año 80, Mejora a
la anterior, teniendo como características
trascendentales:

Aparece el microprocesador, el cual permite la
introducción de más transistores en un solo
chip.

  • Reconocimiento de voz.

  • Reconocimiento de formas graficas.

  • Utilización de software para aplicaciones
    especificas.

Dentro de esta generación se encuentran la 8080,
8086,8088, 80286, 80386, 486 y Pentium.

Sexta generación: Futuro, en esta generación se
emplearán microcircuitos con inteligencia, en donde las
computadoras tendrán la capacidad de aprender, asociar,
deducir y tomar decisiones para la resolución de un
problema. Es llamada "Generación de Inteligencia
Artificial".

Para entender el surgimiento del fenómeno Internet, urge recordar los
tensos días vividos durante la década del 60. El
panorama internacional era un cóctel verdaderamente
explosivo: Estados Unidos y la entonces Unión de
Repúblicas Socialistas Soviéticas (U.R.S.S.)
estaban enfrentados disputando una carrera armamentista que los
llevó a contar con poderosas (y numerosas) armas de
destrucción masiva. En este contexto de tensión y
de miedo a una guerra
nuclear, aunque difícil de creer, vio la luz la primera
idea de lo que hoy es Internet. Los militares norteamericanos
sintieron la necesidad de crear una red informática capaz
de mantener en contacto los centros militares. Para lograr esto,
la red debería ser descentralizada, es decir, debía
establecer un método
para que ante la destrucción de cualquiera de los trozos
de la red (contemplando la posibilidad de un ataque nuclear), la
información pudiera encontrar más de un camino
alternativo para transportar los datos.

La primera experiencia tuvo lugar en septiembre de 1969 en
manos de la DARPA (Defense Advanced Research Project Agency),
nombre que recibía el departamento del gobierno de Estados
Unidos dedicado al desarrollo de proyectos para la defensa
nacional. Con la colaboración de profesores y alumnos
avanzados en las universidades más importantes del
país (a diferencia de lo que ocurre en América
Latina, las fuerzas armadas y los académicos tienen
una larga historia de
cooperación en los Estados Unidos), el organismo
logró conectar cuatro centros de cómputos: el
primero ubicado en la Universidad de California en Los Ángeles
(UCLA), el segundo en la Universidad de California en Santa
Bárbara, el tercero en el Centro de Investigaciones de
Stanford y el cuarto en la Universidad de Nevada. Por primera vez
en la historia, estas computadoras ubicadas en distintos puntos
del país pudieron "hablar" entre sí. Pero las cosas
no quedaron ahí.Para que la red se pudiera extender era
necesario establecer un lenguaje común que establezca las
reglas de juego para que las computadoras técnicamente
diferentes (con distinto hardware y software), se pudieran sumar
al proyecto sin problemas de compatibilidad. La idea de un
lenguaje capaz de ser entendido y hablado por diferentes
computadoras se vio plasmada en un protocolo llamado NCP (Network
Communications Protocol). Paralelamente al desarrollo de ARPANET
se fueron creando otras redes como la BITNET, USENET y FidoNET. A
diferencia de ARPANET, que tenía como finalidad sobrevivir
a la Guerra Fría, estas redes eran experimentos cuyo
objetivo era
probar tecnología para la transmisión de mensajes.
Pero cada una de estas redes tenía su propio lenguaje o
protocolo; por lo tanto, no podía establecer
comunicación con las otras. Con el tiempo, el protocolo
NCP utilizado por ARPANET fue evolucionando hasta llegar al
TCP/IP
(Transmission Control Protocol / Internet Protocol). El
TCP/IP es el
protocolo estándar utilizado hasta el momento y permite
que una PC con Windows ubicada en Usuahia, Argentina, se pueda
comunicar con una iMac en Caracas (Venezuela) y
con una Silicon Graphics en Guadalajara (México).

El surgimiento de este protocolo llevó a las redes
independientes a sumarse a ARPANET. El proyecto original de
ARPANET pasó entonces a ser el "backbone" o columna
vertebral de un conjunto de redes en distintos lugares y el
concepto de
Internet tal como lo conocemos hoy, había nacido. En 1973,
ARPANET traspasó las fronteras cuando se realizó el
primer enlace entre las redes de Estados Unidos y otras similares
en Inglaterra y
Noruega. Así fue como de a poco se pasó de una red
exclusivamente militar a otra más constructiva cuando se
unieron a ARPANET centros de investigación y universidades
de diversos lugares. Estas instituciones podían dar a
conocer sus descubrimientos en forma rápida y sencilla. En
1990 ARPANET fue reemplazada por, una red auspiciada por la
Fundación Nacional de Ciencias de Estados Unidos (NSF),
llamada NFSNET. La gente de la NSF estableció las bases
técnicas para que esa red, hasta entonces privilegio de
investigadores y militares, tuviera los días contados.

Bibliografía

  • www.google.com.pe

  • www.monografias.com

  • www.arquitecturas.com

  • www.yahoo.es

  • www.elrincondelvago.com

  • la Biblia de la computación

  • enciclopedia de base de datos

  • Encarta 2009

  • Microsoft student 2009

 

 

 

Autor:

Milthon Fernando Lobo Zumaeta

Partes: 1, 2
 Página anterior Volver al principio del trabajoPágina siguiente 

Nota al lector: es posible que esta página no contenga todos los componentes del trabajo original (pies de página, avanzadas formulas matemáticas, esquemas o tablas complejas, etc.). Recuerde que para ver el trabajo en su versión original completa, puede descargarlo desde el menú superior.

Todos los documentos disponibles en este sitio expresan los puntos de vista de sus respectivos autores y no de Monografias.com. El objetivo de Monografias.com es poner el conocimiento a disposición de toda su comunidad. Queda bajo la responsabilidad de cada lector el eventual uso que se le de a esta información. Asimismo, es obligatoria la cita del autor del contenido y de Monografias.com como fuentes de información.

Categorias
Newsletter