Monografias.com > Sin categoría
Descargar Imprimir Comentar Ver trabajos relacionados

Mantenimiento y reparación de computadoras (página 2)




Enviado por ariel jaldin



Partes: 1, 2, 3

Pentium es una gama de microprocesadores de
arquitectura x86 desarrollados por Intel.El primer Pentium fue
lanzado el 22 de marzo de 1993 como sucesor del Intel 80486. Su
nombre clave es P54C.con velocidades iniciales de 60 y 66 MHz,
3.100.000 transistores, cache interno de 8 KB para datos y 8 KB
para instrucciones; sucediendo al procesador Intel 80486. Intel
no lo llamó 586 debido cuestiones de marketing.La
aparición de este procesador se llevó a cabo con un
movimiento económico impresionante, acabando con la
competencia, que hasta entonces producía procesadores
equivalentes, como es el 80386, el 80486 y sus variaciones o
incluso NPUs.Pentium 1 posee una arquitectura capaz de ejecutar
dos operaciones a la vez gracias a sus dos pipeline de datos de
32bits cada uno, uno equivalente al 486DX(u) y el otro
equivalente a 486SX(u). Además, poseía un bus de
datos de 64 bits, permitiendo un acceso a memoria 64 bits (aunque
el procesador seguía manteniendo compatibilidad de 32 bits
para las operaciones internas y los registros también eran
de 32 bits).

e) Pentium II

Microprocesador con arquitectura x86
diseñado por Intel, e introducido en el mercado el 7 de
mayo de 1997. Está basado en una versión modificada
del núcleo P6, usado por primera vez en el Intel Pentium
Pro.

Los cambios fundamentales respecto a éste último
fueron mejorar el rendimiento en la ejecución de
código de 16 bits, añadir el conjunto de
instrucciones MMX y eliminar la memoria caché de segundo
nivel del núcleo del procesador, colocándola en una
tarjeta de circuito impreso junto a éste.El Pentium II se
comercializó en versiones que funcionaban a una frecuencia
de reloj de entre 166 y 450 MHz. La velocidad de bus era
originalmente de 66 MHz, pero en las versiones a partir de los
333 MHz se aumentó a 100 MHz.

Poseía 32 KB de memoria caché de primer nivel
repartida en 16 KB para datos y otros 16 KB para instrucciones.
La caché de segundo nivel era de 512 KB y trabajaba a la
mitad de la frecuencia del procesador, al contrario que en el
Pentium Pro, que funcionaba a la misma frecuencia.

Como novedad respecto al resto de procesadores de la
época, el Pentium II se presentaba en un encapsulado SEC,
con forma de cartucho. El cambio de formato de encapsulado se
hizo para mejorar la disipación de calor. Este cartucho se
conecta a las placas base de los equipos mediante una ranura Slot
1.

f) Pentium III

Son unos procesadores prácticamente
iguales a los Pentium II, pero se diferencian de ellos en que
incorporan 70 nuevas instrucciones para "mejorar la experiencia
en Internet".

 LAS INSTRUCCIONES

Las nuevas instrucciones se han llamado
MMX-2, para referenciarlas como una extensión de las
viejas MMX. También KNI, ya que el procesador tenía
el nombre en clave de Katmai, de ahí a las Katmai New
Instructions (KNI), aunque parece ser que también se
referencian como SSE (que no tengo ni idea de que
significa).

El porqué de estas instrucciones es
muy simple. Para mejorar la experiencia multimedia, especialmente
la decodificación de películas en DVD (para lo que
era necesario disponer de una targeta decodificadora), la
velocidad en el procesamiento de imágenes 2D y 3D,
reconocimiento de voz…. Es decir Multimedia.

Estas 70 instrucciones las podemos dividir
en 3 grupos.

En el primero podemos incluir 8 nuevas
instrucciones que mejoran el acceso a memoria (para cachear
memoria, especialmente para manejar muchos datos, como en el
reconocimiento de voz o los vectores de datos 3D).

Existen 12 nuevas instrucciones
específicas para el multimedia, para tareas como optimizar
el proceso de datos de audio o para mejorar las representaciones
MPEG2. Estas instrucciones complementan a las 59 MMX ya
existentes.

Y por último, la estrella. Las 50
nuevas instrucciones para el manejo de datos en coma flotante.
Especiamente diseñadas para el proceso de datos
tridimensionales. Estas son las más parecidas a las 3DNow!
de AMD. Pueden producir hasta 4 resultados por ciclo de reloj
(como las 3DNow!), aunque estos resultados pueden ser 4 sumas, o
4 multiplicaciones, mientras que las 3DNow! tienen que combinar
suma i multiplicación para poder cumplir con sus 4
resultados.

Además, gracias a las nuevas
instrucciones, (al igual que ocurría con las 3DNow!)
podemos utilizar el modo MMX y la unidad de coma flotante sin ver
penalizado el rendimiento (en los primeros MMX y K6, si
utilizábamos MMX no podíamos hacer operaciones en
coma flotante y al revés).

Pero como siempre, no es oro todo lo que
reluce. Según varias personas, poseedoras de un pentium
III, con la utilización de estas nuevas
instrucciones, SE PIERDE CALIDAD en la imagen. Esto se hace
más visible en los juegos 3D, donde se puede apreciar
cierto granulado en las texturas. (como ocurría al
principio con la compresión de texturas de la Savage 3D,
aunque sin llegar a esos extremos). Tal vez esto sea la
contrapartida al eumento de velocidad.

 NUEVAS TECNOLOGÍAS

Pero no solo las nuevas instrucciones son
una novedad, también lo es (y es la principal ventaja) que
el procesador venga preparado para aceptar las últimas
tecnologías como pueden ser el AGPx4, la memoria Direct
Rambus o el estándar de conexión destinado a
sustituir al USB: el FireWire, así como ultra DMA 66 (que
sustituirá al ultra DMA 33 en breve) o el BUS a
133MHz.

Pero todas estas novedades tienen un
precio. Es necesario actualizar el Hardware. Los nuevos chipsets
de Intel que se llaman "Camino" y "Whitney" (gama alta, gama
baja) serán los únicos especialmente
diseñados para el nuevo procesador y los que podrán
soportar todas las nuevas características.

De momento, muchas de las placas BX del
mercado cumplen con la imprescindible característica de
soporte del BUS a 133MHz.

El porqué del BUS a 133MHz es muy
sencillo. Intel necesita un procesador potente, capaz de
plantarle cara al K7, y la única forma de hacerlo es
aumentando la velocidad del BUS (Recordemos que varios fabricntes
han presentado memorias que funcionan a 133MHz) para poder
aumentar la frecuencia del procesador. Esto es debido a que Intel
tiene problemas con la utilización de la memoria Direct
Rambus, i es la única forma que tienen de colocar un
procesador a 1GHz (133 * 8).

CARACTERÍSTICAS

Vamos a ver por encima las
características el procesador:

  • 32 KB de caché de primer
    nivel

  • 512 KB de caché de segundo
    nivel

  • BUS a 100/133MHz

  • 70 Nuevas instrucciones

  • ID (del que hablaremos más
    tarde)

Las características son
prácticamente idénticas a la de los Pentium II (que
pueden funcionar a 133 MHz sin problemas). Sin embargo, parece
ser que la caché de segundo nivel es un poco más
lenta para permitir velocidades superiores del
procesador.

 RENDIMIENTO

Según la propia Intel, comparando un
procesador Pentium II 450 con un pentium III 450 podemos
obener un aumento de rendimiento de un 74%, siempre que se trate
de aplicaciones especialmente diseñadas para el pentium
III, esa diferencia aumenta a un 93% si se trata de un
pentium III a 500.

También AMD ha comparado su nuevo
K6-III con el pentium III dando estos
resultados:

Monografias.com

Estos resultados los obtenemos sin ninguna
optimización por parte de ninguno de los 2 procesadores.
Observamos como el rendimiento del K6-III en entornos de trabajo
Windows es espectacular, mientras que los pentium III,
no funcionan más rápido que los pentium II, como
podeis observar aquí:

Monografias.com

El aumento de rendimiento sin las nuevas
instrucciones se debe únicamente a la velocidad a la que
trabaja el procesador. El incremento de rendimiento de un
pentiumIII 500 frente a un Pentium II 450 es de un 3'18%. (el
aumento de rendimiento de un Pentium II 400 a un 450 es de un
3'8%, bastante similar, solo aumentando 50MHz).

La principal novedad es la inclusión
de las nuevas instruciones, que son la única forma de
aumentar el rendimiento.

g) Pentium 4

Monografias.com

El Pentium 4 es un microprocesador basado en la
arquitectura x86 y fabricado por Intel. Es el primer
microprocesador con un diseño completamente nuevo desde el
Pentium Pro de 1995. El Pentium 4 original, denominado
Willamette, trabajaba a 1,4 y 1,5 GHz; y fue lanzado el 20 de
noviembre de 2000.[1] El 8 de agosto de 2008 se realiza el
último envío de Pentium 4,[2] siendo sustituido por
los Intel Core Duo

Para la sorpresa de la industria informática, la nueva
microarquitectura NetBurst del Pentium 4 no mejoró el
viejo diseño de la microarquitectura Intel P6 según
las dos tradicionales formas para medir el rendimiento: velocidad
en el proceso de enteros u operaciones de punto flotante. La
estrategia de Intel fue sacrificar el rendimiento de cada ciclo
para obtener a cambio mayor cantidad de ciclos por segundo y una
mejora en las instrucciones SSE. En 2004, se agregó el
conjunto de instrucciones x86-64 de 64 bits al tradicional set
x86 de 32 bits. Al igual que los Pentium II y Pentium III, el
Pentium 4 se comercializa en una versión para equipos de
bajo presupuesto (Celeron), y una orientada a servidores de gama
alta (Xeon).

Las nombres en código, a partir de la evolución
de las distintas versiones, son: Willamette (180
nanómetros), Northwood (130 nm), Gallatin (Extreme
Edition, también 130 nm), Prescott (90 nm) y Cedar Mill
(65 nm).

Las distintas versiones

Willamette

Willamette, la primera versión del Pentium 4,
sufrió de importantes demoras durante el diseño. De
hecho, muchos expertos aseguran que los primeros modelos de
1,3 ; 1,4 y 1,5 GHz fueron lanzados prematuramente para
evitar que se extienda demasiado el lapso de demora de los
Pentium 4. Además, los modelos más nuevos del AMD
Thunderbird tenían un rendimiento superior al Intel
Pentium III, pero la línea de producción se
encontraba al límite de su capacidad por el momento.
Fueron fabricados utilizando un proceso de 180 nm y utilizaban el
Socket 423 para conectarse a la placa base.

A la hora de los exámenes de rendimiento, los
Willamette fueron una decepción ya que no podían
superar claramente a los Thunderbird ni a los Pentium III de
mayor velocidad. Incluso la diferencia con la línea de
bajo costo AMD Duron no era significante. Vendió una
cantidad moderada de unidades.

En enero de 2001 un microprocesador más lento de 1,3
GHz fue añadido a la lista. En la primera mitad del mismo
año, salieron a la venta los modelos de 1,6, 1,7 y 1,8 GHz
notablemente superiores a los Pentium III. En agosto, los modelos
de 1,9 y 2,0 GHz vieron la luz (todavía con la inicial
tecnología de proceso de 0,18 micrones o 180
nanómetros).

El Willamette de 2,0 GHz fue el primer Pentium 4 que puso en
duda el liderazgo en rendimiento, que hasta ese momento estaba
liderado indiscutiblemente por la línea Thunderbird de
AMD. Si bien algunos resultados arrojaban una leve diferencia a
favor de AMD, los analistas concluyeron que la diferencia no era
significativa para decir que un procesador era claramente
superior al otro. Y salieron las primeras Placas con socket 478 y
nucleo Willamette. Esto fue un gran paso para Intel, que hasta la
salida del AMD Athlon había sido el rey de la velocidad en
los microprocesadores por 16 años en forma casi
ininterrumpida.

Northwood

En octubre de 2001, el Athlon XP reconquistó el
liderazgo en la velocidad de los procesadores, pero en enero de
2002 Intel lanzó al mercado los nuevos Northwood de 2,0 y
2,2 GHz. Esta nueva versión combina un incremento de 256 a
512 KB en la memoria caché con la transición a la
tecnología de producción de 130 nanómetros.
Al estar el microprocesador compuesto por transistores más
pequeños, podía alcanzar mayores velocidades y a la
vez consumir menos energía. El nuevo procesador funcionaba
con el Socket 478, el cual se había visto en los
últimos modelos de la serie Willamette.

Con la serie Northwood, los Pentium 4 alcanzaron su madurez.
La lucha por la cima del rendimiento se mantuvo reñida, a
medida que AMD introducía versiones más veloces del
Athlon XP. Sin embargo, la mayoría de los observadores
concluyeron que el Northwood más veloz siempre estaba
ligeramente por encima de los modelos de AMD. Esto se hizo
notorio cuando el paso de AMD a la manufactura de 130 nm fue
postergada.

Un Pentium 4 de 2,4 GHz fue introducido en abril de 2002, uno
de 2,53 GHz en mayo (cuya principal optimización fue que
incluyó un aumento del FSB de 100 a 133 MHz QDR, es decir,
de 400 a 533 MHz efectivos). En agosto vieron la luz los modelos
de 2,6 y 2,8 GHz, y en noviembre la versión de 3,06 GHz
(23×133 MHz QDR). Este último además soporta
HyperThreading, una tecnología originalmente aparecida en
los Intel Xeon que permite al sistema operativo trabajar con dos
procesadores lógicos (lo que, en ciertas condiciones
específicas, permite aproximarse al rendimiento
proporcionado por dos CPUs físicas propiamente dichas, o
por las actuales de doble núcleo).

En abril de 2003, Intel colocó en el mercado nuevas
variantes, entre los 2,4 y 3,0 GHz, cuya principal diferencia era
que todos ellos incluían la tecnología
HyperThreading y el FSB era de 800 MHz(200 MHz QDR).
Supuestamente esto era para competir con la línea Hammer
de AMD, pero inicialmente sólo salió a la luz la
serie Opteron, la cual no estaba destinada entonces a competir
directamente contra los Pentium 4 (debido a que los primeros
estaban dedicados al mercado corporativo, mientras que el segundo
al consumidor final). Por otro lado, los AMD Athlon XP, a pesar
de su FSB aumentado de 333 a 400 MHz y las velocidades más
altas no pudieron alcanzar a los nuevos Pentium 4 de 3,0 y 3,2
GHz. La versión final de los Northwood, de 3,4 GHz, fue
introducida a principios de 2004.

Gallatin (Extreme
Edition)

En septiembre de 2003, Intel anunció
la edición extrema (Extreme Edition) del Pentium
4, apenas sobre una semana antes del lanzamiento del Athlon 64, y
el Athlon 64 FX. El motivo del lanzamiento fue porque AMD
alcanzó en velocidad de nuevo a Intel, por ello fueron
apodados Emergency Edition. El diseño era idéntico
al Pentium 4 (hasta el punto de que funcionaría en las
mismas placas base), pero se diferenciaba por tener 2 MB
adicionales de memoria caché L3. Compartió la misma
tecnología Gallatin del Xeon MP, aunque con un Socket 478
(a diferencia del Socket 603 de los Xeon MP) y poseía un
FSB de 800MHz, dos veces más grande que el del Xeon MP.
Una versión para Socket LGA775 también fue
producida.

Mientras que Intel mantuvo que la Extreme
Edition estaba apuntada a los jugadores de videojuegos, algunos
tomaron esta nueva versión como un intento de desviar la
atención del lanzamiento de los AMD Athlon 64. Otros
criticaron a Intel por mezclar la línea Xeon
(especialmente orientada a servidores) con sus procesadores para
usuarios individuales, pero poco se criticó cuando AMD
hizo lo mismo con el Athlon 64 FX.

El efecto de la memoria adicional tuvo
resultados variados. En las aplicaciones de ofimática, la
demora ocasionada por el mayor tamaño de la memoria
caché hacía que los Extreme Edition fuesen menos
veloces que los Northwood. Sin embargo, el área donde se
destacó fue en la codificación multimedia, que
superaba con creces a la velocidad de los anteriores Pentium 4 y
a toda la línea de AMD. Poseen una velocidad de reloj de
3,73 GHz.

Prescott

A principios de febrero de 2004, Intel
introdujo una nueva versión de Pentium 4 denominada
'Prescott'. Primero se utilizó en su manufactura un
proceso de fabricación de 90 nm y luego se cambió a
65nm; además se hicieron significativos cambios en la
microarquitectura del microprocesador, por lo cual muchos
pensaron que Intel lo promocionaría como Pentium 5. A
pesar de que un Prescott funcionando a la misma velocidad que un
Northwood rinde menos, la renovada arquitectura del Prescott
permite alcanzar mayores velocidades y el overclock es más
viable. El modelo de 3,8 GHz(Solo para LGA775) es el más
veloz de los que hasta ahora han entrado en el
mercado.

Su diferencia con los anteriores es que
éstos poseen 1 MB o 2 MB de caché L2 y 16 KB de
caché L1 (el doble que los Northwood), Prevención
de Ejecución, SpeedStep, C1E State, un HyperThreading
mejorado, instrucciones SSE3, manejo de 64 bits, también
recibió unas mejoras en el sistema de predicción de
datos, y tiene un pipeline de 31 etapas, que por cierto, fue unos
de los mayores errores de dicho núcleo. Además, los
primeros Prescott producían un 60% más de calor que
un Northwood a la misma velocidad, y por ese motivo muchos lo
criticaron con dureza. Se experimentó con un cambio en el
tipo de zócalo (de Socket 478 a LGA 775) lo cual
incrementó en un 10% el consumo de energía del
microprocesador, pero al ser más efectivo el sistema de
refrigeración de este zócalo, la temperatura final
bajó algunos grados. En posteriores revisiones del
procesador los ingenieros de Intel esperaban reducir las
temperaturas, pero esto nunca ocurrió fuera salvo a bajas
velocidades. El procesador genera unos 130 W de calor, o TDP.

Finalmente, los problemas térmicos fueron tan severos,
que Intel decidió abandonar la arquitectura Prescott por
completo, y los intentos de hacer correr por encima de los 4 GHz
fueron abandonados, como un gasto inútil de recursos
internos. También lo concerniente a las críticas
mostradas en casos extremos de llevar al procesador Prescott a
los 5,2 GHz para emparejarlo al Athlon FX-55 que funcionaba a
2,6GHz.[3] Considerando una fanfarronada de Intel el lanzamiento
de la arquitectura Pentium 4 diseñada para operar a 10
GHz, esto puede ser visto como uno de los más
significativos, ciertamente el más público,
déficit de ingeniería en la historia de Intel.

Según se dice el Pentium M es ahora la referencia
interna para el equipo diseñadores de Intel, y el
desarrollo del P4 ha sido esencialmente abandonado. Hasta este
punto el pequeño equipo de diseño Israelí
que produce el Pentium M, tiene ahora que tomar otro proyecto
mucho más grande.

¿Por qué el fin de Prescott ha terminado en tal
desastre? Puede ser atribuido a las políticas internas de
Intel. El departamento de mercadotecnia quería siempre
velocidades de procesador más altas, para diferenciar sus
productos de AMD. Los procesadores se diseñaban por las
necesidades de mercadeo, en vez de las necesidades de la
arquitectura. Fueron carreras construidas sobre el concepto de la
velocidad del procesador, la terminación del proyecto P4
finalmente vino y tuvo consecuencias para muchos miembros del
equipo de dirección de la división.

Los Prescott con Socket LGA775 usan el nuevo sistema de
puntaje, y están clasificados en la serie 5XX. El
más rápido es el 570J, lanzado a comienzos de 2005
y que funciona a 3,8 GHz. Los planes para microprocesadores de 4
o más GHz fueron cancelados y se les dio prioridad a los
proyectos para fabricar procesadores dobles; en gran medida
debido a los problemas de consumo energía y
producción de calor de los modelos Prescott. El procesador
570J también fue el primero en introducir la
tecnología EDB, la cual es idéntica a la más
temprana NX de AMD. El objetivo es prevenir la ejecución
de algunos tipos de código maligno.

Doble procesador

Intel tiene planeadas cuatro variantes con
doble procesador del Pentium 4. La primera es denominada
Paxville, que consiste en poco más que dos procesadores
Prescott colocados en el mismo substrato. Le seguirá,
situándose el más básico de los Core2 Duo
(E6300, 1,86 GHz) por encima del más potente de los
Pentium D (965 EE, 3,73 GHz, 14×133 MHz QDR). Esto se debe a que
la microarquitectura Core 2 Duo es muy eficiente, realiza hasta
un 80% más trabajo por ciclo del reloj que la
antigua arquitectura NetBurst de los Pentium 4, superando en ese
indicador incluso al K8 (Athlon 64) de AMD por un margen de entre
el 20-25%.

DualCore y QuadCore

A principios de 2006, Intel presentó
sus últimos procesadores orientados a negocios,
diseño y juegos, con procesadores de dos y cuatro
núcleos y velocidades de 1,7; 1,8; 2,1; 2,4; 2,5; 2,66;
2,83; 3,0 y 3,2 GHz. Aunque los precios del procesador de 4
núcleos (QuadCore) aún son muy altos, es la muestra
clara de que Intel seguirá en el futuro incrementando los
núcleos del procesador para aumentar velocidad y
rendimiento multimedia. En mayo de 2007, mediante
televisión vía satélite, Intel
presentó un equipo que incluía un procesador de 8
núcleos que, según los informantes del evento, es
el prototipo de los procesadores Intel para 2010.

3.- Describa las generaciones de
desarrollo de computadoras

PRIMERA GENERACIÓN (1951 a
1958)

Las computadoras de la primera
Generación emplearon bulbos para procesar
información. Los operadores ingresaban los datos
y programas en
código especial por medio de tarjetas
perforadas. El almacenamiento interno se lograba con un tambor
que giraba rápidamente, sobre el cual un dispositivo de

lectura/escritura
colocaba marcas
magnéticas. Esas computadoras de bulbos eran mucho
más grandes y generaban más calor que los modelos
contemporáneos.

Eckert y Mauchly contribuyeron al
desarrollo de computadoras de la 1era Generación formando
una compañía privada y construyendo UNIVAC I, que
el Comité del censo utilizó para evaluar el censo
de 1950. La IBM tenía el monopolio de los equipos de
procesamiento de datos a base de tarjetas perforadas y estaba
teniendo un gran auge en productos como rebanadores de carne,
básculas para comestibles, relojes y otros
artículos; sin embargo no había logrado el contrato
para el Censo de 1950.

Monografias.com

Comenzó entonces a construir computadoras
electrónicas y su primera entrada fue con la IBM 701 en
1953. Después de un lento pero exitante comienzo la IBM
701 se conviertió en un producto comercialmente viable.
Sin embargo en 1954 fue introducido el modelo IBM 650, el cual es
la razón por la que IBM disfruta hoy de una gran parte del
mercado de las computadoras. La administración de la IBM
asumió un gran riesgo y estimó una venta de 50
computadoras. Este número era mayor que la cantidad de
computadoras instaladas en esa época en E.U. De hecho la
IBM instaló 1000 computadoras. El resto es historia.
Aunque caras y de uso limitado las computadoras fueron aceptadas
rápidamente por las Compañias privadas y de
Gobierno. A la mitad de los años 50 IBM y Remington Rand
se consolidaban como líderes en la fabricación de
computadoras.

SEGUNDA GENERACIÓN (1959-1964)

Transistor Compatibilidad Limitada

El invento del transistor hizo posible una nueva
Generación de computadoras, más rápidas,
más pequeñas y con menores necesidades de
ventilación. Sin embargo el costo seguía siendo una
porción significativa del presupuesto de una
Compañía. Las computadoras de la segunda
generación también utilizaban redes de
núcleos magnéticos en lugar de tambores giratorios
para el almacenamiento primario. Estos núcleos
contenían pequeños anillos de material
magnético, enlazados entre sí, en los cuales
podían almacenarse datos e instrucciones.

Monografias.com

Los programas de computadoras también
mejoraron. El COBOL (COmmon Busines Oriented Languaje)
desarrollado durante la 1era generación estaba ya
disponible comercialmente, este representa uno de os mas grandes
avances en cuanto a portabilidad de programas entre diferentes
computadoras; es decir, es uno de los primeros programas que se
pueden ejecutar en diversos equipos de computo después de
un sencillo procesamiento de compilación. Los programas
escritos para una computadora podían transferirse a otra
con un mínimo esfuerzo. Grace Murria Hooper (1906-1992),
quien en 1952 habia inventado el primer compilador fue una de las
principales figuras de CODASYL (Comité on Data SYstems
Languages), que se encago de desarrollar el proyecto COBOL El
escribir un programa ya no requería entender plenamente el
hardware de la computación. Las computadoras de la 2da
Generación eran sustancialmente más pequeñas
y rápidas que las de bulbos, y se usaban para nuevas
aplicaciones, como en los sistemas para reservación en
líneas aéreas, control de tráfico
aéreo y simulaciones para uso general. Las empresas
comenzaron a aplicar las computadoras a tareas de almacenamiento
de registros, como manejo de inventarios, nómina y
contabilidad.

La marina de E.U. utilizó las computadoras de la
Segunda Generación para crear el primer simulador de
vuelo. (Whirlwind I). HoneyWell se colocó como el primer
competidor durante la segunda generación de computadoras.
Burroughs, Univac, NCR, CDC, HoneyWell, los más grandes
competidores de IBM durante los 60s se conocieron como el grupo
BUNCH.

Algunas de las computadoras que se construyeron ya con
transistores fueron la IBM 1401, las Honeywell 800 y su serie
5000, UNIVAC M460, las IBM 7090 y 7094, NCR 315, las RCA 501 y
601, Control Data Corporation con su conocido modelo CDC16O4, y
muchas otras, que constituían un mercado de gran
competencia, en rápido crecimiento. En esta
generación se construyen las supercomputadoras Remington
Rand UNIVAC LARC, e IBM Stretch (1961).

TERCERA GENERACIÓN
(1964-1971)

Circuitos Integrados, Compatibilidad con
Equipo Mayor, Multiprogramación, Minicomputadora

.

Monografias.com

Las computadoras de la tercera
generación emergieron con el desarrollo de los circuitos
integrados (pastillas de silicio) en las cuales se colocan miles
de componentes electrónicos, en una integración en
miniatura. Las computadoras nuevamente se hicieron más
pequeñas, más rápidas, desprendían
menos calor y eran energéticamente más
eficientes.

El descubrimiento en 1958 del primer
Circuito Integrado (Chip) por el ingeniero Jack S. Kilby (nacido
en 1928) de Texas Instruments, así como los trabajos que
realizaba, por su parte, el Dr. Robert Noyce de Fairchild Semicon
ductors, acerca de los circuitos integrados, dieron origen a la
tercera generación de computadoras.

Antes del advenimiento de los circuitos
integrados, las computadoras estaban diseñadas para
aplicaciones matemáticas o de negocios, pero no para las
dos cosas. Los circuitos integrados permitieron a los fabricantes
de computadoras incrementar la flexibilidad de los programas, y
estandarizar sus modelos.

La IBM 360 una de las primeras computadoras
comerciales que usó circuitos integrados, podía
realizar tanto análisis numéricos como
administración ó procesamiento de archivos.

Monografias.com

IBM marca el inicio de esta generación,
cuando el 7 de abril de 1964 presenta la impresionante IBM 360,
con su tecnología SLT (Solid Logic Technology). Esta
máquina causó tal impacto en el mundo de la
computación que se fabricaron más de 30000, al
grado que IBM llegó a conocerse como sinónimo de
computación.

También en ese año, Control Data Corporation
presenta la supercomputadora CDC 6600, que se consideró
como la más poderosa de las computadoras de la
época, ya que tenía la capacidad de ejecutar unos 3
000 000 de instrucciones por segundo (mips).

Se empiezan a utilizar los medios magnéticos de
almacenamiento, como cintas magnéticas de 9 canales,
enormes discos rígidos, etc. Algunos sistemas
todavía usan las tarjetas perforadas para la entrada de
datos, pero las lectoras de tarjetas ya alcanzan velocidades
respetables.

Los clientes podían escalar sus sistemas 360 a modelos
IBM de mayor tamaño y podían todavía correr
sus programas actuales. Las computadoras trabajaban a tal
velocidad que proporcionaban la capacidad de correr más de
un programa de manera simultánea
(multiprogramación).

Por ejemplo la computadora podía estar calculando la
nomina y aceptando pedidos al mismo tiempo. Minicomputadoras, Con
la introducción del modelo 360 IBM acaparó el 70%
del mercado, para evitar competir directamente con IBM la empresa
Digital Equipment Corporation DEC redirigió sus esfuerzos
hacia computadoras pequeñas. Mucho menos costosas de
comprar y de operar que las computadoras grandes, las
minicomputadoras se desarrollaron durante la segunda
generación pero alcanzaron sumador auge entre 1960 y
70.

CUARTA GENERACIÓN (1971 a
1981)

Microprocesador , Chips de
memoria, Microminiaturización

Monografias.com

Dos mejoras en la tecnología de las
computadoras marcan el inicio de la cuarta generación: el
reemplazo de las memorias con núcleos magnéticos,
por las de chips de silicio y la colocación de Muchos
más componentes en un Chip: producto de la
microminiaturización de los circuitos electrónicos.
El tamaño reducido del microprocesador y de chips hizo
posible la creación de las computadoras personales
(PC)

En 1971, intel Corporation, que era una pequeña
compañía fabricante de semiconductores ubicada en
Silicon Valley, presenta el primer microprocesador o Chip de 4
bits, que en un espacio de aproximadamente 4 x 5 mm
contenía 2 250 transistores. Este primer microprocesador
que se muestra en la figura 1.14, fue bautizado como el 4004.

Silicon Valley (Valle del Silicio) era una región
agrícola al sur de la bahía de San Francisco, que
por su gran producción de silicio, a partir de 1960 se
convierte en una zona totalmente industrializada donde se asienta
una gran cantidad de empresas fabricantes de semiconductores y
microprocesadores. Actualmente es conocida en todo el mundo como
la región más importante para las industrias
relativas a la computación: creación de programas y
fabricación de componentes.

Actualmente ha surgido una enorme cantidad de fabricantes de
microcomputadoras o computadoras personales, que utilizando
diferentes estructuras o arquitecturas se pelean literalmente por
el mercado de la computación, el cual ha llegado a crecer
tanto que es uno de los más grandes a nivel mundial; sobre
todo, a partir de 1990, cuando se logran sorprendentes avances en
Internet.

Esta generación de computadoras se caracterizó
por grandes avances tecnológicos realizados en un tiempo
muy corto. En 1977 aparecen las primeras microcomputadoras, entre
las cuales, las más famosas fueron las fabricadas por
Apple Computer, Radio Shack y Commodore Busíness Machines.
IBM se integra al mercado de las microcomputadoras con su
Personal Computer (figura 1.15), de donde les ha quedado como
sinónimo el nombre de PC, y lo más importante; se
incluye un sistema operativo estandarizado, el MS- DOS (MicroSoft
Disk Operating System).

Las principales tecnologías que dominan este mercado
son:

IBM y sus compatibles llamadas clones, fabricadas por
infinidad de compañías con base en los procesadores
8088, 8086, 80286, 80386, 80486, 80586 o Pentium, Pentium II,
Pentium III y Celeron de Intel y en segundo término Apple
Computer, con sus Macintosh y las Power Macintosh, que tienen
gran capacidad de generación de gráficos y sonidos
gracias a sus poderosos procesadores Motorola serie 68000 y
PowerPC, respectivamente. Este último microprocesador ha
sido fabricado utilizando la tecnología RISC (Reduced
Instruc tion Set Computing), por Apple Computer Inc., Motorola
Inc. e IBM Corporation, conjuntamente.

Los sistemas operativos han alcanzado un notable desarrollo,
sobre todo por la posibilidad de generar gráficos a gran
des velocidades, lo cual permite utilizar las interfaces
gráficas de usuario (Graphic User Interface, GUI), que son
pantallas con ventanas, iconos (figuras) y menús
desplegables que facilitan las tareas de comunicación
entre el usuario y la computadora, tales como la selección
de comandos del sistema operativo para realizar operaciones de
copiado o formato con una simple pulsación de cualquier
botón del ratón (mouse) sobre uno de los iconos o
menús.

QUINTA GENERACIÓN Y LA INTELIGENCIA ARTIFICIAL
(1982-1989)

Cada vez se hace más difícil la
identificación de las generaciones de computadoras, porque
los grandes avances y nuevos descubrimientos ya no nos sorprenden
como sucedió a mediados del siglo XX. Hay quienes
consideran que la cuarta y quinta generación han
terminado, y las ubican entre los años 1971-1984 la
cuarta, y entre 1984-1990 la quinta. Ellos consideran que la
sexta generación está en desarrollo desde 1990
hasta la fecha.

Siguiendo la pista a los acontecimientos tecnológicos
en materia de computación e informática, podemos
puntualizar algunas fechas y características de lo que
podría ser la quinta generación de
computadoras.

Con base en los grandes acontecimientos tecnológicos en
materia de microelectrónica y computación
(software) como CADI CAM, CAE, CASE, inteligencia artificial,
sistemas expertos, redes neuronales, teoría del caos,
algoritmos genéticos, fibras ópticas,
telecomunicaciones, etc., a de la década de los
años ochenta se establecieron las bases de lo que se puede
conocer como quinta generación de computadoras.

Hay que mencionar dos grandes avances tecnológicos, que
sirvan como parámetro para el inicio de dicha
generación: la creación en 1982 de la primera
supercomputadora con capacidad de proceso paralelo,
diseñada por Seymouy Cray, quien ya experimentaba desde
1968 con supercomputadoras, y que funda en 1976 la Cray Research
Inc.; y el anuncio por parte del gobierno japonés del
proyecto "quinta generación", que según se
estableció en el acuerdo con seis de las más
grandes empresas japonesas de computación, debería
terminar en 1992.

El proceso paralelo es aquél que se lleva a cabo en
computadoras que tienen la capacidad de trabajar
simultáneamente con varios microprocesadores. Aunque en
teoría el trabajo con varios microprocesadores
debería ser mucho más rápido, es necesario
llevar a cabo una programación especial que permita
asignar diferentes tareas de un mismo proceso a los diversos
microprocesadores que intervienen.

También se debe adecuar la memoria para que pueda
atender los requerimientos de los procesadores al mismo tiempo.
Para solucionar este problema se tuvieron que diseñar
módulos de memoria compartida capaces de asignar
áreas de caché para cada procesador.

Según este proyecto, al que se sumaron los
países tecnológicamente más avanzados para
no quedar atrás de Japón, la característica
principal sería la aplicación de la inteligencia
artificial (Al, Artificial Intelligence). Las computadoras de
esta generación contienen una gran cantidad de
microprocesadores trabajando en paralelo y pueden reconocer voz e
imágenes. También tienen la capacidad de
comunicarse con un lenguaje natural e irán adquiriendo la
habilidad para tomar decisiones con base en procesos de
aprendizaje fundamentados en sistemas expertos e inteligencia
artificial.

El almacenamiento de información se realiza en
dispositivos magneto ópticos con capacidades de decenas de
Gigabytes; se establece el DVD (Digital Video Disk o Digital
Versatile Disk) como estándar para el almacenamiento de
video y sonido; la capacidad de almacenamiento de datos crece de
manera exponencial posibilitando guardar más
información en una de estas unidades, que toda la que
había en la Biblioteca de Alejandría. Los
componentes de los microprocesadores actuales utilizan
tecnologías de alta y ultra integración,
denominadas VLSI (Very Large Sca/e Integration) y ULSI (Ultra
Lar- ge Scale Integration).

Sin embargo, independientemente de estos
"milagros" de la tecnología moderna, no se distingue la
brecha donde finaliza la quinta y comienza la sexta
generación.

Personalmente, no hemos visto la
realización cabal de lo expuesto en el proyecto
japonés debido al fracaso, quizás
momentáneo, de la inteligencia artificial.El único
pronóstico que se ha venido realizando sin interrupciones
en el transcurso de esta generación, es la conectividad
entre computadoras, que a partir de 1994, con el advenimiento de
la red Internet y del World Wide Web, ha adquirido una
importancia vital en las grandes, medianas y pequeñas
empresas y, entre los usuarios particulares de
computadoras.

  El propósito de la
Inteligencia Artificial es equipar a las Computadoras con
"Inteligencia Humana" y con la capacidad de razonar para
encontrar soluciones.  Otro factor fundamental del
diseño, la capacidad de la Computadora para reconocer
patrones y secuencias de procesamiento que haya encontrado
previamente, (programación Heurística) que permita
a la Computadora recordar resultados previos e incluirlos en el
procesamiento, en esencia, la Computadora aprenderá a
partir de sus propias experiencias usará sus Datos
originales para obtener la respuesta por medio del razonamiento y
conservará esos resultados para posteriores tareas de
procesamiento y toma de decisiones

Monografias.com

SEXTA GENERACIÓN 1990 HASTA LA
FECHA

Como supuestamente la sexta
generación de computadoras está en marcha desde
principios de los años noventas, debemos por lo menos,
esbozar las características que deben tener las
computadoras de esta generación. También se
mencionan algunos de los avances tecnológicos de la
última década del siglo XX y lo que se espera
lograr en el siglo XXI. Las computadoras de esta
generación cuentan con arquitecturas combinadas Paralelo /
Vectorial, con cientos de microprocesadores vectoriales
trabajando al mismo tiempo; se han creado computadoras capaces de
realizar más de un millón de millones de
operaciones aritméticas de punto flotante por segundo
(teraflops); las redes de área mundial (Wide Area Network,
WAN) seguirán creciendo desorbitadamente utilizando medios
de comunicación a través de fibras ópticas y
satélites, con anchos de banda impresionantes. Las
tecnologías de esta generación ya han sido
desarrolla das o están en ese proceso. Algunas de ellas
son: inteligencia / artificial distribuida; teoría del
caos, sistemas difusos, holografía, transistores
ópticos, etcétera.

Monografias.comMonografias.com

  En esta
investigación acerca de las generaciones de las
computadoras nos hemos dado cuenta del avance que han tenidos y ,
gracias a los avances en relación a ellas hemos alcanzado
un nivel de tecnología muy elevado el cual nos ha servido
para muchas áreas, como por ejemplo las comunicaciones, la
medicina, la educación, etc.

La investigación actual va dirigida
a aumentar la velocidad y capacidad de las computadoras se centra
sobre todo en la mejora de la tecnología de los circuitos
integrados y en el desarrollo de componentes de
conmutación aún más rápidos. Se han
construido circuitos integrados a gran escala que contienen
varios millones de componentes en un solo chip.

Las computadoras se han convertido en la
principal herramienta utilizada por el hombre y ya son parte
esencial de cada uno de nosotros, y usted deberá aprender
todas esas, antes complicadas hoy comunes tecnologías
modernas

Desarrollo por
componentes

1.- Desarrolle y describa con un grafico
los tipos de case siguientes

Tipo AT.- Esta prácticamente
en desuso, trae 2 conectores llamados P8 y P9 que Alimentan a la
mother board

a) Case en torre

Monografias.com

  • Descripción: es vertical y alta,
    con 7 alojamientos, 4 de 5 ¼" y 3 de 3 ½" es el
    más grande.

  • Ventajas: permite que se distribuya
    mejor el calor. El acceso a los componentes se facilita y
    tiene muy buenas capacidades de crecimiento.

  • Desventajas: suele ser el tipo de caja
    más costoso, su gran tamaño puede dificultar
    acomodarlo facilmente en nuestros escritorios.

b) Case Tipo Mini Torre

Monografias.com

Descripción: es vertical y
pequeña, tiene 2 ó 3 cavidades o alojamientos de 5
¼ pulgadas y 2 de 3 ½ pulgadas, podría
alojar 4 o 5 dispositivos internos.

Ventajas: más económica y
facil de acomodar en cualquier escritorio ú oficina.
Desventajas: su capacidad de acceso y crecimiento es más
limitado.

c) Case Tipo BabyTorre

Es vertical y aun mas pequeña posee
cavidades de alojamiento de de 5 ¼ pulgadas y 2 de 3
½ pulgadas

Ventajas: más económica y
fácil de acomodar en cualquier escritorio ú
oficina.

Desventajas: no solo su capacidad de acceso
y crecimiento es más limitado si no que esto hace que
exista menor ventilación en los componentes
internos

Tipo ATX:

Case full tower

Monografias.com

Case médium tower

Monografias.com

Case Estándar

Monografias.com

2. Desarrolle las características
principales de una fuente de poder

a) Voltajes de entrada

  • La fuente de poder se caracteriza por tener un
    voltaje de entrada de 220wtts. Y 110 wtts normalmente, pero
    como los fabricantes siguen lanzando al mercado de mejor
    calidad comenzaron a fabricar de 220wtts, 300wtts, 400wtts,
    500wtts,…etc. Eso debido al tiempo de uso y el tiempo de
    duración de la misma fuente de poder y así dar
    la comodidad a los proveedores que ellos llegarían a
    ser los mas beneficiados, pero también por otro lado
    la empresa que brinda este servicio de energía
    eléctrica tiene algunos problemas como ser que en
    ocasiones puede llegar a tener altas tenciones como bajas
    tenciones, pero normalmente el voltaje que nos provee la
    empresa es de 220wts.

b) Voltajes de salida

  • Los voltajes de Salida de la fuente de poder se
    regulan dentro de ella, para de esa manera Los cables de
    poder puedan transportan la electricidad hacia cada
    componente de hardware de las PCs. Los que irán
    conectados a sus unidades de discos y a algunos ventiladores
    son grupos de cuatro cables sencillos (uno amarillo, uno rojo
    y dos negros en el centro) con el mismo conector. Observe el
    significado de cada color en la siguiente tabla:

  • Monografias.com

    Wats <=200, <=300, <=400,
    otros

    • Los voltajes nos llegarían a
      indicar el tiempo que tuviera que estar encendido y estos
      pueden ser de la siguiente manera:

    200wtts y 300wtts: de 4-6 horas de
    uso

    400wtts y 500wtts: de 6 – 8 horas
    de uso

    600wtts: de 8-12 horas

    3.- Describa con un grafico las
    características el uso y las características en
    las tarjetas madre por:

    a) Socket.-

    Es el lugar donde se inserta el "cerebro" del
    ordenador. Durante más de 10 años ha consistido
    en un rectángulo o cuadrado donde el "micro", una
    pastilla de plástico negro con patitas, se
    introducía con mayor o menor facilidad; recientemente,
    la aparición de los Pentium II ha cambiado un poco
    este panorama y así para mas adelante según la
    exigencia sea mas del usuario.

    Veamos en detalle los tipos más comunes de
    zócalo, o socket, como dicen los
    anglosajones:

    PGA: son el modelo clásico, usado en el 386 y
    el 486; consiste en un cuadrado de conectores en forma de
    agujero donde se insertan las patitas del chip por pura
    presión. Según el chip, tiene más o
    menos agujeritos.

    ZIF: Zero Insertion Force (socket), es decir,
    zócalo de fuerza de inserción nula. El gran
    avance que relajó la vida de los manazas aficionados a
    la ampliación de ordenadores. Eléctricamente es
    como un PGA, aunque gracias a un sistema mecánico
    permite introducir el micro sin necesidad de fuerza alguna,
    con lo que el peligro de cargarnos el chip por romperle una
    patita desaparece.

    Apareció en la época del 486 y sus
    distintas versiones (sockets 3, 5 y 7, principalmente) se han
    utilizado hasta que apareció el Pentium II.
    Actualmente se fabrican tres tipos de zócalos
    ZIF:

    Socket 7 "Súper 7": variante del Socket 7 que
    se caracteriza por poder usar velocidades de bus de hasta 100
    MHz, es el que utilizan los micros AMD K6-2.

    Socket 370 o PGA370: físicamente similar al
    anterior, pero incompatible con él por utilizar un bus
    distinto. Dos versiones: PPGA (la más antigua,
    sólo para micros Intel Celeron Mendocino) y FC-PGA
    (para Celeron y los más recientes Pentium
    III).

    Socket A: utilizado únicamente por los
    más recientes AMD K7 Athlon y por los AMD Duron. El
    478: utilizado únicamente por los más recientes
    Intel P IV

    Monografias.com

    b) Slot.-

    Son unas ranuras de plástico con conectores
    eléctricos (slots) donde se introducen las tarjetas de
    expansión (tarjeta de vídeo, de sonido, de
    red…). Según la tecnología en que se basen
    presentan un aspecto externo diferente, con diferente
    tamaño y a veces incluso en distinto color.

    4.- Describa con un grafico las
    características y la función que cumplen los
    Slots

    Slots ISA: son las más veteranas, un
    legado de los primeros tiempos del PC. Funcionan a unos 8 MHz
    y ofrecen un máximo de 16 MB/s, suficiente para
    conectar un módem o una tarjeta de sonido, pero muy
    poco para una tarjeta de vídeo. Miden unos 14 cm y su
    color suele ser negro; existe una versión aún
    más antigua que mide sólo 8,5 cm.

    Monografias.com

    Slots ISA –VESA

    Local Bus: un modelo de efímera vida: se
    empezó a usar en los 486 y se dejó de usar en
    los primeros tiempos del Pentium. Son un desarrollo a partir
    de ISA, que puede ofrecer unos 160 MB/s a un máximo de
    40 MHz. Son larguísimas, unos 22 cm, y su color suele
    ser negro, a veces con el final del conector en marrón
    u otro color.

    Slots PCI

    El estándar actual. Pueden dar hasta 132 MB/s
    a 33 MHz, lo que es suficiente para casi todo, excepto
    quizá para algunas tarjetas de vídeo 3D. Miden
    unos 8,5 cm y generalmente son blancas.

    Monografias.com

    Slots AGP

    O más bien ranura, ya que se dedica
    exclusivamente a conectar tarjetas de vídeo 3D, por lo
    que sólo suele haber una; además, su propia
    estructura impide que se utilice para todos los
    propósitos, por lo que se utiliza como una ayuda para
    el PCI. Según el modo de funcionamiento puede ofrecer
    264 MB/s o incluso 528 MB/s. Mide unos 8 cm y se encuentra
    bastante separada del borde de la placa.

    Las placas actuales tienden a tener los más
    conectores PCI posibles, manteniendo uno o dos conectores ISA
    por motivos de compatibilidad con tarjetas antiguas y usando
    AGP para el vídeo.

    Monografias.com

    CNR

    La ranura CNR se encuentra en el lado
    de la placa base, cerca de la última ranura PCI. Como
    se puede ver comparando las figuras 1 y 4, AMR y CNR
    dispositivos son un poco diferentes, aunque el caso de las
    franjas horarias son muy similares. No sólo el
    conector de borde (la parte que va en la ranura) es
    diferente, la tarjeta tiene una orientación diferente.
    El lado que tiene el conectores I / O en un dispositivo de
    AMR se encuentra a la izquierda, y esta parte en un
    dispositivo CNR se encuentra a la derecha

    Monografias.com

    Con un grafico describa los bancos
    de memoria RAM

    SIMM

    Monografias.com

    Siglas de Single In line Memory Module,
    un tipo de encapsulado consistente en una pequeña
    placa de circuito impreso que almacena chips de memoria, y
    que se inserta en un zócalo SIMM en la placa madre o
    en la placa de memoria. Los SIMMs son más
    fáciles de instalar que los antiguos chips de memoria
    individuales, y a diferencia de ellos son medidos en bytes en
    lugar de bits.

    El primer formato que se hizo popular
    en los computadores personales tenía 3.5" de largo y
    usaba un conector de 32 pins. Un formato más largo de
    4.25", que usa 72 contactos y puede almacenar hasta 64
    megabytes de RAM es actualmente el más
    frecuente.

    Un PC usa tanto memoria de nueve bits
    (ocho bits y un bit de paridad, en 9 chips de memoria RAM
    dinámica) como memoria de ocho bits sin paridad. En el
    primer caso los ocho primeros son para datos y el noveno es
    para el chequeo de paridad.

    DIMM

    Monografias.com

    Siglas de Dual In line Memory Module,
    un tipo de encapsulado, consistente en una pequeña
    placa de circuito impreso que almacena chips de memoria, que
    se inserta en un zócalo DIMM en la placa madre y usa
    generalmente un conector de 168 contactos.

    RIMM

    Monografias.com

    Acrónimo de Rambus Inline Memory
    Module
    , designa a los módulos de memoria RAM que
    utilizan una tecnología denominada RDRAM, desarrollada
    por Rambus Inc. a mediados de los años 1990 con el fin
    de introducir un módulo de memoria con niveles de
    rendimiento muy superiores a los módulos de memoria
    SDRAM de 100 Mhz y 133 Mhz
    disponibles en aquellos años.

    Los módulos RIMM RDRAM cuentan con 184 pines
    y debido a sus altas frecuencias de trabajo requieren de
    difusores de calor consistentes en una placa metálica
    que recubre los chips del módulo. Se basan en un bus
    de datos de 16 bits y están disponibles en velocidades
    de 300MHz (PC-600), 356 Mhz (PC-700), 400 Mhz (PC-800) y 533
    Mhz (PC-1066) que por su pobre bus de 16 bits tenía un
    rendimiento 4 veces menor que la DDR. La RIMM de 533MHz tiene
    un rendimiento similar al de un módulo DDR133, a pesar
    de que sus latencias son 10 veces peores que la
    DDR.Inicialmente los módulos RIMM fueron introducidos
    para su uso en servidores basados en Intel Pentium 4. Rambus
    no manufactura módulos RIMM si no que tiene un sistema
    de licencias para que estos sean manufacturados por terceros
    siendo Samsung el principal fabricante de éstos.A
    pesar de tener la tecnología RDRAM niveles de
    rendimiento muy superiores a la tecnología SDRAM y las
    primeras generaciones de DDR RAM, debido al alto costo de
    esta tecnología no han tenido gran aceptación
    en el mercado de PC. Su momento álgido tuvo lugar
    durante el periodo de introducción del Pentium 4 para
    el cual se diseñaron las primeras placas base, pero
    Intel ante la necesidad de lanzar equipos más
    económicos decidió lanzar placas base con
    soporte para SDRAM y más adelante para DDR RAM
    desplazando esta última tecnología a los
    módulos RIMM del mercado.

    DDR:

    Monografias.comMonografias.com

    Los módulos DDR SDRAM
    (Double Data Rate SDRAM) son una evolución de
    los módulos SDR. Se trata de módulos del tipo
    DIMM, de 184 contactos y 64bits, con una velocidad
    de bus de memoria de entre 100MHz y 200MHz, pero al realizar
    dos accesos por ciclo de reloj las velocidades efectivas de
    trabajo se sitúan entre los 200MHz y los 400MHz. Este
    es un punto que a veces lleva a una cierta confusión,
    ya que tanto las placas base como los programas de
    información de sistemas las reconocen unas veces por
    su velocidad nominal y otras por su velocidad efectiva.
    Comienzan a utilizarse con la salida de los Pentium
    4
    y Thlon XP, tras el fracasado intento por
    parte de Intel de imponer para los P4 un tipo de memoria
    denominado RIMM, que pasó con más pena que
    gloria y tan sólo llegó a utilizarse en las
    primeras versiones de este tipo de procesadores (Pentium 4
    Willamette con socket 423). Se han hecho pruebas con
    módulos a mayores velocidades, pero por encima de los
    200MHz (400MHz efectivos) suele bajar su efectividad. Esto,
    unido al coste y a la salida de los módulos del tipo
    DDR2, ha hecho que en la práctica sólo se
    comercialicen módulos DDR de hasta 400MHz (efectivos).
    Estas memorias tienen un consumo de entre 0 y 2.5 voltios.
    Este tipo de módulos se está abandonando,
    siendo sustituido por los módulos del tipo
    DDR2.

    6.- Cual es la función de la
    memoria cache describa

    Un caché es un sistema especial
    de almacenamiento de alta velocidad. Puede ser tanto un
    área reservada de la memoria principal como un
    dispositivo de almacenamiento de alta velocidad
    independiente. Hay dos tipos de caché frecuentemente
    usados en las computadoras personales: memoria caché y
    caché de disco. Una memoria cache, llamada
    también a veces almacenamiento caché o RAM
    caché, es una parte de memoria RAM estática de
    alta velocidad (SRAM) más que la lenta y barata RAM
    dinámica (DRAM) usada como memoria principal. La
    memoria cache es efectiva dado que los programas acceden una
    y otra vez a los mismos datos o instrucciones. Guardando esta
    información en SRAM, la computadora evita acceder a la
    lenta DRAM.

    Cuando se encuentra un dato en la
    caché, se dice que se ha producido un acierto, siendo
    un caché juzgado por su tasa de aciertos (hit
    rate
    ). Los sistemas de memoria caché usan una
    tecnología conocida por caché inteligente en la
    cual el sistema puede reconocer cierto tipo de datos usados
    frecuentemente. Las estrategias para determinar qué
    información debe de ser puesta en el cache constituyen
    uno de los problemas más interesantes en la ciencia de
    las computadoras. Algunas memorias cache están
    construidas en la arquitectura de los microprocesadores. Por
    ejemplo, el procesador Pentium II tiene una caché L2
    de 512 Kbytes.

    La caché de disco trabaja sobre
    los mismos principios que la memoria caché, pero en
    lugar de usar SRAM de alta velocidad, usa la convencional
    memoria principal. Los datos más recientes del disco
    duro a los que se ha accedido (así como los sectores
    adyacentes) se almacenan en un buffer de memoria. Cuando el
    programa necesita acceder a datos del disco, lo primero que
    comprueba es la cache del disco para ver si los datos ya
    están ahí. La cache de disco puede mejorar
    drásticamente el rendimiento de las aplicaciones, dado
    que acceder a un byte de datos en RAM puede ser miles de
    veces más rápido que acceder a un byte del
    disco duro.

    7.-Con un grafico demuestre las
    formas de conexiones de los siguientes
    dispositivos

    Floppy

    Monografias.com

    Montar el floppy y conectar a
    tensión y a su bus de datos adecuadamente tonando en
    cuenta el pin 1

    Disco duro

    Monografias.com

    Una vez montado en el soporte con
    tornillos

    El instalado del lector, quemador y disco duro (HD)
    se la hace de una sola forma ya que se tiene que colocar un
    Puente (Jhanpear) a cada uno de ellos ya sea master o esclavo
    de la misma manera tambien un conector de alimentación
    de tencion y Buses de 40 o 80 pines

    Monografias.com

    Monografias.com

    8.-con u grafico muestra la
    diferencia y la forma de conexión entre bus de 40
    pines y bus de 80 pines

    El bus de 40 su división es mas notable de
    hilo a hilo

    Monografias.com

    En el bus de 80 su división de hilo a hilo es
    un poco mas fino

    Monografias.com

    9.-Con un grafico describa los tipos
    de procesadores que conoce (marcas y modelos)

    Monografias.com

    Monografias.com

    Los prcesadores intel P I , PII, PIII,
    PIV , Prescott , Pentium D, Core Duo, Core 2 Duo , Core Quad
    ,Core 2Quad, i3, i5, i7

    10.- explique que es un
    microprocesador en:

    Características

    El microprocesador o CPU, es el cerebro
    de la computadora determina que tanta de memoria puede
    utilizar el sistema, que clase de programas puede correr y
    que tan velozmente puede avanzar. (Existen multitud de
    procesadores y es muy difícil reconocerlos si no se
    tiene experiencia)

    Funciones

    Las funciones del microprocesador esta a
    través de La Frecuencia (Cantidad de ciclos que se
    suscitan en un segundo c.p.s. [Hertz = Hz]) es la unidad que
    utilizamos para medir la velocidad del Sistema. Si todas las
    demás características fueran iguales, una
    máquina de 400MHz. sería más
    rápida que otra de 333MHz. (Sin embargo no todas la
    son.)

    11.-Con un grafico muestre la forma
    de ensamblar el CPU en un socket y en un slots

    sockets

    Monografias.com

    Slots

    Monografias.com

    12.-Cual es la diferencia entre las
    marcas de procesadores.

    Entre las diferencias de procesadores
    mas que todo estaría en que algunas marcas tienen
    procesadores de mayor capacidad y mas garantizadas que otras
    en el cual el cliente prefiere mas de esa calidad pero de
    bajo precio.

    13.-Cual sus características del
    procesador de ultimo lanzamiento en el
    mercado.

    Intel Core i7 es una familia de
    procesadores de cuatro núcleos de la
    arquitectura Intel x86-64. Los Core i7 son los
    primeros procesadores que usan la micro arquitectura
    Nehalem de Intel y es el sucesor de la
    familia Intel Core 2. El identificador Core
    i7 se aplica a la familia inicial de
    procesadores1 2 con el nombre
    clave Bloomfield.3

    El pseudónimo Core i7 no tiene un
    significado concreto, pero continúa con el uso de la
    etiqueta Core. Estos procesadores, primero ensamblados
    en Costa Rica, fueron comercializados el 17 de
    noviembre de 2008, y actualmente es manufacturado
    en lasplantas de fabricación que
    posee Intel en Arizona, Nuevo
    México y Oregón, aunque la de
    Oregón se prepara para la fabricación de la
    siguiente generación de procesadores de 32 nm.

    14.-Describa como verifica los
    microprocesadores.

    Monografias.com

    La primera cifra significa la velocidad
    para el ejemplo 2.8 Ghz la segunda memoria cache, para el
    ejemplo 1MB

    La tercera cifra es la velocidad
    frontal de bus (fsb)

    15.-Que función cumplen las
    tarjetas de video y cuales son sus
    características.

    Otro elemento indispensable para armar una
    computadora es la tarjeta de video que se encargara de enviar
    al monitor las señales nesesarias para que en la
    pantalla pueda desplegar la informacion que nos interesa
    poreso elijamos las targetas de mayor transferencia como son
    las vesa o las pci la tarjeta isa es sumamente lenta, otro
    punto en el que devemos fijarnos es en la cantidad de memoria
    que posea la tarjeta de video ya que entre mayor memoria
    tenga nuestro monitor tendra mayor resolucion de colores
    tendra mayor resolucion y colores lo que setraduce en
    imajenes mas agradables a la vista por ello para las
    aplicaciones modernas es recomendable unos coantos mbs en
    video ram es facil reconocer la rtargeta de video por su
    conector.

    17.-Por el uso de slots, cuantos
    tipos de tarjetas de video conoce.

    La tarjeta gráfica, como añadido que
    es al PC, se conecta a éste mediante un slot o ranura
    de expansión. Muchos tipos de ranuras de
    expansión se han creado precisamente para satisfacer a
    la ingente cantidad de información que se transmite
    cada segundo a la tarjeta gráfica.

    ISA: el conector original del PC, poco
    apropiado para uso gráfico; en cuanto llegamos a
    tarjetas con un cierto grado de aceleración resulta
    insuficiente. Usado hasta las primeras VGA
    "aceleradoras gráficas", aquellas que no sólo
    representan la información sino que aceleran la
    velocidad del sistema al liberar al microprocesador de parte
    de la tarea gráfica mediante diversas
    optimizaciones.

    VESA Local Bus: más que un slot un
    bus, un conector íntimamente unido al microprocesador,
    lo que aumenta la velocidad de transmisión de datos.
    Una solución barata usada en muchas placas 486, de
    buen rendimiento pero tecnológicamente no muy
    avanzada.

    PCI: el estándar para conexión
    de tarjetas gráficas (y otros múltiples
    periféricos). Suficientemente veloz para las tarjetas
    actuales, si bien algo estrecho para las 3D que se
    avecinan.

    AGP (Advanced Graphics Port): tampoco un
    slot, sino un puerto (algo así como un bus local),
    pensado únicamente para tarjetas gráficas que
    transmitan cientos de MB/s de información,
    típicamente las 3D. Presenta poca ganancia en
    prestaciones frente a PCI, pero tiene la ventaja de que las
    tarjetas AGP pueden utilizar memoria del sistema como memoria
    de vídeo (lo cual, sin embargo, penaliza el
    rendimiento).

    En cualquier caso, el conector sólo puede
    limitar la velocidad de una tarjeta, no la eleva, lo que
    explica que algunas tarjetas PCI sean muchísimo
    más rápidas que otras AGP más
    baratas.

    18.-Con un grafico explique
    detalladamente las memorias RAM referente a:

    Monografias.comMonografias.com

    Monografias.com

    Monografias.com

    Monografias.com

    La memoria RAM (Random Access Memory
    Module o memoria de acceso aleatorio) es un tipo de memoria
    que utilizan los ordenadores para almacenar los datos y
    programas a los que necesita tener un rápido acceso.
    Se trata de una memoria de tipo volátil, es decir, que
    se borra cuando apagamos el ordenador, aunque también
    hay memorias RAM no volátiles (como por ejemplo las
    memorias de tipo flash. Los datos almacenados en la memoria
    RAM no sólo se borran cuando apagamos el ordenador,
    sino que tambien deben eliminarse de esta cuando dejamos de
    utilizarlos (por ejemplo, cuando cerramos el fichero que
    contiene estos datos). Estas memorias tienen unos tiempos de
    acceso y un ancho de banda mucho más rápido que
    el disco duro, por lo que se han convertido en un factor
    determinante para la velocidad de un ordenador. Esto quiere
    decir que, dentro de unos límites, un ordenador
    irá más rápido cuanta mayor sea la
    cantidad de memoria RAM que tenga instalada, expresada en
    MegaBytes o GigaBytes. Los chips de memoria suelen ir
    conectados a unas plaquitas denominadas módulos, pero
    no siempre esto ha sido así, ya que hasta los
    ordenadores del tipo 8086 los chips de memoria RAM estaban
    soldados directamente a la placa base. Con los ordenadores
    del tipo 80386 aparecen las primeras memorias en
    módulos, conectados a la placa base mediante
    zócalos, normalmente denominados bancos de memoria, y
    con la posibilidad de ampliarla (esto, con los ordenadores
    anteriores, era prácticamente imposible). Los primeros
    módulos utilizados fueron los denominados SIMM (Single
    In-line Memory Module). Estos módulos tenían
    los contactos en una sola de sus caras y podían ser de
    30 contactos (los primeros), que posteriormente pasaron a ser
    de 72 pines.Módulos SIMM. de 72 pines.

    SIMM de 30 pines

    Monografias.com

    Este tipo de módulo de memoria
    fue sustituido por los módulos del tipo DIMM (Dual
    In-line Memory Module), que es el tipo de memoria que se
    sigue utilizando en la actualidad. Esta clasificación
    se refiere exclusivamente a la posición de los
    contactos. En cuanto a los tipos de memoria, la
    clasificación que podemos hacer es la siguiente:
    DRAM: Las memorias DRAM (Dynamic RAM) fueron las
    utilizadas en los primeros módulos (tanto en los SIMM
    como en los primeros DIMM). Es un tipo de memoria más
    barata que la SDRAM, pero también bastante más
    lenta, por lo que con el paso del tiempo ha dejado de
    utilizarse. Esta memoria es del tipo asíncronas, es
    decir, que iban a diferente velocidad que el sistema, y sus
    tiempos de refresco eran bastante altos (del orden de entre
    80ns y 70ns), llegando en sus últimas versiones, las
    memorias EDO-RAM a unos tiempos de refresco de entre 40ns y
    30ns. SDRAM: Las memorias SDRAM (Synchronous Dynamic
    RAM) son las utilizadas actualmente (aunque por SDRAM se
    suele identificar a un tipo concreto de módulos, en
    realidad todos los módulos actuales son SDRAM). Son un
    tipo de memorias síncronas, es decir, que van a la
    misma velocidad del sistema, con unos tiempos de acceso que
    en los tipos más recientes son inferiores a los 10ns,
    llegando a los5nsenlosmárápidos. Las memorias
    SDRAM se dividan a su vez en varios tipos SDR:
    Monografias.com

    Módulo SDR. Se pueden ver las
    dos muescas de posicionamiento.

    DIMM de 168 pines— esta probablemente
    es la que tienes.

    Monografias.com

    DIMM de 184 pines— esto es lo llamado
    memoria DDR

    Monografias.com

    Los módulos SDR (Single Data
    Rate) son los conocidos normalmente como SDRAM, aunque, como
    ya hemos dicho, todas las memorias actuales son SDRAM. Se
    trata de módulos del tipo DIMM, de 168 contactos, y
    con una velocidad de bus de memoria que va desde los 66MHz a
    los 133MHz. Estos módulos realizan un acceso por ciclo
    de reloj. Empiezan a utilizarse con los Pentium II y su
    utilización llega hasta la salida de los Pentium 4 de
    Intel y los procesadores Athlon XP de AMD, aunque las
    primeras versiones de este último podían
    utilizar memorias SDR. Este tipo de módulos se
    denominan por su frecuencia, es decir, PC66, PC100 o PC133.
    DDR:

    Monografias.com

    Módulo DDR. Vemos que tiene una
    sola muesca de posicionamiento, situada a la derecha del
    centro del módulo. Los módulos DDR SDRAM
    (Double Data Rate SDRAM) son una evolución de los
    módulos SDR. Se trata de módulos del tipo DIMM,
    de 184 contactos y 64bits, con una velocidad de bus de
    memoria de entre 100MHz y 200MHz, pero al realizar dos
    accesos por ciclo de reloj las velocidades efectivas de
    trabajo se sitúan entre los 200MHz y los 400MHz. Este
    es un punto que a veces lleva a una cierta confusión,
    ya que tanto las placas base como los programas de
    información de sistemas las reconocen unas veces por
    su velocidad nominal y otras por su velocidad efectiva.
    Comienzan a utilizarse con la salida de los Pentium 4 y Thlon
    XP, tras el fracasado intento por parte de Intel de imponer
    para los P4 un tipo de memoria denominado RIMM, que
    pasó con más pena que gloria y tan sólo
    llegó a utilizarse en las primeras versiones de este
    tipo de procesadores (Pentium 4 Willamette con socket 423).
    Se han hecho pruebas con módulos a mayores
    velocidades, pero por encima de los 200MHz (400MHz efectivos)
    suele bajar su efectividad. Esto, unido al coste y a la
    salida de los módulos del tipo DDR2, ha hecho que en
    la práctica sólo se comercialicen
    módulos DDR de hasta 400MHz (efectivos). Estas
    memorias tienen un consumo de entre 0 y 2.5 voltios. Este
    tipo de módulos se está abandonando, siendo
    sustituido por los módulos del tipo DDR2.
    DDR2:

    Monografias.com

    Módulo DDR2. Vemos que tiene una
    sola muesca de posicionamiento, situada a la derecha del
    centro del módulo, aunque más hacia en centro
    que en los módulos DDR. También se puede
    apreciar la mayor densidad de contactos.

    Los módulos DDR2 SDRAM son una
    evolución de los módulos DDR SDRAM. Se trata de
    módulos del tipo DIMM, en este caso de 240 contactos y
    64bits. Tienen unas velocidades de bus de memoria real de
    entre 100MHz y 266MHz, aunque los primeros no se
    comercializan. La principal característica de estos
    módulos es que son capaces de realizar cuatro accesos
    por ciclo de reloj (dos de ida y dos de vuelta), lo que hace
    que su velocidad de bus de memoria efectiva sea el resultado
    de multiplicar su velocidad de bus de memoria real por 4.
    Esto duplica la velocidad en relación a una memoria
    del tipo DDR, pero también hace que los tiempos de
    latencia sean bastante más altos (pueden llegar a ser
    el doble que en una memoria DDR). El consumo de estas
    memorias se sitúa entre los 0 y 1.8 voltios, es decir,
    casi la mitad que una memoria DDR.

    Tanto las memorias DDR como las
    memorias DDR2 se suelen denominar de dos formas diferentes, o
    bien en base a su velocidad de bus de memoria efectiva
    (DDR-266, DDR-333, DDR-400, DDR2-533, DDR2-667, DDR2-800) o
    bien por su ancho de banda teórico, es decir, por su
    máxima capacidad de transferencia (PC-2100, PC-2700 y
    PC-3200 en el caso de los módulos DDR y PC-4200,
    PC-5300 y PC-6400 en el caso de los módulos DDR2). El
    Ancho de banda de los módulos DDR y DDR2 se puede
    calcular multiplicando velocidad de bus de memoria efectiva
    por 8 (DDR-400 por 8 = PC-3200). El último y
    más reciente tipo de memorias es el DDR3.

    Monografias.com

    Módulo DDR. Vemos que tiene una
    sola muesca de posicionamiento, situada en esta
    ocasión a la izquierda del centro del módulo.
    Este tipo de memorias (que ya han empezado a comercializarse,
    y están llamadas a sustituir a las DDR2) son
    también memorias del tipo SDRAM DIMM, de 64bits y 240
    contactos, aunque no son compatibles con las memorias DDR2,
    ya que se trata de otra tecnología y además
    físicamente llevan la muesca de posicionamiento en
    otra situación. Según las informaciones
    disponibles se trata de memorias con una velocidad de bus de
    memoria real de entre 100MHz y 250MHz, lo que da una
    velocidad de bus de memoria efectiva de entre 800MHz y
    2000MHz (el doble que una memoria DDR2 a la misma velocidad
    de bus de memoria real), con un consumo de entre 0 y 1.5
    voltios (entre un 16% y un 25% menor que una DDR2) y una
    capacidad máxima de transferencia de datos de
    15.0GB/s. En cuanto a la medida, en todos los casos de
    memorias del tipo SDRAM (SDR, DDR, DDR2 y DDR3) se trata de
    módulos de 133mm de longitud. En cuanto a su
    instalación, pueden ver una amplia información
    de cómo se instalan en el tutorías –
    Instalación y ampliación de módulos de
    memoria.. Una cuestión a considerar es que estos tipos
    de módulos no son compatibles entre sí, para
    empezar porque es físicamente imposible colocar un
    módulo en un banco de memoria que no sea de su tipo,
    debido a la posición de la muesca de posicionamiento.
    Hay en el mercado un tipo de placas base llamadas normalmente
    duales (OJO, no confundir esto con la tecnología Dual
    Channel) que tienen bancos para dos tipos de módulos
    (ya sean SDR y DDR o DDR y DDR2), pero en estos casos tan
    sólo se puede utilizar uno de los tipos. Esto quiere
    decir que en una placa base dual DDR – DDR2, que normalmente
    tiene cuatro bancos (dos para DDR y otros dos para DDR2),
    podemos poner dos módulos DDR o dos módulos
    DDR2, pero NO un módulo DDR y otro DDR2 o ninguna de
    sus posibles combinaciones. Es decir, que realmente
    sólo podemos utilizar uno de los pares de bancos, ya
    sea el DDR o el DDR2. En nuestra sección de Tutoriales
    disponemos de más documentos en los que pueden
    encontrar una mayor información sobre este tema. Les
    aconsejo leer los siguientes:

    19.-cual sus características
    de las tarjetas de sonido.

    La tarjeta de sonido se caracteriza por tener
    funciones principales que son la generación o
    reproducción de sonido y la entrada o grabación
    del mismo. Para reproducir sonidos, las tarjetas incluyen un
    chip sintetizador que genera ondas musicales, Una buena
    tarjeta de sonido, además de incluir la
    tecnología WaveTable, debe permitir que se
    añada la mayor cantidad posible de memoria. Algunos
    modelos admiten hasta 28 Megas de RAM (cuanta más,
    mejor).

    El criterio más inteligente es tener claro
    para qué la vamos a utilizar: si vamos a pasar la
    mayor parte del tiempo jugando, podemos prescindir de
    elementos avanzados, más enfocados a profesionales del
    sonido. En cualquier caso, ya sabes: la elección es
    personal.

    Monografias.com

    Monografias.com

    20.-Que función cumple el bus
    de audio analógico en una tarjeta de sonido o en un
    lector o quemador de CD.

    Además de tener conectores externos, los hay
    también internos, siendo el más importante el
    que va al CD-ROM, para poder escuchar los CDs de
    música. Puede ser digital (sólo en los
    más modernos) o el típico analógico. del
    cual hace tiempo había varios formatos (para CD-ROMs
    Sony, Mitsumi, IDE…) ahora ya unificados. Y en algunas
    tarjetas antiguas se incluía un conector IDE de 40
    pines para el CD-ROM (cuando los CD-ROMs eran algo "extra" y
    no existía el EIDE con sus 2 canales).

    21.-Cual sus características
    y capacidades de las tarjetas de Fax Modem.

    Módem es un acrónimo de
    Modulador-demodulador; es decir, que es un dispositivo que
    transforma las señales digitales del ordenador en
    señal telefónica analógica y viceversa,
    con lo que permite al ordenador transmitir y recibir
    información por la línea
    telefónica.

    Los chips que realizan estas funciones
    están casi tan estandarizados como los de las tarjetas
    de sonido; muchos fabricantes usan los mismos integrados, por
    ejemplo de la empresa Rockwell, y sólo se diferencian
    por los demás elementos electrónicos o la
    carcasa

    22.-Explique en que gravitan las
    versiones de las tarjetas de Fax MODEM.

    Su uso más común y conocido es en
    transmisiones de datos por
    vía telefónica.

    Las computadoras procesan datos de
    forma digital; sin embargo, las líneas
    telefónicas de la red básica sólo
    transmiten señales analógicas.

    Los métodos de modulación y otras
    características de los módems
    telefónicos están estandarizados por
    elUIT-T (el antiguo CCITT) en la serie de
    Recomendaciones "V". Estas Recomendaciones también
    determinan la velocidad de transmisión.
    Destacan:

    • V.21.
      Comunicación Full-Duplex entre dos
      módems analógicos realizando una
      variación en la frecuencia de la portadora de un
      rango de 300 baudios, logrando una transferencia de
      hasta 300 bps (bits por segundo).

    • V.22.
      Comunicación Full-Duplex entre dos
      módems analógicos utilizando una
      modulación PSK de 600 baudios para
      lograr una transferencia de datos de hasta 600 o 1200
      bps.

    • V.32. Transmisión a
      9.600 bps.

    • V.32bis. Transmisión a 14.400
      bps.

    • V.34. Estándar de módem que
      permite hasta 28,8 Kbps de transferencia de datos
      bidireccionales (full-duplex), utilizando
      modulación en PSK.

    • Partes: 1, 2, 3
 Página anterior Volver al principio del trabajoPágina siguiente 

Nota al lector: es posible que esta página no contenga todos los componentes del trabajo original (pies de página, avanzadas formulas matemáticas, esquemas o tablas complejas, etc.). Recuerde que para ver el trabajo en su versión original completa, puede descargarlo desde el menú superior.

Todos los documentos disponibles en este sitio expresan los puntos de vista de sus respectivos autores y no de Monografias.com. El objetivo de Monografias.com es poner el conocimiento a disposición de toda su comunidad. Queda bajo la responsabilidad de cada lector el eventual uso que se le de a esta información. Asimismo, es obligatoria la cita del autor del contenido y de Monografias.com como fuentes de información.

Categorias
Newsletter