Monografias.com > Sin categoría
Descargar Imprimir Comentar Ver trabajos relacionados

La Informática (página 3)



Partes: 1, 2, 3

Disco duro

Monitor

El tamaño de cada celda y el número de
celdas varía mucho de computadora a
computadora, y las tecnologías empleadas para la memoria han
cambiado bastante; van desde los relés
electromecánicos, tubos llenos de mercurio en los que se
formaban los pulsos acústicos, matrices de
imanes permanentes, transistores
individuales a circuitos
integrados con millones de celdas en un solo chip.

Con los circuitos
electrónicos se simula las operaciones
lógicas y aritméticas, se pueden diseñar
circuitos para que realicen cualquier forma de
operación.

La unidad lógica
y aritmética, o ALU, es el dispositivo diseñado y
construido para llevar a cabo las operaciones elementales como
las operaciones aritméticas (suma, resta), operaciones
lógicas (Y, O, NO), y operaciones de comparación.
En esta unidad es en donde se hace todo el trabajo
computacional.

La unidad de control sigue la
dirección de las posiciones en memoria que
contienen la instrucción que la computadora
va a realizar en ese momento; recupera la información poniéndola en la ALU
para la operación que debe desarrollar. Transfiere luego
el resultado a ubicaciones apropiadas en la memoria. Una vez que
ocurre lo anterior, la unidad de control va a la siguiente
instrucción (normalmente situada en la siguiente
posición, a menos que la instrucción sea una
instrucción de salto, informando a la computadora de que
la próxima instrucción estará ubicada en
otra posición de la memoria).

Los dispositivos E/S sirven a la computadora para,
obtener información del mundo exterior y devolver los
resultados de dicha información. Hay una gama muy extensa
de dispositivos E/S como los teclados, monitores y
unidades de disco flexible o las cámaras web.

Las instrucciones que acabamos de discutir, no son las
ricas instrucciones del ser humano. Una computadora sólo
se diseña con un número limitado de instrucciones
bien definidas. Los tipos de instrucciones típicas
realizadas por la mayoría de las computadoras
son como estos ejemplos: "…copia los contenidos de la
posición de memoria 123, y coloca la copia en la
posición 456, añade los contenidos de la
posición 666 a la 042, y coloca el resultado en la
posición 013, y, si los contenidos de la posición
999 son 0, tu próxima instrucción está en la
posición 345…".

Las instrucciones dentro de la computadora se
representan mediante números. Por ejemplo, el código
para copiar puede ser 001. El conjunto de instrucciones que puede
realizar una computadora se conoce como lenguaje de
máquina o código máquina. En la
práctica, no se escriben las instrucciones para las
computadoras directamente en lenguaje de máquina, sino que
se usa un lenguaje de
programación de alto nivel que se traduce
después al lenguaje de la máquina
automáticamente, a través de programas
especiales de traducción (intérpretes y compiladores).
Algunos lenguajes de
programación representan de manera muy directa
el lenguaje de
máquina, como los ensambladores (lenguajes de bajo nivel)
y, por otra parte, los lenguajes como Java, se basan en
principios
abstractos muy alejados de los que hace la máquina en
concreto
(lenguajes de alto nivel).

Las computadoras actuales colocan la ALU y la unidad de
control dentro de un único circuito integrado conocido
como Unidad central de procesamiento o CPU.
Normalmente, la memoria de la computadora se sitúa en unos
pocos circuitos integrados pequeños cerca de la CPU. La
gran mayoría de la masa de la computadora está
formada por sistemas
auxiliares (por ejemplo, para traer electricidad) o
dispositivos E/S.

Algunas computadoras más grandes se diferencian
del modelo
anterior, en un aspecto importante, porque tienen varias CPU y
unidades de control que trabajan al mismo tiempo.
Además, algunas computadoras, usadas principalmente para
la investigación, son muy diferentes del
modelo anterior, pero no tienen muchas aplicaciones
comerciales.

Por lo tanto, el funcionamiento de una computadora es en
principio bastante sencillo. La computadora trae las
instrucciones y los datos de la
memoria. Se ejecutan las instrucciones, se almacenan los datos y
se va a por la siguiente instrucción. Este procedimiento se
repite continuamente, hasta que se apaga la computadora. Los
Programas de computadora (software) son simplemente
largas listas de instrucciones que debe ejecutar la computadora,
a veces con tablas de datos. Muchos programas de computadora
contienen millones de instrucciones, y muchas de esas
instrucciones se ejecutan rápidamente. Una computadora
personal
moderna (en el año 2003) puede ejecutar de 2000 a 3000
millones de instrucciones por segundo. Las capacidades
extraordinarias que tienen las computadoras no se deben a su
habilidad para ejecutar instrucciones complejas. Las computadoras
ejecutan millones de instrucciones simples diseñadas por
personas inteligentes llamados programadores. Los buenos
programadores desarrollan grupos de
instrucciones para hacer tareas comunes (por ejemplo, dibujar un
punto en la pantalla) y luego ponen dichos grupos de
instrucciones a disposición de otros
programadores.

En la actualidad, podemos tener la impresión de
que las computadoras están ejecutando varios programas al
mismo tiempo. Esto se conoce como multitarea, siendo más
usado el segundo término. En realidad, la CPU ejecuta
instrucciones de un programa y
después tras un breve periodo de tiempo, cambian a un
segundo programa y ejecuta algunas de sus instrucciones. Esto
crea la ilusión de que se están ejecutando varios
programas simultáneamente, repartiendo el tiempo de la CPU
entre los programas. Esto es similar a la película que
está formada por una sucesión rápida de
fotogramas. El sistema operativo
es el programa que controla el reparto del tiempo
generalmente.

El sistema operativo
es una especie de caja de herramientas
lleno de rutinas. Cada vez que alguna rutina de computadora se
usa en muchos tipos diferentes de programas durante muchos
años, los programadores llevarán dicha rutina al
sistema operativo, al final.

El sistema operativo sirve para decidir, por ejemplo,
qué programas se ejecutan, y cuándo, y qué
fuentes
(memoria o dispositivos E/S) se utilizan. El sistema operativo
tiene otras funciones que
ofrecer a otros programas, como los códigos que sirven a
los programadores, escribir programas para una máquina sin
necesidad de conocer los detalles internos de todos los
dispositivos electrónicos conectados.

En la actualidad se están empezando a incluir
dentro del sistema operativo algunos programas muy usados debido
a que es una manera económica de distribuirlos. No es
extraño que un sistema operativo incluya navegadores de
internet,
procesadores de
texto, programas de correo
electrónico, interfaces de red, reproductores de
películas y otros programas que antes se tenían que
conseguir aparte.

Apple iMac de 17

Computador de bolsillo o Pocket
PC
– Dell Axim

Las primeras computadoras digitales, de gran
tamaño y coste, se utilizaban principalmente para hacer
cálculos científicos. ENIAC, una de las primeras
computadoras, calculaba densidades de neutrón
transversales para ver si explotaría la bomba de hidrógeno. El CSIR Mk I, el primer computador
australiano, evaluó patrones de precipitaciones para un
gran proyecto de
generación hidroeléctrica. Los primeros visionarios
vaticinaron que la programación permitiría jugar al
ajedrez, ver
películas y otros usos.

La gente que trabajaba para los gobiernos y las grandes
empresas
también usaron las computadoras para automatizar muchas de
las tareas de recolección y procesamiento de
datos, que antes eran hechas por humanos; por ejemplo,
mantener y actualizar la contabilidad y
los inventarios. En
el mundo académico, los científicos de todos los
campos empezaron a utilizar las computadoras para hacer sus
propios análisis. El descenso continuo de los
precios de las
computadoras permitió su uso por empresas cada vez
más pequeñas. Las empresas, las organizaciones y
los gobiernos empiezan a emplear un gran número de
pequeñas computadoras para realizar tareas que antes eran
hechas por computadores centrales grandes y costosos. La
reunión de varias pequeñas computadoras en un solo
lugar se llamaba torre de servidores.

Con la invención del microprocesador
en 1970, fue posible fabricar computadoras muy baratas. Las
computadoras personales se hicieron famosas para llevar a cabo
diferentes tareas como guardar libros,
escribir e imprimir documentos.
Calcular probabilidades y otras tareas matemáticas repetitivas con hojas de
cálculo, comunicarse mediante correo
electrónico e Internet. Sin embargo, la gran
disponibilidad de computadoras y su fácil
adaptación a las necesidades de cada persona, han
hecho que se utilicen para varios propósitos.

Al mismo tiempo, las pequeñas computadoras, casi
siempre con una programación fija, empezaron a hacerse
camino entre las aplicaciones del hogar, los coches, los aviones
y la maquinaria industrial. Estos procesadores
integrados controlaban el comportamiento
de los aparatos más fácilmente, permitiendo el
desarrollo de
funciones de control más complejas como los sistemas de
freno antibloqueo en los coches. A principios del siglo 21, la
mayoría de los aparatos eléctricos, casi todos los
tipos de transporte
eléctrico y la mayoría de las líneas de
producción de las fábricas funcionan
con una computadora. La mayoría de los ingenieros piensa
que esta tendencia va a continuar.

Etimología de las palabras ordenador y
computadora

La denominación más usada en el castellano es la
de computador o computadora, procedente del inglés
computer, a su vez procedente del latín "computare". En
España
está generalizado el localismo ordenador, galicismo
derivado de ordinateur.

En italiano, se emplea el término en
inglés, il computer (el computador); el árabe
alterna el término inglés (arabizado como
kumbiyūter
كمبيوتر) con el
neologismo hāsūb حاسوب
(«computador», literalmente). En Suecia el nombre
estį relacionado con los datos dator. En China, a la
computadora se le denomina (cerebro
eléctrico).

En un principio, la palabra inglesa se utilizaba para
designar a una persona que realizaba cálculos
aritméticos con o sin ayuda mecánica. Podemos considerar las
computadoras programables modernas como la evolución de sistemas antiguos de cálculo o
de ordenación, como la máquina diferencial de
Babbage o la máquina tabuladora de Hollerith.

Historia del hardware

La historia del hardware comprende el
surgimiento de herramientas en la antigüedad para facilitar
los cálculos, su mejora, cambios, hasta la
aparición del ordenador digital en el siglo.

Primeros dispositivos

Ábaco

Seguramente fue el ábaco
el primer dispositivo mecánico utilizado para el
cálculo y aritmética básica. Anteriormente
se habían utilizado piedras, palos y elementos de
diferentes tamaños para representar números, y
así realizar operaciones, pero el ábaco es el
primer intento de máquina para calcular. Su origen se
remonta a China hacia el 2500 adC y tal fue su efectividad y
repercusión que hoy en día siguen
construyéndose, aunque no para su uso como
antaño.

Primeras calculadoras mecánicas
(siglo XVII)

En 1623
Wilhelm Schickard construyó la
primera calculadora mecánica y por ello se le considera el
padre de la era del cómputo. Como su máquina usaba
piezas de relojería (como dientes y engranajes),
también se la llamó "reloj de cálculo". Su
amigo
Johannes Kepler, quien revolucionó
la astronomía, la puso en funcionamiento y la
utilizó.

En el año 1633, un clérigo inglés,
de nombre
Willian Oughtred, inventó un
dispositivo de cálculo basado en los logaritmos de Napier,
al cual denominó Círculos de
Proporción.

Este instrumento llegó a ser conocido como la
regla de cálculo, que se ha usado hasta el siglo XX,
cuando llegó la calculadora electrónica portátil. La regla de
cálculo consiste en un conjunto de reglas o discos
deslizantes, que tienen marcas en
escala
logarítmica. Debido a sus propiedades, permite obtener
calcular productos y
cocientes haciendo sólo sumas y restas de
longitudes.

Blaise
Pascal

En la Francia del
siglo XVII, Blaise Pascal con
sólo 19 años inventó la primera calculadora
del mundo, la Pascalina. Era una pequeña caja de madera
bastante incómoda que
tenía en la tapa una hilera de discos numerados, como los
del teléfono (que tardaría un siglo
más en inventarse), con los agujeros para introducir los
dedos y hacerlos girar. Cada disco tenía una ventanilla, y
había toda una hilera de ventanillas bajo la hilera de
discos: de derecha a izquierda se alineaban las unidades,
decenas, centenas, etc.

Cuando una rueda daba una vuelta completa, avanzaba la
otra rueda situada a su izquierda. Las ventanillas
correspondientes a cada unidad daban la respuesta
buscada.

En conjunto, el engranaje proporcionaba un mecanismo de
respuesta idéntico al resultado que se puede obtener
empleando la aritmética. No obstante, la Pascalina
tenía varios inconvenientes; el principal era que
sólo el mismo Pascal era capaz de arreglarla.

En 1670 el filósofo y matemático
alemán Gottfried Wilhelm Leibniz perfeccionó esta
máquina e inventó una que también
podía multiplicar. A pesar de ello, las limitaciones
técnicas de la época jugaron en su
contra. Leibniz también describió el sistema
binario, un ingrediente central para todas las computadoras
modernas. Sin embargo, hacia los años 1940s, muchos
diseños subsecuentes (incluyendo la máquina de
Babbage de los años 1800s e incluso la ENIAC de 1945)
fueron basados en el tan difícil de implementar sistema
decimal.

Siglo XIX

Telar de Jacquard

En 1801, el inventor francés Joseph Marie
Jacquard diseñó un telar que no necesitaba
adaptarse mecánicamente a cada diseño
a tejer, sino que usaba unas delgadas placas de madera perforadas
que representaban el patrón. Se conoce como el telar de
Jacquard.

Máquina diferencial y
analítica

Parte de la máquina diferencial de
Babbage

También en el siglo XIX el matemático e
inventor británico Charles Babbage elaboró los
principios de la computadora digital moderna (programable y de
propósito general). Este noble inglés usaba la
pascalina para sus cálculos pero le resultaba muy
incómoda, dado que no hacía nada por sí
sola; había que indicarle los números y las
operaciones cada vez. Un día al ver un telar
mecánico que confeccionaba un punto escocés por
sí solo, sin necesidad de que hubiese alguien allí
dándole indicaciones cada vez, tuvo una idea. Los telares
estaban dirigidos por cintas perforadas. Así que Babbage,
copiando al telar, inventó su propia calculadora con
cintas perforadas.

Luego inventó una serie de máquinas,
como la máquina diferencial, diseñadas para
solucionar problemas
matemáticos complejos. Muchos historiadores consideran a
Babbage y a su socia, la matemática
británica Augusta Ada Byron (1815-1852), hija del poeta
inglés Lord Byron, como a los verdaderos inventores de la
computadora digital moderna.

La tecnología de aquella
época no era capaz de trasladar a la práctica sus
acertados conceptos; pero una de sus invenciones, la
máquina analítica, ya tenía muchas de las
características de un ordenador moderno. Incluía
una corriente, o flujo de entrada en forma de paquete de tarjetas
perforadas, una memoria para guardar los datos, un procesador para
las operaciones matemáticas y una impresora para
hacer permanente el registro. Estaba
hecha de hierro y se
necesitaba una máquina de vapor y era muy cara. Cuando la
Marina dejó de financiarle, Babbage nunca pudo terminar su
máquina.

Máquina tabuladora

Durante la década de 1880 el estadístico
estadounidense Herman Hollerith concibió la máquina
tabuladora a partir de la idea de utilizar tarjetas perforadas,
similares a las placas de Jacquard, para procesar datos.
Hollerith consiguió compilar la información
estadística destinada al censo de población de 1890 de Estados Unidos en
sólo 2 años en vez de 13, que era lo que se
estimaba. La máquina hacía pasar las tarjetas
perforadas sobre contactos eléctricos para catalogarlas en
diferentes cajones.

Más adelante, esta máquina
evolucionó y pudo hacer operaciones matemáticas.
Fue el principal negocio de IBM desde 1924, con Thomas John
Watson

1900-1940: computadoras analógicas

Por los 1900s las primeras calculadoras
mecánicas, cajas registradoras, máquinas de
contabilidad, entre otras se rediseñaron para utilizar
motores
electrónicos, con un engranaje de posición como la
representación para el estado de
una variable. Las personas eran computadoras, como un
título de trabajo, y
usaban calculadoras para evaluar expresiones.

Los nomogramas, como esta Carta de Smith,
son un dispositivo de cálculo analógico para
algunos tipos de problemas

Antes de la Segunda Guerra
Mundial, los ordenadores analógicos eran lo más
moderno de esa época, y muchos creían que
sería el futuro de la informática.

Una máquina analógica representa
cantidades mediante magnitudes físicas que pueden cambiar
continuamente, como la tensión, la corriente, la velocidad de
rotación de un eje, etc. Un ejemplo de esta máquina
es el Integrador de agua, de 1936,
que funcionaba con tuberías y cubos de agua etiquetados
con una escala.

Este tipo de ordenadores permitía resolver
problemas complejos que los digitales eran incapaces de procesar,
ya que aún estaban en sus primeros intentos. En cambio,
tenían el problema de la poca flexibilidad: tenían
que ser reconfigurados (manualmente) para cada
problema.

A medida que los digitales se hicieron más
rápidos y con más memoria RAM, se
vio que sí que era posible sustituir a los
analógicos. Entonces nació el concepto de
programación de ordenadores digitales tal como lo
conocemos hoy en día, como un trabajo lógico y
matemático más que de conexión y
desconexión de tuberías y cables en una
máquina.

También hubo ordenadores híbridos
(magnitudes analógicas controladas por circuitos
digitales), que se usaron mucho en los 1950 y 1960, y más
tarde en aplicaciones específicas.

Algunas computadoras analógicas se usaban en el
campo de la artillería, para ayudar a apuntar a un
objetivo en
los vehículos de combate o en otras armas. Un ejemplo
es el bombardero Norden. Algunos de estos sistemas se siguieron
usando mucho después de la Segunda Guerra
Mundial.

Como las máquinas computadoras no eran muy
comunes en esta época, algunos mecanismos se usaban
mediante mecanismos en papel, como grafos y
nomogramas (diagramas) que
daban soluciones
analógicas a algunos problemas, como la distribución de presiones y temperaturas en
un sistema calefactor. Otro ejemplo es la Carta de
Smith.

Siglo XX: primeras computadoras
electrónicas

En los años 30, siendo presidente de
IBM Mister Watson, un joven profesor de
Harvard, llamado Howard Aiken, le presentó un nuevo
diseño de la calculadora de Babbage. Al igual que Pascal
diseñó la pascalina y Babbage añadió
el manejo mediante cintas perforadas, Aiken sustituyó el
mecanismo de vapor por electricidad y añadió el
mecanismo de control de una centralita telefónica, de
manera que la máquina seleccionara por sí sola las
tarjetas perforadas. Aiken obtuvo fondos para su proyecto y
construyó el Harvard Mark 1, de 3 metros de alto y 20 de
largo, que estuvo funcionando hasta 1959.

Casi al mismo tiempo que Howard Aiken, en el
Berlín de los años 30, un joven ingeniero
aeronáutico de 26 años llamado Konrad Zuse
construyó la primera computadora electromecánica binaria programable, la
cual hacía uso de relés eléctricos para
automatizar los procesos. Sin
embargo, tan sólo fabricó un prototipo para
pruebas al
cual llamó Z1. Este prototipo nunca llegó a
funcionar debido a la falta de perfeccionamiento en sus elementos
mecánicos.

En 1940 Zuse terminó su modelo Z2, la cual fue la
primera computadora electromecánica completamente
funcional del mundo. Al año siguiente, en 1941,
fabricó su modelo Z3 para el cual desarrolló un
programa de control que hacía uso de los dígitos
binarios. No obstante, esta computadora fue destruida en 1944 a
causa de la guerra. Konrad Zuse se había basado para el
diseño de sus computadores en los recientes trabajos de
Alan Turing. Luego llegó el Z4, que necesitaba 20 metros
cuadrados y pesaba 2 toneladas. En plena Segunda Guerra
Mundial, la Z4 estaba en peligro y fue desmontada pieza a
pieza y llevada a un lugar seguro. Entre
1945 y 1946 creó el Plankalkül (Plan de
Cálculos), el primer lenguaje de programación de la
historia y predecesor de los lenguajes modernos de
programación algorítmica.

ENIAC

Durante la Segunda Guerra Mundial
(1939-1945), un equipo de científicos y matemáticos
que trabajaban en Bletchley Park, al norte de Londres, crearon lo
que se consideró el primer ordenador digital totalmente
electrónico: el Colossus. Hacia diciembre de 1943 el
Colossus, que incorporaba 1.500 válvulas o
tubos de vacío, era ya operativo. Fue utilizado por el
equipo dirigido por Alan Turing para descodificar los mensajes de
radio cifrados
de los alemanes.

En 1939 y con independencia
de este proyecto, John Atanasoff y el estudiante graduado
Clifford Berry ya habían construido un prototipo de
máquina electrónica en el Iowa State College
(Estados Unidos). Estos investigadores desarrollaron la primera
computadora digital electrónica entre los años de
1937 a 1942. Llamaron a su invento la computadora
Atanasoff-Berry, o sólo ABC (Atanasoff Berry
Computer).

Este prototipo y las investigaciones
posteriores se realizaron en el anonimato, y más tarde
quedaron eclipsadas por el desarrollo del Calculador e integrador
numérico digital electrónico (ENIAC) en 1945. El
ENIAC, que según mostró la evidencia se basaba en
gran medida en el `ordenador' Atanasoff-Berry, obtuvo una patente
que caducó en 1973, varias décadas más
tarde.

El ENIAC contenía 18.000 válvulas de
vacío y tenía una velocidad de varios cientos de
multiplicaciones por minuto, pero su programa estaba conectado al
procesador y debía ser modificado manualmente. Se
construyó un sucesor del ENIAC con un almacenamiento de
programa que estaba basado en los conceptos del matemático
húngaro-estadounidense John von Neumann.
Las instrucciones se almacenaban dentro de una llamada memoria,
lo que liberaba al ordenador de las limitaciones de velocidad del
lector de cinta de papel durante la ejecución y
permitía resolver problemas sin necesidad de volver a
conectarse al ordenador.

La computadora EDVAC, construida en la Universidad de
Manchester, en Connecticut (EEUU), en 1949 fue el primer equipo
con capacidad de almacenamiento de memoria e hizo desechar a los
otros equipos que tenían que ser intercambiados o
reconfigurados cada vez que se usaban.

Esta computadora fue construida por John Mauchly y J.
Prespert Eckert, (participando también Von Neumann)
quienes empezaron a trabajar en ella 2 años antes que la
ENIAC empezara a operar. La idea era tener el programa almacenado
en la computadora y esto fue posible gracias a que la EDVAC
tenía una mayor capacidad de almacenamiento de
memoria.

La memoria consistía en líneas de mercurio
dentro de un tubo de vidrio al
vacío, de tal modo que un impulso electrónico
podía ir y venir en 2 posiciones, para almacenar los ceros
(0) y unos (1). Esto era indispensable ya que en lugar de usar
decimales la EDVAC empleaba números binarios

La Univac (Universal Atomic Computer), en 1951, fue la
primera computadora comercial moderna. Este computador se
utilizaba para el tratamiento de datos no
científicos.

Fue construida por la Remington Ran (Sperry Rand),
compañía fundada por Eckert y Mauchly. La Univac
fue la primera máquina capaz de aceptar y tratar o
procesar datos alfabéticos y numéricos.

Las calculadoras mecánicas, cajas registradoras,
máquinas de contabilidad, entre otras, se habían
rediseñado para utilizar motores electrónicos, con
un engranaje de posición como la representación
para el estado de una
variable. Las personas eran computadoras, como un título
de trabajo, y usaban calculadoras para evaluar expresiones.
Durante el proyecto Manhattan, el futuro Nobel Richard Feynman
fue el supervisor de las computadoras humanas, muchas de las
mujeres dedicadas a las matemáticas, que entendieron las
ecuaciones
matemáticas que estaban resolviéndose para el
esfuerzo de guerra. Incluso el renombrado Stanislaw Marcin Ulman
fue presionado por el servicio para
traducir las matemáticas en las aproximaciones computables
para la bomba de hidrógeno, después de la guerra.
Durante la Segunda Guerra Mundial, los planes de Curt Herzstark
para una calculadora de bolsillo mecánica, literalmente le
salvaron la vida: Cliff Stoll, Scientific American 290, no. 1,
pp. 92-99. (January 2004).

Transistores

A finales de la década de 1950 el uso del
transistor en
los ordenadores marcó el advenimiento de elementos
lógicos más pequeños, rápidos y
versátiles de lo que permitían las máquinas
con válvulas. Como los transistores utilizan mucha menos
energía y tienen una vida útil más
prolongada, a su desarrollo se debió el nacimiento de
máquinas más perfeccionadas, que fueron llamadas
ordenadores o computadoras de segunda generación. Los
componentes se hicieron más pequeños, así
como los espacios entre ellos, por lo que la fabricación
del sistema resultaba más barata.

Circuito integrado

A finales de la década de 1960 apareció el
circuito integrado (CI), que posibilitó la
fabricación de varios transistores en un único
sustrato de silicio en el que los cables de interconexión
iban soldados. El circuito integrado permitió una
posterior reducción del precio, el
tamaño y los porcentajes de error. El microprocesador se
convirtió en una realidad a mediados de la década
de 1970, con la introducción del circuito de integración a gran escala (LSI,
acrónimo de Large Scale Integrated) y, más tarde,
con el circuito de integración a mayor escala (VLSI,
acrónimo de Very Large Scale Integrated), con varios miles
de transistores interconectados soldados sobre un único
sustrato de silicio.

Generaciones de
computadoras

Las computadoras actuales pasaron por varias etapas
diferenciadas:

Primera generación de
computadoras

Abarca desde los inicios de los años 50 hasta
unos diez años después, y en la cual la
tecnología electrónica era a base de bulbos o tubos
de vacío, y la
comunicación era en términos de nivel
más bajo que puede existir, que se conoce como lenguaje de
máquina. Estas máquinas eran así:

  • Estaban construidas con electrónica de
    válvulas
  • Se programaban en lenguaje de
    máquina

Un programa es un conjunto de instrucciones para que la
máquina efectúe alguna tarea, y que el lenguaje
más simple en el que puede especificarse un programa se
llama lenguaje de máquina (porque el programa debe
escribirse mediante algún conjunto de códigos
binarios). La primera generación de computadoras y a sus
antecesores, se describen en la siguiente lista de los
principales modelos de que
constó:

1947 ENIAC. Primera computadora digital
electrónica de la historia. No fue modelo de
producción, sino una maquina experimental. Tampoco era
programable en el sentido actual. Se trataba de un enorme aparato
que ocupa todo un sótano en la universidad. Constaban de
18 000 bulbos, consumía varios KW de potencia
eléctrica y pesaba algunas toneladas. Era capaz de
efectuar cinco mil sumas por segundo. Fue hecha por un equipo de
ingenieros y científicos encabezados por los doctores John
W. Mauchly y J. Prester Eckert en la universidad de Pennsylvania,
en los Estados Unidos.

1949 EDVAC. Primera computadora programable.
También fue un prototipo de laboratorio,
pero ya incluía en su diseño las ideas centrales
que conforman a las computadoras actuales. Incorporaba las ideas
del doctor Alex Quimis.

1951 UNIVAC I. Primera computadora comercial. Los
doctores Mauchly y Eckert fundaron la compañía
Universal Computer (Univac ), y su primer producto fue
esta máquina. El primer cliente fue la
oficina del
censo de Estados Unidos.

1953 IBM 701. Para introducir los datos, estos equipos
empleaban el concepto de tarjetas perforadas, que había,
sido inventada en los años de la revolución
industrial (finales del siglo XVIII) por el francés
Jacquard y perfeccionado por el estadounidense Hermand Hollerith
en 1890. La IBM 701 fue la primera de una larga serie de
computadoras de esta compañía, que luego se
convertiría en la número 1 por su volumen de
ventas.

1954 – IBM continuo con otros modelos, que incorporaban
un mecanismo de 1960 almacenamiento masivo llamado tambor
magnético, que con los años evolucionaría y
se convertiría en disco magnético

Segunda generación de
computadora

La Segunda generación de computadoras, abarca el
periodo comprendido entre 1959 y 1964, caracterizándose
por la invención del transistor.

Por los años 50 los transistores reemplazaron a
los bulbos en los circuitos de las computadoras.

Las computadoras de la segunda generación ya no
son de bulbos, sino con transistores son más
pequeñas y consumen menos electricidad que las anteriores,
la forma de comunicación con estas nuevas computadoras
es mediante lenguajes más avanzados que el lenguaje de
máquina, y que reciben el nombre de "lenguajes de alto
nivel" o lenguajes de programación. Las
características más relevantes de las computadoras
de la segunda generación son:

Estaban construidas con electrónica de
transistores se programaban con lenguajes de alto
nivel

Cronología

1951, Maurice Wilkes inventa la
microprogramación, que simplifica mucho el desarrollo de
las CPU

1956, IBM vendió su primer sistema de disco
magnético, RAMAC [Random Access Method
of Accounting and Control]. Uso 50 discos de metal de 24", con
100 pistas por lado. Podía guardar 5 megabytes de datos y
con un costo de $10.000
por megabyte.

El primer lenguaje de programación de
propósito general de alto-nivel, FORTRAN, también
estaba desarrollándose en IBM alrededor de este tiempo.
(El diseño de lenguaje de alto-nivel Plankalkül de
1945 de Konrad Zuse no se implementó en ese
momento).

1959, IBM envió la mainframe IBM 1401 basado en
transistor, que utilizo tarjetas perforadas. Demostró una
computadora de propósito general y 12.000 fueron enviadas,
haciéndola la máquina más exitosa en la
historia de la
computación. Uso una memoria de núcleo
magnético de 4.000 caracteres (después
extendió a 16.000 caracteres). Muchos aspectos de sus
diseños eran basados en el deseo de reemplazar las
máquina de tarjetas perforadas que eran en extenso uso de
los años 1920 a través de principios de los
'70.

1960, IBM envió la mainframe IBM 1620 basada en
transistor, originalmente con solo una cinta de papel perforado,
pero pronto se actualizó a tarjetas perforadas.
Probó ser una computadora científica popular y
aproximadamente 2.000 se enviaron. Uso una memoria de
núcleo magnético de arriba de los 60.000
dígitos decimales.

DEC lanzo el PDP-1 su primera máquina pensada
para el uso por personal técnico en laboratorios y para la
investigación.

1964, IBM anunció la serie S/360, que fue la
primera familia de
computadoras que podía correr el mismo software en
diferentes combinaciones de velocidades, capacidad y precio.
También abrió el uso comercial de microprogramas, y
un juego de
instrucciones extendidas para procesar muchos tipos de datos,
no solo aritmética. Además, se unificó la
línea de producto de IBM, que previamente a este tiempo
tenía incluidos ambos, una línea de producto
"comercial" y una línea "científica" separada. El
software proporcionado con el System/350 también incluyo
mayores avances, incluyendo multi-programación disponible
comercialmente, nuevos lenguajes de programación, e
independencia de programas de dispositivos de
entrada/salida. Más de 14.000 sistemas System/360
fueron enviadas por 1968.

DEC lanzo la máquina más pequeña
PDP-8 pensada para ser usada por personal técnico en
laboratorios y para investigación.

Transistor

En 1948, los físicos estadounidenses John
Bardeen, William Shockley y Walter Brattain inventaron el
transistor, un dispositivo formado por tres capas de materiales
semiconductores (como el germanio o el silicio) a
cada una de las cuales se añaden impurezas de dos tipos
diferentes.

El transistor funciona de manera muy semejante a la de
un triodo, pues puede funcionar como amplificador, como oscilador
y como interruptor, pero tiene ventajas muy importantes respecto
a éste:

  • Como no necesita
    vacío, es mucho más fácil de
    construir.
  • Puede hacerse tan pequeño como se
    quiera.
  • Gasta mucha menos
    energía.
  • Funciona a una temperatura más baja.
  • No es necesario esperar a que se
    caliente.

Por la invención del transistor, se
concedió a los tres investigadores el premio Nobel de
Física de
1956. Bardeen ganó otro en 1972, esta vez por la teoría
de la superconductividad, con lo que se convirtió en el
primer científico que conseguía dos de estos
premios en la misma disciplina. El
transistor que dio el Premio Nobel a los tres físicos era
de puntas; un cristal de germanio con tres puntas haciendo
contacto con él.

El transistor suplantó rápidamente a la
válvula al vacío, que sólo se en unidades de
potencia muy alta.

En el mundo de la radio, el
aparato de transistores, manejable y portátil,
sustituyó a las grandes consolas de los años
treinta a cincuenta.

En las computadoras dio lugar a la segunda
generación formada por máquinas mucho más
pequeñas que las de válvulas (aunque aun grandes,
comparadas con las actuales), que no necesitaban tanta refrigeración.

Tercera generación de
computadoras

A mediados de los años 60 se produjo, la
invención de Jack St. Claire Kilby y Robert Noyce del
circuito integrado o microchip, después llevó a la
invención de Ted Hoff del microprocesador, en Intel. Por
los finales de 1950, los investigadores como George Gamow noto
que las secuencias de nucleótidos en DNA, aun otra forma
de codificar o programar.

A partir de esta fecha, empezaron a empaquetarse varios
transistores diminutos y otros componentes electrónicos en
una sola pastilla, que contenía en su interior un circuito
completo: un amplificador, un oscilador, o una puerta
lógica. Naturalmente, con estas pastillas (circuitos
integrados) era mucho más fácil montar aparatos
complicados: receptores de radio o televisión
y computadoras.

En 1965, IBM anunció el primer grupo de
máquinas construidas con circuitos integrados, que
recibió el nombre de serie 360.

Estas computadoras de tercera generación
sustituyeron totalmente a los de segunda, introduciendo una forma
de programar que aún se mantiene en las grandes
computadoras actuales de esta empresa.

Cuarta generación de
computadoras

Durante los años setenta, las técnicas de
empaquetado de circuitos mejoraron hasta el punto de que los
transistores y otros componentes electrónicos llegaron a
hacerse microscópicos, introduciéndose miles de
ellos, y hasta millones, en un solo chip.

Estas técnicas reciben el nombre de VLSI (siglas
inglesas de "Very Large Scale Integration", integración en
escala muy grande).

Se suele considerar que, con ellas, entramos en la
cuarta generación de computadoras, en las que el corazón de
una computadora (el microprocesador) está empaquetado en
un solo chip.

Quinta generación de
computadoras

La quinta generación de computadoras fue un
proyecto ambicioso lanzado por Japón a
finales de los 70. Su objetivo era el desarrollo de una clase de
computadoras que utilizarían técnicas de inteligencia
artificial al nivel del lenguaje de máquina y
serían capaces de resolver problemas complejos, como la
traducción automática de una lengua natural
a otra (del japonés al inglés, por
ejemplo).

El proyecto duró diez años, pero no obtuvo
los resultados esperados: las computadoras actuales siguen siendo
de cuarta generación.

Debido a que entendieron que la única manera de
dar el salto hacia la quinta generación era trabajar en
conjunto, buscaron ayuda internacional, con esto, el proyecto se
hizo mundial.

Con la cooperación internacional se han logrado
importantes avances en el proyecto, sin embargo, aún falta
mucho para que nos insertemos de lleno en la quinta
generación.

Básicamente, los cambios más
significativos que pretende introducir la quinta
generación son un cambio en el lenguaje nativo de las
computadoras (de binario a Prolog, el cual es un cambio radical,
por ser un lenguaje de alto nivel), procesamiento paralelo (miles
de procesadores funcionando en conjunto) y algunas otras
novedades.

Quinta Generación. 1982-1993

El Proyecto del Sistema de Computadoras de Quinta
Generación fue desarrollado por el Ministerio de Industria y
Comercio
Internacional de Japón que comenzó en 1982 para
crear computadoras de quinta generación. Debía ser
resultado de un proyecto de investigación a gran escala
entre el gobierno y la
industria de Japón en la década de los
ochenta.

Las Características que se pretendía que
las computadoras adquirieran eran las siguientes:

Inteligencia Artificial

Son sistemas que pueden aprender a partir de la
experiencia y que son capaces de aplicar esta información
en situaciones nuevas. Tuvo sus inicios en los 50s. Algunas
aplicaciones se pueden encontrar en:

? Traductores de lenguajes

? Robots con capacidad de movimiento

? Juegos

? Reconocimiento de formas tridimensionales

? Entendimiento de relatos no triviales

Debe quedar claro que inteligencia
artificial no implica computadoras inteligentes; implica
más bien computadoras que ejecutan programas
diseñados para simular algunas de las reglas mentales
mediante las cuales se puede obtener conocimiento a
partir de hechos específicos que ocurren, o de entender
frases del lenguaje hablado, o de aprender reglas para ganar
juegos de
mesa. Para desarrollar este concepto se pretendía cambiar
la forma en que las computadoras interactuaban con la
información cambiando su lenguaje base a un lenguaje de
programación lógica

Procesamiento en paralelo

Se trata de un proceso
empleado para acelerar el tiempo de ejecución de un
programa dividiéndolo en múltiples trozos que se
ejecutarán al mismo tiempo, cada uno en su propio
procesador. Un programa dividido en n trozos de esta forma,
podría ejecutarse n veces más rápido, que su
equivalente en un solo procesador, pero aun así queda
claro que éste es su límite teórico (es
decir el máximo que puede alcanzar) pudiendo conseguir en
el mejor de los casos un valor
aproximado con un buen paralelismo. Aunque, en principio,
paralelizar un programa supone un incremento de su velocidad de
ejecución, esto no tiene por qué ser siempre
así, ya que hay muchos casos en los que, o bien es
imposible llevar a cabo una paralelización del mismo, o
una vez llevado a cabo ésta, no se aprecia mejora alguna,
o en el peor de los casos, se produce una pérdida de
rendimiento. Hay que tener claro que para realizar un programa
paralelo debemos, para empezar, identificar dentro del mismo
partes que puedan ser ejecutadas por separado en distintos
procesadores. Además, es importante señalar que un
programa que se ejecuta de manera secuencial, debe recibir
numerosas modificaciones para que pueda ser ejecutado de manera
paralela, es decir, primero sería interesante estudiar si
realmente el trabajo que esto nos llevará se ve compensado
con la mejora del rendimiento de la tarea después de
paralelizarla.

Antecedentes y Diseño del
Proyecto

A través de las múltiples generaciones
desde los años 50, Japón había sido el
seguidor en términos del adelanto y construcción de las computadoras de los
Modelos de los Estados Unidos y el Reino Unido. Japón
decidió romper con esta naturaleza de
seguir a los líderes y a mediados de la década de
los 70 comenzó a abrirse camino hacia un futuro en la
industria de la informática. El centro del desarrollo y
proceso de la información de Japón fue el encargado
llevar a cabo un plan para desarrollar el proyecto. En 1979
ofrecieron un contrato de tres
años para realizar estudios más profundos junto con
industria y la academia. Fue durante este período cuando
el término "computadora de quinta generación"
comenzó a ser utilizado.

Los campos principales para la investigación de
este proyecto inicialmente eran:

? Tecnologías para el proceso del
conocimiento

? Tecnologías para procesar bases de datos y
bases de conocimiento masivo

? Sitios de trabajo del alto rendimiento

? Informáticas funcionales
distribuidas

? Supercomputadoras para el cálculo
científico

Debido a la conmoción suscitada que causó
que los japoneses fueran exitosos en el área de los
artículos electrónicos durante la década de
los 70, y que prácticamente hicieran lo mismo en el
área de la automoción durante los 80, el proyecto
de la quinta generación tuvo mucha reputación entre
los otros países.

Tal fue su impacto que se crearon proyectos
paralelos. En Estados Unidos, la Corporación de
Microelectrónica y Tecnologías de la Computación, en Inglaterra fue
Alves, y en Europa su
reacción fue conocida como el Programa Europeo en
Investigación Estratégica de la Tecnología
de la Información.

Como uno de los productos finales del Proyecto se
desarrollaron 5 Maquinas de Inferencia Paralela (PIM) teniendo
como una de sus características principales 256 elementos
de Procesamiento Acoplados en red. El proyecto también
produjo herramientas que se podían utilizar con estos
sistemas tales como el Sistema Paralelo de Gerencia de
Bases de Datos Kappa, el Sistema de Razonamiento Legal HELIC-II y
el Teorema Autómata de Aprobaciones MGTP.

Sistemas expertos

Un sistema experto es una aplicación de
inteligencia artificial que usa una base de conocimiento de la
experiencia humana para ayudar a la resolución de
problemas (hechos sobre objetos, así como situaciones e
información sobre el seguimiento de una acción
para resolver un problema).

Ejemplos de sistemas
expertos:

  • Diagnósticos
  • Reparación de equipos
  • Análisis de inversiones
  • Planeamiento financiero
  • Elección de rutas para
    vehículos
  • Ofertas de contrato
  • Asesoramiento para clientes de
    autoservicio
  • Control de producción y
    entrenamientos
  • Novasoft Server

Bibliografía

Breve resumen de la informática http://
es.wikipedia.org

Las generaciones de la computadora http://
es.wikipedia.org

Tecnologías accesibles a la informática
http:// www.adagreatlakes.org

Biografía del autor

María Elizabeth Sosa Ortiz: Nació el 8 de
diciembre de 1988 en la ciudad de Itá.

Nacionalidad paraguaya

Estado Civil: soltera

Antecedentes de estudio: Primaria cursó en la
escuela San Juan
Bautista Nº3194 desde el 1er grado hasta 6to grado (en los
años 1994-1999).

La secundaria cursó en el colegio nacional
Inmaculada Concepción 7mo al 3er curso entre los
años 2000-2005.

Actualmente estudiante de la carrera de ingeniería en informática en la
universidad Técnica de Comercialización y Desarrollo.

Maria Elizabath Sosa
Ortiz

Partes: 1, 2, 3
 Página anterior Volver al principio del trabajoPágina siguiente 

Nota al lector: es posible que esta página no contenga todos los componentes del trabajo original (pies de página, avanzadas formulas matemáticas, esquemas o tablas complejas, etc.). Recuerde que para ver el trabajo en su versión original completa, puede descargarlo desde el menú superior.

Todos los documentos disponibles en este sitio expresan los puntos de vista de sus respectivos autores y no de Monografias.com. El objetivo de Monografias.com es poner el conocimiento a disposición de toda su comunidad. Queda bajo la responsabilidad de cada lector el eventual uso que se le de a esta información. Asimismo, es obligatoria la cita del autor del contenido y de Monografias.com como fuentes de información.

Categorias
Newsletter