Monografias.com > Computación > General
Descargar Imprimir Comentar Ver trabajos relacionados

Historia de las Computadoras




Enviado por cesarvalenciasjrm



Partes: 1, 2

    1. La Historia que Llevó a
      Construir la Primera Computadora
    2. El Software
    3. Generaciones de sistemas
      operativos
    4. Unix
    5. Linux
    6. OS/2 (IBM Operating System
      2)
    7. Microsoft
      Windows
    8. El Desarrollo
      de los Lenguajes y Técnicas de
      Programación
    9. Generaciones
      de computadoras
    10. Categorías
      de las Computadoras
    11. Microprocesadores
    12. La
      Próxima Generación de Arquitecturas de
      Microprocesadores
    13. Redes
      Informáticas
    14. La
      Computación Vestible
    15. Nanotecnología
    16. El gran salto
      en la Informática y las Telecomunicaciones se
      dará con el uso de los componentes de la
      Luz
    17. Conclusión
    18. Bibliografía

    El primer escrito que se conoce se atribuye a los
    sumerios de Mesopotamia y es
    anterior al 3000 a.C, los egipcios

    escribían con jeroglíficos; los signos
    escritos representaban sonidos o palabras, pero nunca letras, Los
    semitas utilizaron en general los signos cuneiformes que son,
    también, signos fonéticos En Biblos, los
    comerciantes utilizaban un sistema
    simplificado de jeroglíficos, de 75 signos con valor
    fonético: es un primer paso hacia la alfabetización
    de la escritura. El
    primer texto
    descubierto es una inscripción sobre la tumba del rey
    Ahiram, de Biblos.

    Entre el V y IV milenio a.C. aparecieron los primeros
    códigos de escritura, en Egipto,
    Mesopotamia y
    China.

    Entre los años 1000 y 900 a.C. los griegos
    habían adoptado la variante fenicia del alfabeto
    semítico y a sus 22 consonantes habían
    añadido dos signos. Después del año 500 a.C.
    el griego ya se escribía de izquierda a derecha. Su
    alfabeto se difundió por todo el mundo mediterráneo
    y de él surgen otras escrituras como la etrusca, osca,
    umbra y romana. Como consecuencia de las conquistas del pueblo
    romano y de la difusión del latín, su alfabeto se
    convirtió en el básico de todas las lenguas
    europeas occidentales.

    Runas

    Las runas son cada uno de los caracteres del alfabeto
    que usaron los pueblos germánicos. En toda la Europa occidental
    se han encontrado inscripciones rúnicas, en monumentos de
    piedra y en objetos metálicos como puntas de lanza y
    amuletos

    Cuneiforme

    La palabra "cuneiforme" procede del latín cuneus
    que significa cuña o ranura. Se sabe que los sumerios
    descubrieron la escritura ideográfica y que, con el paso
    del tiempo y mediante
    el uso de tablillas de arcilla como material para la escritura y
    de estiletes de caña como lápices, se fue
    transformando en la llamada escritura cuneiforme

    Escritura Alfabética

    En torno al
    año 1500 a C surgió en el ámbito de la
    cultura
    semita, probablemente en Siria, la escritura
    alfabética.

    Fue utilizado por numerosos pueblos antiguos y,
    posteriormente, permitió a los fenicios crear su alfabeto
    – antecedente de todos los modernos – , que desarrollaron y
    difundieron por los países a que llevaron su
    civilización. Los signos del alfabeto fenicio, como los de
    todas las lenguas semitas, solo representaban las consonantes.
    Los griegos que lo adoptaron hacia el año 800 a C,
    añadieron la representación de vocales. Todos los
    alfabetos posteriores proceden del semita o del griego, y en
    ellos se emplearon un número de letras que oscilaba entre
    20 y 30. En la primitiva escritura griega se utilizaban solamente
    letras mayúsculas; posteriormente se introdujeron las
    minúsculas. Ya en el siglo IV de la era cristiana, la
    roma imperial
    utilizaba una escritura corrida en la que se mezclaban las
    mayúsculas con letras minúsculas cursivas. Este
    sistema supuso
    una gran reducción de signos con respecto a las
    demás escrituras, ya que la silábica constaba de
    cerca de 90 símbolos, la cuneiforme de 700 y la china cerca de
    varios miles de símbolos.

    Los fenicios inventaron el alfabeto. Este alfabeto
    fenicio se componía de 22 caracteres; y era un alfabeto
    moderno en todos los aspectos, excepto en uno: tenía
    consonantes, pero no vocales. La sencillez del alfabeto puso la
    escritura al alcance del hombre de la
    calle y le permitió a la mayoría de las clases
    sociales saber como escribir

    Los Griegos Adoptaron la escritura de los
    fenicios pero agregándole cinco letras, las vocales, la
    llamaban escritura fenicia

    Los Etruscos Las inscripciones de los etruscos,
    estaban escritas en caracteres griegos

    Los Hititas Los jeroglíficos hititas
    fueron escritos en direcciones alternas. Este sistema constaba de
    419 símbolos, la mayoría de ellos
    pictográficos

    Los Sumerios Después de 1.500 años
    de la invención de su escritura, la cuneiforme, los
    sumerios habían conseguido cerca de 2.000
    símbolos-palabra. Quinientos años mas tarde
    consiguieron transformarlos en símbolos abstractos, que en
    algunos casos representaban los sonidos de palabras.

    Los Egipcios Desarrollaron tres tipos de
    escritura: la jeroglífica, la hierática y la
    demorita

    Los Chinos La escritura china, que figura entre
    las mas antiguas del mundo, ha conservado su caracteres esencial
    durante mas de 3.500 años el numero de caracteres usados
    por los chinos paso de 2.500 a mas de 50.000 en la
    actualidad

    Los Incas Los incas fueron la
    única civilización capaz de llegar a un desarrollo
    alto pese a no tener ni el
    conocimiento de la rueda ni la tracción animal,
    llevaban registros
    meticulosos por medio de un instrumento basado en el uso de un
    complicado sistema de cuerdas anudadas

    Los Persas El idioma persa paso por dos fases
    básicas. La de la escritura cuneiforme y el alfabeto El
    imperio persa antiguo adopto de Mesopotamia la escritura
    cuneiforme, que termino siendo la mas moderna y sencilla de las
    cuatro variedades cuneiformes

    Los Asirios Desarrollaron una escritura
    cuneiforme, copiándola de los sumerios y
    desarrollándola según su idioma

    ANTES DE CRISTO

    h.3250

    Desarrollo de la escritura cuneiforme en
    Sumer

    3200:

    Primeras inscripciones en Mesopotamia

    h.3100

    Escritura pictográfica inventada en
    Sumer

    2900

    Con la adopción de las tablas de arcilla la
    escritura mesopotámica se convierte en
    cuneiforme

    2900

    Primeras inscripciones jeroglíficas
    egipcias

    2700

    Inscripciones en el Valle del Indo

    1700

    Disco de Festo

    h.1700

    Los cananeos usan un nuevo método de escritura con un alfabeto
    de 27 letras

    h.1500

    Escritura ideográfica utilizada en China,
    escritura utilizada en Creta y Grecia;
    cuneiforme hitita ,en Anatolia

    1600

    Primeras inscripciones chinas sobre caparazones de
    tortuga

    1500

    Nace el alfabeto: las inscripciones
    paleosinaiticas

    1500-1700

    Escritura ideográfica

    1500

    Los hititas adoptan la escritura
    cuneiforme

    1400

    Inscripciones cretenses en «Lineal
    B".

    1400

    En Ugarit aparece una escritura alfabética
    cuneiforme

    h.1000

    Los fenicios inventan un alfabeto sencillo, que
    servirá de base al nuestro

    S.X

    Los fenicios difunden su alfabeto en sus
    expansiones coloniales por el
    Mediterráneo

    S.X

    Los griegos adoptan el alfabeto de los fenicios e
    introducen la escritura alfabética de las
    vocales

    S.VIII

    Los etruscos adoptan el alfabeto de los
    griegos

    S.VII

    Los latinos adoptan el alfabeto de los
    etruscos

    S.VI-V

    El arameo empieza su desarrollo hacia el este

    S.VI

    A partir del paleo-hebreo se desarrolla el hebreo
    "cuadrado», idéntico al actual

    h.500

    Primera escritura jeroglífica en México. (Monte
    Albán).

    S.V

    En India
    aparece la escritura Brahmi, antepasada de todas las
    escrituras indias y de Asia
    oriental

    S.I

    El alfabeto nabateo surge a partir de formas
    cursivas del alfabeto arameo, antepasado del
    árabe.

    DESPUÉS DE CRISTO

    S.I

    El sirio nace de las formas cursivas del
    arameo.

    S.IV

    El pergamino suplanta al papiro en Europa.

    S.IV

    Empleo de la tinta metálica marrón
    rojiza para los manuscritos

    S.IV

    Empleo de letras onciales

    S.IV

    Para evangelizar el Cáucaso, el obispo
    Mesrop inventa la primera escritura armenia y,
    después, la georgiana.

    S.V

    Del nabateo nace el alfabeto
    árabe

    S.V

    Se utilizan los caracteres chinos en
    Japón

    S.V

    El libro
    desplaza al rollo

    S.VII

    La imprenta en China

    S.X

    Invención de la imprenta en China mediante
    el empleo
    de letras móviles, atribuida a Fong
    in-Wan

    Los sumerios tuvieron una de las mejores escrituras
    cuneiformes de esa época. Los egipcios desarrollaron casi
    a la perfección tres tipos diferentes de escritura, los
    etruscos, los que originaron la civilización romana,
    inventaron, al parecer, un buen sistema y los griegos, una
    civilización perfecta por periodos, desarrollaron un
    sistema bastante avanzado que provenía de los fenicios,
    desarrollando hasta ahora el mejor o mayor sistema de escritura,
    la escritura alfabética. Si no hubiesen inventado un
    sistema no estaríamos aquí, sino que
    seguiríamos con sistemas
    retardados antiguos. Mi opinión es que la escritura es uno
    de los mayores inventos que
    el hombre pudo
    haber hecho, junto con la rueda, la agricultura y
    el descubrimiento del fuego. El mayor éxito
    se lo atribuyo al intento de crear el mejor sistema de escritura
    a los fenicios. Creo que es la primera que creó un sistema
    de escritura capaz de decir o escribir cualquier pensamiento.
    Además desarrollaron el sistema de escritura más
    importante actualmente.

    La Historia que Llevó a
    Construir la Primera Computadora

    Por siglos los hombres han tratado de usar fuerzas y
    artefactos de diferente tipo para realizar sus trabajos, para
    hacerlos mas simples y rápidos. La historia conocida de los
    artefactos que calculan o computan, se remonta a muchos
    años antes de Jesucristo.

    Dos principios han
    coexistido con la humanidad en este tema. Uno es usar cosas para
    contar, ya sea los dedos, piedras, semillas, etc. El otro es
    colocar esos objetos en posiciones determinadas. Estos principios se
    reunieron en el ábaco,
    instrumento que sirve hasta el día de hoy, para realizar
    complejos cálculos aritméticos con enorme rapidez y
    precisión.

    El Ábaco Quizá fue el
    primer dispositivo mecánico de contabilidad
    que existió. Se ha calculado que tuvo su origen hace al
    menos 5.000 años y su efectividad ha soportado la prueba
    del tiempo.

    Desde que el hombre
    comenzó a acumular riquezas y se fue asociando con otros
    hombres, tuvo la necesidad de inventar un sistema para poder contar,
    y por esa época, hace unos miles de años, es por
    donde tenemos que comenzar a buscar los orígenes de
    la
    computadora, allá por el continente asiático en
    las llanuras del valle Tigris.

    Esa necesidad de contar, que no es otra cosa que un
    término más sencillo y antiguo que computar, llevo
    al hombre a la creación del primer dispositivo
    mecánico conocido, diseñado por el hombre para ese
    fin, surgió la primera computadora el
    ABACO o SOROBAN.

    El ábaco,
    en la forma en que se conoce actualmente fue inventado en China
    unos 2.500 años AC, más o menos al mismo tiempo que
    apareció el soroban, una versión japonesa del
    ábaco.
    En general el ábaco, en diferentes versiones era conocido
    en todas las civilizaciones de la antigüedad. En China y
    Japón,
    su construcción era de alambres paralelos que
    contenían las cuentas
    encerrados en un marco, mientras en Roma y Grecia
    consistía en una tabla con surcos grabados.

    A medida que fue avanzando la civilización, la
    sociedad fue
    tomando una forma más organizada y avanzada, los
    dispositivos para contar se desarrollaron, probablemente
    presionados por la necesidad, y en diferentes países
    fueron apareciendo nuevos e ingeniosos inventos cuyo
    destino era calcular.

    Leonardo da Vinci (1452-1519). Trazó las
    ideas para una sumadora mecánica, había hecho anotaciones y
    diagramas
    sobre una máquina calculadora que mantenía una
    relación de 10:1 en cada una de sus ruedas registradoras
    de 13 dígitos.

    John Napier (1550-1617). En el Siglo XVII en
    occidente se encontraba en uso la regla de cálculo,
    calculadora basada en el invento de Napier, Gunther y Bissaker.
    John Napier descubre la relación entre series
    aritméticas y geométricas, creando tablas que
    él llama logaritmos. Edmund Gunter se encarga de marcar
    los logaritmos de Napier en líneas. Bissaker por su parte
    coloca las líneas de Napier y Gunter sobre un pedazo de
    madera,
    creando de esta manera la regla de
    cálculo. Durante más de 200 años,
    la regla de cálculo es
    perfeccionada, convirtiéndose en una
    calculadora de bolsillo, extremadamente
    versátil. Por el año 1700 las
    calculadoras numéricas digitales, representadas por el
    ábaco y las calculadoras análogas representadas por
    la regla de cálculo, eran de uso común en toda
    Europa.

    Blas Pascal (1623-1662). El honor de ser
    considerado como el "padre" de la computadora
    le correspondió al ilustre filósofo y
    científico francés quien siglo y medio
    después de Leonardo da
    Vinci inventó y construyó la primera
    máquina calculadora automática utilizable,
    precursora de las modernas computadoras.
    Entre otras muchas cosas, Pascal
    desarrolló la teoría
    de las probabilidades, piedra angular de las
    matemáticas modernas. La
    pascalina funciona en base al mismo principio del odómetro
    (cuenta kilómetros) de los automóviles, que dicho
    sea de paso, es el mismo principio en que se basan las
    calculadoras mecánicas antecesoras de las
    electrónicas, utilizadas no hace tanto tiempo. En un
    juego de
    ruedas, en las que cada una contiene los dígitos, cada vez
    que una rueda completa una vuelta, la rueda siguiente avanza un
    décimo de vuelta.

    A pesar de que Pascal fue
    enaltecido por toda Europa debido a sus logros, la Pascalina,
    resultó un desconsolador fallo financiero, pues para esos
    momentos, resultaba más costosa que la labor humana para
    los cálculos aritméticos.

    Gottfried W. von Leibnitz (1646-1717). Fué
    el siguiente en avanzar en el diseño
    de una máquina calculadora mecánica. Su artefacto se basó en el
    principio de la suma repetida y fue construida en 1694.
    Desarrolló una máquina calculadora
    automática con capacidad superior a la de Pascal,
    que permitía no solo sumar y restar,
    sino también multiplicar, dividir y calcular raíces
    cuadradas. La de Pascal solo sumaba y restaba.
    Leibnitz mejoro la máquina de Pascal al añadirle un
    cilindro escalonado cuyo objetivo era
    representar los dígitos del 1 al 9. Sin embargo, aunque el
    merito no le correspondía a él (pues se considera
    oficialmente que se inventaron más tarde), se sabe que
    antes de decidirse por el cilindro escalonado Leibnitz
    consideró la utilización de engranajes con dientes
    retráctiles y otros mecanismos técnicamente muy
    avanzados para esa época. Se le acredita el
    haber comenzado el estudio formal de la lógica,
    la cual es la base de la programación y de la operación de
    las computadoras.

    Joseph-Marie Jackard (1753-1834). El
    primer evento notable sucedió en el 1801 cuando el
    francés, Joseph Jackard, desarrolló el telar
    automático. Jackard tuvo la idea de usar tarjetas
    perforadas para manejar agujas de tejer, en telares
    mecánicos. Un conjunto de tarjetas
    constituían un programa, el cual
    creaba diseños textiles.
    Aunque su propósito no era realizar cálculos,
    contribuyó grandemente al desarrollo de las computadoras.
    Por primera vez se controla una máquina con instrucciones
    codificadas, en tarjetas perforadas, que era fácil de usar
    y requería poca intervención humana; y por primera
    vez se utiliza un sistema de tarjetas perforadas para crear el
    diseño
    deseado en la tela mientras esta se iba tejiendo. El telar de
    Jackard opera de la manera siguiente: las tarjetas se
    perforan estratégicamente y se acomodan en cierta
    secuencia para indicar un diseño de tejido en particular.
    Esta máquina fue considerada el primer paso
    significativo para la automatización binaria.

    Charles Babbage (1793-1871). Profesor de matemáticas de la Universidad de
    Cambridge, Inglaterra,
    desarrolla en 1823 el concepto de un
    artefacto, que él denomina "máquina diferencial".
    La máquina estaba concebida para realizar cálculos,
    almacenar y seleccionar información, resolver problemas y
    entregar resultados impresos. Babbage imaginó su
    máquina compuesta de varias otras, todas trabajando
    armónicamente en conjunto: los receptores recogiendo
    información; un equipo
    transfiriéndola; un elemento almacenador de datos y operaciones; y
    finalmente una impresora
    entregando resultados. Pese a su increíble
    concepción, la máquina de Babbage, que se
    parecía mucho a una computadora,
    no llegó jamás a construirse. Los planes de Babbage
    fueron demasiado ambiciosos para su época. Este avanzado
    concepto, con
    respecto a la simple calculadora, le valió a Babbage ser
    considerado como el precursor de la computadora.

    La novia de Babbage, Ada Augusta Byron, luego Condesa de
    Lovelace, hija del poeta inglés
    Lord Byron, que le ayuda en el desarrollo del concepto de la
    Máquina Diferencial, creando programas para la
    máquina analítica, es reconocida y respetada, como
    el primer programador de computadoras. La máquina
    tendría dos secciones fundamentales: una parte donde se
    realizarían todas las operaciones y
    otra donde se almacenaría toda la información
    necesaria para realizar los cálculos, así como los
    resultados parciales y finales. El almacén de
    datos
    consistiría de mil registradoras con un número de
    50 dígitos cada una; estos números podrían
    utilizarse en los cálculos, los resultados se
    podrían guardar en el almacén y
    los números utilizados podrían transferirse a otras
    ubicaciones.

    La máquina controlaría todo el proceso
    mediante la utilización de tarjetas perforadas similares a
    las inventadas por Jackard para la creación de
    diseños de sus telares, y que hasta hace muy poco se
    utilizaban regularmente.
    Babbage no pudo lograr su sueño de ver construida la
    máquina, que había tomado 15 años de su vida
    entre los dos modelos, pero
    vio un equipo similar desarrollado por un impresor sueco llamado
    George Scheutz, basado en su máquina
    diferencial.

    Babbage colaboró con Scheutz en la
    fabricación de su máquina e inclusive
    influyó todo lo que pudo, para que esta ganara la Medalla
    de Oro Francesa en 1855.

    George Boole Trabajo sobre las bases sentadas por
    Leibnitz, quien preconizó que todas las verdades de la
    razón se conducían a un tipo de cálculo,
    para desarrollar en 1854, a la edad de 39 años, su
    teoría
    que redujo la lógica
    a un tipo de álgebra
    extremadamente simple. Esta teoría de la
    lógica construyó la base del desarrollo de
    los circuitos de
    conmutación tan importantes en telefonía y en el diseño de las
    computadoras electrónicas.

    En su carrera como matemático, Boole tiene a su
    crédito
    también haber descubierto algo que se considera que fue
    indispensable para el desarrollo de la teoría de la
    relatividad de Einstein: las
    magnitudes constantes. Los descubrimientos
    matemáticos de George Boole, que llevaron al desarrollo
    del sistema numérico binario (0 y 1) constituyeron un hito
    incuestionable a lo largo del camino hacia las modernas
    computadoras electrónicas. Pero además de la
    lógica, el álgebra de
    Boole tiene otras aplicaciones igualmente importantes, entre
    ellas la de ser el álgebra adecuada para trabajar con la
    teoría combinatoria de la operación de unión
    e intersección. También, siempre en este campo, al
    considerar la idea del número de elementos de un conjunto,
    el álgebra de Boole constituye la
    base de la Teoría de las
    Probabilidades.

    Claude Elwood Shanon A él se debe el haber
    podido aplicar a la electrónica – y por extensión a las
    computadoras – los conceptos de la teoría de Boole. Shanon
    hizo sus planteamientos en 1937 en su tesis de grado
    para la Maestría en Ingeniería Eléctrica en el MIT, uno
    de los planteles de enseñanza científica y
    tecnológica más prestigiosos del mundo.

    En su tesis, Shanon
    sostenía que los valores de
    verdadero y falso planteados en el álgebra lógica
    de Boole, se correspondían con los estados 'abierto' y
    'cerrado' de los circuitos
    eléctricos. Además, Shanon definió la
    unidad de información, et bit, lo que consecuentemente
    constituyó la base para la utilización del
    sistema
    binario de las computadoras en lugar del sistema
    decimal.

    William Burroughs Nació el 28 de enero de
    1857. La monotonía del trabajo y la gran precisión
    que se necesitaba en los resultados de los cálculos fue lo
    que decidió a William Burroughs a intentar construir una
    máquina calculadora precisa y rápida. Sus primeros
    pasos en este sentido los dio en 1882, pero no fue hasta casi
    veinte años después que su esfuerzo se vio coronado
    por el éxito.

    Las primeras máquinas
    compradas por los comerciantes tuvieron que recogerse
    rápidamente, puesto que todas, presentaban defectos en el
    funcionamiento. Este nuevo fracaso fue el paso final antes de
    perfeccionar

    definitivamente su modelo al cual
    llamó Maquina de sumar y hacer listas.

    A pesar de otro sin número de dificultades en
    promoción y mercado de su
    nueva máquina, poco a poco este modelo se fue
    imponiendo, de modo que luego de dos años ya se
    vendían a razón de unas 700 unidades por
    año. William Burroughs, fue el primer genio norteamericano
    que contribuyó grandemente al desarrollo de la
    computadora

    Herman Hollerith Las tarjetas
    perforadas. Uno de
    los hitos más importantes en el proceso
    paulatino del desarrollo de una máquina que pudiera
    realizar complejos cálculos en forma rápida, que
    luego llevaría a lo que es hoy la moderna computadora, lo
    constituyó la introducción de tarjetas
    perforadas como elemento de
    tabulación. Este histórico avance
    se debe a la inventiva de un ingeniero norteamericano de
    ascendencia alemán: Herman Hollerith. La idea de utilizar
    tarjetas perforadas realmente no fue de Hollerith, sino de John
    Shaw Billings, su superior en el Buró del Censo, pero fue
    Hollerith quien logró poner en práctica la idea que
    revolucionaría para siempre el cálculo mecanizado.
    El diseñó un sistema mediante el cual las tarjetas
    eran perforadas para representar la información del censo.
    Las tarjetas eran insertadas en la máquina tabuladora y
    ésta calculaba la información recibida. Hollerith
    no tomó la idea de las tarjetas perforadas del invento de
    Jackard, sino de la "fotografía
    de perforación" Algunas líneas ferroviarias de la
    época expedían boletos con descripciones
    físicas del pasajero; los conductores hacían
    orificios en los boletos que describían el color de cabello,
    de ojos y la forma de nariz del pasajero. Eso le dio a Hollerith
    la idea para hacer la fotografía
    perforada de cada persona que se
    iba a tabular. Hollertih fundó la Tabulating Machine
    Company y vendió sus productos en
    todo el mundo. La demanda de sus
    máquinas se extendió incluso hasta
    Rusia. El primer censo llevado a cabo en Rusia en 1897, se
    registró con el Tabulador de Hollerith. En 1911, la
    Tabulating Machine Company, al unirse con otras
    Compañías, formó la
    Computing-Tabulating-Recording-Company.

    Konrad Zuse Nació en Berlín,
    Alemania, en
    1910. EN 1938, Zuse ya había desarrollado una
    notación binaria que aplicó a los circuitos de
    rieles electromagnéticos que utilizaría más
    tarde en su serie de computadoras. El primer modelo construido
    por Konrad Zuse en 1939, fabricado por completo en la sala de su
    casa sin ayuda por parte de ninguna agencia gubernamental o
    privada, era un equipo completamente mecánico. Este modelo
    fue bautizado con el nombre de V-1 (V por Versuchmodel o Modelo
    Experimental). La intención principal de Zuse al
    tratar de desarrollar estos equipos era proporcionar una
    herramienta a los científicos y técnicos para
    resolver la gran cantidad de problemas
    matemáticos involucrados en todas las ramas
    científicas y técnicas.

    En 1939 Konrad Zuse fue reclutado por el ejército
    alemán, pero pronto fue licenciado (al igual que la
    mayoría de los ingenieros en aquella época) y
    asignado a trabajar en el cuerpo de ingeniería que desarrollaba los proyectos del
    ejército, en el Instituto Alemán de Investigación Aérea.

    Al mismo tiempo que prestaba sus servicios en
    el citado instituto, Zuse continúo sus trabajos en la sala
    de su casa y desarrolló una versión más
    avanzada de su V-1 a la cual denominó V-2. Este modelo lo construyó Zuse
    con la ayuda de un amigo y estudiante del mismo Instituto
    Técnico donde Zuse había estudiado, Helmut Schreyer
    había hecho su carrera en la rama de las telecomunicaciones y fue él quién
    consiguió los rieles electromagnéticos con que
    funcionaba este nuevo modelo, y quien sugirió a Zuse su
    utilización.

    Alfred Teichmann, uno de los principales
    científicos que prestaba servicios en
    el Instituto Alemán de Investigaciones
    Aéreas, tuvo conocimiento
    de los trabajos de Zuse con respecto a las computadoras en una
    visita que hizo a la casa de éste. Allí vio por
    primera vez el modelo V-2 y quedó inmediatamente
    convencido de que máquinas como esa eran las que se
    necesitaban para resolver algunos de los problemas más
    graves que se estaban presentado en el diseño de los
    aviones.

    Con la ayuda de Teichmann, Zuse logró conseguir
    fondos que le permitieron continuar con sus investigaciones
    un poco más holgadamente, aunque siempre en la sala de su
    casa, y así surgió, con la colaboración
    activa de Schreyer, la V-3, la primera computadora digital
    controlada por programas y
    completamente operacional. Este modelo constaba con 1.400 rieles
    electromagnéticos en la memoria,
    600 para el control de las
    operaciones aritméticas y 600 para otros
    propósitos.

    Durante la Segunda Guerra
    Mundial Wernher von Braun, eminente científico
    alemán, desarrolló un tipo de bombas cohete
    denominadas V-1 y V-2, muy celebres sobre todo por el papel que
    jugaron en los ataques alemanes contra el puerto de Amberes
    (Bélgica) y Londres (Inglaterra). Para
    evitar confusión con estas bombas, Zuse
    determinó cambiar la denominación de sus
    computadoras que, en adelante, pasaron a conocerse como Z-1, Z-2,
    Z-3, etc.

    El modelo Z-3 desarrollado a finales de 1941 como una
    computadora de propósito general, fue parcialmente
    modificada por Zuse con el objetivo de
    apoyar el esfuerzo bélico alemán. La nueva
    versión se denominó Z-4 y se utilizó como
    elemento de teledirección de una bomba volante
    desarrollada por la compañía Henschel Aircraft Co.,
    para la Luftwaffe. (Zuse niega que la Z-4 haya sido
    diseñada para este propósito).

    La bomba volante alemana era una especie de avión
    no tripulado que era transportado por un bombardero. Cuando el
    piloto del bombardero determinaba el blanco, lanzaba la bomba que
    era dirigida mediante la Z-4 por la tripulación del
    bombardero. En sus aplicaciones de diseño, la Z-4 estaba
    destinada a medir las inexactitudes en las dimensiones de las
    piezas de los aviones y a calcular la desviación que
    éstas ocasionarían en la trayectoria de los aviones
    que se construyeran con ellas.

    En 1944, mientras Zuse trabajaba en la
    terminación de la Z-4, se enteró de la
    presentación en Estados Unidos de
    la Mark I de Aiken, la primera computadora digital programable
    norteamericana.

    Al finalizar la guerra, con la
    caída del régimen nazi, Zuse abandono Berlín
    llevando consigo todos los elementos de su computadora Z-4 (todos
    los modelos
    previos fueron destruidos en los bombardeos a Berlín).
    Ayudado por un amigo de Wernher von Braun, a quien había
    conocido en su huida de Berlín, Walter Robert Dornberger,
    Zuse y von Braun abandonaron Alemania, y
    Zuse se radicó en la pequeña población Alpina de Suiza, Hinterstein.
    Allí continúo trabajando en su proyecto,
    desarrollado su computadora.

    En 1947, la Z-4 tenía una capacidad de 16
    palabras en la memoria, en 1949
    la capacidad había aumentado hasta 64 palabras y en la
    década de los 50, la memoria de
    la Z-4 podía contener 1024 palabras de 32 bits.
    Además podía multiplicar en un segundo y extraer
    raiz cuadrada en 5 segundos.

    Además de sus trabajos en la computadora, Konrad
    Zuse desarrolló un idioma prototipo al cual llamó
    Plankalkul, en el cual anticipó y resolvió
    varios de los problemas que se abarcan hoy en el contexto de la
    teoría de los algoritmos,
    programación estructurada y estructura de
    la programación de idiomas para computadoras.
    Poco
    después de terminada la guerra, ya
    establecido en suelo suizo,
    Konrad Zuse estableció su propia compañía a
    la que denomino Zuse KG. Después de varios años
    construyendo su serie Z y de no haber logrado interesar lo
    suficiente a IBM para respaldar su producción, Remington Rand decidió
    ayudar a comercializar en Suiza algunos de los modelos fabricados
    por Zuse. Finalmente, la firma Siemens AG adquirió los
    derechos sobre la
    compañía de Zuse y éste quedó como
    consultor semi-retirado de la misma. Hoy se reconoce a Konrad
    Zuse como el creador de la primera computadora digital
    programable completamente operacional.

    Atanasoff Y Berry Una antigua patente de un
    dispositivo que mucha gente creyó que era la primera
    computadora digital electrónica, se invalidó en 1973 por
    orden de un tribunal federal, y oficialmente se le dio el
    crédito
    a John V. Atanasoff como el inventor de la computadora digital
    electrónica. El Dr. Atanasoff, catedrático de la
    Universidad
    Estatal de Iowa, desarrolló la primera computadora digital
    electrónica entre los años de 1937 a 1942.
    Llamó a su invento la computadora Atanasoff-Berry,
    ó solo ABC (Atanasoff Berry Computer). Un estudiante
    graduado, Clifford Berry, fue una útil ayuda en la
    construcción de la computadora
    ABC.

    En el edificio de Física de la
    Universidad de Iowa aparece una placa con la siguiente leyenda:
    "La primera computadora digital electrónica de
    operación automática del mundo, fue construida en
    este edificio en 1939 por John Vincent Atanasoff,
    matemático y físico de la Facultad de la
    Universidad, quien concibió la idea, y por Clifford Edward
    Berry, estudiante graduado de física."

    MARK I (1944) Marca la fecha
    del la primera computadora, que se pone en funcionamiento. Es el
    Dr. Howard Aiken en la Universidad de Harvard, Estados Unidos,
    quien la presenta con el nombre de Mark I. Es esta la primera
    máquina procesadora de información. La Mark I
    funcionaba eléctricamente, las instrucciones e
    información se introducen en ella por medio de tarjetas
    perforadas. Los componentes trabajan basados en principios
    electromecánicos. Este impresionante equipo medía
    16 mts. de largo y 2,5 mts. de alto, contenía un
    aproximado de 800.000 piezas y más de 800 Km. de
    cablerío eléctrico, pero los resultados obtenidos
    eran igualmente impresionantes para la época. Mark I
    tenía la capacidad de manejar números de hasta 23
    dígitos, realizando sumas en menos de medio segundo,
    multiplicaciones en tres segundos y operaciones
    logarítmicas en poco más de un minuto. Ahora
    sí se había hecho por fin realidad el sueño
    de Pascal, Leibnitz, Babbage, Hollerith y muchos otros: la
    computadora era una realidad.

    A pesar de su peso superior a 5 toneladas y su lentitud
    comparada con los equipos actuales, fue la primera máquina
    en poseer todas las características de una verdadera
    computadora.

    ENIAC (1946) La primera computadora
    electrónica fue terminada de construir en 1946, por
    J.P.Eckert y J.W.Mauchly en la Universidad de Pensilvania, U.S.A.
    y se le llamó ENIAC (Electronic Numerical Integrator And
    Computer), ó Integrador numérico y calculador
    electrónico. La ENIAC construida para aplicaciones de la
    Segunda Guerra
    mundial, se terminó en 30 meses por un equipo de
    científicos que trabajaban bajo reloj. La ENIAC, mil veces
    más veloz que sus predecesoras electromecánicas,
    irrumpió como un importante descubrimiento en la tecnología de la
    computación. Pesaba 30 toneladas y ocupaba
    un espacio de 450 mts cuadrados, llenaba un cuarto de 6 mts x 12
    mts y contenía 18.000 bulbos, tenía que programarse
    manualmente conectándola a 3 tableros que contenían
    más de 6000 interruptores. Ingresar un nuevo programa era un
    proceso muy tedioso que requería días o incluso
    semanas. A diferencia de las computadoras actuales que operan con
    un sistema
    binario (0,1) la ENIAC operaba con uno decimal (0, 1,2…9)
    La ENIAC requería una gran cantidad de electricidad. La
    ENIAC poseía una capacidad, rapidez y flexibilidad muy
    superiores a la Mark I. Comenzaba entonces la tenaz competencia en la
    naciente industria, IBM
    desarrolló en 1948 su computadora SSEC (Calculadora
    Electrónica de Secuencia Selectiva) superior a la
    ENIAC.

    Para 1951, la compañía Remington Rand,
    otra de las líderes en este campo, presento al mercado su modelo
    denominado Univac, que ganó el contrato para el
    censo de 1951 por su gran capacidad, netamente superior a todas
    las demás desarrolladas hasta el momento.

    Pero para la recia personalidad
    de Thomas J. Watson, se le hacia difícil aceptar que su
    compañía no fuera la principal en este campo,
    así que en respuesta al desarrollo de la Univac, hizo que
    IBM construyera su modelo 701, una computadora científica
    con una capacidad superior 25 veces a la SSEC y muy superior
    también a la Univac.

    A la 701 siguieron otros modelos cada vez más
    perfeccionados en cuanto a rapidez, precisión y capacidad,
    los cuales colocaron a IBM como el líder
    indiscutible de la naciente industria de
    las computadoras. Aunque en la actualidad es difícil
    mencionar a una firma determinada como la primera en este campo,
    es un hecho irrefutable que IBM continua siendo una de las
    principales compañías en cuanto a desarrollo de
    computadoras se refiere.

    Con ella se inicia una nueva era, en la cual la
    computadora pasa a ser el centro del desarrollo
    tecnológico, y de una profunda modificación en el
    comportamiento
    de las sociedades.

    EDVAC (1947) (Eletronic Discrete-Variable
    Automatic Computer, es decir computadora automática
    electrónica de variable discreta) Desarrollada por Dr.
    John W. Mauchly, John Presper Eckert Jr. y John Von Neumann.
    Primera computadora en utilizar el concepto de almacenar
    información. Podía almacenar datos e instrucciones
    usando un código
    especial llamado notación binaria. Los programas
    almacenados dieron a las computadoras una flexibilidad y
    confiabilidad tremendas, haciéndolas más
    rápidas y menos sujetas a errores que los programas
    mecánicos. Una computadora con capacidad de programa
    almacenado podría ser utilizada para varias aplicaciones
    cargando y ejecutando el programa apropiado. Hasta este punto,
    los programas y datos podían ser ingresados en la
    computadora sólo con la notación binaria, que es el
    único código
    que las computadoras "entienden". El siguiente desarrollo
    importante en el diseño de las computadoras fueron los
    programas intérpretes, que permitían a las personas
    comunicarse con las computadoras utilizando medios
    distintos a los números binarios. En 1952 Grace Murray
    Hoper una oficial de la Marina de EE.UU., desarrolló el
    primer compilador, un programa que puede traducir enunciados
    parecidos al inglés
    en un código binario comprensible para la maquina llamado
    COBOL (COmmon
    Business-Oriented Languaje).

    EDSAC (1949) Desarrollada por Maurice Wilkes.
    Primera computadora capaz de almacenar programas
    electrónicamente.

    LA ACE PILOT (1950) Turing tuvo listos en 1946
    todos los planos de lo que posteriormente seria conocido como ACE
    Pilot (Automatic Calculating Engine) que fue presentado
    públicamente en 1950. La ACE Pilot estuvo considerada por
    mucho tiempo como la computadora más avanzada del mundo,
    pudiendo realizar

    operaciones tales como suma y multiplicación en
    cuestión de microsegundos.

    UNIVAC I (1951) Desarrollada por Mauchly y Eckert
    para la Remington-Rand Corporation. Primera computadora comercial
    utilizada en las oficinas del censo de los Estados Unidos. Esta
    máquina se encuentra actualmente en el "Smithsonian
    Institute". En 1952 fue utilizada para predecir la victoria de
    Dwight D. Eisenhower en las elecciones presidenciales de los
    Estados Unidos.

    El
    Software

    Durante las tres primeras décadas de la Informática, el principal desafío
    era el desarrollo del hardware de las
    computadoras, de forma que se redujera el costo de
    procesamiento y almacenamiento de
    datos.

    La necesidad de enfoques sistemáticos para el
    desarrollo y mantenimiento
    de productos de
    software se
    patentó en la década de 1960. En ésta
    década aparecieron las computadoras de la tercera
    generación y se desarrollaron técnicas
    de programación como la multiprogramación y de
    tiempo compartido. Y mientras las computadoras estaban
    haciéndose más complejas, resultó obvio que
    la demanda por
    los productos de software creció en
    mayor cantidad que la capacidad de producir y mantener dicho
    software. Estas nuevas capacidades aportaron la tecnología necesaria
    para el establecimiento de sistemas
    computacionales interactivos, de multiusuario, en línea y
    en tiempo real; surgiendo nuevas aplicaciones para la computación, como las reservaciones
    aéreas, bancos de
    información médica, etc.

    Fue hasta el año 1968 que se convocó una
    reunión en Garmisch, Alemania Oriental
    estimulándose el interés
    hacia los aspectos técnicos y administrativos utilizados
    en el desarrollo y mantenimiento
    del software, y fue entonces donde se utilizó el
    término "Ingeniería del Software".

    A lo largo de la década de los ochenta, los
    avances en microelectrónica han dado como resultado una
    mayor potencia de
    cálculo a la vez que una reducción de costo. Hoy el
    problema es diferente. El principal desafío es mejorar la
    calidad y
    reducir el costo.

    Las personas encargadas de la elaboración del
    software se han enfrentado a problemas muy comunes: unos
    debido a la exigencia cada vez mayor en la capacidad de
    resultados del software, debido al permanente cambio de
    condiciones lo que aumenta su complejidad y obsolescencia; y
    otros, debido a la carencia de herramientas
    adecuadas y estándares de tipo organizacional encaminados
    al mejoramiento de los procesos en el
    desarrollo del software.

    Una necesidad sentida en nuestro medio es el hecho de
    que los productos de software deben ser desarrollados con base en
    la implementación de estándares mundiales, modelos
    , sistemas métricos, capacitación del recurso humano y otros
    principios y técnicas de la ingeniería de
    software que garanticen la producción de software de calidad y
    competitividad
    a nivel local e internacional.

    Con el acelerado avance tecnológico de la
    información, la cantidad y la complejidad de los productos
    de software se están incrementando considerablemente,
    así como también la exigencia en su funcionalidad y
    confiabilidad; es por esto que la calidad y la productividad se
    están constituyendo en las grandes preocupaciones tanto de
    gestores como para desarrolladores de software.

    En los primeros años del software, las
    actividades de elaboración de programas eran realizadas
    por una sola persona
    utilizando lenguajes de bajo nivel y ajustándose a un
    computador en
    especial, que generaban programas difíciles de entender,
    aun hasta para su creador, después de algún tiempo
    de haberlo producido. Esto implicaba tener que repetir el mismo
    proceso para desarrollar el mismo programa para otras
    máquinas.
    Por consiguiente, la confiabilidad, facilidad de mantenimiento y
    cumplimiento no se garantizaban y la productividad era
    muy baja.

    Posteriormente, con la aparición de
    técnicas estructuradas y con base en las experiencias de
    los programadores se mejoró la productividad del software.
    Sin embargo, este software seguía teniendo fallas, como
    por ejemplo: documentación inadecuada, dificultad para
    su correcto funcionamiento, y por su puesto,
    insatisfacción del cliente.

    Conforme se incrementaba la tecnología de los
    computadores, también crecía la demanda de los
    productos de software, pero mucho más lentamente, tanto
    que hacia 1990 se decía que las posibilidades del software
    estaban retrasadas respecto a las del hardware en un mínimo
    de dos generaciones de procesadores y
    que la distancia continuaba aumentando.

    En la actualidad muchos de estos problemas subsisten en
    el desarrollo de software, con una dificultad adicional
    relacionada con la incapacidad para satisfacer totalmente la gran
    demanda y exigencias por parte de los clientes.

    El elemento básico del software es el programa.
    Un programa es un grupo de
    instrucciones destinadas a cumplir una tarea en particular. Un
    programa puede estar conformado por varios programas más
    sencillos.

    El software se puede clasificar en tres grupos:
    sistemas
    operativos, lenguajes de
    programación y aplicaciones.

    Sistema
    Operativo

    El sistema operativo
    es un conjunto de programas que coordinan el equipo físico
    de la computadora y supervisan la entrada, la salida, el almacenamiento y
    las funciones de
    procesamiento. Incluye comandos internos
    y externos. Los comandos internos
    se encuentran en la memoria de la
    computadora y los comandos externos, generalmente, están
    en la unidad de disco. Para usar los comandos externos, se
    necesitan sus archivos.

    El sistema operativo
    es una colección de programas diseñados para
    facilitarle al usuario la creación y manipulación
    de archivos, la
    ejecución de programas y la operación de otros
    periféricos conectados a la computadora.
    Ejemplo de algunos comandos son: abrir un archivo, hacer
    una copia impresa de lo que hay en la pantalla y copiar un
    archivo de un
    disco a otro.

    En las décadas de los 70 y 80 la mayor parte de
    las computadoras utilizaban su propio sistema operativo, o sea,
    que aquellas aplicaciones creadas para un sistema operativo no
    se podían usar en
    otro. Debido a este problema, los vendedores de
    sistemas
    operativos decidieron concentrarse en aquellos sistemas
    más utilizados. Ellos visualizaron que las dos
    compañías más grandes de microcomputadoras
    se unirían para crear mayor compatibilidad y esto es un
    hecho.

    Toda computadora tiene algún tipo de sistema
    operativo, el cual debe ser activado cuando la computadora se
    enciende. Si el sistema operativo está grabado en la ROM o
    presente en el disco duro de
    la computadora, el sistema operativo, generalmente, se activa
    automáticamente cuando la computadora se enciende. Si no,
    se inserta un disco que contenga el sistema operativo para
    activarlo.

    Un sistema operativo provee un programa o rutina para
    preparar los discos ("formatting a disk"), copiar archivos o
    presentar un listado del directorio del disco.

    El sistema operativo del disco de una computadora
    personal de
    IBM (IBM-PC) es una colección de programas
    diseñados para crear y manejar archivos, correr programas
    y utilizar los dispositivos unidos al sistema de la computadora.
    Microsoft
    (compañía de programas) desarrolló PC-DOS
    para IBM y MS-DOS para
    IBM compatibles. Los dos sistemas
    operativos son idénticos. DOS dicta cómo los
    programas son ejecutados en IBM y compatibles.

    El DOS ("Disk Operating System") es el sistema
    operativo del disco. Es el conjunto de instrucciones del
    programa que mantiene un registro de las
    tareas requeridas para la operación de la computadora, o
    sea, es una colección de programas diseñados para
    crear y manejar archivos, correr programas y utilizar los
    dispositivos unidos al sistema de la computadora.

    Entre las
    tareas que realiza un SO tenemos:

    Si es un sistema multitarea: asignar y controlar
    los recursos del
    sistema, definir qué aplicación y en qué
    orden deben ser ejecutadas.

    Manejar la memoria del sistema que comparten las
    múltiples aplicaciones.

    Manejar los sistemas de entrada y salida, incluidos
    discos duros,
    impresoras y
    todo tipo de puertos.

    Envío de mensajes de estado a las
    aplicaciones, al administrador de
    sistema o al propio usuario, sobre cualquier error o
    información necesaria para el trabajo
    estable y uniforme del sistema.

    Asume tareas delegadas de las propias aplicaciones, como
    impresión en background y procesamiento por lotes, con el
    fin de que éstas ganen en eficiencia y
    tiempo.

    Administra, de existir, el procesamiento en
    paralelo.

    Tipos de sistemas
    operativos

    El "Character based": DOS dice si está
    listo para recibir un comando presentando un símbolo
    ("prompt") en la pantalla: C:>. El usuario responde escribiendo
    una instrucción para ser ejecutada, caracter por
    caracter mediante el uso del teclado.

    El "Graphic User Interface": Hace uso de un
    "mouse" como un
    dispositivo de puntero y permite que se apunte a iconos
    (pequeños símbolos o figuras que representan alguna
    tarea a realizarse) y oprimir el botón del "mouse" para
    ejecutar la operación o tarea seleccionada. El usuario
    puede controlar el sistema operativo seleccionando o manipulando
    iconos en el monitor.

    Ejemplos de sistemas operativos

    PC-DOS (Personal Computer
    DOS)
    MS-DOS
    (Microsoft
    DOS)
    OS/2 (IBM Operating System 2)
    DR DOS 5.0 (Digital Research DOS)
    UNIX

    Linux
    Windows para
    sistemas operativos DOS
    Windows
    NT

    GENERACIONES DE SISTEMAS
    OPERATIVOS

    Los sistemas operativos, al igual que el hardware de las
    computadoras, han sufrido una serie de cambios revolucionarios
    llamados generaciones. En el caso del hardware, las generaciones
    han sido enmarcadas por grandes avances en los componentes
    utilizados, pasando de válvulas
    (primera generación), a transistores
    (segunda generación), a circuitos
    integrados (tercera generación), a circuitos
    integrados de gran y muy gran escala (cuarta
    generación). Cada generación sucesiva de hardware
    ha sido acompañada de reducciones substanciales en los
    costos,
    tamaño, emisión de calor y
    consumo de
    energía, y por incrementos notables en velocidad y
    capacidad.

    Generación Cero (Década de
    1940)

    Los sistemas operativos han ido evolucionando durante
    los últimos 40 años a través de un
    número de distintas fases o generaciones que corresponden
    a décadas. En 1940, las computadoras electrónicas
    digitales más nuevas no tenían sistema operativo.
    Las Máquinas de ese tiempo eran tan primitivas que los
    programas por lo regular manejaban un bit a la vez en columnas de
    switch's
    mecánicos. Eventualmente los programas de lenguaje de
    máquina manejaban tarjetas perforadas, y lenguajes
    ensamblador
    fueron desarrollados para agilizar el proceso de
    programación. Los usuarios tenían completo acceso
    al lenguaje de la
    maquina.

    Todas las instrucciones eran codificadas a
    mano.

    Primera Generación (Década de
    1950)

    Los sistemas operativos de los años cincuenta
    fueron diseñados para hacer más fluída la
    transmisión entre trabajos. Antes de que los sistemas
    fueran diseñados, se perdía un tiempo considerable
    entre la terminación de un trabajo y el inicio del
    siguiente. Este fue el comienzo de los sistemas de procesamiento
    por lotes, donde los trabajos se reunían por grupo o lotes.
    Cuando el trabajo
    estaba en ejecución, este tenía control total de
    la máquina. Al terminar cada trabajo, el control era
    devuelto al sistema operativo, el cual "limpiaba" y leía e
    inicia el trabajo siguiente.

    Al inicio de los años 50 esto había
    mejorado un poco con la introducción de tarjetas perforadas (las
    cuales servían para introducir los programas de lenguajes
    de máquina), puesto que ya no había necesidad de
    utilizar los tableros enchufables. Esto se conoce como sistemas
    de procesamiento por lotes de un sólo flujo, ya que los
    programas y los datos eran sometidos en grupos o lotes.
    El laboratorio de
    investigación General Motors
    implementó el primer sistema operativo para la IBM
    701.

    La introducción del transistor a
    mediados de los años 50 cambió la imagen
    radicalmente. Se crearon máquinas suficientemente
    confiables las cuales se instalaban en lugares especialmente
    acondicionados, aunque sólo las grandes universidades y
    las grandes corporaciones o bien las oficinas del gobierno se
    podían dar el lujo de tenerlas.

    Para poder correr
    un trabajo (programa), tenían que escribirlo en papel (en
    Fortran o en lenguaje
    ensamblador) y después se perforaría en
    tarjetas. Enseguida se llevaría la pila de tarjetas al
    cuarto de introducción al sistema y la entregaría a
    uno de los operadores. Cuando la computadora terminaba el
    trabajo, un operador se dirigiría a la impresora y
    desprendía la salida y la llevaba al cuarto de salida,
    para que la recogiera el programador.

    Segunda Generación (A mitad de la
    década de 1960)

    La característica de la segunda generación
    de los sistemas operativos fue el desarrollo de los sistemas
    compartidos con multiprogramación, y los principios del
    multiprocesamiento. En los sistemas de multiprogramación,
    varios programas de usuarios se encuentran al mismo tiempo en el
    almacenamiento principal, y el procesador se
    cambia rápidamente de un trabajo a otro. En los sistemas
    de multiprocesamiento se utilizan varios procesadores en
    un solo sistema computacional, con la finalidad de incrementar el
    poder de procesamiento de la máquina. La independencia
    de dispositivos aparece después. Un usuario que deseara
    escribir datos en una cinta en sistemas de la primera
    generación tenia que hacer referencia específica a
    una unidad en particular. En los sistemas de la segunda
    generación, el programa del usuario especificaba tan solo
    que un archivo iba a ser escrito en una unidad de cinta con
    cierto número de pistas y cierta densidad. El
    sistema operativo localizaba, entonces, una unidad de cinta
    disponible con las características deseadas, y le indicaba
    al operador que montara la cinta en esa unidad.

    El surgimiento de un nuevo campo: LA INGENIERÍA
    DEL SOFTWARE.

    Los sistemas operativos desarrollados durante los
    años 60 tuvieron una enorme conglomeración de
    software escrito por gente que no entendía el software,
    también como el hardware, tenía que ser ingeniero
    para ser digno de confianza, entendible y mantenible.

    Se desarrollaron sistemas compartidos, en la que los
    usuarios podían acoplarse directamente con el computador a
    través de terminales. Surgieron sistemas de tiempo real,
    en que los computadores fueron utilizados en el control de
    procesos
    industriales. Los sistemas de tiempo real se caracterizan por
    proveer una respuesta inmediata.

    Multiprogramación

    Sistemas multiprogramados : varios trabajos se
    conservan en memoria al mismo tiempo, y el cpu se
    comparte entre ellos

    Rutinas de E/S: provista por el sistema
    ejecutadas simultáneamente con procesamiento del CPU.

    Administración de memoria: el sistema debe
    reservar memoria para varios trabajos.

    Administración del CPU: el sistema debe
    elegir entre varios trabajos listos para
    ejecución.

    Administración de dispositivos.

    Tercera Generación (Mitad de la década
    de 1960 a mitad de la década de 1970)

    Se inicia en 1964, con la introducción de
    la familia de
    computadores Sistema/360 de IBM. Los computadores de esta
    generación fueron diseñados como sistemas para usos
    generales. Casi siempre eran sistemas grandes, voluminosos. Eran
    sistemas de modos múltiples, algunos de ellos
    soportaban simultáneamente procesos por lotes, tiempo
    compartido, procesamiento de tiempo real y
    multiprocesamiento. Eran grandes y costosos, nunca antes se
    había construido algo similar, y muchos de los esfuerzos
    de desarrollo terminaron muy por arriba del presupuesto y
    mucho después de lo que el planificador marcaba como fecha
    de terminación.

    Estos sistemas introdujeron mayor complejidad a los
    ambientes computacionales; una complejidad a la cual, en un
    principio, no estaban acostumbrados los usuarios.

    Sistemas de Tiempo Compartido

    El CPU se comparte entre varios trabajos que se
    encuentran residentes en memoria y en el disco (el CPU se asigna
    a un trabajo solo si éste esta en memoria).

    Un trabajo es enviado dentro y fuera del la memoria
    hacia el disco.

    Existe comunicación en-línea entre el
    usuario y el sistema; cuando el sistema operativo finaliza la
    ejecución de un comando, busca el siguiente "estatuto de
    control" no de una tarjeta perforada, sino del teclado del
    operador.

    Existe un sistema de archivos en línea el cual
    está disponible para los datos y código de los
    usuarios

    Cuarta Generación (Mitad de la década
    de 1970 a nuestros días)

    Los sistemas de la cuarta generación constituyen
    el estado
    actual de la tecnología. Muchos diseñadores y
    usuarios se sienten aun incómodos, después de sus
    experiencias con los sistemas operativos de la tercera
    generación, y se muestran cautelosos antes de
    comprometerse con sistemas operativos complejos. Con la
    ampliación del uso de redes de computadores y del
    procesamiento en línea los usuarios obtienen acceso a
    computadores alejados geográficamente a través de
    varios tipos de terminales. El microprocesador
    ha hecho posible la aparición de la
    computadora personal, uno de los
    desarrollos de notables consecuencias sociales más
    importantes de las últimas décadas. Ahora muchos
    usuarios han desarrollado sistemas de computación que son
    accesibles para su uso personal en cualquier momento del
    día o de la noche. La potencia del
    computador, que costaba varios cientos de miles de dólares
    al principio de la década de 1960, hoy es mucho más
    accesible. El porcentaje de la población que tiene acceso a un computador
    en el Siglo XXI es mucho mayor. El usuario puede tener su propia
    computadora para realizar parte de su trabajo, y utilizar
    facilidades de comunicación para transmitir datos entre
    sistemas. La aplicación de paquetes de software tales como
    procesadores de palabras, paquetes de bases de datos y
    paquetes de gráficos ayudaron a la evolución de la computadora personal. La
    llave era transferir información entre computadoras en
    redes de trabajo.
    El correo
    electrónico, transferencia de archivos, y aplicaciones
    de acceso a bases de datos
    proliferaron. El modelo cliente-servidor fue
    esparcido. El campo de ingeniería del software
    continuó evolucionando con una mayor confianza proveniente
    de los EE.UU. Los ambientes del usuario, altamente
    simbólicos, y orientados hacia las siglas de las
    décadas de los sesenta y setenta, fueron reemplazados, en
    la década de los ochenta, por los sistemas controlados por
    menú, los cuales guían al usuario a lo largo de
    varias opciones expresadas en un lenguaje sencillo.

    Mini-computadoras y Microprocesadores

    Computadoras de menor tamaño.

    Desarrollo de sistemas operativos (UNIX, DOS,
    CP/M).

    Mejora en las interfaces de usuario.

    Introducción de Microprocesadores.

    Desarrollo de lenguajes de
    programación.

    Sistemas de cómputo personales

    Computadoras Personales- sistemas de cómputo
    dedicados a un solo usuario.

    Dispositivos de E/S- teclados, ratón, pantalla,
    impresoras..

    Conveniente al usuario y de respuesta
    rápida.

    Puede adaptarse a la tecnología para soportar
    otros sistemas operativos.

    Sistemas Distribuidos

    Sistemas Distribuidos: Distribuyen el
    cómputo entre varios procesadores geográficamente
    dispersos.

    Sistemas débilmente acoplados: Cada
    procesador tiene
    su propia memoria local y el procesador se comunica con los
    demás procesadores mediante líneas de
    comunicación, buses de alta velocidad y
    líneas telefónicas.

    Ventajas:

    – Compartición de recursos

    – Incremento en la velocidad de
    cómputo

    – Compartición de carga

    – Confiabilidad

    – Comunicación

    Redes

    Estaciones de Trabajo: Sun, Vax, Silicon
    Graphics.

    Redes de Area Local Ethernet, Token
    Ring, FDDI, ATM, Redes de larga
    distancia (Arpanet).

    Redes organizadas como clientes-servidores.

    Servicios de S.O. Protocolos de
    comunicación, encriptación de datos, seguridad,
    consistencia

    Sistemas Paralelos

    Sistemas Paralelos: Sistemas de múltiples
    procesadores con mas de un procesador con comunicación
    entre ellos.

    Sistema Fuertemente Acoplado: Los procesadores
    comparten memoria y reloj; la
    comunicación usualmente se realiza mediante memoria
    compartida.

    Ventajas:

    – Incremento de throughput

    – Económica

    – Incremento en la confiabilidad

    1990 – 2000

    Cómputo Paralelo (Teraflops).

    PC’s poderosas (1.5 GigaHertz), Computadoras
    Multimedia.

    Redes de Comunicación de distancia mundial, con
    envío de imágenes,
    grandes cantidades de datos, audio y video.

    World Wide Web.

    Notebooks utilizando tecnologías de
    comunicación inalámbrica: Cómputo
    Móvil.

    Cómputo Embebido y Robótica.

    Sistemas de Tiempo Real

    A menudo son utilizados como dispositivos de control en
    aplicaciones dedicadas, como control de experimentos
    científicos, sistemas de procesamiento de imágenes
    médicas, sistemas de
    control industrial, etc…

    Exige cumplimiento de restricciones de
    tiempos.

    Sistemas de Tiempo Real Críticos.

    – Cumplimiento forzoso de plazos de
    respuesta.

    – Predecibilidad y análisis de cumplimiento de plazos de
    respuesta

    Sistemas de tiempo real acríticos.

    – Exigencia "suave" de plazos de respuesta.

    – Atención lo mas rápido posible a
    eventos, en
    promedio.

    UNIX

    Los orígenes del sistema UNIX se remontan al
    desarrollo de un proyecto iniciado
    en 1968. Este proyecto fue realizado por General Electric,
    AT&T, Bell y el MIT; llevaron a cabo el desarrollo de un
    sistema operativo con nuevos conceptos como la multitarea, la
    gestión
    de archivos o la interacción con el usuario. El resultado
    de estas investigaciones se bautizó como MULTICS. El
    proyecto resultó ser demasiado ambicioso, por lo que no
    llegó a buen fin y terminó
    abandonándose.

    Posteriormente la idea de este proyecto se vuelve a
    retomar y conduce al gran desarrollo en 1969 del sistema
    operativo UNIX. Entre los investigadores destacaban Ken Thompson
    y Dennis Ritchie. En principio, este sistema operativo
    recibió el nombre de UNICS, aunque un año
    después pasa a llamarse UNIX, como se conoce hoy en
    día.

    El código de UNIX estaba inicialmente escrito
    en lenguaje ensamblador, pero en 1973, Dennis Ritchie
    llevó a cabo un proyecto para reescribir el código
    de UNIX en lenguaje C.
    UNIX se convirtió así en el primer sistema
    operativo escrito en lenguaje de alto nivel. Con este nuevo
    enfoque fue posible trasladar el sistema operativo a otras
    máquinas sin muchos cambios, solamente efectuando una
    nueva compilación en la máquina de destino. Gracias
    a esto la popularidad de UNIX creció y permitió
    asentar la "filosofía UNIX".

    Inicialmente UNIX fue considerado como un proyecto de
    investigación, hasta el punto de distribuirse de forma
    gratuita en algunas universidades, pero después la demanda
    del producto hizo
    que los laboratorios Bell iniciaran su distribución oficial.

    Después de tres décadas de haber escapado
    de los laboratorios Bell, el UNIX sigue siendo uno
    de los SO más potentes,
    versátiles y flexibles en el mundo de la
    computación. Su popularidad se debe a
    muchos factores incluidas su portabilidad y habilidad de correr
    eficientemente en una inmensa variedad de computadoras. Descrito
    frecuentemente como un sistema "simple, potente y elegante" el
    UNIX es hoy el corazón
    que late en el seno de millones de aplicaciones de telefonía fija y móvil, de millones
    de servidores en
    universidades, centros académicos, grandes, medianas y
    pequeñas empresas, el SO
    cuyo desarrollo viene de la mano del de Internet y que alberga a
    millones de servidores y aplicaciones de la red de redes. Sin UNIX, no
    cabe duda, el mundo de la informática hubiera sido otro.

    LINUX

    En octubre de 1991 un estudiante graduado de Ciencias de la
    Computación en la Universidad de Helsinki, llamado Linus
    Torvalds, anuncia en Internet que había
    escrito una versión libre de un sistema MINIX (una
    variante de UNÍX) para una computadora con procesador
    Intel 386 y lo dejaba disponible para todo aquel que estuviera
    interesado. En los subsiguientes 30 meses se
    desarrollarían hasta 90 versiones del nuevo SO,
    finalizando en 1994 con la definitiva, llamándola Linux
    versión 1.0.

    La fascinación de los medios por
    Linux viene
    dada, entre otras cosas, por ser un proyecto de ingeniería de
    software distribuido a escala global,
    esfuerzo mancomunado de más de 3 000 desarrolladores y un
    sinnúmero de colaboradores distribuidos en más de
    90 países. El rango de participantes en la
    programación del Linux se ha estimado desde unos cuantos
    cientos hasta más de 40.000, ya sea ofreciendo
    código, sugiriendo mejoras, facilitando comentarios o
    describiendo y enriqueciendo manuales. De
    hecho, se cuenta que el mayor soporte técnico jamás
    diseñado de manera espontánea y gratuita pertenece
    a este SO. Hoy Linux es una alternativa para muchos o un
    indispensable para otros. Su importancia no puede ser relegada:
    los RED HAT, los
    SUSE, los Mandrake pueblan miles de servidores por todo el
    planeta

    Las Distribuciones de Linux son:

    Caldera: El énfasis de esta distribución es la facilidad de uso e
    instalación para los usuarios. Se orienta más hacia
    el desktop a pesar que, como cualquier otra distribución
    de Linux, puede ser usada para servidores.

    Corel: Es una distribución basada en
    Debian, pero extensivamente modificada para hacerla tan
    fácil de usar como el sistema operativo de Microsoft. Es
    quizá la distribución más fácil de
    utilizar para alguien que no esté familiarizado con
    Unix.

    Debian: Es una distribución orientada
    más a desarrolladores y programadores. El énfasis
    de esta distribución es incluir en su sistema solamente
    software libre según la definición de la
    Fundación del Software Libre (FSF).

    Mandrake: Es una distribución
    originalmente basada en RedHat que se enfoca principalmente hacia
    la facilidad de uso. Al igual que Corel, es recomendada para
    quienes no tengan mucha experiencia con sistemas Unix.

    RedHat: Es la distribución más
    popular de Linux y para la que hay más paquetes
    comerciales de software. Está orientada tanto al desktop
    como a servidores. La mayoría de servidores de web que utilizan
    Linux como sistema operativo usan esta
    distribución.

    S.U.S.E.: Es la distribución más
    popular en Europa y probablemente la segunda más popular
    del mundo. Al igual que RedHat, está orientada tanto a
    desktops como a servidores.

    Slackware: Es una distribución de Linux
    que pretende parecerse a BSD desde el punto de vista del administrador de
    sistemas. No es una distribución muy popular a pesar que
    cuando comenzó era la más popular.

    Stampede: Es una distribución enfocada al
    rendimiento y velocidad del sistema. No es muy fácil de
    usar para quién no está acostumbrado a la
    administración de sistemas Unix.

    OS/2 (IBM Operating
    System 2)

    OS/2 son las siglas de "Sistema operativo de segunda
    generación". La idea de OS/2 surgió entre IBM y
    Microsoft a mediados de los 80, en un intento de hacer un sucesor
    de MS-DOS, el cual ya empezaba a acusar el paso del tiempo y
    resultaba claramente desaprovechador de los recursos de las
    máquinas de la época (basadas en el Intel
    286).

    OS/2 1.0

    OS/2 1.0 salió en abril de 1987 y era un sistema
    operativo de 16 bits, pues estaba pensado para trabajar sobre el
    microprocesador
    286. Sin embargo, aprovechaba plenamente el modo protegido de
    este ordenador, haciendo uso de sus capacidades para
    protección de memoria, gestión
    de multitarea, etc. El resultado fue un S.O. estable,
    rápido y muy potente.

    OS/2 ya tenía incorporada desde esa primera
    versión la multitarea real. Se podían ejecutar
    varias sesiones simultáneamente, en cada una de ellas se
    podían tener múltiples programas, y cada uno de
    ellos podía tener múltiples threads en
    ejecución. Se trataba de una multitarea jerárquica,
    con cuatro niveles de prioridad: Crítico (útil para
    programas que requieran atención casi constante por parte del CPU,
    como un módem), Primer plano (correspondiente al programa
    que tiene acceso a la pantalla, teclado y ratón), Medio
    (programas lanzados por el usuario que se ejecutan en BackGround)
    y Desocupado (tareas de poca importancia o lentas, como el
    Spooler de impresión). Dentro de cada nivel (a
    excepción del de Primer plano), existen 32 niveles de
    prioridad, los cuales son asignados dinámicamente a cada
    programa por el S.O. en función
    del porcentaje de uso del CPU, de los puertos de E/S,
    etc.

    OS/2, además, permitía memoria
    virtual, con lo que se podían ejecutar programas
    más largos que lo que la memoria física instalada
    permitiría en principio (los requerimientos de aquella
    versión eran un 286 con 2 megas de memoria). Por otro
    lado, incluía la característica de
    compartición de código: al
    cargar dos veces un mismo programa, el código de este no
    se duplicaba en memoria, sino que el mismo código era
    ejecutado por dos Threads diferentes. Esto permitía
    ahorrar mucha memoria.

    Esta versión de OS/2 era íntegramente en
    modo texto. Si bien
    el Sistema Operativo daba la posibilidad de usar los modos
    gráficos de la tarjeta del ordenador, no
    incluía ningún API que ayudase en ello, recayendo
    todo el trabajo de diseño de rutinas de puntos,
    líneas, etc, en el programador de la aplicación.
    Esto no era realmente tan problemático, pues era lo que se
    hacía en el mundo del MS-DOS. Sin embargo, se
    añoraba un entorno gráfico como Windows.

    OS/2 1.1

    En la versión 1.1, aparecida en octubre de 1988,
    llegó por fin el Presentation Manager, un gestor de modo
    gráfico, junto con la primera versión de Work Place
    Shell. Ambos formaban un entorno gráfico muy parecido al
    aún no comercializado Windows 3.0. También hizo su
    aparición el formato de ficheros HPFS (High Performance
    File System). Este sistema de ficheros complementaba al
    clásico FAT, que era el usado por MS-DOS y por OS/2 1.0;
    sin embargo, ofrecía una gran cantidad de ventajas, tales
    como:

    Menor fragmentación de ficheros: HPFS
    busca primero una zona en donde el archivo entre completo, con lo
    que la fragmentación de ficheros es prácticamente
    inexistente. De hecho, IBM recomienda desfragmentar los discos duros
    una vez al año, y solo a los paranoicos.

    Mayor capacidad: HPFS admite discos duros de
    más capacidad, manteniendo el tamaño del cluster
    (unidad mínima de información almacenable) en 512
    bytes o un sector. En FAT, el tamaño mínimo de
    cluster para un disco duro es
    2048 bytes, y para discos mayores aumenta (un disco duro de 1
    giga tiene un tamaño de cluster de 32K).

    Soporte para nombres largos: Permite nombres de
    hasta 256 caracteres.

    Mayor seguridad: Si al grabar en un sector se
    detecta un error, se marca
    automáticamente como defectuoso y se graba en otra
    parte.

    Mayor velocidad en el acceso: Gracias a la
    estructura
    jerárquica de directorios, que optimiza el acceso a
    disco.

    El gran problema de OS/2 es que seguía siendo un
    S.O. de 16 bits, con lo que no aprovechaba plenamente las
    capacidades de los 386 de la época, que empezaron a
    extenderse con más velocidad de la esperada. Según
    una revista del
    sector, Microsoft sugirió hacer una versión de 32
    bits (que obligaría a ejecutarla en ordenadores 386 o
    superiores), pero IBM insistió en perfeccionar la de 16
    bits. Sobre quien dijo cada cosa realmente solo se puede
    especular. Lo único que se sabe a ciencia cierta
    es que la versión de OS/2 de 32 bits presentada por
    Microsoft en 1990 era casi igual que la versión 1.3, con
    la única diferencia de que el kernel era de 32 bits. IBM,
    por su parte, quería un escritorio orientado a objetos, y
    no el clásico shell de OS/2 1.x (el cual Microsoft
    copiaría para su Windows 3.0). Puestas así las
    cosas, finalmente se rompió el acuerdo entre
    ambos.

    OS/2 2.0

    Fué la primera versión de OS/2 de 32 bits,
    iba a salir inicialmente a finales de 1990; pero al no contar con
    la ayuda de Microsoft, IBM no fue capaz de sacarlo hasta 1992,
    dándole a Windows 3.0 el tiempo suficiente para asentarse
    en el mercado.

    OS/2 2.0 tenía todas las ventajas de los
    anteriores OS/2, unido al nuevo núcleo de 32 bits. No
    se trataba, por tanto, de un retoque de la versión de 16
    bits, sino un sistema operativo prácticamente nuevo que
    aprovechaba al máximo las capacidades del modo protegido
    del microprocesador 386. Sin embargo, iba más allá
    que Windows, pues al contrario que éste, ofrecía
    compatibilidad garantizada con todas las
    aplicaciones de 16 bits anteriores, gracias a la inclusión
    del API original de 16 bits junto con el nuevo de 32, y
    además sin perdida de prestaciones. Así mismo,
    ofrecía también compatibilidad con Windows 2.x y
    3.0, junto con una compatibilidad con MS-DOS muy mejorada,
    gracias al modo V86 que incorporan los micros 386 y del que
    carecía el 286: en OS/2 1.x la compatibilidad DOS era muy
    limitada, quedando reducida a una sola tarea y realizando un
    cambio entre
    modo real y modo protegido del microprocesador, además de
    consumir de manera permanente 640 K de memoria. Aparte, la
    emulación no era todo lo buena que cabía esperar.
    Todos estos problemas desaparecieron en la versión 2.0,
    pudiendo tener varias sesiones DOS totalmente independientes
    entre sí, con una compatibilidad cercana al 100% y
    beneficiándose de las capacidades de Crash Protection del
    OS/2, que impiden que un programa pueda colapsar el sistema
    entero.

    Por otro lado, el Work Place Shell (el shell de trabajo
    gráfico, de ahora en adelante WPS) fue muy mejorado,
    resultando un shell totalmente orientado a objetos, con acceso
    directo a los ficheros, carpetas dentro de carpetas, ficheros
    sombra (conocidos como alias en los sistemas UNIX) y un
    escritorio de verdad.

    IBM consiguió vender OS/2 2.0 en grandes
    cantidades; sin embargo, no consiguió su autentico
    despegue, en parte por culpa de la falta de apoyo por parte de
    las empresas del
    software. El API del Presentation Manager, aunque similar al de
    Windows, tenía muchas diferencias, con lo que las empresas
    tuvieron que elegir entre uno u otro, ante la imposibilidad de
    muchas de ellas de dividir su talento entre ambos
    sistemas.

    OS/2 3.0 (Warp)

    A principios de 1994 aparece el OS/2 Warp, nombre
    comercial de la versión 3.0 de OS/2. En ella surgen
    nuevos elementos: un kit completo de multimedia (mejor
    del que traía la versión 2.1) y el Bonus Pak, un
    kit de aplicaciones que permite ponerse a trabajar con el
    ordenador nada más instalar el Sistema Operativo, pues
    contiene elementos como un Kit de conexión a Internet
    completo, el paquete integrado IBM Works (formado por un procesador de
    textos, hoja de
    cálculo, base de datos y
    gráficos de empresa, junto
    con el PIM, que añade más funcionalidades
    aprovechando las capacidades drag&drop del WPShell), soft de
    terminal, soft de captura y tratamiento de video, etc.
    Así mismo, la cantidad de hardware soportado fue ampliada
    de manera considerable, soportando casi cualquier dispositivo
    existente en el mercado: CD-Roms,
    impresoras, tarjetas de sonido, soporte
    PCMCIA, tarjetas de
    video, tarjetas de captura de video, tarjetas SCSI, etc. Los
    requisitos mínimos de esta versión seguían
    siendo un 386SX a 16MHz con 4 megas de RAM, los mismos
    que para Windows 3.11, y podía ejecutar programas DOS,
    OS/2 16bits, OS/2 32 bits, Windows 2.x y Windows 3.x
    (incluía además el API Win32, con lo que se
    podían ejecutar incluso programas Windows de
    32bits).

    IBM se metió en una campaña
    publicitaria a nivel mundial para promocionar esta nueva
    versión, la cual, sin embargo, no dio los resultados
    esperados. A pesar de eso, OS/2 es ampliamente utilizado en
    múltiples empresas, bancos sobre
    todo, en donde su estabilidad es la mayor
    garantía.

    Poco después sale al mercado una revisión
    de Warp, denominada Warp Connect, la cual añade un kit
    completo de conexión a redes, soportando
    prácticamente cualquier estándar de red, incluyendo
    Novell
    Netware, TCP/IP, etc. junto
    con soporte para SLIP y PPP.

    OS/2 4.0 (Merlín)

    En Noviembre de 1996 se hizo la presentación de
    Merlín, nombre clave de OS/2 4.0, y que, en contra de lo
    que mucha gente piensa, no tiene nada que ver con el
    mítico mago de la corte del rey Arturo, sino con un
    pájaro parecido a un águila (siguiendo la nueva
    filosofía de IBM de nombrar sus creaciones con nombres de
    aves).
    Merlín trae todo lo que ofrecía OS/2 3.0, pero lo
    amplía con un conjunto extra de características,
    como son:

    Un soporte todavía mayor de hardware.

    Mayor simplicidad de instalación.

    Librerías OpenDoc (compatibles con OLE 2.0, pero
    más potentes).

    Librerías OpenGL, que permiten aprovechar las
    capacidades 3D de las tarjetas que soporten este
    estándar.

    API de desarrollo Open32, que permiten recompilar con
    suma facilidad las aplicaciones escritas para Windows95 y
    WindowsNT, de forma que aprovechen al máximo los recursos
    de OS/2.

    Un Bonus Pack ampliado, incluyendo una nueva
    versión del IBMWorks basada en OpenDoc, y las utilidades
    LotusNotes.

    Un Kernel aún más optimizado.

    Escritorio mejorado, ofreciendo una orientación a
    objeto aún mayor.

    Un extenso soporte de conectividad, superior a la
    versión Connect de Warp 3.0, lo que lo convierte en el
    cliente de red universal, pudiendo conectarse a casi cualquier
    servidor (no
    solo Warp Server, sino Windows NT
    Server, Novell,
    etc).

    HPFS mejorado: mayor capacidad por disco y seguridad.

    Sesiones DOS reales (el micro se conmuta a modo real, y
    todo el contenido de la RAM se guarda en
    disco, quedando el Sistema Operativo y el resto de las utilidades
    congelados, pudiendo rearrancar en cualquier momento. Es
    útil para juegos o
    programas de DOS muy exigentes, que se niegan a funcionar en una
    sesión DOS virtual).

    La Característica Estrella de cara al
    Márketing: El VoiceType. Se trata de un software
    reconocedor de voz, capaz de funcionar con cualquier tarjeta de
    sonido, y que
    permite al usuario trabajar exclusivamente mediante el dictado de
    comandos. Este sistema, al contrario que otros disponibles hasta
    el momento, realmente reconoce el habla de forma continua, de
    modo que no sólo se puede usar para navegar por el
    escritorio y controlar programas, sino que sirve perfectamente
    para dictar cualquier tipo de texto, como artículos,
    cartas, etc.,
    sin tocar una sola tecla. Se trata, por tanto, de un avance de
    los que serán, sin duda, los sistemas operativos del
    futuro.

    Microsoft
    Windows

    De los tantos sistemas operativos que se han hecho
    famosos a lo largo del desarrollo de la informática en el
    ocaso del siglo pasado, sin duda, ningún otro posee la
    peculiaridad del Windows de Microsoft.
    Rodeado por todo tipo de mitos acerca
    de su emprendedor y ambicioso creador, solidificado sobre la base
    de un sistema DOS, cuya irrupción en la primera PC
    tenía más de suerte que de propósito,
    amparado por disfrutar de un férreo y despiadado control
    de mercado es hoy por hoy, odiado o amado, el sistema operativo
    más extendido del planeta.

    MS-DOS

    Cuando IBM fabricó la PC hizo que el usuario
    antes de cargar algún SO, realizara lo que se llamó
    el POST (Power On Self Test), que
    determinaba los dispositivos disponibles (teclado,
    vídeo, discos, etc.) y luego buscaba un disco de
    arranque. Estas funciones eran
    realizadas por un conjunto de instrucciones incorporad.as
    en la máquina mediante una ROM Luego quedó
    escrito que siempre hubiera algún tipo de software en el
    sistema aún sin ser cargado el SO. Entre las
    rutinas del POST tenemos las de revisión del sistema,
    inicialización y prueba de teclado, habilitación de
    vídeo, chequeo de la memoria y la rutina de
    inicialización que preparaba a la máquina para
    ejecutar el DOS. Después que las pruebas de
    arranque han sido ejecutadas y el sistema está cargado, la
    ROM aún sigue siendo importante debido a que contiene el
    soporte básico de entrada y salida (BIOS). La
    BIOS provee un
    conjunto de rutinas que el SO o los programas de
    aplicación pueden llamar para manipular el monitor,
    teclado, discos duros, discos flexibles, puertos COM o
    impresoras.

    El trato de IBM con Microsoft tenía entre otras
    condiciones una particularidad interesante: la administración directa de las tarjetas
    adaptadoras podría ser manejada sólo por programas
    que IBM proveía con la ROM del computador. El DOS
    sería escrito para utilizar estos servicios. De esta
    manera, si IBM decidía cambiar el hardware, éste
    podía embarcar nuevos modelos de chips con cambios en la
    BIOS y no requería que Microsoft cambiara el SO. Ello
    posibilitó, junto con la
    clonación de la arquitectura de
    IBM incluido la BIOS, que el DOS se extendiera por el universo, aun
    cuando el Gigante Azul rompiera su alianza con Microsoft, en
    1991, para producir su propio SO. Microsoft había hecho un
    trabajo estratégico brillante e IBM había perdido
    la supremacía de las computadoras para siempre.

    Realmente el núcleo del DOS estaba contenido en
    un par de archivos ocultos llamados IO.SYS y MSDOS.SYS en las
    versiones de DOS realizadas por Microsoft, e IBMBIO.SYS, para las
    versiones de DOS hechas por IBM bajo licencia Microsoft. Los
    servicios del DOS eran solicitados cuando una aplicación
    llamaba a la interrupción 21 (INT 21) reservada para estos
    fines. Esta buscaba un punto de entrada del administrador de
    servicios del DOS en una tabla y saltaba a la rutina en el
    módulo MSDOS.SYS. En otros SO, la aplicación
    debía realizar una llamada al sistema (system call) para
    requerir servicios, como, por ejemplo, en UNIX.

    Otro rasgo distintivo del MS-DOS fue la forma en el
    manejo de la estructura de ficheros: la FAT (File Allocation
    Table) o Tabla de Asignación de Archivos, que
    dividía al disco en subdirectorios y archivos. Criticados
    por muchos como un sistema poco seguro y no
    eficiente, la herencia
    sobrevivió por mucho tiempo y no fue hasta época
    reciente que Microsoft decidió reemplazarlo por un sistema
    más robusto, el NTFS que destinó a la gama alta de
    sus SO: el Windows NT, 2000 y XP.

    Windows 1.0

    Microsoft hizo su primera incursión en lo que
    luego se llamaría Microsoft Windows en el año 1981
    con el llamado Interface Manager, en tiempos en que las
    interfaces gráficas de usuario, GUI, eran una quimera
    de lujo para muchos, en tanto la computación estaba
    suscripta al área geográfica de los centros
    académicos, grandes instituciones
    y empresas. Más que un SO, se trataba en realidad de una
    interfaz montada sobre su estrenado DOS. Aunque los primeros
    prototipos usaban una interfaz similar a una de las aplicaciones
    estrellas de la Compañía en aquel entonces, el
    Multiplan, luego ésta fue cambiada por menús
    pulldown y cuadros de diálogo,
    similares a las usadas en el programa Xerox Star del mencionado
    fabricante. Al sentir la presión de
    programas similares en aquel entonces, Microsoft anuncia
    oficialmente Windows a finales del año 1983. En ese
    momento, muchas compañías trabajan la línea
    de las interfaces gráficas, entre ellas Apple, reconocida
    casi por todos como la primera, DESQ de Quraterdeck, Amiga
    Workbech, NEXTstep, etc. Windows prometía una interfaz GUI
    de fácil uso, soporte multitarea y gráfico.
    Siguiendo el rito de los anuncio-aplazamientos de Microsoft,
    Windows 1.0 no llegó a los estantes de los negocios hasta
    noviembre de 1985, disponiendo de un soporte de aplicaciones
    pobres y un nivel de ventas
    pírrico. El paquete inicial de Windows 1.0
    incluía: MS-DOS Ejecutivo, Calendario, Tarjetero, el
    Notepad, Terminal, Calculadora, Reloj, Panel de Control,
    el editor PIF (Program Information File), un Spooler de
    impresión, el Clipboard, así como el Windows Write
    y Windows Paint.

    Windows 2.0

    Windows/286 y Windows/386, renombrados como Windows 2.0
    terminan la saga en el otoño de 1987, al ofrecer algunas
    mejoras de uso, adicionar íconos y permitir la
    superposición de ventanas, lo que propició un marco
    mucho más apropiado para la co-ubicación de
    aplicaciones de mayor nivel como el Excel,
    Word, Corel Draw, Ami y
    PageMakers, etc. Una notoriedad del Windows/386 lo
    constituyó el hecho de poder correr aplicaciones en modo
    extendido y múltiples programas DOS de manera
    simultánea.

    Windows 3.0

    El Windows 3.0, que aparece en mayo de 1990,
    constituyó un cambio radical del ambiente
    Windows hasta entonces. Su habilidad de direccionar espacios de
    memorias por
    encima de los 640 k y una interfaz de usuario mucho más
    potente propiciaron que los productores se estimularan con la
    producción de aplicaciones para el nuevo programa. Ello,
    unido a la fortaleza dominante del MS-DOS como SO llevado de la
    mano de la gula insaciable del gigante corporativo, hizo que el
    Windows 3.0 se vislumbrara como el primer SO gráfico
    (siempre con el MS-DOS bajo su estructura) marcado para dominar
    el mercado de las PCs en el futuro inmediato. Windows 3.0 fue un
    buen producto,
    desde el punto de vista de las ventas: diez
    millones de copias.

    Windows 3.1 y 3.11

    En 1992 llegaría la saga del Windows 3.1 y 3.11,
    así como su variante para trabajo en grupo. Con
    éste se hizo patente el traslado de la mayoría de
    los usuarios del ambiente de
    texto que ofrecía el MS-DOS hacia el ambiente
    gráfico de la nueva propuesta, olvidándonos todos
    paulatinamente del Copy A: *.* para sustituirlo por el COPIAR Y
    PEGAR. Las primeras aplicaciones "adquiridas y/o desplazadas" por
    Microsoft ofrecidas como un todo único, el ambiente de RED
    peer to peer, los sistemas de upgrade de una versión a
    otra y el tratamiento diferenciado para los revendedores y los
    fabricantes OEM, caracterizaron los movimientos de Microsoft para
    afianzar el mercado de su SO insignia. En el caso de la
    versión para trabajo en grupo, Microsoft integró
    por primera vez su SO con un paquete de tratamiento para redes,
    lo que permitió, sobre un protocolo propio,
    el compartir ficheros entre PCs (incluso corriendo DOS),
    compartir impresoras, sistema de correo
    electrónico y un planificador para trabajo en grupo.
    Sin embargo, lo realmente llamativo consistió en su plena
    integración con el ambiente Windows y con
    ello garantizar, independiente de la calidad del producto final,
    un seguro
    predominio.

    Windows 95

    El año 1995 significó un nuevo vuelco en
    la línea de los SO de Microsoft. En agosto sale al mercado
    el controvertido Windows 95, un
    entorno multitarea con interfaz simplificada y con otras
    funciones mejoradas.

    Parte del código de Windows 95
    está implementado en 16 bits y parte en 32 bits. Uno de
    los motivos por los cuales se ha hecho así, ha sido para
    conservar su compatibilidad. Con Windows 95 podemos ejecutar
    aplicaciones de Windows 3.1 ó 3.11, MS-DOS y obviamente
    las nuevas aplicaciones diseñadas específicamente
    para este sistema operativo. Entre las novedades que ofrece
    Windows 95 cabe destacar el sistema de ficheros de 32 bits,
    gracias al cual podemos emplear nombres de ficheros de hasta 256
    caracteres (VFAT y CDFS), debido a que se trata de un sistema
    operativo de modo protegido, desaparece la barrera de los 640K,
    hemos de tener presente que aunque la mayor parte de Windows 3.1
    es un sistema de modo protegido, este se está ejecutando
    sobre un sistema operativo que trabaja en modo real.

    La interfaz de Windows 95 también ha sido
    mejorada. El primer gran cambio que veremos al empezar a trabajar
    será la desaparición del Administrador de
    Programas. Ahora tenemos un escritorio al estilo del Sistema 7 de
    los Macintosh o NeXTStep.

    Viene a sustituir al sistema operativo DOS y a su
    predecesor Windows 3.1. Frente al DOS tiene tres ventajas
    importantes:

    En primer lugar toda la información presentada al
    usuario es gráfica, mientras que el DOS trabaja con
    comandos en modo texto formados por órdenes
    difíciles de recordar.

    En segundo lugar, Windows 95 define una forma
    homogénea de utilizar los recursos de la computadora, lo
    cual permite compartir datos entre las distintas aplicaciones,
    así como utilizar con facilidad los elementos de hardware
    ya instalados.

    En tercer lugar Windows 95 es un sistema operativo que
    permite ejecutar varias aplicaciones a la vez (multitarea),
    mientras que en DOS sólo se puede ejecutar un programa en
    cada momento.

    A sólo siete semanas de su lanzamiento ya se
    habían vendido siete millones de copias. Es la
    época del despegue de Internet y el WWW, y su visualizador
    dominante: el Navigator de Netscape. Microsoft, en un error poco
    común de su timonel no se había dado cuenta que el
    futuro de las computadoras estaba precisamente en la red y que
    Internet significaría toda una revolución
    en la rama.

    Además de "empotrar" su navegador y obligar a los
    fabricantes de PCs a tenerlo en cuenta, ese mismo año se
    crea The Microsoft Network y mediante su incursión
    acelerada en los medios masivos de comunicación, surge
    MSNBC, un año después.

    Windows NT

    La misión del
    equipo de desarrolladores que trabajó el NT estaba bien
    definida: construir un SO que supliera las necesidades de
    este tipo de programa para cualquier plataforma presente o
    futura. Con esa idea, el equipo encabezado por un antiguo
    programador de SO para máquinas grandes, se trazó
    los siguientes objetivos:
    portabilidad en otras arquitecturas de 32 bits, escalabilidad
    y multiprocesamiento, procesamiento distribuido, soporte API y
    disponer de mecanismos de seguridad clase 2 (C2), según
    parámetros definidos por el Gobierno
    estadounidense.
    La robustez del sistema, fue un requisito a toda costa: el NT
    debía protegerse a sí mismo de cualquier mal
    funcionamiento interno o daño externo, accidental o
    deliberado, respondiendo de manera activa a los errores de
    hardware o software. Debía ser desarrollado orientado al
    futuro, prever las necesidades de desarrollo de los fabricantes
    de equipos de cómputo, su adaptación
    tecnológica no sólo al hardware, sino al propio
    software. Todo ello sin sacrificar el desempeño y eficiencia del
    sistema. En cuanto al certificado de seguridad, C2 debiera
    cumplir con los estándares establecidos por éste
    como la auditoría, la detección de acceso,
    protección de recursos, etc. Así nació el
    Windows NT 3.5, devenido 3.51 en el año 1994 y se
    introdujo poco a poco en un mercado hasta ese momento desterrado
    para Microsoft.

    El NT 4.0 de nombre código Cairo, sale a luz en 1996. Por
    ahí leíamos que el nuevo sistema operativo
    cumplía una fórmula muy sencilla: tomar un NT 3.51,
    sumarle los service packs 1, 2 y 3 y mezclarlo con una interfaz a
    lo Windows 95 (incluido su papelera de reciclaje, algo
    realmente útil para un sistema montado sobre NTFS). Un
    paso más en la integración del SO con Internet lo dio el
    NT 4.0 al incluir Internet Information Server, servidor de
    Microsoft para soporte WEB, FTP, etc.,
    como un utilitario más dentro del paquete y que como la
    lógica indicaba engranaba con éste a las mil
    maravillas al desplazar en eficiencia y velocidad cualquier
    producto externo. La cara "Windows 95" se sobrepuso a un inicio
    incierto, ya que tuvo que vencer la desconfianza que pudo haber
    generado. Téngase en cuenta, que la familia NT estaba
    orientada a un cliente en el que la estabilidad y seguridad del
    sistema eran el requisito número uno y ello contrastaba
    con la experiencia que había tenido el 95. Sin embargo, el
    golpe fue genial. Por primera vez, Microsoft mezcló la
    solidez con el fácil uso y desterró para siempre el
    concepto impuesto hasta
    entonces de que para las grandes compañías y las
    grandes empresas los servidores debían ser cosa de
    científicos de bata blanca. El crecimiento de los usuarios
    NT se multiplicó desde ese momento. EL 4.0 se
    comercializaba en tres versiones: Workstation, Server y Advanced
    Server para tres variantes de clientes tipo, el profesional de
    las ingenierías, incluido la informática, la
    pequeña y mediana empresas y la gran empresa.

    Windows 98

    La llegada de Windows 98 no
    marcó mucha diferencia visual de su predecesor. Sin
    embargo, en el fondo fue todo un mensaje de lo que Microsoft
    haría para penetrar en el mercado de Internet y barrer con
    los que habían dominado en este tema hasta entonces. La
    indisoluble integración del WEB con el escritorio, el
    llamado active desktop, la interfaz "HTML", los
    canales y la persistente presencia del Explorer 4.0, para
    situarse por vez primera a la cabeza de los visualizadores de
    Internet, fueron rasgos distintivos de esta versión. El 98
    incluyó utilidades para el tratamiento de FAT16 y su
    conversión a FAT32, mejor manejo de los discos duros,
    manipulación múltiple de varios
    monitores, una
    lista extendida de soporte plug and play, soporte DVD,
    AGP, etc. A su vez
    la promesa de una mejora sustancial en el tratamiento de los
    drivers de dispositivos y en la disminución de los
    pantallazos azules, que realmente cumplió y mejoró
    con la versión SR1 (service release 1), tiempo
    después.

    Las nuevas características de Windows 98
    ofrecen sacar mucho más partido del PC. Los programas se
    ejecutan más rápido, pudiendo ganar una promedio de
    un 25% o más de espacio en el disco, Internet pasa a ser
    una parte muy importante en el ordenador, dando un paso gigante
    en la entrega de contenido multimedia de alta calidad.

    El Windows 98 se ha mantenido hasta nuestros días
    y debe ser la última versión del SO que quede
    vinculada a lo que fue la línea MS-DOS-Windows (salvando
    la variante Millenium o Windows Me que no ha convencido a nadie)
    hasta su total sustitución por Windows 2000 y el
    XP, en una serie de zigzagueantes cambios que deja a todos
    adivinando si debe cambiar o no para la próxima
    versión. Pero tras este errático rumbo, Microsoft
    persigue sólo una cosa: conservar la supremacía de
    los SO de por vida.

    Windows Millenium

    El 14 de septiembre sale el Windows Millenium, no como
    un sucesor del 98, sino como un producto orientado al usuario
    doméstico (interfaz de colores, mucha
    música y
    vídeo, soporte para redes LAN
    inalámbricas, cortafuegos personales), nada del otro
    mundo, con poca perspectiva de supervivencia.

    Windows 2000

    Se ofrece en 4 clasificaciones: Windows 2000
    Professional, Windows 2000
    Server (anteriormente NT Server), Windows 2000 Advanced
    Server (anteriormente NT Advanced Server) y Windows 2000
    Datacenter Server, un producto nuevo, poderoso y muy
    específico con posibilidad de manejo de hasta 16
    procesadores simétricos y 64 Gb de memoria
    física.

    Lo destacable de este paso estriba en haber llevado
    la robustez, la seguridad y la portabilidad que
    daba el NT al mercado masivo de las PCs.
    Este ofrece una plataforma impresionante para el trabajo en
    Internet, Intranet,
    manejo de aplicaciones, todo muy bien integrado. La posibilidad
    de soporte completo de redes, incluido redes privadas virtuales,
    encriptación a nivel de disco o de red y riguroso control
    de acceso son otras de sus bondades.

    Windows XP ( Experience)

    Desde que apareció Windows95 las sucesivas
    versiones han sido una evolución de la original, sin embargo en
    esta ocasión se ha producido un cambio de mayor
    envergadura ya que se ha cambiado el núcleo o Kernel del
    sistema operativo.

    Aunque de cara al usuario no se noten cambios radicales,
    se puede decir que Windows XP no
    es solo una versión más de Windows sino que supone
    prácticamente un nuevo sistema.

    Hasta ahora Microsoft disponía de dos sistemas
    operativos diferentes, para el entorno personal o
    doméstico tenía Windows98 y para el entorno
    profesional (o de negocios) el
    Windows NT/2000.

    Con Windows XP se
    produce una convergencia entre ambas versiones ya que se ha
    partido del núcleo del sistema de
    Windows 2000 para crear Windows XP y a partir de
    ahí se han realizado algunos retoques para diferenciar dos
    versiones de Windows XP, una para el ámbito personal
    llamada Windows XP Home Edition, y otra para el ámbito
    profesional denominada Windows XP Professional.

    El principal beneficio de esta estrategia para
    los usuarios domésticos va a ser que Windows XP ha
    adquirido la robustez y estabilidad de Windows NT/2000, esto debe
    suponer que Windows XP se quedará menos veces bloqueado,
    habrá menos ocasiones en la que tengamos que reiniciar el
    sistema como consecuencia de un error.
    La mejora para los usuarios profesionales se debe a que Windows
    XP tiene mayor compatibilidad con el hardware de la que gozaba
    Windows NT/2000.

    Windows XP dispone de un nuevo sistema de usuarios
    completamente diferente respecto a Windows98. Este nuevo sistema
    ha sido heredado de Windows NT/2000.

    Ahora se pueden definir varios usuarios con perfiles
    independientes. Esto quiere decir que cada usuario puede tener
    permisos diferentes que le permitirán realizar unas
    determinadas tareas. Cada usuario tendrá una carpeta Mis
    documentos
    propia que podrá estar protegida por contraseña, un
    menú de inicio diferente. También se dispone de una
    carpeta a la que tienen acceso todos los usuarios y donde se
    pueden colocar los documentos que se
    quieren compartir con los demás usuarios.

    Para pasar de un usuario a otro no es necesario apagar
    el ordenador, ni siquiera que un usuario cierre lo que estaba
    haciendo, simplemente hay que iniciar una nueva sesión con
    otro usuario, más tarde podremos volver a la sesión
    del primer usuario que permanecerá en el mismo estado que la
    dejó. El sistema se encarga de manejar a los distintos
    usuarios activos y sin
    interferencias.

    Partes: 1, 2

    Página siguiente 

    Nota al lector: es posible que esta página no contenga todos los componentes del trabajo original (pies de página, avanzadas formulas matemáticas, esquemas o tablas complejas, etc.). Recuerde que para ver el trabajo en su versión original completa, puede descargarlo desde el menú superior.

    Todos los documentos disponibles en este sitio expresan los puntos de vista de sus respectivos autores y no de Monografias.com. El objetivo de Monografias.com es poner el conocimiento a disposición de toda su comunidad. Queda bajo la responsabilidad de cada lector el eventual uso que se le de a esta información. Asimismo, es obligatoria la cita del autor del contenido y de Monografias.com como fuentes de información.

    Categorias
    Newsletter