Monografias.com > Computación > General
Descargar Imprimir Comentar Ver trabajos relacionados

Referencias de computación




Enviado por jrgaitan



    Introducción

    Algunas veces se ha preguntado, ¿cuál fue
    uno de los primeros procesadores de
    Intel, siempre han sido ha si de poderosos? O puede ser que
    alguna vez le halla surgido la duda de donde vienen las computadoras.

    En éste trabajo se da un breve relato de
    la historia de las
    computadoras así también como las historias de
    los lenguajes de
    programación y de los microprocesadores.

    A mi criterio a éste trabajo le puede
    llamar como una referencia rápida de los temas más
    comunes en el mundo de la informática y de las computadoras.
    Esta es una buena oportunidad para que usted de un vistazo
    rápido de lo que tratan las ciencias de la
    computación y sistemas. Insisto
    en que usted lea esta breve referencia de el mundo de las
    computadoras,
    y usted vera que la próxima vez que le hablen del tema
    usted se sentirá familiarizado con el
    mismo.

    Historia de la
    Computación

    Del Abaco a la tarjeta
    perforada

    EL ABACO; quizá fue el
    primer dispositivo mecánico de contabilidad
    que existió. Se ha calculado que tuvo su origen hace al
    menos 5000 años y su efectividad ha soportado la prueba
    del tiempo.

    LA PASCALINA; El inventor y pintor
    Leonardo Da
    Vinci (1452-1519) trazó las ideas para una sumadora
    mecánica. Siglo y medio después, el
    filósofo y matemático francés Blaise
    Pascal
    (1623-1662) por fin inventó y construyó la primera
    sumadora mecánica. Se le llamo Pascalina y
    funcionaba como maquinaria a base de engranes y ruedas. A pesar
    de que Pascal fue
    enaltecido por toda Europa debido a
    sus logros, la Pascalina, resultó un desconsolador fallo
    financiero, pues para esos momentos, resultaba más costosa
    que la labor humana para los cálculos
    aritméticos.

    LA LOCURA DE BABBAGE, Charles
    Babbage (1793-1871), visionario inglés
    y catedrático de Cambridge, hubiera podido acelerar el
    desarrollo de
    las computadoras
    si él y su mente inventiva hubieran nacido 100 años
    después. Adelantó la situación del hardware computacional al
    inventar la "máquina de diferencias", capaz de calcular
    tablas matemáticas. En 1834, cuando trabajaba en
    los avances de la máquina de diferencias Babbage
    concibió la idea de una "máquina analítica".
    En esencia, ésta era una computadora de
    propósitos generales. Conforme con su diseño,
    la máquina analítica de Babbage podía suma
    r, substraer, multiplicar y dividir en secuencia
    automática a una velocidad de
    60 sumas por minuto. El diseño
    requería miles de engranes y mecanismos que
    cubrirían el área de un campo de fútbol y
    necesitaría accionarse por una locomotora. Los
    escépticos le pusieron el sobrenombre de "la locura de
    Babbage". Charles Babbage trabajó en su máquina
    analítica hasta su muerte. Los
    trazos detallados de Babbage describían las características incorporadas ahora en la
    moderna computadora
    electrónica. Si Babbage hubiera vivido en
    la era de la tecnología electrónica y las partes de
    precisión, hubiera adelantado el nacimiento de la computadora
    electrónica por varías
    décadas. Irónicamente, su obra se olvidó a
    tal grado, que algunos pioneros en el desarrollo de
    la computadora
    electrónica ignoraron por completo sus
    conceptos sobre memoria, impresoras,
    tarjetas
    perforadas y control de
    programa
    secuencial.

    LA PRIMERA TARJETA PERFORADA; El
    telar de tejido, inventado en 1801 por el Francés
    Joseph-Marie Jackard (1753-1834), usado todavía en la
    actualidad, se controla por medio de tarjetas
    perforadas. El telar de Jackard opera de la manera siguiente: las
    tarjetas se
    perforan estratégicamente y se acomodan en cierta
    secuencia para indicar un diseño
    de tejido en particular. Charles Babbage quiso aplicar el
    concepto de
    las tarjetas
    perforadas del telar de Jackard en su motor
    analítico. En 1843 Lady Ada Augusta Lovelace
    sugirió la idea de que las tarjetas
    perforadas pudieran adaptarse de manera que propiciaran que el
    motor de Babbage
    repitiera ciertas operaciones.
    Debido a esta sugerencia algunas personas consideran a Lady
    Lovelace la primera programadora.

    Herman Hollerit (1860-1929) La oficina de censos
    estadounidense no terminó el censo de 1880 sino hasta
    1888. La dirección de la oficina ya
    había llegado a la conclusión de que el censo de
    cada diez años tardaría mas que los mismo 10
    años para terminarlo. La oficina de censos
    comisionó al estadístico Herman Hollerit para que
    aplicara su experiencia en tarjetas perforadas y llevara a cabo
    el censo de 1890. Con el procesamiento de las tarjetas perforadas
    y el tabulador de tarjetas perforadas de Hollerit, el censo se
    terminó en sólo 3 años y la oficina se
    ahorró alrededor de $5,000,000 de dólares.
    Así empezó el procesamiento automatizado de
    datos.
    Hollerit no tomó la idea de las tarjetas perforadas del
    invento de Jackard, sino de la "fotografía
    de perforación" Algunas líneas ferroviarias de la
    época expedían boletos con descripciones
    físicas del pasajero; los conductores hacían
    orificios en los boletos que describían el color de cabello,
    de ojos y la forma de nariz del pasajero. Eso le dio a Hollerit
    la idea para hacer la fotografía
    perforada de cada persona que se
    iba a tabular. Hollertih fundó la Tabulating Machine
    Company y vendió sus productos en
    todo el mundo. La demanda de sus
    máquinas se extendió incluso hasta Rusia. El primer
    censo llevado a cabo en Rusia en 1897, se registró con el
    Tabulador de Hollerith. En 1911, la Tabulating Machine Company,
    al unirse con otras Compañías, formó la
    Computing-Tabulating-Recording-Company.

    LAS MAQUINAS
    ELECTROMECANICAS DE CONTABILIDAD
    (MEC) Los resultados de las
    máquinas tabuladoras tenían que llevarse al
    corriente por medios
    manuales,
    hasta que en 1919 la Computing-Tabulating-Recording-Company.
    Anunció la aparición de la impresora/listadora. Esta innovación revolucionó la manera en
    que las Compañías efectuaban sus operaciones. Para
    reflejar mejor el alcance de sus intereses comerciales, en 1924
    la Compañía cambió el nombre por el de
    international Bussines Machines Corporation (IBM) Durante
    décadas, desde mediados de los cincuentas la tecnología de las
    tarjetas perforadas se perfeccionó con la
    implantación de más dispositivos con capacidades
    más complejas. Dado que cada tarjeta contenía en
    general un registro (Un
    nombre, dirección, etc.) el procesamiento de la
    tarjeta perforada se conoció también como
    procesamiento de registro
    unitario.

    La familia de las
    máquinas electromecánicas de contabilidad
    (EAM) eloctromechanical accounting machine de dispositivos de
    tarjeta perforada comprende: la perforadora de tarjetas, el
    verificador, el reproductor, la perforación sumaria, el
    intérprete, el clasificador, el cotejador, el calculador y
    la máquina de contabilidad.
    El operador de un cuarto de máquinas en una
    instalación de tarjetas perforadas tenía un trabajo
    que demandaba mucho esfuerzo físico. Algunos cuartos de
    máquinas asemejaban la actividad de una fábrica;
    las tarjetas perforadas y las salidas impresas se cambiaban de un
    dispositivo a otro en carros manuales, el
    ruido que
    producía eran tan intenso como el de una planta
    ensambladora de automóviles.

    Pioneros de la
    computación

    ATANASOFF Y BERRY Una antigua patente de
    un dispositivo que mucha gente creyó que era la primera
    computadora
    digital electrónica, se invalidó en 1973 por
    orden de un tribunal federal, y oficialmente se le dio el
    crédito
    a John V. Atanasoff como el inventor de la computadora
    digital electrónica. El Dr. Atanasoff, catedrático
    de la Universidad
    Estatal de Iowa, desarrolló la primera computadora
    digital electrónica entre los años de 1937 a 1942.
    Llamó a su invento la computadora
    Atanasoff-Berry, ó solo ABC (Atanasoff Berry Computer). Un
    estudiante graduado, Clifford Berry, fue una útil ayuda en
    la construcción de la computadora
    ABC.

    Algunos autores consideran que no hay una
    sola persona a la que
    se le pueda atribuir el haber inventado la computadora,
    sino que fue el esfuerzo de muchas personas. Sin embargo en el
    antiguo edificio de Física de la Universidad de
    Iowa aparece una placa con la siguiente leyenda: "La primera
    computadora digital electrónica de operación
    automática del mundo, fue construida en este edificio en
    1939 por John Vincent Atanasoff, matemático y
    físico de la Facultad de la Universidad,
    quien concibió la idea, y por Clifford Edward Berry,
    estudiante graduado de física."

    Mauchly y Eckert, después de
    varias conversaciones con el Dr. Atanasoff, leer apuntes que
    describían los principios de la
    computadora ABC y verla en persona, el Dr.
    John W. Mauchly colaboró con J.Presper Eckert, Jr. para
    desarrollar una máquina que calculara tablas de
    trayectoria para el ejército estadounidense. El producto
    final, una computadora electrónica completamente
    operacional a gran escala, se
    terminó en 1946 y se llamó ENIAC (Electronic
    Numerical Integrator And Computer), ó Integrador
    numérico y calculador electrónico. La ENIAC
    construida para aplicaciones de la Segunda Guerra
    mundial, se terminó en 30 meses por un equipo de
    científicos que trabajan bajo reloj.

    La ENIAC, mil veces más veloz que
    sus predecesoras electromecánicas, irrumpió como un
    importante descubrimiento en la tecnología de la
    computación. Pesaba 30 toneladas y ocupaba
    un espacio de 450 mts cuadrados, llenaba un cuarto de 6 m x 12 m
    y contenía 18,000 bulbos, tenía que programarse
    manualmente conectándola a 3 tableros que contenían
    más de 6000 interruptores. Ingresar un nuevo programa era un
    proceso muy
    tedioso que requería días o incluso semanas. A
    diferencia de las computadoras
    actuales que operan con un sistema
    binario (0,1) la ENIAC operaba con uno decimal
    (0,1,2..9).

    La ENIAC requería una gran
    cantidad de electricidad. La
    leyenda cuenta que la ENIAC, construida en la Universidad de
    Pensilvania, bajaba las luces de Filadelfia siempre que se
    activaba. La imponente escala y las
    numerosas aplicaciones generales de la ENIAC señalaron el
    comienzo de la primera generación de
    computadoras.

    En 1945, John von Neumann, que
    había trabajado con Eckert y Mauchly en la Universidad de
    Pensilvania, publicó un artículo acerca del
    almacenamiento
    de programas. El
    concepto de
    programa
    almacenado permitió la lectura de
    un programa
    dentro de la memoria de
    la computadora, y después la ejecución de las
    instrucciones del mismo sin tener que volverlas a escribir. La
    primera computadora en usar el citado concepto fue la
    la llamada EDVAC (Eletronic Discrete-Variable Automatic Computer,
    es decir computadora automática electrónica de
    variable discreta), desarrollada por Von Neumann, Eckert y
    Mauchly.

    Los programas
    almacenados dieron a las computadoras una flexibilidad y
    confiabilidad tremendas, haciéndolas más
    rápidas y menos sujetas a errores que los programas
    mecánicos. Una computadora con capacidad de programa
    almacenado podría ser utilizada para varias aplicaciones
    cargando y ejecutando el programa apropiado.

    Hasta este punto, los programas y
    datos
    podría ser ingresados en la computadora sólo con la
    notación binaria, que es el único código que
    las computadoras "entienden". El siguiente desarrollo
    importante en el diseño
    de las computadoras fueron los programas
    intérpretes, que permitían a las personas
    comunicarse con las computadoras utilizando medios
    distintos a los números binarios.

    En 1952 Grace Murray Hoper una oficial de
    la Marina de E.U., desarrolló el primer compilador, un
    programa que puede traducir enunciados parecidos al inglés
    en un código binario comprensible para la maquina llamado
    COBOL (Common
    Business-Oriented Languaje).

    Generaciones de
    computadoras

    Primera Generación de
    Computadoras

    (de 1951 a 1958)

    Las computadoras de la primera
    Generación emplearon bulbos para procesar información. Los operadores ingresaban los
    datos y
    programas en código especial por medio de tarjetas
    perforadas. El almacenamiento
    interno se lograba con un tambor que giraba rápidamente,
    sobre el cual un dispositivo de lectura/escritura
    colocaba marcas
    magnéticas. Esas computadoras de bulbos eran mucho
    más grandes y generaban más calor que los
    modelos
    contemporáneos. Eckert y Mauchly contribuyeron al desarrollo de
    computadoras de la 1era Generación formando una Cia.
    privada y construyendo UNIVAC I, que el Comité del
    censó utilizó para evaluar el de 1950. La IBM
    tenía el monopolio de
    los equipos de procesamiento de
    datos basándose en tarjetas perforadas y estaba
    teniendo un gran auge en productos como
    rebanadores de carne, básculas para comestibles, relojes y
    otros artículos; sin embargo no había logrado el
    contrato para
    el Censo de 1950.

    Comenzó entonces a construir
    computadoras electrónicas y su primera entrada fue con la
    IBM 701 en 1953. Después de un lento pero excitante
    comienzo la IBM 701 se convirtió en un producto
    comercialmente viable. Sin embargo en 1954 fue introducido el
    modelo IBM
    650, el cual es la razón por la que IBM disfruta hoy de
    una gran parte del mercado de las
    computadoras. La administración de la IBM asumió un
    gran riesgo y
    estimó una venta de 50
    computadoras. Este número era mayor que la cantidad de
    computadoras instaladas en esa época en E.U. De hecho la
    IBM instaló 1000 computadoras. El resto es historia. Aunque caras y de
    uso limitado las computadoras fueron aceptadas rápidamente
    por las Compañías privadas y de Gobierno. A la
    mitad de los años 50 IBM y Remington Rand se consolidaban
    como líderes en la fabricación de
    computadoras.

    – Segunda
    Generación

    (1959-1964)

    Transistor

    Compatibilidad limitada

    El invento del transistor hizo
    posible una nueva generación de computadoras, más
    rápidas, más pequeñas y con menores
    necesidades de ventilación. Sin embargo el costo seguia
    siendo una porción significativa del presupuesto de
    una Compañía. Las computadoras de la segunda
    generación también utilizaban redes de núcleos
    magnéticos en lugar de tambores giratorios para el
    almacenamiento
    primario. Estos núcleos contenían pequeños
    anillos de material magnético, enlazados entre sí,
    en los cuales podían almacenarse datos e
    instrucciones.

    Los programas de computadoras
    también mejoraron. El COBOL
    desarrollado durante la 1era generación estaba ya
    disponible comercialmente. Los programas escritos para una
    computadora podían transferirse a otra con un
    mínimo esfuerzo. El escribir un programa ya no
    requería entender plenamente el hardware de la computación. Las computadoras de la 2da
    Generación eran sustancialmente más pequeñas
    y rápidas que las de bulbos, y se usaban para nuevas
    aplicaciones, como en los sistemas para
    reservación en líneas aéreas, control de
    tráfico aéreo y simulaciones para uso general. Las
    empresas
    comenzaron a aplicar las computadoras a tareas de almacenamiento de
    registros,
    como manejo de inventarios,
    nómina
    y contabilidad.

    La marina de E.U. utilizó las
    computadoras de la Segunda Generación para crear el primer
    simulador de vuelo. (Whirlwind I). HoneyWell se colocó
    como el primer competidor durante la segunda generación de
    computadoras. Burroughs, Univac, NCR, CDC, HoneyWell, los
    más grandes competidores de IBM durante los 60s se
    conocieron como el grupo BUNCH
    (siglas).

    Tercera
    Generación

    (1964-1971)

    circuitos integrados

    Compatibilidad con equipo
    mayor

    Multiprogramación

    Minicomputadora

    Las computadoras de la tercera
    generación emergieron con el desarrollo de
    los circuitos
    integrados (pastillas de silicio) en las cuales se colocan
    miles de componentes electrónicos, en una integración en miniatura. Las computadoras
    nuevamente se hicieron más pequeñas, más
    rápidas, desprendían menos calor y eran
    energéticamente más eficientes.

    Antes del advenimiento de los circuitos
    integrados, las computadoras estaban diseñadas para
    aplicaciones matemáticas o de negocios, pero
    no para las dos cosas. Los circuitos
    integrados permitieron a los fabricantes de computadoras
    incrementar la flexibilidad de los programas, y estandarizar sus
    modelos. La
    IBM 360 una de las primeras computadoras comerciales que
    usó circuitos
    integrados, podía realizar tanto análisis numéricos como administración ó procesamiento de
    archivos.

    Los clientes
    podían escalar sus sistemas 360 a
    modelos IBM de
    mayor tamaño y podían todavía correr sus
    programas actuales. Las computadoras trabajaban a tal velocidad que
    proporcionaban la capacidad de correr más de un programa
    de manera simultánea
    (multiprogramación).

    Por ejemplo la computadora podia estar
    calculando la nomina y aceptando pedidos al mismo tiempo.

    Minicomputadoras, Con la
    introducción del modelo 360 IBM
    acaparó el 70% del mercado, para
    evitar competir directamente con IBM la empresa
    Digital Equipment Corporation DEC redirigió sus esfuerzos
    hacia computadoras pequeñas. Mucho menos costosas de
    comprar y de operar que las computadoras grandes, las
    minicomputadoras se desarrollaron durante la segunda
    generación pero alcanzaron su mayor auge entre 1960 y
    70.

    – La cuarta
    Generación

    (1971 a la fecha)

    – Microprocesador

    – Chips de memoria.


    Microminiaturización

    Dos mejoras en la tecnología de las
    computadoras marcan el inicio de la cuarta generación: el
    reemplazo de las memorias con
    núcleos magnéticos, por las de chips de silicio y
    la colocación de muchos más componentes en un Chip:
    producto de la
    microminiaturización de los circuitos
    electrónicos. El tamaño reducido del microprocesador
    de chips hizo posible la creación de las computadoras
    personales. (PC)

    Hoy en día las tecnologías
    LSI (Integración a gran escala) y VLSI
    (integración a muy gran escala) permiten
    que cientos de miles de componentes electrónicos se
    almacenan en un chip. Usando VLSI, un fabricante puede hacer que
    una computadora pequeña rivalice con una computadora de la
    primera generación que ocupara un cuarto
    completo.

    Lenguajes de
    Programación

    a.) Historia de los
    lenguajes;
    Los lenguajes de
    programación cierran el abismo entre las computadoras,
    que sólo trabajan con números binarios, y los
    humanos, que preferimos utilizar palabras y otros sistemas de
    numeración.

    Mediante los programas se indica a la
    computadora qué tarea debe realizar y como efectuarla,
    pero para ello es preciso introducir estas ordenes en un lenguaje que
    el sistema pueda
    entender. En principio, el ordenador sólo entiende las
    instrucciones en código máquina, es decir, el
    especifico de la computadora. Sin embargo, a partir de
    éstos se elaboran los llamados lenguajes de alto y bajo
    nivel.

    1. Generaciones de los
      lenguajes

    LENGUAJES DE BAJO
    NIVEL:

    Utilizan códigos muy cercanos a
    los de la máquina, lo que hace posible la
    elaboración de programas muy potentes y rápidos,
    pero son de difícil aprendizaje.

    LENGUAJES DE ALTO
    NIVEL:

    Por el contrario, son de uso mucho
    más fácil, ya que en ellos un solo comando o
    instrucción puede equivaler a millares es código
    máquina. El programador escribe su programa en alguno de
    estos lenguajes mediante secuencias de instrucciones. Antes de
    ejecutar el programa la computadora lo traduce a código
    máquina de una sola vez (lenguajes compiladores) o
    interpretándolo instrucción por instrucción
    (lenguajes intérpretes). Ejemplos de lenguajes de alto
    nivel: Pascal, Cobol, Basic,
    Fortran, C++ Un Programa de computadora, es una colección
    de instrucciones que, al ser ejecutadas por el CPU de una
    máquina, llevan a cabo una tarea ó función
    específica. Este conjunto de instrucciones que forman los
    programas son almacenados en archivos denomina
    dos archivos
    ejecutables puesto que, al teclear su nombre (o hacer clic sobre
    el icono que los identifica) logras que la computadora los cargue
    y corra, o ejecute las instrucciones del archivo. El
    contenido de un archivo
    ejecutable no puede ser entendido por el usuario, ya que no
    está hecho para que la gente lo lea, sino para que la
    computadora sea quien lo lea.

    Los archivos de
    programas ejecutables contienen el código máquina,
    que la CPU identifica
    como sus instrucciones. Son lo que conocemos como Programas
    Objeto. Dado que sería muy difícil que los
    programadores crearan programas directamente en código de
    máquina, usan lenguajes más fáciles de leer,
    escribir y entender para la gente.

    El programador teclea instrucciones en un
    editor, que es un programa parecido a un simple procesador de
    palabras, estas instrucciones son almacenadas en archivos
    denominados programas fuentes
    (código fuente). Si los programadores necesitan hacer
    cambios al programa posteriormente vuelven a correr el editor y
    cargan el programa fuente para modificarlo.

    El proceso de
    conversión de programas fuente a programas objeto se
    realiza mediante un programa denominado compilador. El compilador
    toma un programa fuente y lo traduce a programa objeto y almacena
    este último en otro archivo.

    PROGRAMA FUENTE:

    Es el programa escrito en alguno de los
    lenguajes y que no ha sido traducido al lenguaje de la
    maquina, es decir el programa que no está en código
    de máquina y que por lo tanto no puede ser
    ejecutable.

    PROGRAMA OBJETO:

    s aquel programa que se encuentra en lenguaje
    máquina y que ya es ejecutable por esta.

    C.) Programación
    Orientada a Objetos:
    La programación
    orientada a objetos no es un concepto nuevo,
    sus inicios y técnicas de programación se iniciaron a principios de los
    70. Se puede definir programación
    orientada a objetos (OOPS) como una técnica de
    programación que utiliza objetos como
    bloque esencial de construcción. La OOPS, es un tipo de
    programación más cercana al
    razonamiento humano. La OOPS surge como una solución a la
    programación de grandes programas, y para
    solventar el mantenimiento
    de dichas aplicaciones, ya que en la programación estructura el
    más mínimo cambio supone
    la modificación de muchas funciones
    relacionadas, en cambio con la
    OOPS solo es cuestión de añadir o modificar
    métodos
    de una clase o mejor, crear una nueva clase a partir de otra
    (Herencia). Dos
    lenguajes destacan sobre el resto para programar de esta forma,
    Smalltalk y C++.

    Concepto de Objeto: Desde un punto
    de vista general un Objeto es una estructura de
    datos de mayor o menor complejidad con las funciones que
    procesan estos datos. Dicho de
    otra forma, sería Datos más un Código que
    procesa estos datos. A los datos se les denomina miembros dato y
    a las funciones miembro
    o miembro funciones. Los
    datos están ocultos y sólo se puede acceder a ellos
    mediante las funciones
    miembro.

    Clases: Las Clases son como
    plantillas o modelos que
    describen como se construyen ciertos tipos de Objeto. Cada vez
    que se construye un Objeto de una Clase, se crea una instancia de
    esa Clase("instance"). Una Clase es una colección de
    Objetos similares y un Objeto es una instancia de una Clase. Se
    puede definir una Clase como un modelo que se
    utiliza para describir uno o más Objetos del mismo
    tipo.

    Herencia: Una característica muy importante de los
    Objetos y las Clases es la Herencia, una
    propiedad que
    permite construir nuevos Objetos (Clases) a partir de unos ya
    existentes. Esto permite crear "Sub-Clases" denominadas Clases
    Derivadas que
    comparten las propiedades de la Clase de la cual derivan (Clase
    base). Las Clases derivadas heredan
    código y datos de la clase base, asimismo incorporan su
    propio código y datos especiales. Se puede decir que la
    herencia
    permite definir nuevas Clases a partir de las Clases ya
    existentes.

    Polimorfismo: En un sentido
    literal, Polimorfismo significa la cualidad de tener más
    de una forma. En el contexto de POO, el Polimorfismo se refiere
    al hecho de que una simple operación puede tener diferente
    comportamiento
    en diferentes objetos. En otras palabras, diferentes objetos
    reaccionan al mismo mensaje de modo diferente. Los primeros
    lenguajes de POO fueron interpretados, de forma que el
    Polimorfismo se contemplaba en tiempo de
    ejecución. Por ejemplo, en C++, al ser un lenguaje
    compilado, el Polimorfismo se admite tanto en tiempo de
    ejecución como en tiempo de
    compilación

    Decimos entonces que:

    El tema de la Programación
    Orientada a Objetos (Object Oriented Programming O-O-P) sigue
    siendo para el que escribe un territorio inquietante, interesante
    y en gran medida desconocido, como parece ser también para
    la gran mayoría de los que estamos en el campo de la
    programación. Sin tratar de excluir a aquellos que han
    afrontado este desarrollo desde el punto de vista
    académico y formal (maestrías y doctorados) el tema
    se antoja difícil para los no iniciados. Con este breve
    artículo me dirigiré en particular a la gran base
    de programadores prácticos que andamos en búsqueda
    de mejores herramientas
    de desarrollo de programas, que faciliten el trabajo de
    nuestros usuarios y a la vez disminuyan la gran cantidad de
    considerandos que aparecen al empeñarnos en un proyecto de
    cómputo.

    Como muchos de ustedes, me topé
    con el concepto de O-O-P
    como parte de esa búsqueda y al explorarlo apareció
    el gusanillo de la curiosidad. A lo largo de mi actividad como
    programador, y cuando se dio la necesidad, no tuve ningún
    problema en convertir mis habilidades de programación en
    FORTRAN de IBM 1130 al BASIC de la PDP, pues sólo era
    cuestión de aprender la sintaxis del lenguaje, ya
    que las estrategias de
    programación y los algoritmos
    eran iguales. Posteriormente, al manejar el PASCAL se
    requirió un importante esfuerzo en entender la
    filosofía de las estructuras,
    lo cual modificaba la manera de ver (conceptualizar) a los datos
    y a las partes constitutivas de un programa.

    Posteriormente aparece el QuickBasic, que
    adopté inmediatamente por la familiaridad con el BASIC
    (ley del menor
    esfuerzo). Ofrecía estructuras de
    datos (tipos y registros
    complejos), además de estructuras de
    instrucciones en procedimientos y
    módulos; editor "inteligente" que revisa la sintaxis y
    ejecución de las instrucciones mientras se edita el
    programa, generación de ejecutable una vez terminado
    (.EXE), existencia de bibliotecas
    externas y enlace con módulos objeto generados en otro
    lenguaje. ¿Qué más podía yo
    pedir?

    Pero la necesidad de estar en la ola de
    moda es
    más fuerte que el sentido común. Las aplicaciones
    en Windows
    siempre han despertado la envidia de los programadores, al hacer
    ver sus programas pálidos e insulsos por
    comparación. Solución: programar en Windows.

    Originalmente programar en Windows
    representaba un largo y tedioso camino para dominar las complejas
    herramientas
    de desarrollo. Sólo recientemente han aparecido
    desarrolladores de aplicaciones para Windows que le
    permiten al programador pintar sus ventanas y realizar los
    enlaces entre los objetos con programación tradicional,
    evitando en gran medida involucrarse con los conceptos
    complicados de los objetos. Sin embargo no dejaron de inquietarme
    algunos conceptos marcados por O-O-P, según los cuales
    serán los pilares del futuro de la programación de
    componentes y de objetos distribuidos en redes, en donde la actual
    programación cliente/servidor
    pareciera por comparación el FORTRAN o el COBOL de
    ahora.

    Pidiendo perdón de antemano a los
    puristas de las definiciones y conceptos de O-O-P,
    expondré el resultado de mis propias indagaciones sobre
    este campo, esperando que al paciente lector y posible
    programador le resulte menos complicado que a mí asimilar
    los elementos básicos de O-O-P.

    Los principales conceptos que se manejan
    en la Programación
    Orientada a Objetos son: 1. encapsulado, 2. herencia y 3.
    Polimorfismo.

    Según esto, la
    encapsulación es la creación de módulos
    autosuficientes que contienen los datos y las funciones que
    manipulan dichos datos. Se aplica la idea de la caja negra y un
    letrero de "prohibido mirar adentro". Los objetos se comunican
    entre sí intercambiando mensajes. De esta manera, para
    armar aplicaciones se utilizan los objetos cuyo funcionamiento
    está perfectamente definido a través de los
    mensajes que es capaz de recibir o mandar. Todo lo que un objeto
    puede hacer está representado por su interfase de
    mensajes. Para crear objetos, el programador puede recurrir a
    diversos lenguajes como el C++, el Smalltalk, el Visual Objects y
    otros. Si se desea solamente utilizar los objetos y enlazarlos en
    una aplicación por medio de la programación
    tradicional se puede recurrir al Visual Basic, al
    CA-Realizer, al Power Builder, etc.

    El concepto de herencia me
    pareció sencillo de entender una vez que capté otro
    concepto de O-O-P: las clases. En O-O-P se acostumbra agrupar a
    los objetos en clases. Esto es muy común en la vida
    diaria. Todos nosotros tendemos a clasificar los objetos comunes
    por clases. Manejamos la clase mueble, la clase mascota, la clase
    alimento, etc. Obviamente en el campo de la programación
    esta clasificación es más estricta.
    ¿Cuál es el sentido de las clases? Fundamentalmente
    evitar definir los objetos desde cero y facilitar su rehuso. Si
    trabajamos con clases, al querer definir un nuevo objeto,
    partimos de alguna clase definida anteriormente, con lo que el
    objeto en cuestión hereda las características de los objetos de su clase.
    Imaginemos que creamos una clase "aves" y
    describimos las características de las aves (plumas,
    pico, nacen de huevo, etc.). Más adelante necesitamos una
    clase "pingüino". Como pertenece a "aves" no
    requerimos volver a declarar lo descrito sino marcamos que
    "pingüino" es una subclase de "aves" con lo
    que "pingüino" hereda todas sus características. A continuación
    sólo declaramos los detalles que determinan lo que
    distingue a "pingüino" de "aves".
    Asimismo podemos declarar "emperador" como una subclase de
    "pingüino", con lo que "emperador" heredará todas las
    características de las superclases "pingüino" y
    "aves" más las características que nosotros
    declaremos en particular para "emperador". En un programa
    (imaginario por supuesto) yo puedo utilizar estas clases (aves,
    pingüino y emperador). El hecho de colocar a un individuo en
    particular en estas clases es lo que se llama objeto y se dice
    que es una instancia de una clase. Así, si yo coloco a
    Fredy (un pingüino emperador) en mi programa, se dice que el
    objeto Fredy es una instancia de la clase emperador. Fredy
    aparecerá en mi programa con todas las
    características (herencia) de aves, de pingüino y de
    emperador.

    Por otra parte, entender el concepto de
    Polimorfismo implicó un buen número de horas de
    indagación y búsqueda de ejemplos. Espero que
    éste resulte claro: supóngase que declaramos un
    objeto llamado Suma. Este objeto requiere dos parámetros
    (o datos) como mensaje para operar. En la programación
    tradicional tendríamos que definir el tipo de datos que le
    enviamos, como por ejemplo dos números enteros, dos
    números reales, etc. En O-O-P el tipo de dato se conoce
    hasta que se ejecuta el programa.

    E.) COMPILADOR: Es un programa que traduce
    un lenguaje de alto nivel al lenguaje máquina. Un programa
    compilado indica que ha sido traducido y está listo para
    ser ejecutado. La ejecución de los programas compilados es
    más rápida que la de los interpretados, ya que el
    interprete debe traducir mientras está en la fase de
    ejecución (saca todos los errores). Un compilador es un
    programa que traduce el programa fuente (conjunto de
    instrucciones de un lenguaje de alto nivel, por ejemplo BASIC o
    Pascal) a
    programa objeto (instrucciones en lenguaje máquina que la
    computadora puede interpretar y ejecutar). Se requiere un
    compilador para cada lenguaje de
    programación. Un compilador efectúa la
    traducción, no ejecuta el programa. Una vez compilado el
    programa, el resultado en forma de programa objeto será
    directamente ejecutable. Presentan la ventaja considerable frente
    a los intérpretes de la velocidad de
    ejecución, por lo que su uso será mejor en aquellos
    programas probados en los que no se esperan cambios y que deban
    ejecutarse muchas veces. En caso de que se opte por un
    interpretador se debe considerar que el intérprete resida
    siempre en memoria.

    INTERPRETE: Traductor de lenguajes de
    programación de alto nivel, los interpretes ejecutan
    un programa línea por línea. El programa siempre
    permanece en su forma original(programa fuente) y el interprete
    proporciona la traducción al momento de ejecutar cada una
    de la s instrucciones. Un intérprete es un programa que
    procesa los programas escritos en un lenguaje de alto nivel, sin
    embargo, está diseñado de modo que no existe
    independencia
    entre la etapa de traducción y la etapa de
    ejecución. Un intérprete traduce cada
    instrucción o sentencia del programa escrito a un lenguaje
    máquina e inmediatamente se ejecuta. Encuentran su mayor
    ventaja en la interacción con el usuario, al facilitar el
    desarrollo y puesta a punto de programas, ya que los errores son
    fáciles de detectar y sobre todo de corregir.

    LENGUAJE MÁQUINA: Lenguaje original de la
    computadora, un programa debe estar escrito en el lenguaje de
    la máquina para poder ser
    ejecutado. Este es generado por software y no por el
    programador. El programador escribe en un lenguaje de
    programación, el cual es traducido al lenguaje de
    máquina mediante interpretes y compiladores.

    E.) Case: (Computer-Aided
    Software
    Engineering o Computer- Aided Systems Engineering) Ingeniería de
    Software Asistida por Computadora o Ingeniería de Sistemas Asistida
    por computadora Software que se utiliza en
    una cualquiera o en todas las fases del desarrollo de un sistema de
    información, incluyendo análisis, diseño
    y programación. Por ejemplo, los diccionarios
    de datos y herramientas
    de diagramación ayudan en las fases de análisis y diseño, mientras que los
    generadores de aplicaciones aceleran la fase de
    programación.

    Las herramientas
    CASE proporcionan métodos
    automáticos para diseñar y documentar las
    técnicas tradicionales de programación
    estructurada. La meta
    última de CASE es proveer un lenguaje para describir el
    sistema completo,
    que sea suficiente para generar todos los programas
    necesarios.

    Sistemas
    Operativos

    Un sistema Operativo
    (SO) es en sí mismo un programa de computadora. Sin
    embargo, es un programa muy especial, quizá el más
    complejo e importante en una computadora. El SO despierta a la
    computadora y hace que reconozca a la CPU, la memoria, el
    tecla do, el sistema de
    vídeo y las unidades de disco. Además, proporciona
    la facilidad para que los usuarios se comuniquen con la
    computadora y sirve de plataforma a partir de la cual se corran
    programas de aplicación.

    Cuando enciendes una computadora, lo
    primero que ésta hace es llevar a cabo un
    autodiagnóstico llamado autoprueba de encendido (Power On
    Self Test, POST).
    Durante la POST, la computadora identifica su memoria, sus
    discos, su teclado, su
    sistema de
    vídeo y cualquier otro dispositivo conectado a ella. Lo
    siguiente que la computadora hace es buscar un SO para arrancar
    (boot).

    Una vez que la computadora ha puesto en
    marcha su SO, mantiene al menos parte de éste en su
    memoria en
    todo momento. Mientras la computadora esté encendida, el
    SO tiene 4 tareas principales:

    1. Proporcionar ya sea una interfaz de
      línea de comando o una interfaz gráfica al
      usuario, para que este último se pueda comunicar con la
      computadora. Interfaz de línea de comando: tú
      introduces palabras y símbolos desde el teclado de
      la computadora, ejemplo, el MS-DOS.
      Interfaz gráfica del Usuario (GUI), seleccionas las
      acciones
      mediante el uso de un Mouse para
      pulsar sobre figuras llamadas iconos o seleccionar opciones de
      los menús.
    2. Administrar los dispositivos de
      hardware en la
      computadora · Cuando corren los programas, necesitan
      utilizar la memoria,
      el monitor, las
      unidades de disco, los puertos de Entrada/Salida (impresoras,
      módems, etc). El SO sirve de intermediario entre los
      programas y el hardware.
    1. Administrar y mantener los sistemas de
      archivo de
      disco · Los SO agrupan la información dentro de compartimientos
      lógicos para almacenarlos en el disco. Estos grupos de
      información son llamados archivos. Los
      archivos pueden contener instrucciones de programas o información creada por el usuario. El SO
      mantiene una lista de los archivos en un disco, y nos
      proporciona las herramientas
      necesarias para organizar y manipular estos
      archivos.
    1. Apoyar a otros programas. Otra de las
      funciones importantes del SO es proporcionar servicios a
      otros programas. Estos servicios
      son similares a aquellos que el SO proporciona directamente a
      los usuarios. Por ejemplo, listar los archivos, grabarlos a
      disco, eliminar archivos, revisar espacio disponible, etc.
      Cuando los programadores escriben programas de computadora,
      incluyen en sus programas instrucciones que solicitan los
      servicios
      del SO. Estas instrucciones son conocidas como "llamadas del
      sistema"

    El Kernel y el
    Shell.

    Las funciones centrales de un SO son
    controladas por el núcleo (kernel) mientras que la
    interfaz del usuario es controlada por el entorno (shell). Por
    ejemplo, la parte más importante del DOS es un programa
    con el nombre "COMMAND.COM" Este programa ti ene dos partes. El
    kernel, que se mantiene en memoria en todo momento, contiene el
    código máquina de bajo nivel para manejar la
    administración de hardware para otros
    programas que necesitan estos servicios, y
    para la segunda parte del COMMAND.COM el shell, el cual es el
    interprete de comandos.

    Las funciones de bajo nivel del SO y las
    funciones de interpretación de comandos
    están separadas, de tal forma que puedes mantener el
    kernel DOS corriendo, pero utilizar una interfaz de usuario
    diferente. Esto es exactamente lo que sucede cuando carga s
    Microsoft
    Windows, el
    cual toma el lugar del shell, reemplazando la interfaz de
    línea de comandos con una
    interfaz gráfica del usuario. Existen muchos shells
    diferentes en el mercado, ejemplo:
    NDOS (Norton DOS), XTG, PCTOOLS, o inclusive el mismo SO MS-DOS a
    partir de la versión 5.0 incluyó un Shell llamado
    DOS SHELL.

    A.) Categorías de Sistemas
    Operativos

    A.1) MULTITAREA: El
    término multitarea se refiere a la capacidad del SO para
    correr mas de un programa al mismo tiempo. Existen dos esquemas
    que los programas de sistemas
    operativos utilizan para desarrollar SO multitarea, el
    primero requiere de la cooperación entre el SO y los
    programas de aplicación.

    Los programas son escritos de tal manera
    que periódicamente inspeccionan con el SO para ver si
    cualquier otro programa necesita a la CPU, si este
    es el caso, entonces dejan el control del
    CPU al
    siguiente programa, a este método se
    le llama multitarea cooperativa y
    es el método
    utilizado por el SO de las computadoras de Machintosh y DOS
    corriendo Windows de Microsoft. El
    segundo método es
    el llamada multitarea con asignación de prioridades. Con
    este esquema el SO mantiene una lista de procesos
    (programas) que están corriendo. Cuando se inicia cada
    proceso en la
    lista el SO le asigna una prioridad. En cualquier momento el SO
    puede intervenir y modificar la prioridad de un proceso
    organizando en forma efectiva la lista de prioridad, el SO
    también mantiene el control de la
    cantidad de tiempo que utiliza con cualquier proceso antes
    de ir al siguiente. Con multitarea de asignación de
    prioridades el SO puede sustituir en cualquier momento el proceso
    que esta corriendo y reasignar el tiempo a una tarea de mas
    prioridad. Unix OS-2 y
    Windows NT
    emplean este tipo de multitarea.

    A.2) MULTIUSUARIO: Un SO
    multiusuario permite a mas de un solo usuario accesar una
    computadora. Claro que, para llevarse esto a cabo, el SO
    también debe ser capaz de efectuar multitareas. Unix es el
    Sistema Operativo
    Multiusuario más utilizado. Debido a que Unix fue
    originalmente diseñado para correr en una minicomputadora,
    era multiusuario y multitarea desde su
    concepción.

    Actualmente se producen versiones de
    Unix para PC
    tales como The Santa Cruz Corporation Microport, Esix, IBM,y
    Sunsoft. Apple también produce una versión de
    Unix para la
    Machintosh llamada: A/UX.Unix

    Unix proporciona tres maneras de permitir
    a múltiples personas utilizar la misma PC al mismo
    tiempo.

    1.) Mediante
    Módems.

    1. Mediante conexión de
      terminales a través de puertos
      seriales

    3.) Mediante Redes.

    A.3) MULTIPROCESO: Las
    computadoras que tienen mas de un CPU son llamadas multiproceso.
    Un sistema operativo
    multiproceso coordina las operaciones de la
    computadoras multiprocesadoras. Ya que cada CPU en una
    computadora de multiproceso puede estar ejecutando una
    instrucción, el otro procesador queda
    liberado para procesar otras instrucciones
    simultáneamente.

    Al usar una computadora con capacidades
    de multiproceso incrementamos su velocidad de
    respuesta y procesos. Casi
    todas las computadoras que tienen capacidad de multiproceso
    ofrecen una gran ventaja.

    Los primeros Sistemas
    Operativos Multiproceso realizaban lo que se conoce
    como:

    • Multiproceso asimétrico: Una
      CPU principal retiene el control
      global de la computadora, así como el de los otros
      procesadores.
      Esto fue un primer paso hacia el multiproceso pero no fue la
      dirección ideal a seguir ya que la CPU
      principal podía convertirse en un cuello de
      botella.
    • Multiproceso simétrico: En un
      sistema multiproceso simétrico, no existe una CPU
      controladora única. La barrera a vencer al implementar
      el multiproceso simétrico es que los SO tienen que ser
      rediseñados o diseñados desde el principio para
      trabajar en u n ambiente
      multiproceso. Las extensiones de Unix, que soportan
      multiproceso asimétrico ya están disponibles y
      las extensiones simétricas se están haciendo
      disponibles. Windows NT
      de Microsoft
      soporta multiproceso simétrico.

    B.) Lista de los Sistemas
    Operativos más comunes.

    B.1) MS-DOS: Es el más común y
    popular de todos los Sistemas
    Operativos para PC. La razón de su continua
    popularidad se debe al aplastante volumen de
    software
    disponible y a la base instalada de computadoras con procesador
    Intel.

    Cuando Intel liberó el 80286, D OS
    se hizo tan popular y firme en el mercado que DOS y
    las aplicaciones DOS representaron la mayoría del mercado de
    software para PC.
    En aquel tiempo, la compatibilidad IBM, fue una necesidad para
    que los productos
    tuvieran éxito, y la "compatibilidad IBM" significaba
    computadoras que corrieran DOS tan bien como las computadoras IBM
    lo hacían.

    B.2) OS/2: Después
    de la introducción del procesador Intel
    80286, IBM y Microsoft
    reconocieron la necesidad de tomar ventaja de las capacidades
    multitarea de esta CPU. Se unieron para desarrollar el OS/2, un
    moderno SO multitarea para los microprocesadores
    Intel. < BR>Sin embargo, la sociedad no
    duró mucho. Las diferencias en opiniones técnicas y
    la percepción de IBM al ver a Windows como una
    amenaza para el OS/2 causó una desavenencia entre las
    Compañías que al final las llevó a la
    disolución de la sociedad.

    IBM continuó el desarrollo y
    promoción del OS/2.

    Es un sistema operativo
    de multitarea para un solo usuario que requiere un microprocesador
    Intel 286 o mejor. Además de la multitarea, la gran
    ventaja de la plataforma OS/2 es que permite manejar directamente
    hasta 16 MB de la RAM ( en
    comparación con 1 MB en el caso del MS-DOS ). Por
    otra parte, el OS/2 es un entorno muy complejo que requiere hasta
    4 MB de la RAM. Los usuarios
    del OS/2 interactuan con el sistema mediante una interfaz
    gráfica para usuario llamada Administrador de
    presentaciones. A pesar de que el OS/2 rompe la barrera de 1 MB
    del MS-DOS, le
    llevo tiempo volverse popular. Los vendedores de software se
    muestran renuentes a destinar recursos a la
    creación de un software con base en el OS/2 para un
    mercado dominado por el MS-DOS. Los usuarios se rehusan a cambiar
    al OS/2 debido a la falta de software que funcione en la plata
    forma del OS/2 y a que muchos tendrían que mejorar la
    configuración de su PC para que opere con el
    OS/2.

    B.3) UNIX: Unix es un SO
    multiusuario y multitarea, que corre en diferentes computadoras,
    desde supercomputadoras, Mainframes, Minicomputadoras,
    computadoras personales y estaciones de
    trabajo.

    Es un sistema operativo
    que fue creado a principios de los
    setentas por los científicos en los laboratorios Bell. Fue
    específicamente diseñado para proveer una manera de
    manejar científica y especializadamente las aplicaciones
    computacionales. Este SO se adapto a los sistemas de computo
    personales así que esta aceptación reciente lo
    convierte en un sistema popular.

    . Unix es más antiguo que todos
    los demás SO de PC y de muchas maneras sirvió como
    modelo para
    éstos. Aun cuando es un SO extremadamente sólido y
    capaz, la línea de comandos Unix, no
    es apta para cardiacos, debido a que ofrece demasiados comandos.

    B.4) SISTEMA OPERATIVO DE
    MACINTOSH:
    La Macintosh es una máquina netamente
    gráfica. De hecho, no existe una interfaz de línea
    de comando equivalente para ésta. Su estrecha integración de SO, GUI y área de
    trabajo la hacen la favorita de la gente que no quiere saber nada
    de interfaces de línea de comando.

    Las capacidades gráficas de la
    Macintosh hicieron de esa máquina la primera precursora en
    los campos gráficos computarizados como la
    autoedición por computadora.

    La familia de
    microcomputadoras de Apple Macintosh y su sistema operativo
    define otra plataforma importante. Las PC de Macintosh, que se
    basan en la familia de
    microprocesadores de Motorola, usan la arquitectura de
    Bus de 32 bits.
    La plataforma para Macintosh incluye muchas capacidades
    sofisticadas que comprende la multitarea, una GUI, la memoria
    virtual y la capacidad para emular la plataforma MS-DOS. Las
    PC de Macintosh también tiene la capacidad integrada de
    compartir archivos y comunicarse con o tras PC de Macintosh en
    una red.

    B.5) WINDOWS NT DE
    MICROSOFT:
    Con Windows NT,
    Microsoft ha expresado su dedicación a escribir software
    no sólo para PC de escritorio sino también para
    poderosas estaciones de trabajo y servidores de
    red y bases de datos.
    Microsoft Windows NT no
    es necesariamente un sustituto de DOS ni una nueva versión
    de éste; es, en conjunto, un nuevo SO diseñado
    desde sus bases para las máquinas más modernas y
    capaces disponibles.

    Windows NT de Microsoft ofrece
    características interconstruidas que ningún otro SO
    para PC ofrece, con excepción de Unix.

    Además de las
    características tradicionales de estricta seguridad de
    sistema, red
    interconstruida, servicios de
    comunicación y correo
    electrónico interconstruidos, herramientas
    de administración y desarrollo de sistema y
    una GUI, Windows NT puede correr directamente aplicaciones de
    Windows de Microsoft y de Unix.

    Windows NT, al igual que el OS/2 ver 2.0
    y algunas versiones de Unix, es un SO de 32 bits, que puede hacer
    completo uso de los procesadores de
    estas características.

    Además de ser multitarea,
    está diseñado para tomar ventaja del multiproceso
    simétrico.

    Bases de Datos

    La DBMS (Data Base Management System) es la herramienta
    que las computadoras utilizan para realizar el procesamiento y
    almacenamiento
    ordenado de los datos. Una base de datos es
    un recipiente para colecciones relacionadas de datos. Cualquier
    conjunto de datos organizados para su almacenamiento en la memoria de
    un ordenador o
    computadora, diseñado para facilitar su
    mantenimiento
    y acceso de una forma estándar. Los datos suelen aparecer
    en forma de texto,
    números o gráficos. Desde su aparición en la
    década de 1950, se han hecho imprescindibles para las
    sociedades
    industriales. Hay cuatro modelos
    principales de bases de datos:
    el modelo
    jerárquico, el modelo en red, el modelo relacional (el más extendido
    hoy en día; los datos se almacenan en tablas a los que se
    accede mediante consultas escritas en SQL) y el modelo de bases de datos
    deductivas. Otra línea de investigación en este campo son las
    bases de datos
    orientadas a objeto, o de objetos persistentes. Por ejemplo, un a
    agenda puede ser una base de datos
    donde se almacenan los nombres, direcciones y números
    telefónicos de amigos y contactos de negocios. La
    Base de Datos
    de una Compañía puede contener información acerca de los consumidores,
    vendedores, empleados, venta s en
    inventario.

    Ejemplos de Bases de Datos:
    Access, FoxPro,
    Approach.

    1. Base de datos relacional, en informática, tipo de base de datos o sistema de administración de bases de datos, que
      almacena información en tablas (filas y columnas de
      datos) y realiza búsquedas utilizando los datos de
      columnas especificadas de una tabla para encontrar datos
      adicionales en otra tabla. En una base de datos
      relacional, las filas representan registros
      (conjuntos de
      datos acerca de elementos separados) y las columnas representan
      campos (atributos particulares de un registro). Al
      realizar las búsquedas, una base de datos
      relacional hace coincidir la información de un campo de
      una tabla con información en el campo correspondiente de
      otra tabla y con ello produce una tercera tabla que combina los
      datos solicitados de ambas tablas. Por ejemplo, si una tabla
      contiene los campos NÚM-EMPLEADO, APELLIDO, NOMBRE y
      ANTIGÜEDAD y otra tabla contiene los campos DEPARTAMENTO,
      NÚM-EMPLEADO y SALARIO, una
      base de datos relacional hace coincidir el campo
      NÚM-EMPLEADO de las dos tablas para encontrar
      información, como por ejemplo los nombres de los
      empleados que ganan un cierto salario o
      los departamentos de todos los empleados contratados a partir
      de un día determinado. En otras palabras, una base de
      datos relacional utiliza los valores
      coincidentes de dos tablas para relacionar información
      de ambas. Por lo general, los productos de
      bases de datos para microcomputadoras o microordenadores son
      bases de datos relacionales.
    2. Cliente/servidor: En vez de construir sistemas
      informáticos como elementos monolíticos, existe
      el acuerdo general de construirlos como sistemas cliente/servidor. El
      cliente (un
      usuario de PC) solicita un servicio
      (como imprimir) que un servidor le
      proporciona (un procesador
      conectado a la LAN). Este
      enfoque común de la estructura
      de los sistemas informáticos se traduce en una
      separación de las funciones que anteriormente forman un
      todo. Los detalles de la realización van desde los
      planteamientos sencillos hasta la posibilidad real de manejar
      todos los ordenadores de modo uniforme.

    Redes

    Una Red es una manera de
    conectar varias computadoras entre sí, compartiendo sus
    recursos e
    información y estando conscientes una de otra. Cuando las
    PC´s comenzaron a entrar en el área de los negocios, el
    conectar dos PC´s no traía ventajas, pero esto
    desapareció cuando se empezó a crear los sistemas
    operativos y el Software multiusuario.

    1. Topología de redes: La
      topología de una red , es el patrón de
      interconexión entre nodos y servidor,
      existe tanto la topología lógica (la forma en que es regulado el
      flujo de los datos) ,como la topología física ( la
      distribución física del cableado
      de la red).

    Las topologías físicas de
    red más comunes son:

    • Estrella.
    • Bus lineal
    • Anillo.

    A.1) Topología de
    estrella:
    Red de comunicaciones
    en que la que todas las terminales están conectadas a un
    núcleo central, si una de las computadoras no funciona,
    ésto no afecta a las demás, siempre y cuando el
    "servidor" no esté caído.

    A.2) Topología Bus lineal: Todas
    las computadoras están conectadas a un cable central,
    llamado el "bus" o "backbone". Las
    redes de bus lineal son de

    las
    más fáciles de instalar y son relativamente
    baratas.

    A.3) Topología de
    anillo:
    Todas las computadoras o nodos están
    conectados el uno con el otro, formando una cadena o
    círculo cerrado.

    1. Protocolos de intercambio, en
      informática, como en las relaciones
      humanas, señal mediante la cual se reconoce que
      puede tener lugar la
      comunicación o la transferencia de
      información. Los protocolos
      de intercambio se pueden controlar tanto con hardware como con software. Un protocolo de
      intercambio de hardware, como el existente entre
      un ordenador o computadora
      con una impresora o
      con un módem,
      es un intercambio de señales, a través de cables
      específicos, en el que cada dispositivo señala su
      disposición para enviar o recibir datos. Un protocolo de
      software, normalmente el que se intercambia durante las
      comunicaciones del tipo módem a
      módem, consiste en una determinada información
      transmitida entre los dispositivos de envío y de
      recepción. Un protocolo de
      intercambio de software establece un acuerdo entre los
      dispositivos sobre los protocolos
      que ambos utilizarán al comunicarse. Un protocolo de
      intercambio de hardware es por tanto similar a dos
      personas que físicamente estrechan sus manos, mientras
      que un protocolo de
      intercambio de software es más parecido a dos
      grupos que
      deciden conversar en un lenguaje particular.
    2. En el siguiente diagrama
      se muestran TCP/IP, junto
      con los modelos DOD y OSI.

    3. TCP/IP:
      (Transmission Control Protocol/Internet
      Protocol) Protocolo de control de transmisiones/protocolo
      Internet.
      Conjunto de protocolos
      de comunicaciones desarrollado por la Defense
      Advanced Research Projects Agency (DARPA – Agencia de proyectos de
      investigación avanzada de defensa) para
      intercomunicar sistemas diferentes. Se ejecuta en un gran
      número de computadoras VAX y basadas en UNIX, y es
      utilizado por muchos fabricantes de hardware, desde los de
      computadoras personales hasta los de macrocomputadoras. Es
      empleado por numerosas corporaciones y por casi todas las
      universidades y organizaciones
      federales de los Estados Unidos.
      El File Transfer Protocol (FTP –
      Protocolo detransferencia de archivos) y el Simple Mail
      Transfer Protocol (SMTP -Protocolo simple de transferencia de
      correspondencia) brindan capacidades de transferencia de
      archivos y de correo
      electrónico. El protocolo TELNET
      proporciona una capacidad de emulación de terminal que
      permite al usuario interactuar con cualquier otro tipo de
      computadora de la red. El protocolo TCP controla la
      transferencia de los datos, y el IP brinda el
      mecanismo para encaminarla.
    4. IPX: (Internet Packet
      EXchange) intercambio de paquetes entre redes Un protocolo de
      comunicaciones del NetWare de Novell que
      se utiliza para encaminar mensajes de un nodo a otro. Los
      programas de aplicación que manipulan sus propias
      comunicaciones cliente/servidor o de igual a igual en una red
      Novell
      pueden acceder directamente al IPX o al protocolo SPX de
      NetWare. El IPX no garantiza la entrega del mensaje como lo
      hace el SPX.
    5. NETBEUI: NetBEUI
      (NETBIOS Extended User Interface) Interfaz de usuario extendido
      de NetBIOS La realización del protocolo de transporte
      NetBIOS en LAN Manager
      y LAN Server.
      Se comunica con las tarjetas de interfaz de red (NICs)
      vía NDIS (Network Driver Interface Specification). El
      término fue originalmente usado para definir el
      protocolo NetBIOS después que éste fue mejorado
      para soportar la Token Ring Network.
    6. Tipos de Redes:
      Según el lugar y el espacio que ocupen, las redes, se
      pueden clasificar en dos tipos:

    1.Redes LAN
    (Local Area Network) o Redes de área
    local

    2.Redes WAN (Wide Area Network) o Redes
    de área amplia

    1.- LAN – Redes de
    Área Local:

    Es una red que se expande en un
    área relativamente pequeña. Éstas se
    encuentran comúnmente dentro de una edificación o
    un conjunto de edificaciones que estén contiguos.
    Así mismo, una LAN puede
    estar conectada con otras LANs a cualquier distancia por medio de
    línea telefónica y ondas de radio.

    Pueden ser desde 2 computadoras, hasta
    cientos de ellas. Todas se conectan entre sí por varios
    medios y
    topología, a la computadora(s) que se encarga de llevar el
    control de la red es llamada "servidor" y a las computadoras que
    dependen del servidor, se les llama "nodos" o "estaciones de
    trabajo".

    Los nodos de una red pueden ser
    PC´s que cuentan con su propio CPU, disco duro y
    software y tienen la capacidad de conectarse a la red en un
    momento dado; o pueden ser PC´s sin CPU o disco duro y
    son llamadas "terminales tontas", las cuales tienen que estar
    conectadas a la red para su funcionamiento.

    Las LANs son capaces de transmitir datos
    a velocidades muy rápidas, algunas inclusive más
    rápido que por línea telefónica; pero las
    distancias son limitadas.

    2. – WAN – Redes de Área
    Amplia:

    Es una red comúnmente compuesta
    por varias LANs interconectadas y se encuentran en una amplia
    área geográfica. Estas LANs que componen la WAN se
    encuentran interconectadas por medio de líneas de
    teléfono, fibra
    óptica o por enlaces aéreos como satélites.

    Entre las WANs mas grandes se encuentran:
    la ARPANET, que fue creada por la Secretaría de Defensa de
    los Estados Unidos y
    se convirtió en lo que es actualmente la WAN mundial:
    INTERNET, a la
    cual se conectan actualmente miles de redes universitarias, de
    gobierno,
    corporativas y de investigación.

    G.) Componentes de una
    red
    :

    De lo que se compone una red en forma
    básica es lo siguiente:

    1.-Servidor
    (server):

    El servidor es la máquina
    principal de la red, la que se encarga de administrar los
    recursos de la
    red y el flujo de la información. Muchos de los servidores son
    "dedicados" , es decir, están realizando tareas
    específicas, por ejemplo , un servidor de impresión
    solo para imprimir; un servidor de comunicaciones, sólo
    para controlar el flujo de los datos…etc. Para que una
    máquina sea un servidor, es necesario que sea una
    computadora de alto rendimiento en cuanto a velocidad y
    procesamiento, y gran capacidad en disco duro u
    otros medios de
    almacenamiento.

    2.- Estación de trabajo
    (Workstation):

    Es una computadora que se encuentra
    conectada físicamente al servidor por medio de
    algún tipo de cable. Muchas de las veces esta computadora
    ejecuta su propio sistema operativo y ya dentro, se añade
    al ambiente de la
    red.

    3. – Sistema Operativo de
    Red:

    Es el sistema (Software) que se encarga
    de administrar y controlar en forma general la red. Para
    ésto tiene que ser un Sistema Operativo Multiusuario, como
    por ejemplo: Unix, Netware de Novell,
    Windows NT, etc.

    4. – Recursos a
    compartir:

    Al hablar de los recursos a
    compartir, estamos hablando de todos aquellos dispositivos de
    Hardware que tienen un alto costo y que son
    de alta tecnología. En
    éstos casos los más comunes son las impresoras, en
    sus diferentes tipos: Láser, de color, plotters,
    etc.

    5. – Hardware de
    Red

    Son aquellos dispositivos que se utilizan
    para interconectar a los componentes de la red, serían
    básicamente las tarjetas de red
    (NIC-> Network
    Interface Cards) y el cableado entre servidores y
    estaciones de trabajo, así como los cables para conectar
    los periféricos.

    1. Routers y bridges: Los servicios en
      la mayoría de las LAN son muy potentes. La
      mayoría de las organizaciones no desean encontrarse con
      núcleos aislados de utilidades informáticas.
      Por lo general prefieren difundir dichos servicios por una
      zona más amplia, de manera que los grupos puedan
      trabajar independientemente de su ubicación. Los
      routers y los bridges son equipos especiales
      que permiten conectar dos o más LAN. El bridge
      es el equipo más elemental y sólo permite
      conectar varias LAN de un mismo tipo. El router es un
      elemento más inteligente y posibilita la
      interconexión de diferentes tipos de
      redes de ordenadores. Las grandes empresas
      disponen de redes corporativas de datos basadas en una serie
      de redes LAN
      y routers. Desde el punto de vista del usuario, este
      enfoque proporciona una red físicamente
      heterogénea con aspecto de un recurso
      homogéneo.
    2. Brouters: Un disco dispositivo de
      comunicaciones que realiza funciones de puente (bridge) y de
      encaminador (router).
      Como puente, las funciones del "brouter" son al nivel de
      enlace de datos (estrato 2), independientemente de protocolos
      más altos, pero como encaminador, administra
      líneas múltiples y encamina los mensajes como
      corresponde.
    3. Gateway: pasarela, puerta de acceso
      Una computadora que conecta dos tipos diferentes de redes de
      comunicaciones. Realiza la conversión de protocolos
      de una red a otra. Por ejemplo, una puerta de acceso
      podría conectar una red LAN de
      computadoras. Nótese la diferencia con bridge, el cual
      conecta redes similares.

    H.) Transmisión de datos en
    las redes:

    La transmisión de datos en las
    redes, puede ser por dos medios:

    1. – Terrestres: Son limitados y
    transmiten la señal por un conductor
    físico.

    2. – Aéreos: Son "ilimitados" en
    cierta forma y transmiten y reciben las señales
    electromagnéticas por microondas o
    rayo láser.

    1.- Terrestres:

    1. Cable par trenzado: Es el que
      comúnmente se utiliza para los cables de
      teléfonos, consta de 2 filamentos de cobre,
      cubiertos cada uno por plástico aislante y entrelazados
      el uno con el otro, existen dos tipos de cable par trenzado: el
      "blindado", que se utiliza en conexiones de redes y estaciones
      de trabajo y el "no blindado", que se utiliza en las
      líneas telefónicas y protege muy poco o casi nada
      de las interferencias.
    2. Cable coaxial: Este tipo de cable es
      muy popular en las redes, debido a su poca susceptibilidad de
      interferencia y por su gran ancho de banda, los datos son
      transmitidos por dentro del cable en un ambiente
      completamente cerrado, una pantalla sólida, bajo una
      cubierta exterior. Existen varios tipos de cables coaxiales,
      cada uno para un propósito diferente.
    3. Fibra óptica: Es un filamento de vidrio
      sumamente delgado diseñado para la transmisión de
      la luz. Las fibras
      ópticas poseen enormes capacidades de
      transmisión, del orden de miles de millones de bits por
      segundo. Además de que los impulsos luminosos no son
      afectados por interferencias causadas por la radiación
      aleatoria del ambiente.
      Actualmente la fibra
      óptica está remplazando en grandes cantidades
      a los cables comunes de cobre.

    Herramientas de Software para
    la

    Automatización de
    Oficinas

    Definición de
    Software:

    El software es el conjunto de
    instrucciones que las computadoras emplean para manipular datos.
    Sin el software, la computadora sería un conjunto de
    medios sin utilizar. Al cargar los programas en una computadora,
    la máquina actuará como si recibiera una educación
    instantánea; de pronto "sabe" cómo pensar y
    cómo operar.

    El Software es un conjunto de programas,
    documentos,
    procedimientos, y rutinas asociados con la
    operación de un sistema de computo. Distinguiéndose
    de los componentes físicos llamados hardware.
    Comúnmente a los programas de computación se les llama software; el
    software asegura que el programa o sistema cumpla por completo
    con sus objetivos,
    opera con eficiencia, esta
    adecuadamente documentado, y suficientemente sencillo de
    operar.

    Es simplemente el conjunto de
    instrucciones individuales que se le proporciona al microprocesador
    para que pueda procesar los datos y generar los resultados
    esperados.

    El hardware por si solo no puede hacer
    nada, pues es necesario que exista el software, que es el
    conjunto de instrucciones que hacen funcionar al
    hardware.

    Clasificaciones del
    Software

    El software se clasifica en 4 diferentes
    Categorías: Sistemas
    Operativos, Lenguajes de
    Programación, Software de uso general, Software de
    Aplicación. (Algunos autores consideran la 3era y 4 ta
    clasificación como una sola).

    Lenguajes de
    Programación

    Mediante los programas se indica a la
    computadora que tarea debe realizar y cómo efectuarla,
    pero para ello es preciso introducir estas órdenes en un
    lenguaje que el sistema pueda entender. En principio, el
    ordenador sólo entiende las instrucciones en código
    máquina, es decir, el específico de la computadora.
    Sin embargo, a partir de éstos se elaboran los llamados
    lenguajes de alto y bajo nivel.

    Software de Uso
    General

    El software para uso general ofrece la
    estructura
    para un gran número de aplicaciones empresariales,
    científicas y personales. El software de hoja de
    cálculo, de diseño asistido por computadoras
    (CAD), de procesamiento de texto, de
    manejo de Bases de Datos, pertenece a esta categoría. La
    mayoría de software para uso general se vende como
    paquete; es decir, con software y documentación orientada
    al usuario (manuales de
    referencia, plantillas de teclado y
    demás).

    Software de
    aplicaciones

    El software de aplicación esta
    diseñado y escrito para realizar tareas específicas
    personales, empresariales o científicas como el
    procesamiento de nóminas, la administración de los
    recursos
    humanos o el control de
    inventarios. Todas éstas aplicaciones procesan datos
    (recepción de materiales) y
    generan información (registros de
    nómina)
    para el usuario.

    1. Procesadores de
      Palabras:
      Son utilizados para escribir cartas,
      memorándums y otros documentos, El
      usuario teclea una serie de letras o párrafos, y son
      mostradas en la pantalla. El usuario puede fácilmente
      adherir, borrar y cambiar el texto hasta
      que el documento quede exactamente como se desea. Algunas
      características avanzadas que encontramos en la
      actualidad en los procesadores de
      texto son: corrector de ortografía, diccionario
      de sinónimos, presentación preliminar del
      texto antes
      de imprimir. Ejemplos de procesadores de
      texto: Word,
      AmiPro, Wordperfect.
    2. Hojas de Cálculo: Una Hoja de
      Cálculo es una herramienta para calcular y evaluar
      números. También ofrece capacidades para crear
      informes y
      presentaciones para comunicar lo que revelan los análisis; el usuario teclea los datos y
      las fórmulas que serán usadas para obtener los
      resultados; después el programa aplica las
      fórmulas a los datos y así obtiene los
      resultados; una de sus características mas importantes
      es la habilidad de preguntar (Condicionales)"what IF" "QUE
      PASARÍA SI?", cambiando los datos y rápidamente
      re- calculando los nuevos resultados. La mayoría de las
      Hojas de Cálculo
      cuentan también con la posibilidad de graficar estos
      resultados en diferentes estilos de gráficas (Barras,
      Líneas, Pastel, etc.). Ejemplos de Hojas de Cálculo:
      Excel, Lotus
      123, Quatro.
    3. Paquetes de
      Presentación:
      Software que permite al usuario
      diseñar presentaciones para desplegarlas a través
      de la misma computadora o imprimir diapositivas y acetatos.
      Contienen opciones avanzadas para integrar efectos en cada
      cambio de
      diapositiva. Ejemplos: Presentation, Power
      Point.
    4. Shareware y
      Freeware:
    1. Shareware: Software distribuido de
      forma gratuita para ser probado. Si el usuario decide quedarse
      con el programa y seguir usándolo, debe pagar al
      desarrollador. Normalmente, el shareware es desarrollado por
      compañías relativamente pequeñas o
      inclusive por programadores individuales, y generalmente es
      barato.
    2. Freeware: Programas
      gratuitos que los desarrolladores ponen a disposición de
      otros usuarios sin ningún costo. En
      algunos casos el desarrollador no reclama derechos de
      autor y el programa se convierte en software del dominio
      público. En otros casos, el software tiene derechos de
      autor pero el desarrollador ha permitido a otra gente
      usarlos y copiarlo gratuitamente.
    1. Aplicación
      Vertical:
      Las aplicaciones verticales son programas que
      realizan todas las fases de una función crítica
      del negocio. Estos programas, que muchas veces corren en una
      combinación de Mainframes, minis y computadoras
      personales, se denominan algunas veces aplicaciones de misión
      crítica. Generalmente son desarrollados a la medida por
      cada compañía que los tiene y son usados por
      muchos individuos dentro de una Organización.

    Sistemas de
    Información

    Una aplicación comercial de la
    computadora. Está constituido por las bases de datos, los
    programas de aplicación, los procedimientos
    manuales y
    automatizados, y abarca los sistemas informáticos que
    llevan a cabo el procesamiento.

    Las bases de datos almacenan los asuntos
    de los negocios
    (archivos maestros) y sus actividades (archivos de
    transacciones). Los programas de aplicación proveen la
    entrada de datos, la actualización, consulta y
    procesamiento de informes. Los
    procedimientos
    manuales
    documentan la forma en que se obtienen los datos para su
    introducción, y la forma en que se distribuyen las salidas
    del sistema. Los procedimientos
    automáticos instruyen a la computadora acerca de
    cómo ejecutar las actividades de procesamiento por lotes,
    en las cuales la salida de un programa es automáticamente
    transferida a la entrada de otro programa.

    El procesamiento diario es el
    procesamiento interactivo y en tiempo real de las transacciones.
    Al final del día o de algún otro período,
    los programas de procesamiento por lotes actualizan los archivos
    maestros que no fueron actualizados desde el período
    anterior. Se imprimen los informes de
    las actividades de ciclo. El procedimiento
    periódico de un sistema de
    información es la actualización de los archivos
    maestros, en la cual se agrega, borra y modifica la
    información sobre clientes,
    empleados, proveedores y
    productos.

    Cada sistema abarca a los que lo
    suceden:

    Equipo de
    Computación

    1. Historia de las Computadoras
      Personales:
      Las microcomputadoras o Computadoras
      Personales (PC´s) tuvieron su origen con la
      creación de los microprocesadores. Un microprocesador es "una computadora en un chip",
      o sea un circuito integrado independiente. Las PC´s son
      computadoras para uso personal y
      relativamente son baratas y actualmente se encuentran en las
      oficinas, escuelas y hogares.

    El término PC se deriva de que
    para el año de 1981, IBM®, sacó a la venta su modelo
    "IBM PC", la cual se convirtió en un tipo de computadora
    ideal para uso "personal", de
    ahí que el término "PC" se estandarizó y los
    clones que sacaron posteriormente otras empresas fueron
    llamados "PC y compatibles", usando procesadores del
    mismo tipo que las IBM, pero a un costo menor y
    pudiendo ejecutar el mismo tipo de programas.

    Existen otros tipos de microcomputadoras,
    como la Macintosh®, que no son compatibles con la IBM, pero
    que en muchos de los casos se les llaman también
    "PC´s", por ser de uso personal.

    En la actualidad existen variados tipos
    en el diseño de PC´s:

    • Computadoras personales, con el
      gabinete tipo minitorre, separado del monitor.
    • Computadoras personales
      portátiles "Laptop" o "Notebook".
    • Computadoras personales más
      comunes, con el gabinete horizontal, separado del monitor.
    • Computadoras personales que
      están en una sola unidad compacta el monitor y el
      CPU.

    Las computadoras "laptops" son aquellas
    computadoras que están diseñadas para poder ser
    transportadas de un lugar a otro. Se alimentan por medio de
    baterías recargables, pesan entre 2 y 5 kilos y la
    mayoría trae integrado una pantalla de LCD (Liquid Crys
    tal Display).

    A.1) Supercomputadoras: Una
    supercomputadora es el tipo de computadora más potente y
    más rápido que existe en un momento dado. Estas
    máquinas están diseñadas para procesar
    enormes cantidades de información en poco tiempo y son
    dedicadas a una tarea específica.

    Así mismas son las más
    caras, sus precios
    alcanzan los 30 MILLONES de dólares y más; y
    cuentan con un control de temperatura
    especial, ésto para disipar el calor que
    algunos componentes alcanzan a tener.

    Unos ejemplos de tareas a las que son
    expuestas las supercomputadoras son los
    siguientes:

    • Búsqueda y estudio de la
      energía y armas
      nucleares.
    • Búsqueda de yacimientos
      petrolíferos con grandes bases de datos
      sísmicos.
    • El estudio y predicción de
      tornados.
    • El estudio y predicción del
      clima de
      cualquier parte del mundo.
    • La elaboración de maquetas y
      proyectos de la
      creación de aviones, simuladores de
      vuelo.
    • Etc.

    Debido a su precio, son
    muy pocas las supercomputadoras que se construyen en un
    año.

    A.2) Minicomputadoras: En
    1960 surgió la minicomputadora, una versión
    más pequeña de la Macrocomputadora. Al ser
    orientada a tareas específicas, no necesitaba de todos los
    periféricos que necesita un Mainframe, y
    ésto ayudo a reducir el precio y
    costos de
    mantenimiento.

    Las minicomputadoras, en tamaño y
    poder de
    procesamiento, se encuentran entre los mainframes y las
    estaciones de trabajo.

    En general, una minicomputadora, es un
    sistema multiproceso (varios procesos en
    paralelo) capaz de soportar de 10 hasta 200 usuarios
    simultáneamente. Actualmente se usan para almacenar
    grandes bases de datos, automatización industrial y aplicaciones
    multiusuario.

    A.3) Estaciones de trabajo o
    Workstations:
    Las estaciones de trabajo se encuentran
    entre las minicomputadoras y las macrocomputadoras (por el
    procesamiento). Las estaciones de trabajo son un tipo de
    computadoras que se utilizan para aplicaciones que requieran de
    poder de
    procesamiento moderado y relativamente capacidades de
    gráficos de alta calidad. Son
    usadas para:

    • Aplicaciones de ingeniería
    • CAD (Diseño asistido por
      computadora)
    • CAM (manufactura
      asistida por computadora)
    • Publicidad
    • Creación de
      Software

    En redes, la palabra "workstation" o
    "estación de trabajo" se utiliza para referirse a
    cualquier computadora que está conectada a una red de
    área local.

    1. B.1) Macrocomputadoras o
      Mainframes:

      Las macrocomputadoras son
      también conocidas como Mainframes. Los mainframes son
      grandes, rápidos y caros sistemas que son capaces de
      controlar cientos de usuarios simultáneamente,
      así como cientos de dispositivos
      de entrada y salida.

      Los mainframes tienen un costo que
      va desde 350,000 dólares hasta varios millones de
      dólares. De alguna forma los mainframes son más
      poderosos que las supercomputadoras porque soportan
      más programas simultáneamente. PERO las
      supercomputadoras pueden ejecutar un sólo programa
      más rápido que un mainframe.

      En el pasado, los Mainframes ocupaban
      cuartos completos o hasta pisos enteros de algún
      edificio, hoy en día, un Mainframe es parecido a una
      hilera de archiveros en algún cuarto con piso falso,
      ésto para ocultar los cientos de cables d e los
      periféricos, y su temperatura tiene que estar
      controlada.

      B.2) Servidor de
      archivos:

      Dispositivo de almacenamiento de
      archivos en una red de área local al que todos los
      usuarios de la red pueden acceder. A diferencia de un
      servidor de disco, que aparece ante el usuario como una
      unidad de disco remota, un servidor de archivos es un
      dispositivo más complejo que no sólo almacena
      archivos sino que también los administra y los
      mantiene en orden a medida que los usuarios de la red los
      solicitan y los modifican. Para gestionar las tareas de
      manejo de varias solicitudes (a veces simultáneas), un
      servidor de archivos cuenta con un procesador y
      software de control, así como una unidad de
      disco para el almacenamiento. En redes de área local,
      un servidor de archivos suele ser una computadora con un
      disco duro
      grande que está dedicado exclusivamente a las
      funciones de administración de archivos
      compartidos.

    2. Historia de los Servidores y
      Mainframes:

      Es dispositivo formado por un monitor y un teclado.
      Un terminal no hace prácticamente ningún
      procesamiento por sí solo, sino que está
      conectado a una computadora con un enlace de comunicaciones a
      través de un cable. La entrada a través del
      teclado se
      envía desde el terminal a la computadora, y la salida
      de vídeo se envía desde la computadora al
      terminal. Los terminales se usan sobre todo en sistemas
      multiusuario y no se utilizan hoy día en computadoras
      personales de un solo usuario. En electrónica, un
      punto que puede ser conectado físicamente a
      algún otro, normalmente a través de un cable,
      para formar una conexión eléctrica.

    3. Terminales Tontas: en informática, terminal sin capacidad de proceso. Por
      lo general, los terminales tontos sólo son capaces de
      presentar caracteres alfanuméricos y de responder a un
      protocolo de comunicaciones sencillo, como el VT-52, VT-100 o
      ANSI.

      RISC: (Reduced
      Instruction Set Computer) computadora de conjunto de
      instrucciones reducido

      Arquitectura de computadoras que
      ejecuta un número limitado de instrucciones. El
      concepto es que la mayoría de los programas usan
      generalmente unas pocas instrucciones, y si se acelera la
      ejecución de esas instrucciones básicas, se
      mejora el rendimiento.

      La arquitectura
      RISC elimina una capa de carga operativa llamada
      "microcódigo", que se emplea normalmente para
      facilitar la agregación de nuevas y complejas
      instrucciones a una computadora. Las computadoras RISC poseen
      un pequeño número de instrucciones montadas en
      los circuitos
      de nivel inferior, que trabajan a máxima
      velocidad.

      Aunque las máquinas RISC son
      sólo de un 15% a un 50% más veloces que sus
      contrapartidas CISC

      CISC: (Complex
      Instruction Set Computer) Computadora de conjunto de
      instrucciones complejo Computadoras que poseen un conjunto de
      instrucciones muy extenso. Las máquinas CISC tienen de
      doscientas a trescientas instrucciones, que están
      grabadas en microcódigo.

    4. Tecnologías RISC y
      CISC:

      MMX: (Multimedia
      Extensions) son 57 instrucciones MMX que se usan para
      acelerar los procesos
      de programas multimedia
      tales como vídeo y sonido, ocho
      registros MMX
      de 64 bits

      Pentium Pro: incorpora en el mismo
      encapsulado del procesador un total de 256 ó 512 KB de
      memoria caché de segundo nivel(caché L2).
      La
      comunicación entre dicha memoria caché y el
      núcleo del procesador se realiza a la velocidad a la
      que funcione el Pentium
      Pro.

    5. Tecnologías MMX y
      Pentium
      Pro:
    6. Microprocesadores:

    F.1) Historia de los Microprocesadores:

    Muchas grandes invenciones simplemente
    son el resultado de que alguien se ha encontrado con un problema
    técnico y propone una solución diferente y audaz. Y
    típicamente, ese problema tiene que ver con dinero.

    Ese era el caso ciertamente a finales de
    1969 para una joven y agresiva compañía japonesa
    llamada

    Busicom. Busicom había tenido
    realmente varios nombres en su breve carrera, incluso ETI y
    Máquinas Calculadoras de Japón.

    Esa era una característica de
    naturaleza
    imprevisible de esa empresa. Y
    Busicom no estaba solo. Era uno de los centenares de
    compañías que estaban decididos a entrar en un
    negocio que estaba surgiendo como un gran mercado de
    consumidores, hecho posible por los circuitos
    integrados: las calculadoras. Se había comprobado
    que existía un marcado interés
    por las nuevas calculadoras versiones digitales que las
    antiguas calculadoras electromecánicas, especialmente
    cuando estas versiones digitales podían realizar
    cálculos complejos como raíces
    cuadradas.

    Busicom no era ni un jugador mayor, ni
    uno menor en este negocio. Justo uno de las multitudes. Pero era
    un jugador que tenía unas buenas ganas para tomar riesgos
    tecnológicos más que sus competidores, y contaba
    con un visionario tecnológico en su laboratorio
    llamado Masatoshi Shima.

    A través de 1969, se
    reconoció generalmente en la industria de
    la electrónica que era teóricamente posible usar el
    nuevo semiconductor metal-on-silicon (MOS) para poner toda la
    función de una calculadora en una sola pastilla.
    ¿Pero quién estaba deseoso de
    hacerlo?.

    Busicom escogio a Intel Corporation. Una
    compañía diminuta de Santa Clara, California para
    fabricarlo.

    Luego de las correcciones realizadas en
    el diseño y construcción por parte de Federico Faggin
    de Intel del primer microprocesador, en Febrero de 1971 el 4004
    estaba listo para la producción.

    Así a mediados de Marzo de 1971,
    Intel envió el conjunto de chips de la familia
    4000 a BUSICOM. Esta familia
    consistiría en:

    • Una ROM de 2048 bits como el
      4001
    • Una memoria
      RAM de 320 bits como el 4002
    • Un Shift regiter de 10 bits como el
      4003
    • El procesador central de 4 bits como
      el 4004

    La revolución del Microprocesador
    había empezado.

    El 8008 siguió al 4004 y fue
    formalmente introducido en Abril de 1972. Este proyecto
    empezó con el nombre de 1201 y se trataba de una arquitectura de 8
    bits. Y fue así que el 8008 se convirtió en el
    primer microprocesador de 8 bits.

    Para el siguiente microprocesador de 8
    bits el 8080 sus primeras pruebas
    tuvieron lugar en Diciembre de 1973. Después que Faggin y
    su equipo corrigieron algunos errores, el producto fue
    formalmente introducido al público en Marzo de
    1974.

    Como Faggin diría: "El 8080
    realmente creó el mercado del microprocesador. El 4004 y
    el 8008 lo sugirieron, pero el 8080 lo hizo
    realidad."

    Con la introducción del 8080 puede
    decirse de verdad que la humanidad cambió. La naturaleza
    extraordinaria del 8080 fue reconocida casi
    instantáneamente por miles de ingenieros en todo el mundo
    quienes habían estado
    esperando su llegada. Dentro de un año, había sido
    introducido en cientos de productos diferentes. Nada
    volvería a ser igual otra vez.

    Los que se llevan el crédito
    de este invento(uno de las más grandes invenciones de este
    siglo) son: Ted Hoff como el inventor, Federico Faggin como el
    creador, Mazor y Shima como contribuyentes
    críticos.

    EL PENTIUM
    II

    Es el último Microprocesador de
    Intel y alcanza velocidades de hasta 400Mhz. Ya llegaron al
    PERU pero
    todavía no se ve la última versión, sin
    embargo ya hay muchas marcas de
    computadoras en Estados Unidos
    que los usan. La forma de este procesador y su forma de
    instalación es diferente, en vez usa un cartucho(de un
    sólo borde) el cual se coloca en la placa madre dentro de
    un conector tipo slot. No usa el socket7 como las anteriores
    PENTIUM.
    Más información sobre el PENTIUM
    II.

    EL K6 DE
    AMD

    Este procesador es el último de
    AMD y alcanza velocidades de hasta 266Mhz y se está
    trabajando en una versión de 300Mhz. Dicen que es tan
    rápido que el PENTIUM II. Ya llegó al PERU, pero
    sólo los de 200Mhz y 233Mhz. Usa el mismo socket7 de las
    placas madres comunes y esto hace fácil instalarlo y
    usarlo en las placas madres más antiguas. Más
    información sobre AMD K6.

    EL 6×86
    DE

    Es el último de CYRIX y es la
    respuesta de este fabricante a la competencia de
    Intel y Amd. Este procesador puede usar una velocidad de bus de 75Mhz lo que lo hace
    distinto a los demás. Es posible que ya se comercialize en
    el PERU.
    Más información sobre EL 6×86 MX.

    EL POWERPC
    DE

    Este procesador de arquitectura RISC
    es usado en las computadoras Mac de APPLE y se dice que alcanza
    hasta 300 Mhz de velocidad.

    F.2) Listado de los
    Microprocesadores:

    VERSIONES DE
    INTEL

    MICROPROCESADORES ANTERIORES AL
    PENTIUM

    • MICROPROCESADOR
      8088
    • MICROPROCESADOR
      8086
    • MICROPROCESADOR
      80286
    • MICROPROCESADOR
      80386
    • MICROPROCESADOR
      80486
    • MODELO DX1
    • MODELO DX2
    • MODELO DX4

    PENTIUM
    SIMPLE(COMUNES)

    • PENTIUM 60 MHZ
    • PENTIUM 66 MHZ
    • PENTIUM 75 MHZ
    • PENTIUM 100 MHZ
    • PENTIUM 133 MHZ
    • PENTIUM 166 MHZ
    • PENTIUM 200 MHZ

    PENTIUM MMX (FAMILIA
    P55C)

    • PENTIUM MMX 166
      MHZ
    • PENTIUM MMX 200
      MHZ
    • PENTIUM MMX 233
      MHZ

    PENTIUM II Y PENTIUM PRO (FAMILIA
    P6)

    PENTIUMS PRO

    • PENTIUM PRO DE 2OO MHZ Y CACHE
      L2(NIVEL2) DE 256KB, 512KB Y 1MB
    • PENTIUM PRO DE 180MHZ Y 256KB DE
      CACHE L2
    • PENTIUM PRO DE 166MHZ Y 512KB DE
      CACHE L2
    • PENTIUM PRO DE 150MHZ Y 256KB DE
      CACHE L2

    PENTIUMS II

    • PENTIUM II DE 233
      MHZ
    • PENTIUM II CELEROM DE 266 MHZ Y SIN
      CACHE L2
    • PENTIUM II DE 266 MHZ Y 512KB DE
      CACHE L2
    • PENTIUM II DE 300 MHZ Y 512KB DE
      CACHE L2
    • PENTIUM II DE 333 MHZ Y 512KB DE
      CACHE L2
    • PENTIUM II DE 350 MHZ Y 512KB DE
      CACHE L2
    • PENTIUM II DE 400 MHZ Y 512KB DE
      CACHE L2
    • MUY PRONTO EL PENTIUM II DE 450 MHZ
      Y 512KB DE CACHE L2

    VERSIONES DE
    AMD

    AMD K5

    • AMD K5 DE 100 MHZ
    • AMD K5 DE 133 MHZ
    • AMD K5 DE 166 MHZ

    AMD K6

    • AMD K6 DE 166 MHZ
    • AMD K6 DE 200 MHZ
    • AMD K6 DE 233 MHZ
    • AMD K6 DE 266 MHZ
    • AMD K6 DE 300 MHZ

    VERSIONES DE
    CYRIX

    CYRIX M1

    CYRIX 6×86 MMX(LLAMADO ANTERIORMENTE
    M2)

    • 6x86PR166 MMX
    • 6x86PR200 MMX
    • 6x86PR233 MMX
    • 6x86PR266 MMX
    • 6x86PR300 MMX
    1. G-1 RAM: (Random access
      memory), memoria de acceso aleatorio, la utiliza el usuario
      mediante sus programas, y es volátil. La memoria
      del equipo permite almacenar datos de entrada, instrucciones
      de los programas que se están ejecutando en ese
      momento, los dato s resultados del procesamiento y los datos
      que se preparan para la salida. Los datos proporcionados a la
      computadora permanecen en el almacenamiento primario hasta
      que se utilizan en el procesamiento. Durante el
      procesamiento, el almacenamiento primario almacena los datos
      intermedios y finales de todas las operaciones
      aritméticas y lógicas. El almacenamiento
      primario debe guardar también las instrucciones de los
      programas usados en el procesamiento. La memoria está
      subdividida en celdas individuales cada una de las cuales
      tiene una capacidad similar para almacenar
      datos.

      G-2 DRAM: (Dynamic
      RAM) El
      tipo más común de memoria para computadoras. La
      arquitectura
      RAM
      dinámica (DRAM) emplea habitualmente un
      transistor y
      un condensador para representar un bit. Los condensadores deber ser energizados cientos de
      veces por segundo para mantener las cargas correctas.
      Nótese la diferencia con static RAM, la cual es
      habitualmente más rápida y no requiere
      circuitería de refresco. A diferencia de los chips de
      firmware (ROM, PROM, etc.), ambas variedades de RAM pierden
      su contenido cuando se corta el suministro de
      energía.

      G-3 ROM: (read only
      memory), memoria de sólo lectura,
      en la cual se almacena ciertos programas e información
      que necesita la computadora las cuales están grabadas
      permanentemente y no pueden ser modificadas por el
      programador. Las instrucciones básicas para arrancar
      una computadora están grabadas aquí y en
      algunas notebooks han grabado hojas de
      calculo, basic, etc.

      G-4 Cache: Una
      sección reservada de la memoria que se utiliza para
      mejorar el rendimiento. Un cache de disco es una
      porción reservada de la memoria normal, o memorias
      adicionales en la tarjeta controladora del disco. Cuando el
      disco es leído, se copia un gran bloque de datos en el
      cache. Si los requerimientos de datos subsiguientes pueden
      ser satisfecho por el cache, no se necesita el empleo de
      un acceso a disco que es más lento. Si el cache es
      utilizado para escritura,
      los datos se alinean en memoria y se graban en el disco en
      bloques más grandes.

      Los caches de memoria son bancos de
      memoria de alta velocidad entre la memoria normal y la CPU.
      Los bloques de instrucciones y datos se copian en el cache, y
      la ejecución de las instrucciones y la
      actualización de los datos es llevada a cabo en la
      memoria de alta velocidad.

      G-5 Discos
      Duros:
      una o varias láminas rígidas
      de forma circular, recubiertas de un material que posibilita
      la grabación magnética de datos. Un
      disco duro normal gira a
      una velocidad de 3.600 revoluciones por minuto y las cabezas
      de lectura y
      escritura
      se mueven en la superficie del disco sobre una burbuja de
      aire de
      una profundidad de 10 a 25 millonésimas de pulgada. El
      disco duro
      va sellado para evitar la interferencia de partículas
      en la mínima distancia que existe entre las cabezas y
      el disco. Los discos
      duros proporcionan un acceso más rápido a
      los datos que los discos flexibles y pueden almacenar mucha
      más información. Al ser las láminas
      rígidas, pueden superponerse unas sobre otras, de modo
      que una unidad de disco duro puede tener acceso a más
      de una de ellas. La mayoría de los discos
      duros tienen de dos a ocho láminas.

      Disco duro

      El disco duro de una computadora se
      utiliza para guardar datos en soporte
      magnético.

    2. RAM, DRAM, ROM, Cache y Discos
      Duros:

      Monocromáticos,
      despliegan sólo 2 colores,
      uno para el fondo y otro para la superficie. Los colores
      pueden ser blanco y negro, verde y negro ó
      ámbar y negro. Escala de
      Grises, un monitor a escala de grises es un tipo especial de
      monitor monocromático capaz de desplegar diferentes
      tonos de grises.

      Color: Los monitores
      de color
      pueden desplegar de 4 hasta 1 millón de colores
      diferentes. Conforme ha avanzado la tecnología han
      surgido los diferentes modelos:

      TTL, Monocromático, muy
      pobre resolución, los primeros no tenían
      capacidad de graficar.

      CGA, Color
      Graphics Adapter, desplegaba 4 colores,
      con muy pobre resolución a comparación de los
      monitores
      actuales, hoy en día fuera del
      mercado.

      EGA, Enhanced Graphics
      Adapter, manejaba una mejor resolución que el CGA, de
      640×350 pixeles. (los pixeles son los puntos de luz con los
      que se forman los caracteres y gráficas en el monitor,
      mientras más pixeles mejor resolución).
      Desplegaban 64 colores.

      VGA, Vídeo Graphics
      Array, los hay monocromáticos y de color. Adecuados
      para ambiente
      gráfico por su alta resolución (640×480
      pixeles). Pueden llegar hasta 256,000 colores ó 64
      tonalidades de gris dependiendo de la memoria destinada al
      dispositivo.

      SPVGA, Super Vídeo
      Graphics Array, maneja una resolución más alta
      (1,024×768), el número de colores desplegables
      varía dependiendo de la memoria, pero puede ser mayor
      que 1 millón de colores.

      UVGA, Ultra Vídeo
      Graphics Array, Resolución de 1280 x 1024. La calidad de
      las imágenes que un monitor puede desplegar
      se define más por las capacidades de la tarjeta
      controladora de vídeo, que por las del monitor mismo.
      El controlador de vídeo es un dispositivo
      intermediario entre el CPU y el monitor. El controlador
      contiene la memoria y otros circuitos
      electrónicos necesarios para enviar la
      información al monitor para que la despliegue en la
      pantalla.

    3. Monitores: El monitor
      ó pantalla de vídeo, es el dispositivo de
      salida más común. Hay algunos que forman parte
      del cuerpo de la computadora y otros están separados
      de la misma. Existen muchas formas de clasificar los monitores,
      la básica es en término de sus capacidades de
      color,
      pueden ser:

      IMPRESORAS DE
      IMPACTO:

      Una impresora
      que utiliza un mecanismo de impresión que hace
      impactar la imagen del
      carácter en una cinta y sobre el papel. Las
      impresoras
      de línea, de matriz de
      punto y de rueda de margarita son ejemplos de impresoras de
      impacto.

      Impresora de Matriz de
      puntos, es la impresora
      más común. Tiene una cabeza de impresión
      movible con varias puntillas o agujas que al golpear la cinta
      entintada forman caracteres por medio de puntos en el
      papel,
      Mientras mas agujas tenga la cabeza de impresión mejor
      será la calidad del
      resultado. Las hay de 10 y 15", las velocidades varían
      desde: 280 cps hasta 1,066 cps

      Impresoras de margarita; tiene la
      misma calidad de
      una máquina de escribir mediante un disco de
      impresión que contiene todos los caracteres,
      están de salida del mercado por
      lentas.

      Impresoras de Línea: Son
      impresoras de alta velocidad que imprimen una línea
      por vez. Generalmente se conectan a grandes computadoras y a
      Minicomputadoras. Las impresoras de línea imprimen una
      línea a la vez desde aproximadamente 100 a 5000
      LPM.

      IMPRESORAS SIN
      IMPACTO:

      Hacen la impresión por
      diferentes métodos, pero no utilizan el impacto.
      Son menos ruidosas y con una calidad de
      impresión notoriamente mejor a las impresoras de
      impacto. Los métodos que utilizan son los
      siguientes:

      Térmicas: Imprimen de forma
      similar a la máquina de matriz,
      pero los caracteres son formados marcando puntos por
      quemadura de un papel
      especial. Vel. 80 cps. Los faxes trabajan con este método.

      Impresora de inyección de
      tinta: Emite pequeños chorros de tinta desde cartuchos
      desechables hacia el papel, las
      hay de color. Vel. de 4 a 7 ppm.

      Electrofotográficas o
      Láser: Crean letras y gráficas mediante un
      proceso de fotocopiado. Un rayo láser traza los
      caracteres en un tambor fotosensible, después fija el
      toner al papel
      utilizando calor. Muy
      alta calidad de resolución, velocidades de 4 a 18
      ppm.

    4. Impresoras: Dispositivo
      que convierte la salida de la computadora en imágenes
      impresas. Las impresoras
      se pueden dividir en 2 tipos: las de impacto y las de no
      impacto.
    5. Scanners: Convierten
      texto,
      fotografías a color ó en Blanco y Negro a una
      forma que puede leer una computadora. Después esta
      imagen puede
      ser modificada, impresa y almacenada. Son capaces de
      digitalizar una página de gráficas en unos
      segundos y proporcionan una forma rápida, fácil y
      eficiente de ingresar información impresa en una
      computadora; también se puede ingresar
      información si se cuenta con un Software especial
      llamado OCR (Reconocimiento óptico de
      caracteres).

    Bibliografía

    Jorge Romeo Gaitán
    Rivera

    Bachiller Industrial Perito en
    Electrónica Digital y Microprocesadores

    1er. Semestre de Ingeniería
    Electrónica

    jrgaitan[arroba]geocities.com

    Nota al lector: es posible que esta página no contenga todos los componentes del trabajo original (pies de página, avanzadas formulas matemáticas, esquemas o tablas complejas, etc.). Recuerde que para ver el trabajo en su versión original completa, puede descargarlo desde el menú superior.

    Todos los documentos disponibles en este sitio expresan los puntos de vista de sus respectivos autores y no de Monografias.com. El objetivo de Monografias.com es poner el conocimiento a disposición de toda su comunidad. Queda bajo la responsabilidad de cada lector el eventual uso que se le de a esta información. Asimismo, es obligatoria la cita del autor del contenido y de Monografias.com como fuentes de información.

    Categorias
    Newsletter