Monografias.com > Computación > General
Descargar Imprimir Comentar Ver trabajos relacionados

Modelo para Pruebas de Software y auditoría en Entorno Microsoft.Net




Enviado por alexcal2004



Partes: 1, 2

    1. Identificación del
      problema
    2. Planteamiento del
      problema
    3. Justificación del
      problema
    4. Marco teórico sobre
      modelo, informática, sistemas, auditoria en
      informática, pruebas de software
    5. Hipótesis
    6. Operacionalización
      de la hipótesis general
    7. Plan de
      solución
    8. Descripción
      capitular
    9. Metodología
      de la investigación
    10. Presupuesto de
      tesis
    11. Cronograma de
      tesis
    12. Bibliografía

    I. IDENTIFICACION DEL PROBLEMA.

    En que medida la falta de un Modelo para Pruebas de
    Software y auditoria en Entorno Microsoft.Net,
    afecta los
    sistemas de
    información de la mediana empresa del
    sector servicio en el
    área metropolitana de San Salvador.

    II. PLANTEAMIENTO DEL
    PROBLEMA.

    Hoy en día en que las comunicaciones
    y los sistemas de
    información han evolucionada tanto, para
    nadie es desconocido el potencial que Microsoft tiene y ejerce
    sobre las empresas y su
    información a nivel mundial ya que brinda una gama de
    productos como
    sistemas
    operativos, navegadores,
    sistemas de correos, procesadores de
    texto y paquetes más específicos para
    desarrollar aplicaciones.

    Microsoft no quiere rendirse. Su último golpe de
    efecto lleva por nombre Microsoft .Net y es la estrategia con la
    que la compañía de Redmond pretende transformar y
    dominar Internet durante los
    próximos diez años con el permiso de la justicia
    estadounidense y, por supuesto, la complicidad de los
    usuarios.

    Como ultima innovación de Microsoft tenemos
    Microsoft .NET

    Que es la plataforma de Microsoft para servicios
    Web XML, la siguiente
    generación de software que conecta nuestro mundo de
    información, dispositivos y personas de una manera
    unificada y personalizada.

    La Plataforma .NET permite la creación y uso como
    servicios de aplicaciones, procesos y
    sitios Web basados en XML, que compartan y combinen
    información y funcionalidad entre ellos por diseño,
    en cualquier plataforma o dispositivo inteligente, para proveer
    soluciones a
    la medida de las empresas.

    Con base en los estándares abiertos de Internet,
    Microsoft .NET es la plataforma de servicios Web XML para
    potenciar aplicaciones, servicios y dispositivos a fin de que
    trabajen juntos para permitir el acceso y acción
    a la información en cualquier momento, en todo
    lugar y desde cualquier dispositivo; proporcionando desarrollo
    simplificado y experiencias ricas de usuario, así como
    oportunidades sin precedentes para los
    negocios
    .

    Es por eso que en nuestro medio las medianas empresas
    están casi sujetas a Microsoft y sus aplicaciones, debido
    a que son las más accesibles por lo que es indispensable
    un modelo para
    pruebas automáticas y auditoria de las aplicaciones
    desarrolladas en dicha plataforma, para estar seguros que las
    aplicaciones desarrolladas en Microsoft. Net brinden sistemas de
    información confiable, segura para la toma de
    decisiones.

    La creciente necesidad que las empresas tienen para
    manejar los sistemas de información de una manera
    más eficiente, las empuja a buscar tecnologías de
    última generación, pero a la vez, que sean
    accesibles a sus recursos
    financieros y técnicos, es por eso que las soluciones que
    Microsoft a ofrecido durante más de una década son
    ampliamente aceptadas en nuestro medio y la convierte en una de
    las herramientas
    más populares y conocidas.

    Ante el surgimiento de éstas nuevas
    tecnologías integradas para desarrollar aplicaciones
    nos encontramos ante un reto, de demostrar que los sistemas de
    información de las empresas dan como resultado
    información confiable y oportuna.

    Por lo que nosotros proponemos el desarrollo de un
    modelo para pruebas automáticas y auditorias de
    software en entorno Microsoft.Net.

    Con éste modelo, pretendemos proporcionar a las
    medianas empresas una herramienta confiable de prueba y
    auditoria, para las aplicaciones desarrolladas en .NET que les de
    la pauta para saber y estar seguros, de que sus sistemas de
    información les brindaran como resultado
    información útil en la toma de sus
    decisiones.

    III. JUSTIFICACION DEL PROBLEMA.

    Tan solo hace 20 años, el mundo seguía
    estando en la era mainframe. Pocas personas tenían acceso
    a las computadoras,
    y entonces solo se hacía a través del departamento
    de informática más cercano. La PC y la
    interfaz del usuario gráfico cambiaron todo eso,
    democratizando la computación para cientos de millones de
    personas y transformando la computadora en
    un producto de
    mercado realmente
    masivo. Las corporaciones se dieron cuenta que las redes de PC y servidores
    basados en PC podían cambiar la manera en que realizaban
    sus negocios.
    Entre los consumidores, la PC se estableció
    rápidamente como un nuevo medio para entretenimiento en el
    hogar. En los últimos 5 años, Internet
    revolucionó la manera en la que la gente se comunica,
    creó una nueva fuente de información y
    entretenimiento, y abrió el mundo del comercio
    electrónico. Hoy en día, cerca de 300 millones de
    personas en todo el mundo utilizan el Web. De acuerdo con
    International Data Corp., más de un cuarto de
    trillón de dólares de negocios se operará a
    través de Internet este año.

    La información que poseen las empresas es un
    recurso valioso para el desempeño eficiente y eficaz, sobre todo a
    la hora de tomar las decisiones de planificación, inversión, reestructuración,
    etc.

    Por lo anterior es de vital importancia que los datos que se
    obtiene de los sistemas de información, sean lo más
    exactos y precisos posibles, esto se convierte en un enorme
    problema cuando no existe una herramienta que determine la
    confiabilidad del software que se desarrolla o se adquiere, en
    especial aquellas empresas que usan las aplicaciones
    Microsoft.net.

    En los días previos a la presentación de
    la estrategia Microsoft .Net, efectuada el pasado jueves 22 de
    junio 2003, los directivos de Microsoft lo vendieron como el
    anuncio más importante que iba a realizar la
    compañía desde hacía cinco
    años.

    Los cuatro principios sobre
    los que Microsoft basa su nueva estrategia son los siguientes:
    lograr una mejor experiencia del usuario de manera que
    éste tenga el control; la
    simplicidad; la utilización de estándares de
    Internet (en particular, XML), y la integración empresarial. Además
    de diversas tecnologías que deben facilitar la tarea tanto
    a usuarios como a desarrolladores, Microsoft .Net supone
    también la creación de software específico
    para impulsar un nuevo tipo de aparatos inteligentes conectados a
    Internet.

    En nuestro medio las empresas están sujetas a los
    productos Microsoft como por ejemplo: según la empresa
    especializada en análisis de audiencia de Internet
    WebSideStory, el 86% de los usuarios de Internet
    utiliza el navegador
    de Microsoft, frente
    a un escaso 14% que se inclina por el de Netscape ¿Alguien
    quiere más poder que
    éste?

    El navegador se convertirá en la principal
    interfaz de usuario (lienzo universal, dicen en Microsoft) para
    recibir y utilizar este futuro bombardeo de servicios
    digitales.

    Por lo consiguiente, las afectadas son todas las
    medianas empresas de el sector servicio del área
    metropolitana de san salvador, que usan las aplicaciones de
    Microsoft.net.

    Con el desarrollo de un modelo de pruebas
    Automáticas y auditorias para aplicaciones desarrolladas
    con la herramienta de Microsoft.net, se busca mejorar la calidad y la
    confiabilidad de los sistemas de información, disminuyendo
    los costos operativos
    y los riesgos de los
    sistemas, beneficiando así a las medianas
    empresas.

    Con el desarrollo de éste modelo se
    buscará varios aportes, entre los que se
    destacan:

    La disminución de los costos en compra o
    desarrollo de aplicaciones de óptima calidad, mejorando
    así la eficiencia de las
    aplicaciones traerá un beneficio
    económico.

    Dando como resultado sistemas de información
    confiables, seguros que den soporte a la toma de decisiones de
    las diferentes áreas funcionales de las medianas
    empresas.

    Facilitando el trabajo a
    las empresas ya que ésta es una herramienta no muy
    difícil de utilizar, gracias a esto proporciona la
    oportunidad de que un buen número de personas desarrollen
    aplicaciones de calidad, generando así fuentes de
    empleos, dando como resultado un aporte social.

    Permite que las personas adquieran conocimientos
    más avanzados acerca de la tecnología y sus
    aplicaciones brindando así un aporte
    académico.

    Más allá de solo agregar una interfaz Web
    a sus aplicaciones de negocios existentes y esencialmente sin
    cambio, estas
    transformaciones redefinirán algunas de las suposiciones
    básicas de su modelo de negocios. Las
    compañías que desean sobrevivir a la
    transformación de la economía digital
    necesitan prepararse reevaluando sus negocios en vistas de tres
    acciones:

    Creando una infraestructura conectada. Esto significa
    no únicamente extraer el máximo valor de sus
    sistemas internos utilizando el rango completo de datos
    disponibles a través de esos sistemas de una manera
    integrada y coherente, si no que también ampliando esa
    infraestructura conectada más allá de las paredes
    de su negocio, para sus socios y proveedores.
    El flujo integrado de datos a través de todos los
    procesos de negocios (sin importar los límites
    organizacionales) proporciona una oportunidad importante para
    reajustarlos y reinventarlos a fin de lograr aumentos masivos
    de eficiencia. Además de las mejoras en los aspectos
    principales, existen oportunidades para crear todo un nuevo
    negocio que antes no podía concebirse debido a la
    fricción entre esas infraestructuras no
    integradas.

    Microsoft está creando la plataforma .NET para
    ayudarle a transformar su negocio y responder a estos
    imperativos. Se basa en el modelo de servicios Web XML, el cual
    es un crecimiento natural del aumento del poder de
    cómputo, la conectividad y el movimiento
    hacia estándares que caracterizan a toda la industria de
    la tecnología.

    Por lo anterior, con el desarrollo de éste modelo
    se buscará solucionar el problema de la calidad de las
    aplicaciones, a través de la auditoria así como
    determinar en que medida dichos problemas,
    afectan a los sistemas de información de las medianas
    empresas.

    1. MARCO TEORICO
      SOBRE MODELO, INFORMATICA, SISTEMAS, AUDITORIA EN INFORMATICA,
      PRUEBAS DE SOFTWARE.

    A. MODELO.

    1. Generalidades.

    La construcción de los modelos, no es
    una idea nueva; el proceso se
    utiliza todos los días con frecuencia en forma
    inconsciente, en situaciones de problemas básicos. El uso
    de información y el manejo de la incertidumbre, es un
    elemento clave para la dirección eficiente en una organización. De igual forma, los
    ejecutivos que se enfrentan a situaciones difíciles en las
    que deben tomar decisiones para resolver problemas presentes pero
    con repercusiones en el futuro; deben elegir entre diversas
    estrategias y
    cursos de acción. Esto supone la elaboración y uso
    de un modelo.

    2. Definiciones.

    • "Es la abstracción de los sucesos que rodean
      un proceso, una actividad, o un problema. Aíslan una
      entidad de su entorno de tal manera que pueda examinarse sin el
      "ruido" o
      perturbación de otras influencias del medio
      circundante".
    • "Es una representación ideal y concreta de un
      objeto, de un fenómeno con fines de estudio y
      experimentación. Es un concepto de
      valores,
      creencias y normas de
      conducta que
      condicionan la actuación y el modo de pensar de
      todos".
    • "Los modelos muestran los pasos de procesamiento,
      como los flujos de datos en un sistema; es una
      parte intrínseca de varios métodos
      de análisis, donde se muestra el
      procesamiento de
      datos de principio a fin".
    1. Antecedentes.

    Todos los científicos tienen conciencia de que
    el propósito fundamental y central del método
    científico es crear un modelo. El concepto de
    construcción de modelos, en particular en años
    recientes, se ha complicado un poco hasta parecer oscuro y, sin
    embargo, toda la historia del hombre aun en
    sus actividades menos científicas hace patente que
    éste es un animal esencialmente orientados a la
    construcción de modelos.

    Es interesante observar cómo a través de
    los siglos el hombre ha
    ido desarrollando el concepto de construcción de modelos,
    especialmente en torno a un
    área que le ha interesado desde sus primeros días
    sobre la tierra: el
    estudio y pronóstico de los movimientos de estrellas y
    planetas. El
    descubrimiento de los archivos de las
    grandes ciudades de Mesopotamia ha
    revelado que desde sus primeros días la
    civilización Babilonia preservó de manera legible
    grandes cantidades de datos de escrituras cuneiforme, es decir
    impresiones en horma de cuña hechas con un instrumento
    punzante en arcilla blanda que luego se endurecía en un
    horno a fin de preservar lo grabado.

    Las primeras tablillas contenían textos acerca de
    leyes y
    rituales e inventarios de
    ganado, esclavos y cosechas. Además aparecían los
    nombres de sus deidades, que también eran los nombres de
    los cuerpos celestes. Esto evolucionó hasta convertirse en
    una serie de observaciones planetarias (es decir, cuadros que se
    usaban para predecir movimientos y eclipses de la luna) y textos
    de aritmética sobre cómo calcular las posiciones de
    los planetas día por día, fechas y horas en que se
    ocurrirían terremotos o
    azotarían plagas de langostas y otras desastres
    naturales.

    En todo esto se empezaba a poner de manifiesto la
    búsqueda por parte del hombre de cielos recurrentes y
    patrones definidos. Todos los seres humanos se plantean preguntas
    con respecto a la naturaleza del
    Universo en
    que viven y una forma de planteamiento es interrogarse si los
    seres humanos están sujetos a un patrón determinado
    o son simples cautivos en un caos a la deriva. Por tanto, se pude
    decir que a historia del hombre es una evolución de la construcción de
    modelos, de constante búsqueda de patrones y de
    generalización.

    Probablemente sea una lástima comentar acerca de
    algunos diseños de modelos contemporáneos para la
    tomas de decisiones que se hacen las mismas suposiciones; es
    decir, que si dos diseños matemáticos conducen al
    mismo resultado, se puede suponer que no existe una diferencia
    filosófica o administrativa – gerencial entre dichos
    diseños.

    4. Características:

    • El modelo debe ser lo más simple
      posible.
    • El modelo no debe ser incompatible con las teorías establecidas en campos de
      estudio relacionados.
    • El modelo debe ser capaz de predecir
      fenómenos que puedan ser comprobados
      experimentalmente.
    • Los modelos hacen que los gerentes reconozcan un
      problema o un área de problemas y decidan lo
      más adecuado.
    • Hacen que los gerentes reconozcan los factores del
      problema y determinen cuales variables
      pueden ser controladas, para que no afecten el
      desempeño del sistema.
    • Obliga a los gerentes a reconocer los costos
      significativos y a conocer su magnitud.
    • Permite a los gerentes a identificar las relaciones
      entre los costos y las variables de
      decisión.
    • Permite reconocer importantes alternativas entre
      los costos y conocer la investigación general entre las
      variables y los costos.
    1. Clasificación.

    Un modelo puede ser tan sencillo como una simple
    explicación con palabras, de lo fundamental de una
    realidad, a este tipo se le suele llamar Modelo
    Verbal.

    En otros modelos se usan diagramas en los
    que se dibujan de una forma simplificada, los componentes del
    sistema señalado, con flechas las acciones de unos sobre
    otros, son Modelos Gráficos. Algunos pueden ser muy
    esquemáticos, pero cuando en cada flecha se indica el tipo
    de acción que tiene lugar y se señalan diferentes
    compartimentos y tipos de interacción, pueden llegar a ser muy
    complicados.

    5.1. Modelos físicos.

    Los Modelos físicos se dividen en:

    a. Modelos icónicos

    Representan la unidad estudiada en cuanto a su
    apariencia y en cuanto a sus funciones. Con
    frecuencia son versiones a escala reducida
    a lo real, como por ejemplo: aviones de escala, maquetas de
    edificios y paisajes como los que emplean los ingenieros,
    diseñadores y arquitectos.

    b. Modelo Analógico.

    Exhibe el comportamiento de la entidad real del que esta
    siendo estudiada pero no tiene el mismo aspecto. Los modelos
    analógicos son mucho más abstractos que los
    modelos íconos.

    5.2. Modelos simbólicos.

    Los modelos simbólicos se dividen en:

    a. Modelo Narrativo.

    Es una descripción por medio del lenguaje de
    las relaciones que existen en un proceso o en un
    sistema.

    b. Modelos Gráficos.

    Describe partes o pasos de una entidad o proceso
    mediante una representación grafica. Un diagrama de
    flujo, que se usa en el desarrollo de las aplicaciones de
    las computadoras, simboliza los sucesos, las acciones, y
    muestra el orden o la secuencia que debe seguir en el caso de
    que cierta acción deba ser ejecutada, o un problema
    especifico deba ser resuelto.

    c. Modelos Matemáticos.

    Son mucho mas rigurosos que los anteriores y se valen
    de variables cuantitativas (Formulas) para representar las
    partes de un proceso o de un proceso o de un
    sistema.

    5.3. Modelos de comunicación.

    El modelo de comunicación se divide
    en:

    a. Modelo Lineal de Pasqualí

    La comunicación es lineal porque se dirige
    hacia delante y al hecho de que no puede hacerse retroceder una
    palabra ya emitida.

    b. Modelo Circular

    La comunicación circular se expresa en dos
    funciones:

    • Lo que comunicamos y el modo de hacerlo la altera
      para el futuro
    • La comunicación circular, retrocede hasta
      llegar al punto de partida, pudiendo restringir y
      obstaculizar futuras comunicaciones.

    c. Modelo helicoidal de Dance

    El helicoide combina los rasgos deseables de la
    línea recta y del círculo, evitando a la vez los
    puntos débiles de ambos. El helicoide presenta una
    variedad bastante atractiva de posibilidades de dar forma
    grafica a los aspectos patológicos de la
    comunicación.

    d. Modelo Análogo

    Se recurre a la similitud que se puede establecer
    entre una variable de interés,
    y una variable a la cual se puede recurrir para su
    presentación análoga.

    6. Importancia de los modelos.

    La importancia de los modelos esta fundamentada en dos
    ventajas que guardan estrecha relación entre si, pero que
    no son idénticas.

    La primera es el ahorro en la
    presentación y en la búsqueda. Así, es mas
    barato representar visualmente el plano de una fábrica o
    de un sistema de
    información administrativa que construir uno, y
    también hacer modificaciones de ese sistema mediante
    rediseño.

    La segunda consiste en que los modelos permiten analizar
    y experimentar situaciones tan complejas en una forma que
    resultaría imposible si se reprodujera el sistema y su
    ambiente
    real.

    Uso de los modelos

    Para usar un modelo hay que incorporar el objeto
    gráfico correspondiente y conectarlo adecuadamente al
    resto del circuito.

    La correspondencia entre los modos del modelo usado y de
    la definición tiene que ver con el orden en el que
    aparecen.

    Hay previsto un sólo símbolo; pero hay
    muchas posibilidades en cuanto a su significado.

    Un modelo puede ser predictivo sin ser necesariamente
    explicativo, pero un modelo explicativo, forzosamente tiene que
    ser predictivo. Un modelo meramente predictivo opera dentro de
    márgenes muy estrechos, no conduce a una
    comprensión ni tampoco brinda ningún medio para
    controlar, cuando la lógica
    fundamental del mismo ha cambiado significativamente.

    Los puntos de conexión de un modelo se consideran
    en determinado orden. Ese orden tiene importancia a la hora de
    poner en correspondencia las conexiones de un modelo usado con
    las de la definición.

    Para construir un modelo que nos ayude en la toma de
    decisiones, debemos de lograr entender:

    a. Los motivos para su construcción y las
    relaciones existentes dentro y fuera de la
    organización, en sí todo su
    entorno.

    b. El tipo de tecnología existente en la
    organización, el sistema de comunicación y los
    controles de que dispone.

    c. La forma de trabajo de
    la organización, y la metodología de solución que
    apliquen a los eventos
    cotidianos.

    d. Las restricciones existentes en el trabajo de la
    organización y factibilidad de
    sustituir algunas de éstas.

    B. NFORMATICA.

    1. Generalidades.

    La palabra "Informática" está compuesta
    por los vocablos información y automatización, y fue empleada por primera
    vez en el año 1962 por Philipe Dreyfus. Se refiere al
    conjunto de técnicas
    destinadas al tratamiento lógico y automático de la
    información, con el fin de obtener una mejor toma de
    decisiones. Surgió por el impulso del hombre del formular
    nuevos postulados y desarrollar técnicos que le
    permitieran satisfacer la creciente necesidad de
    información para la toma de decisiones.

    La informática se desarrolla con base a normas,
    procedimientos
    y técnicas definidas por institutos establecidos a nivel
    nacional e internacional.

    La informática es el campo que se encarga del
    estudio y aplicación practica de la tecnología,
    métodos, técnicas, y herramientas relacionadas con
    las computadoras y el manejo de la información por
    medios
    electrónicos, el cual comprende las áreas de la
    tecnología de información orientadas al buen uso y
    aprovechamiento de los recursos computacionales para asegurar que
    la información de las organizaciones
    fluya de manera oportuna, veraz y confiable. Además, es el
    proceso metodológico que se desarrolla de manera
    permanente en las organizaciones para el análisis,
    evaluación, selección,
    implementación y actualización de los recursos
    humanos, tecnológicos, materiales y
    financieros, encaminados al manejo de la información,
    buscando que no se pierdan los propósitos de calidad,
    confiabilidad, oportunidad, integridad y veracidad, entre otros
    propósitos.

    2. Definiciones.

    • "Conjunto de conocimientos científicos y
      técnicos que se ocupan del tratamiento de la
      información por medio de ordenadores
      electrónicos".
    • "Conjunto de conocimientos científicos y
      técnicas que hacen posible el tratamiento
      automático de la información por medio de
      ordenadores electrónicos".
    • "La Informática, es el estudio del tratamiento
      de la información en general y, particularmente, del
      tratamiento automático de la información
      utilizando computadoras".
    • "Ciencia del
      tratamiento racional, particularmente por máquinas
      automáticas, de la información considerada como
      el soporte de conocimientos humanos y de comunicaciones en los
      aspectos técnico, económico y social. Conjunto de
      disciplinas científicas y de técnicas
      especialmente aplicables al tratamiento de datos efectuado por
      medios
      automáticos".

    3. Antecedentes.

    Uno de los primeros dispositivos mecánicos para
    contar fue el ábaco,
    cuya historia se remonta a las antiguas civilizaciones griega y
    romana.

    Otros dispositivos fueron la Pascalina por Balicé
    Pascal y la
    maquina de Gottfried Wilhelm Von Leibniz. Con estas maquinas, los
    datos se representaban mediante las posiciones de los engranajes
    y se introducían manualmente estableciendo las posiciones
    finales de las ruedas de manera similar a como leemos los
    números en el cuenta kilómetros de un
    automóvil.

    La primera computadora fue la maquina analítica
    creada por Charles Babbage, profesor
    matemático de la Universidad de
    Canbridge en el siglo XIX. La idea que tuvo Charles Babbage sobre
    un computador
    nació debido a que la elaboración de las tablas
    matemáticas era un proceso tedioso y
    propenso a errores. Mientras tanto Charles Jacquard
    (francés), fabricante de tejidos,
    había creado un telar que podía reproducir
    automáticamente patrones de tejidos leyendo la
    información codificada en patrones de agujeros perforados
    en tarjetas de papel
    rígido. Al enterarse de este método,
    Babbage abandono la maquina de diferencias y se dedico al
    proyecto de
    una maquina analítica que se pudiera programar con
    tarjetas perforadas para efectuar cualquier calculo con una
    precisión de 20 dígitos. La tecnología de la
    época no bastaba para hacer realidad sus ideas. El mundo
    no estaba listo, y no estaría por cien años mas. En
    1944 se construyo en la Universidad de Harvard la Mark I,
    diseñada por un equipo encabezado por Howard H.
    Aiken.

    Esta maquina no esta considerada como computadora
    electrónica debido a que no era de
    propósito general y su funcionamiento estaba basado en
    dispositivos electromecánicos llamados
    reveladores.

    En 1947 se construyo en la Universidad de Pennsylvania
    la ENAC (Electronic Numerical Integrator And Calculator) que fue
    la primera computadora electrónica. El equipo de
    diseñado lo encabezaron los ingenieros John Mauchly y John
    Eckert. Esta maquina ocupaba todo un sotano de la Universidad,
    tenia mas de 18,000 tubos de vació, consumía 200 KW
    de energía eléctrica y requería todo un
    sistema de aire
    acondicionado, pero tenia la capacidad de realizar cinco mil
    operaciones
    aritméticas en un segundo. El proyecto, auspiciado por el
    departamento de Defensa de los Estado Unidos,
    culmino dos años después, cuando se integro a ese
    equipo el ingeniero y matemático húngaro John
    Von Neumann.
    Las ideas de Von Neumann resultaron tan fundamentales para su
    desarrollo posterior, que es considerado el padre de las
    computadoras.

    La EDVAC (Electronic Discrete Variable Automatic
    Computer) fue diseñada por este nuevo equipo. Tenia
    aproximadamente cuatro mil bulbos y usaba un tipo de memoria basado en
    tubos llenos de mercurio por donde circulaban señales
    eléctricas sujetas a retardos. La idea fundamental de Von
    Neuman fue permitir que en la memoria
    coexistan datos con instrucciones, para que entonces la computadora
    pueda ser programada en un lenguaje, no por medio de alambres que
    electrónicamente interconectaban varias secciones de
    control, como en la ENAC.

    Todo este desarrollo de las computadoras se clasifica
    por generaciones; el criterio que se determino para marcar el
    cambio de generación no esta muy bien definido, aunque
    resulta evidente que deben cumplirse al menos los siguientes
    requisitos: la forma en que están construidas y la forma
    en que el ser humano se comunica con ellas.

    a. Primera Generación (1951 a 1958).

    Las computadoras de la primera generación
    emplearon bulbos para procesar la información, eran mucho
    más grandes y generaban más calor que los
    modelos contemporáneos.

    b. Segunda Generación (1959 a 1964).

    El invento del transistor hizo
    posible una nueva generación de computadoras, mas
    rápidas, mas pequeñas y con menores necesidades de
    ventilación, utilizaban redes de núcleos,
    magnéticos, estos núcleos contenían
    pequeños anillos de materia
    magnético, enlazados entre si, en los cuales podían
    almacenarse datos e instrucciones.

    c. Tercera Generación (1964 a 1971).

    Las computadoras de la tercera generación
    emergieron con el desarrollo de los circuitos
    integrados (pastillas de silicio en las cuales se colocan
    miles de componentes electrónicos), en una
    integración en miniatura. Las computadoras nuevamente se
    hicieron mas pequeñas, mas rápidas,
    dependían menos calor y eran energéticamente mas
    eficientes y trabajaban a tal velocidad que
    proporcionaban la capacidad de correr mas de un programa de
    manera simultanea (multiprogramación).

    d. Cuarta Generación (1972 a 1982).

    En esta generación aparecieron los microprocesadores, un gran adelanto de la
    microelectrónica: son circuitos
    integrados de alta densidad y con
    una velocidad impresionante. Las microcomputadoras con base en
    estos circuitos son extremadamente pequeñas y baratas, por
    lo que su uso se extiende al mercado industrial. Aquí
    nacieron las computadoras personales que han adquirido
    proporciones enormes y que han influido en la sociedad en
    general y sobre la llamada "Revolución
    Informática".

    e. Quinta Generación (1983 – al
    presente).

    • Inteligencia artificial: La inteligencia
      artificial es el campo de estudio que trata de aplicar los
      procesos del pensamiento
      humano usados en la solución de problemas a la
      computadora.
    • Robótica: La robótica es el arte y ciencia
      de la creación y empleo de
      robots. Un robot es un sistema de computación
      híbrido independiente que realiza actividades
      físicas y de cálculo.
    • Sistemas Expertos: Un sistema experto es una
      aplicación de inteligencia
      artificial que usa una base de conocimiento
      de la experiencia humana para ayudar a la resolución de
      problemas.
    • Redes de Comunicación: Los canales de
      comunicación que interconectan terminales y computadoras
      se conocen como redes de comunicaciones; es decir, todo el
      "Hardware" que
      soporta las interconexiones y todo el "Software" que administra
      la transmisión.
    • Tecnologías futuras: La tecnología de
      los microprocesadores y de la fabricación de circuitos
      integrados esta cambiando rápidamente. Los
      microprocesadores complejos contienen unos 10 millones de
      transistores.
      Se pronostica que en el 2010 los microprocesadores avanzados
      contendrán unos 800 millones de
      transistores.

    f. Pioneros.

    La historia del desarrollo informático registra
    un grupo de
    científicos y estudiosos que destacan por sus aportes y
    legados:

    • Blaise Pascal, quien construyo la primera maquina
      sumadora y soluciono el problema del acarreo de
      dígitos.
    • Gottfried Wilhelm Leibniz fue la persona que
      demostró las ventajas de utilizar el sistema
      binario en lugar del decimal en las computadoras
      mecánicas, invento y construyo una maquina
      aritmética que realizaba las cuatro operaciones
      básicas y calculaba raíces cuadradas.
    • Joseph Marie Jacquard invento y utilizo las tarjetas
      perforadas para dirigir el funcionamiento de un
      telar.
    • Charles Babbage diseño la primera computadora
      automática llamada maquina analítica.
    • George Boole fue el creador de la lógica
      simbólica o álgebra
      booleana que hoy utilizan todas las computadoras.
    • Augusta Ada Byron fue la primera programadora de la
      historia.
    • Herman Hollerith fue quien primero uso las tarjetas
      perforadas como un instrumento de conteo
      rápido.
    • Norbet Wiener, conocido como el "el padre de la
      cibernética", fue quien estableció
      las bases de la cibernética moderna.
    • John Von Neumann diseño la primera computadora
      de cinta magnética, fue el primero en usar la
      aritmética binaria en una computadora electrónica
      y afirmo que los programas, al
      igual que los datos, se pueden almacenar en
      memoria.

    4. Componentes.

    a. Hardware.

    Es el conjunto de elementos físicos,
    electrónicos y electromagnéticos, que proporcionan
    capacidad de cálculos y funciones rápidas, exactas
    y efectivas (computadoras, censores, maquinarías, lectores
    y circuitos), que proporcionan una función
    externa dentro de los sistemas.

    Se conoce con éste nombre, a todo aquel equipo
    físico de una computadora, Es lo tangible, todo lo que
    podemos tocar.

    Pueden incorporarse en una sola unidad, o estar por
    separado.

    El hardware de una computadora debe realizar cuatro
    tareas vitales que son:

    • Entrada: El usuario ingresa los datos e
      instrucciones en la computadora, utilizando; por ejemplo el
      teclado.
    • Procesamiento: La computadora procesa o manipula
      esas instrucciones o datos.
    • Salida: La computadora comunica sus resultados al
      usuario; por ejemplo, desplegando la información en un
      monitor, o
      imprimiéndola.
    • Almacenamiento Secundario: La computadora coloca la
      información en un almacenado electrónico del
      que puede recuperarse más tarde.

    b. Software:

    Son instrucciones codificadas electrónicamente
    (programas) que dirigen a la computadora para realizar ciertas
    tareas, y los programas utilizados para dirigir las funciones de
    un sistema computacional.

    El software se divide en otras ramas que son:

    • SISTEMAS OPERATIVOS: son todos aquellos programas que
      controlan todas las actividades de una computadora. Sin un
      sistema
      operativo una computadora es inservible.
    • LENGUAJES DE PROGRAMACIÓN: son un conjunto de
      reglas e instrucciones mediante el cual se construye un
      programa que la computadora pueda interpretar.
    • PROGRAMAS DE APLICACIÓN (paquetes). Son un
      conjunto de instrucciones en secuencia lógica, escritas
      en un lenguaje de
      programación, cuyo objetivo es
      realizar alguna función específica para la cual
      se ha programado.

    5. Evolución.

    a. POO (OOP).

    Programación orientada a objetos (object oriented
    programming) es un concepto revolucionario que cambió las
    reglas en el desarrollo de programas. OOP está
    estructurada con base en "objetos" en vez de acciones; datos en
    vez de lógica. Históricamente, un programa se
    veía como un procedimiento
    lógico que tomaba datos de entrada, los procesaba y
    producía datos de salida. El reto en programación era cómo escribir esta
    lógica y no como definir los datos.

    La programación
    orientada a objetos se fundamenta en que lo que realmente nos
    interesa son los objetos que queremos manipular y no la
    lógica requerida para manipularlos. A manera de ejemplo,
    se pueden considerar objetos desde las personas (descritos por la
    el nombre, dirección, teléfono, etc.) hasta edificios y pisos
    (cuyas propiedades se pueden describir y administrar) y hasta los
    pequeños dispositivos en un computador.

    b. E- Business.

    Negocios electrónicos, derivado de
    términos como e-mail, es conducir negocios por la
    Internet, no solo compra y venta, sino
    también brindando servicio a clientes y
    colaborando con los socios de negocios. El primero que
    utilizó este término fue IBM en 1997 cuando
    lanzó una campaña temática alrededor de
    éste. Hoy, la mayoría de las corporaciones
    están repensando sus negocios en términos de la
    Internet y su nueva cultura y
    capacidades. Las empresas están utilizando la Internet
    para comprar partes y suministros de otras empresas, colaborar en
    promociones de ventas, y
    hacer investigación conjunta. La explotación de la
    conveniencia, disponibilidad y alcance global de la Internet hace
    que muchas empresas como Amazon.com hayan descubierto como
    utilizar la Internet en forma exitosa.

    c. E-Commerce.

    Es la compra y venta de productos y servicios en la
    Internet, especialmente por la Web. Este término y uno mas
    nuevo, e-business,
    por lo general son utilizados en forma intercambiada. Para la
    venta al detal en línea también se utiliza el
    término

    e-tailing.

    E-Commerce se puede dividir en:

    • E-Tailing o tiendas virtuales en sitios Web con
      catálogos en línea, algunas veces amalgamados en
      un centro comercial virtual
    • El acopio y uso de información
      demográfica a través de contactos en la
      Web
    • Intercambio electrónico de datos (EDI), el
      intercambio electrónico de datos entre
      empresas.
    • Correo electrónico y fax en su
      uso como medio para llegar a prospectos y clientes
      establecidos, por ejemplo, con boletines
      electrónicos,
    • Compra y venta entre negocios
    • La seguridad de
      las transacciones electrónicas

    d. EDI.

    Electronic Data Interchange, Intercambio
    electrónico de datos, es un formato estándar para
    intercambiar información de negocios. El estándar
    es ANSI X12 y se desarrolló por el Data Interchange
    Standards Association. Este estándar está
    coordinado y en vías de migración
    hacia el EDIFACT.

    Un mensaje EDI contiene una serie de elementos de datos,
    cada uno representando un hecho concreto, como
    el precio, modelo
    del producto, etc., separados por un delimitador. El conjunto
    completo se conoce como el segmento. Uno o más segmentos
    enmarcados en un encabezado y un mensaje de cola conforman un set
    transaccional, la unidad de transmisión del EDI
    (equivalente a un mensaje.) Un set de transacciones consiste de
    lo que normalmente se compondría un documento o formato de
    negocios.

    e. Internet.

    Es una red de
    comunicación global de computadoras interconectadas y de
    rápido crecimiento. Juntos, esos millones de computadoras
    interconectadas forman un gran almacén de
    información hipé reenlazada. Internet es el
    resultado de unos estándares que fueron creados
    originalmente por el gobierno de los
    Estados Unidos
    y que han sido adoptados por organizaciones de todo el mundo.
    Proporciona un sistema que permite a las computadoras de
    cualquier lugar comunicarse con otras, independientemente de
    quien las haya fabricado o del tipo de software que
    ejecuten.

    Internet es a menudo llamada "la superautopista de la
    información" y por buenas razones. Se puede tener una idea
    de la estructura de
    Internet fijándose en el sistema de autopistas de los
    Estados Unidos. Hay varios sistemas de autopistas principales que
    cruzan el país, que se conectan con otras autopistas y
    otras carreteras secundarias más lentas. Internet funciona
    de forma similar. Las principales compañías, como
    AT&T, Sprint y MCI, han construido canales de
    comunicación de alta velocidad que cruzan el país
    (o rodean la Tierra). De
    estas líneas principales salen rutas secundarias a las
    ciudades más importantes y de estas parten enlaces a
    proveedores de servicios locales y comerciales.

    El origen de la red actual son los cables
    ópticos instalados por las principales
    compañías de comunicación, con la ayuda de
    organismos de gobierno.

    Además, Internet es un sistema de
    comunicación compartido, lo que significa que pueden tener
    lugar varias sesiones de comunicación diferentes sobre la
    misma línea y al mismo tiempo. En
    cambio, una llamada telefónica consiste en un circuito
    único que solamente la utiliza la persona que llama y a la
    que se llama, por lo cual, la conexión solamente dura el
    tiempo de llamada. En Internet, la información se divide
    en trozos, y estos se colocan en paquetes. Los paquetes se
    dirigen a una computadora destino y se envían a
    través de Internet. Los dispositivos llamados
    enrruteadores se aseguran que los paquetes se envíen por
    los mejores caminos para llegar a su destino.

    Servicios de Internet

    A continuación se muestran los servicios que
    proporciona la súper autopista denominada Internet y que
    se describen muy brevemente:

    • Correo Electrónico:
      • El correo
        electrónico se ha convertido en uno de los
        servicios de INTERNET mas ampliamente utilizados; aunque el
        correo electrónico se diseño originalmente
        para la comunicación entre dos personas, se ha
        ampliado y proporciona un medio de comunicación
        entre los miembros de un grupo y permite la
        comunicación con un grupo de
        computadoras.
    • Servicio de Noticias.
      • Dado que el software para noticias en red no
        notifica en forma automática al usuario cuando hay
        un nuevo articulo en un grupo de discusión, el
        usuario que participa en un grupo debe acordarse de
        verificar con regularidad si han aparecido nuevos
        artículos.
      • El software para noticias en red cuenta con
        información que permite determinar que
        artículos han leído cada usuario.
    • Transferencia de Archivos (FTP
      ).
      • Este permite al usuario transferir copia de un
        archivo de
        datos de una computadora a otra a través de
        INTERNET.
    • Acceso Remoto (Telnet).
      • Un servicio de acceso remoto permite que el
        usuario interactúe con programas de
        aplicación que corran en una computadora ubicada en
        otro sitio.
    • Búsqueda de Información.
      • Un servicio de rastreo de información
        permite que una persona localice y evalúe
        información en computadoras remotas. El rastreo
        difiere de la recuperación de información, ya
        que éste no requiere que el usuario recupere
        archivos de datos para determinar su contenido.
    • Bibliotecas Virtuales.
      • Son servicios de búsqueda de
        información mediante herramientas de que automatizan
        encontrar los temas de nuestro
        interés. 

    7. Otros aspectos importantes.

    7.1) Las Computadoras

    Una computadora es una maquina que puede ejecutar
    operaciones aritméticas, puede escoger, copiar, mover,
    comparar y ejecutar otras operaciones no aritméticas,
    con los diversos símbolos alfabéticos,
    numéricos y otros que usan los humanos para representar
    objetos. La computadora maneja estos símbolos de una
    forma deseada, siguiendo un mapa intelectual llamado
    PROGRAMA.

    Un programa, es un detallado conjunto de instrucciones
    preparado por humanos para dirigir a la computadora y que esta
    funcione de manera que produzca el resultado
    deseado.

    Una computadora, es un rápido y exacto sistema
    de manipulación de símbolos electrónicos o
    datos, diseñado y organizado para aceptar y almacenar
    datos automáticamente, procesarlos y producir resultados
    de salida bajo la dirección de un programa almacenado de
    instrucciones detalladas paso a paso.

    La computadora realiza un paso a la vez. Puede sumar y
    restar números, comparar letras para determinar
    secuencias alfabéticas, mover y copiar números y
    letras.

    La velocidad de las computadoras es medida en unidades
    de milisegundos (ms), microsegundos (Ms), nanosegundos (ns) y
    picosegundos (ps), el tiempo requerido para que una computadora
    ejecute una operación básica.

    La ventaja de esta velocidad es que los humanos
    quedamos excepto de hacer cálculos y podemos distribuir
    nuestro tiempo con fines mas útiles.

    Las computadoras, además de ser muy
    rápidas, también son muy exactas. Se estima que
    con una calculadora el usuario puede tener un error en cada 500
    o 1000 operaciones. Pero en una computadora no, porque los
    circuitos, no requieren intervención humana entre
    operaciones de procesamiento y no tienen partes
    mecánicas que se desgasten y funcionen mal.

    Estos circuitos pueden ejecutar cientos de miles de
    operaciones cada segundo y pueden correr sin errores por horas
    y días, sin interrupción. Además de esto,
    las computadoras tienen como parte de su estructura la
    capacidad de autocomprobación que les permite verificar
    la exactitud de sus operaciones internas.

    Si los datos introducidos a la computadora son
    correctos, y si el programa de instrucciones de procesamiento
    es confiable, entonces, generalmente pueden ser rastreados
    hacia datos incorrectos de entrada o programas no confiables y
    ambos son usualmente causados por los humanos y no por las
    computadoras.

    C. SISTEMAS.

    1. Generalidades.

    El concepto de sistema en general está sustentado
    sobre el hecho de que ningún sistema puede existir aislado
    completamente y siempre tendrá factores externos que lo
    rodean y pueden afectarlo, por lo tanto podemos referir a Muir
    citado en Puleo (1985) que dijo: "Cuando tratamos de tomar algo,
    siempre lo encontramos unido a algo más en el
    Universo".

    La palabra "sistema" tiene muchas connotaciones: un
    conjunto de elementos interdependientes e ínteractuantes;
    un grupo de unidades combinadas que forman un todo organizado y
    cuyo resultado (output) es mayor que el resultado que las
    unidades podrían tener si funcionaran independientemente.
    El ser humano, por ejemplo, es un sistema que consta de un
    número de órganos y miembros, y solamente cuando
    estos funcionan de modo coordinado el hombre es eficaz.
    Similarmente, se puede pensar que la organización es un
    sistema que consta de un número de partes interactuantes.
    Por ejemplo, una firma manufacturera tiene una sección
    dedicada a la producción, otra dedicada a las ventas, una
    tercera dedicada a las finanzas y
    otras varias. Ninguna de ellas es más que las otras, en
    sí. Pero cuando la firma tiene todas esas secciones y son
    adecuadamente coordinadas, se puede esperar que funcionen
    eficazmente y logren las utilidades. "El concepto de sistema
    pasó a dominar las ciencias, y
    principalmente, la
    administración. Si se habla de astronomía, se piensa en el sistema solar; si
    el tema es fisiología, se piensa en el sistema nervioso,
    en el sistema
    circulatorio, en el sistema digestivo.

    Aun cuando los sistemas de información basados en
    las computadoras emplean tecnología de computación
    para procesar datos en información significativa, existe
    una deferencia profunda entre una computadora y un programa de
    computadora, y un sistema de información. Las computadoras
    electrónicas y sus programas relativos de software son los
    fundamentos técnicos, las herramientas y los materiales de
    los modernos sistemas de información. Las computadoras
    constituyen el equipo para almacenar y procesar la
    información. Los programas de computadoras o software, son
    conjuntos de
    instrucciones operativas que dirigen y controlan el procesamiento
    mediante computadora. Saber cómo trabajan las computadoras
    y los programas de cómputo es importante para el
    diseño de soluciones a los problemas de la
    institución, pero la razón de emplearlas de deriva
    del sistema de información del que las computadoras
    sólo son una parte.

    2. Definiciones.

    • "Conjunto de cosas que
      ordenadamente relacionadas entre sí contribuyen a
      determinado objeto".
    • "Un conjunto de entidades caracterizadas por ciertos
      atributos, que tienen relaciones entre sí y están
      localizadas en un cierto ambiente, de acuerdo con un cierto
      objetivo".
    • "Es una red de procedimientos relacionados entre si y
      desarrollados de acuerdo con un esquema integrado para lograr
      una mayor actividad de las empresas".
    • "Es un ensamble de partes unidas por inferencia y que
      se lleva acabo por las empresas para lograr el objetivo de la
      misma".

    3. Antecedentes.

    La teoría de
    sistemas (TS) es una rama específica de la teoría general
    de sistemas (TGS).

    La TGS surgió con los trabajos del alemán
    Ludwig von Bertalanffy, publicados entre 1950 y 1968. La TGS no
    busca solucionar problemas o intentar soluciones
    prácticas, pero sí producir teorías y
    formulaciones conceptuales que pueden crear condiciones de
    aplicación en la realidad
    empírica.

    Los supuestos básicos de la TGS son:

    • Existe una nítida tendencia hacia la
      integración de diversas ciencias
      naturales y sociales.
    • Esa integración parece orientarse rumbo a un
      teoría de sistemas.
    • Dicha teoría de sistemas puede ser una manera
      más amplia de estudiar los campos no-físicos del
      conocimiento
      científico, especialmente en ciencias
      sociales.
    • Con esa teoría de los sistemas, al desarrollar
      principios unificadores que atraviesan verticalmente los
      universos particulares de las diversas ciencias involucradas,
      nos aproximamos al objetivo de la unidad de la
      ciencia.
    • Esto puede generar una integración muy
      necesaria en la
      educación científica.
    • La TGS afirma que las propiedades de los sistemas, no
      pueden ser descritos en términos de sus elementos
      separados; su comprensión se presenta cuando se estudian
      globalmente.

    La TGS se fundamenta en tres premisas
    básicas:

    • Los sistemas existen dentro de sistemas: cada sistema
      existe dentro de otro más grande.
    • Los sistemas son abiertos: es consecuencia del
      anterior. Cada sistema que se examine, excepto el menor o
      mayor, recibe y descarga algo en los otros sistemas,
      generalmente en los contiguos. Los sistemas abiertos se
      caracterizan por un proceso de cambio infinito con su entorno,
      que son los otros sistemas. Cuando el intercambio cesa, el
      sistema se desintegra, esto es, pierde sus fuentes de
      energía.
    • Las funciones de un sistema dependen de su
      estructura: para los sistemas biológicos y
      mecánicos esta afirmación es intuitiva. Los
      tejidos musculares por ejemplo, se contraen porque están
      constituidos por una estructura celular que permite
      contracciones.

    El interés de la TGS, son las
    características y parámetros que establece para
    todos los sistemas. Aplicada a la administración la TS, la empresa se ve como
    una estructura que se reproduce y se visualiza a través de
    un sistema de toma de decisiones, tanto individual como
    colectivamente.

    Desde un punto de vista histórico, se verifica
    que:

    • La teoría de la administración científica
      usó el concepto de sistema hombre-máquina, pero
      se limitó al nivel de trabajo fabril.
    • La teoría de las relaciones
      humanas amplió el enfoque hombre-máquina a
      las relaciones entre las personas dentro de la
      organización. Provocó una profunda
      revisión de criterios y técnicas
      gerenciales.
    • La teoría estructuralista concibe la empresa
      como un sistema social, reconociendo que hay tanto un sistema
      formal como uno informal dentro de un sistema total
      integrado.
    • La teoría del comportamiento trajo la
      teoría de la decisión, donde la empresa se ve
      como un sistema de decisiones, ya que todos los participantes
      de la empresa toman decisiones dentro de una maraña de
      relaciones de intercambio, que caracterizan al comportamiento
      organizacional.
    • Después de la segunda
      guerra mundial, a través de la teoría
      matemática se aplicó la
      investigación operacional, para la resolución de
      problemas grandes y complejos con muchas variables.
    • La teoría de
      colas fue profundizada y se formularon modelos para
      situaciones típicas de prestación de servicios,
      en los que es necesario programar la cantidad óptima de
      servidores para una esperada afluencia de clientes.

    Las teorías tradicionales han visto la
    organización humana como un sistema cerrado. Eso a llevado
    a no tener en cuenta el ambiente, provocando poco desarrollo y
    comprensión de la retroalimentación (feedback), básica
    para sobrevivir.

    El enfoque antiguo fue débil, ya que 1)
    trató con pocas de las variables significantes de la
    situación total y 2) muchas veces se ha sustentado con
    variables impropias.

    El concepto de sistemas no es una tecnología en
    sí, pero es la resultante de ella. El análisis de
    las organizaciones vivas revela "lo general en lo particular" y
    muestra, las propiedades generales de las especies que son
    capaces de adaptarse y sobrevivir en un ambiente típico.
    Los sistemas vivos sean individuos o organizaciones, son
    analizados como "sistemas abiertos", que mantienen un continuo
    intercambio de materia/energía/información con el
    ambiente. La TS permite reconceptuar los fenómenos dentro
    de un enfoque global, para integrar asuntos que son, en la
    mayoría de las veces de naturaleza completamente
    diferente.

    Partes: 1, 2

    Página siguiente 

    Nota al lector: es posible que esta página no contenga todos los componentes del trabajo original (pies de página, avanzadas formulas matemáticas, esquemas o tablas complejas, etc.). Recuerde que para ver el trabajo en su versión original completa, puede descargarlo desde el menú superior.

    Todos los documentos disponibles en este sitio expresan los puntos de vista de sus respectivos autores y no de Monografias.com. El objetivo de Monografias.com es poner el conocimiento a disposición de toda su comunidad. Queda bajo la responsabilidad de cada lector el eventual uso que se le de a esta información. Asimismo, es obligatoria la cita del autor del contenido y de Monografias.com como fuentes de información.

    Categorias
    Newsletter