- Identificación del
problema - Planteamiento del
problema - Justificación del
problema - Marco teórico sobre
modelo, informática, sistemas, auditoria en
informática, pruebas de software - Hipótesis
- Operacionalización
de la hipótesis general - Plan de
solución - Descripción
capitular - Metodología
de la investigación - Presupuesto de
tesis - Cronograma de
tesis - Bibliografía
I. IDENTIFICACION DEL PROBLEMA.
En que medida la falta de un Modelo para Pruebas de
Software y auditoria en Entorno Microsoft.Net, afecta los
sistemas de
información de la mediana empresa del
sector servicio en el
área metropolitana de San Salvador.
II. PLANTEAMIENTO DEL
PROBLEMA.
Hoy en día en que las comunicaciones
y los sistemas de
información han evolucionada tanto, para
nadie es desconocido el potencial que Microsoft tiene y ejerce
sobre las empresas y su
información a nivel mundial ya que brinda una gama de
productos como
sistemas
operativos, navegadores,
sistemas de correos, procesadores de
texto y paquetes más específicos para
desarrollar aplicaciones.
Microsoft no quiere rendirse. Su último golpe de
efecto lleva por nombre Microsoft .Net y es la estrategia con la
que la compañía de Redmond pretende transformar y
dominar Internet durante los
próximos diez años con el permiso de la justicia
estadounidense y, por supuesto, la complicidad de los
usuarios.
Como ultima innovación de Microsoft tenemos
Microsoft .NET
Que es la plataforma de Microsoft para servicios
Web XML, la siguiente
generación de software que conecta nuestro mundo de
información, dispositivos y personas de una manera
unificada y personalizada.
La Plataforma .NET permite la creación y uso como
servicios de aplicaciones, procesos y
sitios Web basados en XML, que compartan y combinen
información y funcionalidad entre ellos por diseño,
en cualquier plataforma o dispositivo inteligente, para proveer
soluciones a
la medida de las empresas.
Con base en los estándares abiertos de Internet,
Microsoft .NET es la plataforma de servicios Web XML para
potenciar aplicaciones, servicios y dispositivos a fin de que
trabajen juntos para permitir el acceso y acción
a la información en cualquier momento, en todo
lugar y desde cualquier dispositivo; proporcionando desarrollo
simplificado y experiencias ricas de usuario, así como
oportunidades sin precedentes para los
negocios.
Es por eso que en nuestro medio las medianas empresas
están casi sujetas a Microsoft y sus aplicaciones, debido
a que son las más accesibles por lo que es indispensable
un modelo para
pruebas automáticas y auditoria de las aplicaciones
desarrolladas en dicha plataforma, para estar seguros que las
aplicaciones desarrolladas en Microsoft. Net brinden sistemas de
información confiable, segura para la toma de
decisiones.
La creciente necesidad que las empresas tienen para
manejar los sistemas de información de una manera
más eficiente, las empuja a buscar tecnologías de
última generación, pero a la vez, que sean
accesibles a sus recursos
financieros y técnicos, es por eso que las soluciones que
Microsoft a ofrecido durante más de una década son
ampliamente aceptadas en nuestro medio y la convierte en una de
las herramientas
más populares y conocidas.
Ante el surgimiento de éstas nuevas
tecnologías integradas para desarrollar aplicaciones
nos encontramos ante un reto, de demostrar que los sistemas de
información de las empresas dan como resultado
información confiable y oportuna.
Por lo que nosotros proponemos el desarrollo de un
modelo para pruebas automáticas y auditorias de
software en entorno Microsoft.Net.
Con éste modelo, pretendemos proporcionar a las
medianas empresas una herramienta confiable de prueba y
auditoria, para las aplicaciones desarrolladas en .NET que les de
la pauta para saber y estar seguros, de que sus sistemas de
información les brindaran como resultado
información útil en la toma de sus
decisiones.
III. JUSTIFICACION DEL PROBLEMA.
Tan solo hace 20 años, el mundo seguía
estando en la era mainframe. Pocas personas tenían acceso
a las computadoras,
y entonces solo se hacía a través del departamento
de informática más cercano. La PC y la
interfaz del usuario gráfico cambiaron todo eso,
democratizando la computación para cientos de millones de
personas y transformando la computadora en
un producto de
mercado realmente
masivo. Las corporaciones se dieron cuenta que las redes de PC y servidores
basados en PC podían cambiar la manera en que realizaban
sus negocios.
Entre los consumidores, la PC se estableció
rápidamente como un nuevo medio para entretenimiento en el
hogar. En los últimos 5 años, Internet
revolucionó la manera en la que la gente se comunica,
creó una nueva fuente de información y
entretenimiento, y abrió el mundo del comercio
electrónico. Hoy en día, cerca de 300 millones de
personas en todo el mundo utilizan el Web. De acuerdo con
International Data Corp., más de un cuarto de
trillón de dólares de negocios se operará a
través de Internet este año.
La información que poseen las empresas es un
recurso valioso para el desempeño eficiente y eficaz, sobre todo a
la hora de tomar las decisiones de planificación, inversión, reestructuración,
etc.
Por lo anterior es de vital importancia que los datos que se
obtiene de los sistemas de información, sean lo más
exactos y precisos posibles, esto se convierte en un enorme
problema cuando no existe una herramienta que determine la
confiabilidad del software que se desarrolla o se adquiere, en
especial aquellas empresas que usan las aplicaciones
Microsoft.net.
En los días previos a la presentación de
la estrategia Microsoft .Net, efectuada el pasado jueves 22 de
junio 2003, los directivos de Microsoft lo vendieron como el
anuncio más importante que iba a realizar la
compañía desde hacía cinco
años.
Los cuatro principios sobre
los que Microsoft basa su nueva estrategia son los siguientes:
lograr una mejor experiencia del usuario de manera que
éste tenga el control; la
simplicidad; la utilización de estándares de
Internet (en particular, XML), y la integración empresarial. Además
de diversas tecnologías que deben facilitar la tarea tanto
a usuarios como a desarrolladores, Microsoft .Net supone
también la creación de software específico
para impulsar un nuevo tipo de aparatos inteligentes conectados a
Internet.
En nuestro medio las empresas están sujetas a los
productos Microsoft como por ejemplo: según la empresa
especializada en análisis de audiencia de Internet
WebSideStory, el 86% de los usuarios de Internet
utiliza el navegador de Microsoft, frente
a un escaso 14% que se inclina por el de Netscape ¿Alguien
quiere más poder que
éste?
El navegador se convertirá en la principal
interfaz de usuario (lienzo universal, dicen en Microsoft) para
recibir y utilizar este futuro bombardeo de servicios
digitales.
Por lo consiguiente, las afectadas son todas las
medianas empresas de el sector servicio del área
metropolitana de san salvador, que usan las aplicaciones de
Microsoft.net.
Con el desarrollo de un modelo de pruebas
Automáticas y auditorias para aplicaciones desarrolladas
con la herramienta de Microsoft.net, se busca mejorar la calidad y la
confiabilidad de los sistemas de información, disminuyendo
los costos operativos
y los riesgos de los
sistemas, beneficiando así a las medianas
empresas.
Con el desarrollo de éste modelo se
buscará varios aportes, entre los que se
destacan:
La disminución de los costos en compra o
desarrollo de aplicaciones de óptima calidad, mejorando
así la eficiencia de las
aplicaciones traerá un beneficio
económico.
Dando como resultado sistemas de información
confiables, seguros que den soporte a la toma de decisiones de
las diferentes áreas funcionales de las medianas
empresas.
Facilitando el trabajo a
las empresas ya que ésta es una herramienta no muy
difícil de utilizar, gracias a esto proporciona la
oportunidad de que un buen número de personas desarrollen
aplicaciones de calidad, generando así fuentes de
empleos, dando como resultado un aporte social.
Permite que las personas adquieran conocimientos
más avanzados acerca de la tecnología y sus
aplicaciones brindando así un aporte
académico.
Más allá de solo agregar una interfaz Web
a sus aplicaciones de negocios existentes y esencialmente sin
cambio, estas
transformaciones redefinirán algunas de las suposiciones
básicas de su modelo de negocios. Las
compañías que desean sobrevivir a la
transformación de la economía digital
necesitan prepararse reevaluando sus negocios en vistas de tres
acciones:
Creando una infraestructura conectada. Esto significa
no únicamente extraer el máximo valor de sus
sistemas internos utilizando el rango completo de datos
disponibles a través de esos sistemas de una manera
integrada y coherente, si no que también ampliando esa
infraestructura conectada más allá de las paredes
de su negocio, para sus socios y proveedores.
El flujo integrado de datos a través de todos los
procesos de negocios (sin importar los límites
organizacionales) proporciona una oportunidad importante para
reajustarlos y reinventarlos a fin de lograr aumentos masivos
de eficiencia. Además de las mejoras en los aspectos
principales, existen oportunidades para crear todo un nuevo
negocio que antes no podía concebirse debido a la
fricción entre esas infraestructuras no
integradas.
Microsoft está creando la plataforma .NET para
ayudarle a transformar su negocio y responder a estos
imperativos. Se basa en el modelo de servicios Web XML, el cual
es un crecimiento natural del aumento del poder de
cómputo, la conectividad y el movimiento
hacia estándares que caracterizan a toda la industria de
la tecnología.
Por lo anterior, con el desarrollo de éste modelo
se buscará solucionar el problema de la calidad de las
aplicaciones, a través de la auditoria así como
determinar en que medida dichos problemas,
afectan a los sistemas de información de las medianas
empresas.
A. MODELO.
1. Generalidades.
La construcción de los modelos, no es
una idea nueva; el proceso se
utiliza todos los días con frecuencia en forma
inconsciente, en situaciones de problemas básicos. El uso
de información y el manejo de la incertidumbre, es un
elemento clave para la dirección eficiente en una organización. De igual forma, los
ejecutivos que se enfrentan a situaciones difíciles en las
que deben tomar decisiones para resolver problemas presentes pero
con repercusiones en el futuro; deben elegir entre diversas
estrategias y
cursos de acción. Esto supone la elaboración y uso
de un modelo.
2. Definiciones.
- "Es la abstracción de los sucesos que rodean
un proceso, una actividad, o un problema. Aíslan una
entidad de su entorno de tal manera que pueda examinarse sin el
"ruido" o
perturbación de otras influencias del medio
circundante". - "Es una representación ideal y concreta de un
objeto, de un fenómeno con fines de estudio y
experimentación. Es un concepto de
valores,
creencias y normas de
conducta que
condicionan la actuación y el modo de pensar de
todos". - "Los modelos muestran los pasos de procesamiento,
como los flujos de datos en un sistema; es una
parte intrínseca de varios métodos
de análisis, donde se muestra el
procesamiento de
datos de principio a fin".
- Antecedentes.
Todos los científicos tienen conciencia de que
el propósito fundamental y central del método
científico es crear un modelo. El concepto de
construcción de modelos, en particular en años
recientes, se ha complicado un poco hasta parecer oscuro y, sin
embargo, toda la historia del hombre aun en
sus actividades menos científicas hace patente que
éste es un animal esencialmente orientados a la
construcción de modelos.
Es interesante observar cómo a través de
los siglos el hombre ha
ido desarrollando el concepto de construcción de modelos,
especialmente en torno a un
área que le ha interesado desde sus primeros días
sobre la tierra: el
estudio y pronóstico de los movimientos de estrellas y
planetas. El
descubrimiento de los archivos de las
grandes ciudades de Mesopotamia ha
revelado que desde sus primeros días la
civilización Babilonia preservó de manera legible
grandes cantidades de datos de escrituras cuneiforme, es decir
impresiones en horma de cuña hechas con un instrumento
punzante en arcilla blanda que luego se endurecía en un
horno a fin de preservar lo grabado.
Las primeras tablillas contenían textos acerca de
leyes y
rituales e inventarios de
ganado, esclavos y cosechas. Además aparecían los
nombres de sus deidades, que también eran los nombres de
los cuerpos celestes. Esto evolucionó hasta convertirse en
una serie de observaciones planetarias (es decir, cuadros que se
usaban para predecir movimientos y eclipses de la luna) y textos
de aritmética sobre cómo calcular las posiciones de
los planetas día por día, fechas y horas en que se
ocurrirían terremotos o
azotarían plagas de langostas y otras desastres
naturales.
En todo esto se empezaba a poner de manifiesto la
búsqueda por parte del hombre de cielos recurrentes y
patrones definidos. Todos los seres humanos se plantean preguntas
con respecto a la naturaleza del
Universo en
que viven y una forma de planteamiento es interrogarse si los
seres humanos están sujetos a un patrón determinado
o son simples cautivos en un caos a la deriva. Por tanto, se pude
decir que a historia del hombre es una evolución de la construcción de
modelos, de constante búsqueda de patrones y de
generalización.
Probablemente sea una lástima comentar acerca de
algunos diseños de modelos contemporáneos para la
tomas de decisiones que se hacen las mismas suposiciones; es
decir, que si dos diseños matemáticos conducen al
mismo resultado, se puede suponer que no existe una diferencia
filosófica o administrativa – gerencial entre dichos
diseños.
4. Características:
- El modelo debe ser lo más simple
posible. - El modelo no debe ser incompatible con las teorías establecidas en campos de
estudio relacionados. - El modelo debe ser capaz de predecir
fenómenos que puedan ser comprobados
experimentalmente. - Los modelos hacen que los gerentes reconozcan un
problema o un área de problemas y decidan lo
más adecuado. - Hacen que los gerentes reconozcan los factores del
problema y determinen cuales variables
pueden ser controladas, para que no afecten el
desempeño del sistema. - Obliga a los gerentes a reconocer los costos
significativos y a conocer su magnitud. - Permite a los gerentes a identificar las relaciones
entre los costos y las variables de
decisión. - Permite reconocer importantes alternativas entre
los costos y conocer la investigación general entre las
variables y los costos.
- Clasificación.
Un modelo puede ser tan sencillo como una simple
explicación con palabras, de lo fundamental de una
realidad, a este tipo se le suele llamar Modelo
Verbal.
En otros modelos se usan diagramas en los
que se dibujan de una forma simplificada, los componentes del
sistema señalado, con flechas las acciones de unos sobre
otros, son Modelos Gráficos. Algunos pueden ser muy
esquemáticos, pero cuando en cada flecha se indica el tipo
de acción que tiene lugar y se señalan diferentes
compartimentos y tipos de interacción, pueden llegar a ser muy
complicados.
5.1. Modelos físicos.
Los Modelos físicos se dividen en:
a. Modelos icónicos
Representan la unidad estudiada en cuanto a su
apariencia y en cuanto a sus funciones. Con
frecuencia son versiones a escala reducida
a lo real, como por ejemplo: aviones de escala, maquetas de
edificios y paisajes como los que emplean los ingenieros,
diseñadores y arquitectos.
b. Modelo Analógico.
Exhibe el comportamiento de la entidad real del que esta
siendo estudiada pero no tiene el mismo aspecto. Los modelos
analógicos son mucho más abstractos que los
modelos íconos.
5.2. Modelos simbólicos.
Los modelos simbólicos se dividen en:
a. Modelo Narrativo.
Es una descripción por medio del lenguaje de
las relaciones que existen en un proceso o en un
sistema.
b. Modelos Gráficos.
Describe partes o pasos de una entidad o proceso
mediante una representación grafica. Un diagrama de
flujo, que se usa en el desarrollo de las aplicaciones de
las computadoras, simboliza los sucesos, las acciones, y
muestra el orden o la secuencia que debe seguir en el caso de
que cierta acción deba ser ejecutada, o un problema
especifico deba ser resuelto.
c. Modelos Matemáticos.
Son mucho mas rigurosos que los anteriores y se valen
de variables cuantitativas (Formulas) para representar las
partes de un proceso o de un proceso o de un
sistema.
5.3. Modelos de comunicación.
El modelo de comunicación se divide
en:
a. Modelo Lineal de Pasqualí
La comunicación es lineal porque se dirige
hacia delante y al hecho de que no puede hacerse retroceder una
palabra ya emitida.
b. Modelo Circular
La comunicación circular se expresa en dos
funciones:
- Lo que comunicamos y el modo de hacerlo la altera
para el futuro - La comunicación circular, retrocede hasta
llegar al punto de partida, pudiendo restringir y
obstaculizar futuras comunicaciones.
c. Modelo helicoidal de Dance
El helicoide combina los rasgos deseables de la
línea recta y del círculo, evitando a la vez los
puntos débiles de ambos. El helicoide presenta una
variedad bastante atractiva de posibilidades de dar forma
grafica a los aspectos patológicos de la
comunicación.
d. Modelo Análogo
Se recurre a la similitud que se puede establecer
entre una variable de interés,
y una variable a la cual se puede recurrir para su
presentación análoga.
6. Importancia de los modelos.
La importancia de los modelos esta fundamentada en dos
ventajas que guardan estrecha relación entre si, pero que
no son idénticas.
La primera es el ahorro en la
presentación y en la búsqueda. Así, es mas
barato representar visualmente el plano de una fábrica o
de un sistema de
información administrativa que construir uno, y
también hacer modificaciones de ese sistema mediante
rediseño.
La segunda consiste en que los modelos permiten analizar
y experimentar situaciones tan complejas en una forma que
resultaría imposible si se reprodujera el sistema y su
ambiente
real.
Uso de los modelos
Para usar un modelo hay que incorporar el objeto
gráfico correspondiente y conectarlo adecuadamente al
resto del circuito.
La correspondencia entre los modos del modelo usado y de
la definición tiene que ver con el orden en el que
aparecen.
Hay previsto un sólo símbolo; pero hay
muchas posibilidades en cuanto a su significado.
Un modelo puede ser predictivo sin ser necesariamente
explicativo, pero un modelo explicativo, forzosamente tiene que
ser predictivo. Un modelo meramente predictivo opera dentro de
márgenes muy estrechos, no conduce a una
comprensión ni tampoco brinda ningún medio para
controlar, cuando la lógica
fundamental del mismo ha cambiado significativamente.
Los puntos de conexión de un modelo se consideran
en determinado orden. Ese orden tiene importancia a la hora de
poner en correspondencia las conexiones de un modelo usado con
las de la definición.
Para construir un modelo que nos ayude en la toma de
decisiones, debemos de lograr entender:
a. Los motivos para su construcción y las
relaciones existentes dentro y fuera de la
organización, en sí todo su
entorno.
b. El tipo de tecnología existente en la
organización, el sistema de comunicación y los
controles de que dispone.
c. La forma de trabajo de
la organización, y la metodología de solución que
apliquen a los eventos
cotidianos.
d. Las restricciones existentes en el trabajo de la
organización y factibilidad de
sustituir algunas de éstas.
B. NFORMATICA.
1. Generalidades.
La palabra "Informática" está compuesta
por los vocablos información y automatización, y fue empleada por primera
vez en el año 1962 por Philipe Dreyfus. Se refiere al
conjunto de técnicas
destinadas al tratamiento lógico y automático de la
información, con el fin de obtener una mejor toma de
decisiones. Surgió por el impulso del hombre del formular
nuevos postulados y desarrollar técnicos que le
permitieran satisfacer la creciente necesidad de
información para la toma de decisiones.
La informática se desarrolla con base a normas,
procedimientos
y técnicas definidas por institutos establecidos a nivel
nacional e internacional.
La informática es el campo que se encarga del
estudio y aplicación practica de la tecnología,
métodos, técnicas, y herramientas relacionadas con
las computadoras y el manejo de la información por
medios
electrónicos, el cual comprende las áreas de la
tecnología de información orientadas al buen uso y
aprovechamiento de los recursos computacionales para asegurar que
la información de las organizaciones
fluya de manera oportuna, veraz y confiable. Además, es el
proceso metodológico que se desarrolla de manera
permanente en las organizaciones para el análisis,
evaluación, selección,
implementación y actualización de los recursos
humanos, tecnológicos, materiales y
financieros, encaminados al manejo de la información,
buscando que no se pierdan los propósitos de calidad,
confiabilidad, oportunidad, integridad y veracidad, entre otros
propósitos.
2. Definiciones.
- "Conjunto de conocimientos científicos y
técnicos que se ocupan del tratamiento de la
información por medio de ordenadores
electrónicos". - "Conjunto de conocimientos científicos y
técnicas que hacen posible el tratamiento
automático de la información por medio de
ordenadores electrónicos". - "La Informática, es el estudio del tratamiento
de la información en general y, particularmente, del
tratamiento automático de la información
utilizando computadoras". - "Ciencia del
tratamiento racional, particularmente por máquinas
automáticas, de la información considerada como
el soporte de conocimientos humanos y de comunicaciones en los
aspectos técnico, económico y social. Conjunto de
disciplinas científicas y de técnicas
especialmente aplicables al tratamiento de datos efectuado por
medios
automáticos".
3. Antecedentes.
Uno de los primeros dispositivos mecánicos para
contar fue el ábaco,
cuya historia se remonta a las antiguas civilizaciones griega y
romana.
Otros dispositivos fueron la Pascalina por Balicé
Pascal y la
maquina de Gottfried Wilhelm Von Leibniz. Con estas maquinas, los
datos se representaban mediante las posiciones de los engranajes
y se introducían manualmente estableciendo las posiciones
finales de las ruedas de manera similar a como leemos los
números en el cuenta kilómetros de un
automóvil.
La primera computadora fue la maquina analítica
creada por Charles Babbage, profesor
matemático de la Universidad de
Canbridge en el siglo XIX. La idea que tuvo Charles Babbage sobre
un computador
nació debido a que la elaboración de las tablas
matemáticas era un proceso tedioso y
propenso a errores. Mientras tanto Charles Jacquard
(francés), fabricante de tejidos,
había creado un telar que podía reproducir
automáticamente patrones de tejidos leyendo la
información codificada en patrones de agujeros perforados
en tarjetas de papel
rígido. Al enterarse de este método,
Babbage abandono la maquina de diferencias y se dedico al
proyecto de
una maquina analítica que se pudiera programar con
tarjetas perforadas para efectuar cualquier calculo con una
precisión de 20 dígitos. La tecnología de la
época no bastaba para hacer realidad sus ideas. El mundo
no estaba listo, y no estaría por cien años mas. En
1944 se construyo en la Universidad de Harvard la Mark I,
diseñada por un equipo encabezado por Howard H.
Aiken.
Esta maquina no esta considerada como computadora
electrónica debido a que no era de
propósito general y su funcionamiento estaba basado en
dispositivos electromecánicos llamados
reveladores.
En 1947 se construyo en la Universidad de Pennsylvania
la ENAC (Electronic Numerical Integrator And Calculator) que fue
la primera computadora electrónica. El equipo de
diseñado lo encabezaron los ingenieros John Mauchly y John
Eckert. Esta maquina ocupaba todo un sotano de la Universidad,
tenia mas de 18,000 tubos de vació, consumía 200 KW
de energía eléctrica y requería todo un
sistema de aire
acondicionado, pero tenia la capacidad de realizar cinco mil
operaciones
aritméticas en un segundo. El proyecto, auspiciado por el
departamento de Defensa de los Estado Unidos,
culmino dos años después, cuando se integro a ese
equipo el ingeniero y matemático húngaro John
Von Neumann.
Las ideas de Von Neumann resultaron tan fundamentales para su
desarrollo posterior, que es considerado el padre de las
computadoras.
La EDVAC (Electronic Discrete Variable Automatic
Computer) fue diseñada por este nuevo equipo. Tenia
aproximadamente cuatro mil bulbos y usaba un tipo de memoria basado en
tubos llenos de mercurio por donde circulaban señales
eléctricas sujetas a retardos. La idea fundamental de Von
Neuman fue permitir que en la memoria
coexistan datos con instrucciones, para que entonces la computadora
pueda ser programada en un lenguaje, no por medio de alambres que
electrónicamente interconectaban varias secciones de
control, como en la ENAC.
Todo este desarrollo de las computadoras se clasifica
por generaciones; el criterio que se determino para marcar el
cambio de generación no esta muy bien definido, aunque
resulta evidente que deben cumplirse al menos los siguientes
requisitos: la forma en que están construidas y la forma
en que el ser humano se comunica con ellas.
a. Primera Generación (1951 a 1958).
Las computadoras de la primera generación
emplearon bulbos para procesar la información, eran mucho
más grandes y generaban más calor que los
modelos contemporáneos.
b. Segunda Generación (1959 a 1964).
El invento del transistor hizo
posible una nueva generación de computadoras, mas
rápidas, mas pequeñas y con menores necesidades de
ventilación, utilizaban redes de núcleos,
magnéticos, estos núcleos contenían
pequeños anillos de materia
magnético, enlazados entre si, en los cuales podían
almacenarse datos e instrucciones.
c. Tercera Generación (1964 a 1971).
Las computadoras de la tercera generación
emergieron con el desarrollo de los circuitos
integrados (pastillas de silicio en las cuales se colocan
miles de componentes electrónicos), en una
integración en miniatura. Las computadoras nuevamente se
hicieron mas pequeñas, mas rápidas,
dependían menos calor y eran energéticamente mas
eficientes y trabajaban a tal velocidad que
proporcionaban la capacidad de correr mas de un programa de
manera simultanea (multiprogramación).
d. Cuarta Generación (1972 a 1982).
En esta generación aparecieron los microprocesadores, un gran adelanto de la
microelectrónica: son circuitos
integrados de alta densidad y con
una velocidad impresionante. Las microcomputadoras con base en
estos circuitos son extremadamente pequeñas y baratas, por
lo que su uso se extiende al mercado industrial. Aquí
nacieron las computadoras personales que han adquirido
proporciones enormes y que han influido en la sociedad en
general y sobre la llamada "Revolución
Informática".
e. Quinta Generación (1983 – al
presente).
- Inteligencia artificial: La inteligencia
artificial es el campo de estudio que trata de aplicar los
procesos del pensamiento
humano usados en la solución de problemas a la
computadora. - Robótica: La robótica es el arte y ciencia
de la creación y empleo de
robots. Un robot es un sistema de computación
híbrido independiente que realiza actividades
físicas y de cálculo. - Sistemas Expertos: Un sistema experto es una
aplicación de inteligencia
artificial que usa una base de conocimiento
de la experiencia humana para ayudar a la resolución de
problemas. - Redes de Comunicación: Los canales de
comunicación que interconectan terminales y computadoras
se conocen como redes de comunicaciones; es decir, todo el
"Hardware" que
soporta las interconexiones y todo el "Software" que administra
la transmisión. - Tecnologías futuras: La tecnología de
los microprocesadores y de la fabricación de circuitos
integrados esta cambiando rápidamente. Los
microprocesadores complejos contienen unos 10 millones de
transistores.
Se pronostica que en el 2010 los microprocesadores avanzados
contendrán unos 800 millones de
transistores.
f. Pioneros.
La historia del desarrollo informático registra
un grupo de
científicos y estudiosos que destacan por sus aportes y
legados:
- Blaise Pascal, quien construyo la primera maquina
sumadora y soluciono el problema del acarreo de
dígitos. - Gottfried Wilhelm Leibniz fue la persona que
demostró las ventajas de utilizar el sistema
binario en lugar del decimal en las computadoras
mecánicas, invento y construyo una maquina
aritmética que realizaba las cuatro operaciones
básicas y calculaba raíces cuadradas. - Joseph Marie Jacquard invento y utilizo las tarjetas
perforadas para dirigir el funcionamiento de un
telar. - Charles Babbage diseño la primera computadora
automática llamada maquina analítica. - George Boole fue el creador de la lógica
simbólica o álgebra
booleana que hoy utilizan todas las computadoras. - Augusta Ada Byron fue la primera programadora de la
historia. - Herman Hollerith fue quien primero uso las tarjetas
perforadas como un instrumento de conteo
rápido. - Norbet Wiener, conocido como el "el padre de la
cibernética", fue quien estableció
las bases de la cibernética moderna. - John Von Neumann diseño la primera computadora
de cinta magnética, fue el primero en usar la
aritmética binaria en una computadora electrónica
y afirmo que los programas, al
igual que los datos, se pueden almacenar en
memoria.
4. Componentes.
a. Hardware.
Es el conjunto de elementos físicos,
electrónicos y electromagnéticos, que proporcionan
capacidad de cálculos y funciones rápidas, exactas
y efectivas (computadoras, censores, maquinarías, lectores
y circuitos), que proporcionan una función
externa dentro de los sistemas.
Se conoce con éste nombre, a todo aquel equipo
físico de una computadora, Es lo tangible, todo lo que
podemos tocar.
Pueden incorporarse en una sola unidad, o estar por
separado.
El hardware de una computadora debe realizar cuatro
tareas vitales que son:
- Entrada: El usuario ingresa los datos e
instrucciones en la computadora, utilizando; por ejemplo el
teclado. - Procesamiento: La computadora procesa o manipula
esas instrucciones o datos. - Salida: La computadora comunica sus resultados al
usuario; por ejemplo, desplegando la información en un
monitor, o
imprimiéndola. - Almacenamiento Secundario: La computadora coloca la
información en un almacenado electrónico del
que puede recuperarse más tarde.
b. Software:
Son instrucciones codificadas electrónicamente
(programas) que dirigen a la computadora para realizar ciertas
tareas, y los programas utilizados para dirigir las funciones de
un sistema computacional.
El software se divide en otras ramas que son:
- SISTEMAS OPERATIVOS: son todos aquellos programas que
controlan todas las actividades de una computadora. Sin un
sistema
operativo una computadora es inservible. - LENGUAJES DE PROGRAMACIÓN: son un conjunto de
reglas e instrucciones mediante el cual se construye un
programa que la computadora pueda interpretar. - PROGRAMAS DE APLICACIÓN (paquetes). Son un
conjunto de instrucciones en secuencia lógica, escritas
en un lenguaje de
programación, cuyo objetivo es
realizar alguna función específica para la cual
se ha programado.
5. Evolución.
a. POO (OOP).
Programación orientada a objetos (object oriented
programming) es un concepto revolucionario que cambió las
reglas en el desarrollo de programas. OOP está
estructurada con base en "objetos" en vez de acciones; datos en
vez de lógica. Históricamente, un programa se
veía como un procedimiento
lógico que tomaba datos de entrada, los procesaba y
producía datos de salida. El reto en programación era cómo escribir esta
lógica y no como definir los datos.
La programación
orientada a objetos se fundamenta en que lo que realmente nos
interesa son los objetos que queremos manipular y no la
lógica requerida para manipularlos. A manera de ejemplo,
se pueden considerar objetos desde las personas (descritos por la
el nombre, dirección, teléfono, etc.) hasta edificios y pisos
(cuyas propiedades se pueden describir y administrar) y hasta los
pequeños dispositivos en un computador.
b. E- Business.
Negocios electrónicos, derivado de
términos como e-mail, es conducir negocios por la
Internet, no solo compra y venta, sino
también brindando servicio a clientes y
colaborando con los socios de negocios. El primero que
utilizó este término fue IBM en 1997 cuando
lanzó una campaña temática alrededor de
éste. Hoy, la mayoría de las corporaciones
están repensando sus negocios en términos de la
Internet y su nueva cultura y
capacidades. Las empresas están utilizando la Internet
para comprar partes y suministros de otras empresas, colaborar en
promociones de ventas, y
hacer investigación conjunta. La explotación de la
conveniencia, disponibilidad y alcance global de la Internet hace
que muchas empresas como Amazon.com hayan descubierto como
utilizar la Internet en forma exitosa.
c. E-Commerce.
Es la compra y venta de productos y servicios en la
Internet, especialmente por la Web. Este término y uno mas
nuevo, e-business,
por lo general son utilizados en forma intercambiada. Para la
venta al detal en línea también se utiliza el
término
e-tailing.
E-Commerce se puede dividir en:
- E-Tailing o tiendas virtuales en sitios Web con
catálogos en línea, algunas veces amalgamados en
un centro comercial virtual - El acopio y uso de información
demográfica a través de contactos en la
Web - Intercambio electrónico de datos (EDI), el
intercambio electrónico de datos entre
empresas. - Correo electrónico y fax en su
uso como medio para llegar a prospectos y clientes
establecidos, por ejemplo, con boletines
electrónicos, - Compra y venta entre negocios
- La seguridad de
las transacciones electrónicas
d. EDI.
Electronic Data Interchange, Intercambio
electrónico de datos, es un formato estándar para
intercambiar información de negocios. El estándar
es ANSI X12 y se desarrolló por el Data Interchange
Standards Association. Este estándar está
coordinado y en vías de migración
hacia el EDIFACT.
Un mensaje EDI contiene una serie de elementos de datos,
cada uno representando un hecho concreto, como
el precio, modelo
del producto, etc., separados por un delimitador. El conjunto
completo se conoce como el segmento. Uno o más segmentos
enmarcados en un encabezado y un mensaje de cola conforman un set
transaccional, la unidad de transmisión del EDI
(equivalente a un mensaje.) Un set de transacciones consiste de
lo que normalmente se compondría un documento o formato de
negocios.
e. Internet.
Es una red de
comunicación global de computadoras interconectadas y de
rápido crecimiento. Juntos, esos millones de computadoras
interconectadas forman un gran almacén de
información hipé reenlazada. Internet es el
resultado de unos estándares que fueron creados
originalmente por el gobierno de los
Estados Unidos
y que han sido adoptados por organizaciones de todo el mundo.
Proporciona un sistema que permite a las computadoras de
cualquier lugar comunicarse con otras, independientemente de
quien las haya fabricado o del tipo de software que
ejecuten.
Internet es a menudo llamada "la superautopista de la
información" y por buenas razones. Se puede tener una idea
de la estructura de
Internet fijándose en el sistema de autopistas de los
Estados Unidos. Hay varios sistemas de autopistas principales que
cruzan el país, que se conectan con otras autopistas y
otras carreteras secundarias más lentas. Internet funciona
de forma similar. Las principales compañías, como
AT&T, Sprint y MCI, han construido canales de
comunicación de alta velocidad que cruzan el país
(o rodean la Tierra). De
estas líneas principales salen rutas secundarias a las
ciudades más importantes y de estas parten enlaces a
proveedores de servicios locales y comerciales.
El origen de la red actual son los cables
ópticos instalados por las principales
compañías de comunicación, con la ayuda de
organismos de gobierno.
Además, Internet es un sistema de
comunicación compartido, lo que significa que pueden tener
lugar varias sesiones de comunicación diferentes sobre la
misma línea y al mismo tiempo. En
cambio, una llamada telefónica consiste en un circuito
único que solamente la utiliza la persona que llama y a la
que se llama, por lo cual, la conexión solamente dura el
tiempo de llamada. En Internet, la información se divide
en trozos, y estos se colocan en paquetes. Los paquetes se
dirigen a una computadora destino y se envían a
través de Internet. Los dispositivos llamados
enrruteadores se aseguran que los paquetes se envíen por
los mejores caminos para llegar a su destino.
Servicios de Internet
A continuación se muestran los servicios que
proporciona la súper autopista denominada Internet y que
se describen muy brevemente:
- Correo Electrónico:
- El correo
electrónico se ha convertido en uno de los
servicios de INTERNET mas ampliamente utilizados; aunque el
correo electrónico se diseño originalmente
para la comunicación entre dos personas, se ha
ampliado y proporciona un medio de comunicación
entre los miembros de un grupo y permite la
comunicación con un grupo de
computadoras.
- El correo
- Servicio de Noticias.
- Dado que el software para noticias en red no
notifica en forma automática al usuario cuando hay
un nuevo articulo en un grupo de discusión, el
usuario que participa en un grupo debe acordarse de
verificar con regularidad si han aparecido nuevos
artículos. - El software para noticias en red cuenta con
información que permite determinar que
artículos han leído cada usuario.
- Dado que el software para noticias en red no
- Transferencia de Archivos (FTP
). - Este permite al usuario transferir copia de un
archivo de
datos de una computadora a otra a través de
INTERNET.
- Este permite al usuario transferir copia de un
- Acceso Remoto (Telnet).
- Un servicio de acceso remoto permite que el
usuario interactúe con programas de
aplicación que corran en una computadora ubicada en
otro sitio.
- Un servicio de acceso remoto permite que el
- Búsqueda de Información.
- Un servicio de rastreo de información
permite que una persona localice y evalúe
información en computadoras remotas. El rastreo
difiere de la recuperación de información, ya
que éste no requiere que el usuario recupere
archivos de datos para determinar su contenido.
- Un servicio de rastreo de información
- Bibliotecas Virtuales.
- Son servicios de búsqueda de
información mediante herramientas de que automatizan
encontrar los temas de nuestro
interés.
- Son servicios de búsqueda de
7. Otros aspectos importantes.
7.1) Las Computadoras
Una computadora es una maquina que puede ejecutar
operaciones aritméticas, puede escoger, copiar, mover,
comparar y ejecutar otras operaciones no aritméticas,
con los diversos símbolos alfabéticos,
numéricos y otros que usan los humanos para representar
objetos. La computadora maneja estos símbolos de una
forma deseada, siguiendo un mapa intelectual llamado
PROGRAMA.
Un programa, es un detallado conjunto de instrucciones
preparado por humanos para dirigir a la computadora y que esta
funcione de manera que produzca el resultado
deseado.
Una computadora, es un rápido y exacto sistema
de manipulación de símbolos electrónicos o
datos, diseñado y organizado para aceptar y almacenar
datos automáticamente, procesarlos y producir resultados
de salida bajo la dirección de un programa almacenado de
instrucciones detalladas paso a paso.
La computadora realiza un paso a la vez. Puede sumar y
restar números, comparar letras para determinar
secuencias alfabéticas, mover y copiar números y
letras.
La velocidad de las computadoras es medida en unidades
de milisegundos (ms), microsegundos (Ms), nanosegundos (ns) y
picosegundos (ps), el tiempo requerido para que una computadora
ejecute una operación básica.
La ventaja de esta velocidad es que los humanos
quedamos excepto de hacer cálculos y podemos distribuir
nuestro tiempo con fines mas útiles.
Las computadoras, además de ser muy
rápidas, también son muy exactas. Se estima que
con una calculadora el usuario puede tener un error en cada 500
o 1000 operaciones. Pero en una computadora no, porque los
circuitos, no requieren intervención humana entre
operaciones de procesamiento y no tienen partes
mecánicas que se desgasten y funcionen mal.
Estos circuitos pueden ejecutar cientos de miles de
operaciones cada segundo y pueden correr sin errores por horas
y días, sin interrupción. Además de esto,
las computadoras tienen como parte de su estructura la
capacidad de autocomprobación que les permite verificar
la exactitud de sus operaciones internas.
Si los datos introducidos a la computadora son
correctos, y si el programa de instrucciones de procesamiento
es confiable, entonces, generalmente pueden ser rastreados
hacia datos incorrectos de entrada o programas no confiables y
ambos son usualmente causados por los humanos y no por las
computadoras.
C. SISTEMAS.
1. Generalidades.
El concepto de sistema en general está sustentado
sobre el hecho de que ningún sistema puede existir aislado
completamente y siempre tendrá factores externos que lo
rodean y pueden afectarlo, por lo tanto podemos referir a Muir
citado en Puleo (1985) que dijo: "Cuando tratamos de tomar algo,
siempre lo encontramos unido a algo más en el
Universo".
La palabra "sistema" tiene muchas connotaciones: un
conjunto de elementos interdependientes e ínteractuantes;
un grupo de unidades combinadas que forman un todo organizado y
cuyo resultado (output) es mayor que el resultado que las
unidades podrían tener si funcionaran independientemente.
El ser humano, por ejemplo, es un sistema que consta de un
número de órganos y miembros, y solamente cuando
estos funcionan de modo coordinado el hombre es eficaz.
Similarmente, se puede pensar que la organización es un
sistema que consta de un número de partes interactuantes.
Por ejemplo, una firma manufacturera tiene una sección
dedicada a la producción, otra dedicada a las ventas, una
tercera dedicada a las finanzas y
otras varias. Ninguna de ellas es más que las otras, en
sí. Pero cuando la firma tiene todas esas secciones y son
adecuadamente coordinadas, se puede esperar que funcionen
eficazmente y logren las utilidades. "El concepto de sistema
pasó a dominar las ciencias, y
principalmente, la
administración. Si se habla de astronomía, se piensa en el sistema solar; si
el tema es fisiología, se piensa en el sistema nervioso,
en el sistema
circulatorio, en el sistema digestivo.
Aun cuando los sistemas de información basados en
las computadoras emplean tecnología de computación
para procesar datos en información significativa, existe
una deferencia profunda entre una computadora y un programa de
computadora, y un sistema de información. Las computadoras
electrónicas y sus programas relativos de software son los
fundamentos técnicos, las herramientas y los materiales de
los modernos sistemas de información. Las computadoras
constituyen el equipo para almacenar y procesar la
información. Los programas de computadoras o software, son
conjuntos de
instrucciones operativas que dirigen y controlan el procesamiento
mediante computadora. Saber cómo trabajan las computadoras
y los programas de cómputo es importante para el
diseño de soluciones a los problemas de la
institución, pero la razón de emplearlas de deriva
del sistema de información del que las computadoras
sólo son una parte.
2. Definiciones.
- "Conjunto de cosas que
ordenadamente relacionadas entre sí contribuyen a
determinado objeto". - "Un conjunto de entidades caracterizadas por ciertos
atributos, que tienen relaciones entre sí y están
localizadas en un cierto ambiente, de acuerdo con un cierto
objetivo". - "Es una red de procedimientos relacionados entre si y
desarrollados de acuerdo con un esquema integrado para lograr
una mayor actividad de las empresas". - "Es un ensamble de partes unidas por inferencia y que
se lleva acabo por las empresas para lograr el objetivo de la
misma".
La teoría de
sistemas (TS) es una rama específica de la teoría general
de sistemas (TGS).
La TGS surgió con los trabajos del alemán
Ludwig von Bertalanffy, publicados entre 1950 y 1968. La TGS no
busca solucionar problemas o intentar soluciones
prácticas, pero sí producir teorías y
formulaciones conceptuales que pueden crear condiciones de
aplicación en la realidad
empírica.
Los supuestos básicos de la TGS son:
- Existe una nítida tendencia hacia la
integración de diversas ciencias
naturales y sociales. - Esa integración parece orientarse rumbo a un
teoría de sistemas. - Dicha teoría de sistemas puede ser una manera
más amplia de estudiar los campos no-físicos del
conocimiento
científico, especialmente en ciencias
sociales. - Con esa teoría de los sistemas, al desarrollar
principios unificadores que atraviesan verticalmente los
universos particulares de las diversas ciencias involucradas,
nos aproximamos al objetivo de la unidad de la
ciencia. - Esto puede generar una integración muy
necesaria en la
educación científica. - La TGS afirma que las propiedades de los sistemas, no
pueden ser descritos en términos de sus elementos
separados; su comprensión se presenta cuando se estudian
globalmente.
La TGS se fundamenta en tres premisas
básicas:
- Los sistemas existen dentro de sistemas: cada sistema
existe dentro de otro más grande. - Los sistemas son abiertos: es consecuencia del
anterior. Cada sistema que se examine, excepto el menor o
mayor, recibe y descarga algo en los otros sistemas,
generalmente en los contiguos. Los sistemas abiertos se
caracterizan por un proceso de cambio infinito con su entorno,
que son los otros sistemas. Cuando el intercambio cesa, el
sistema se desintegra, esto es, pierde sus fuentes de
energía. - Las funciones de un sistema dependen de su
estructura: para los sistemas biológicos y
mecánicos esta afirmación es intuitiva. Los
tejidos musculares por ejemplo, se contraen porque están
constituidos por una estructura celular que permite
contracciones.
El interés de la TGS, son las
características y parámetros que establece para
todos los sistemas. Aplicada a la administración la TS, la empresa se ve como
una estructura que se reproduce y se visualiza a través de
un sistema de toma de decisiones, tanto individual como
colectivamente.
Desde un punto de vista histórico, se verifica
que:
- La teoría de la administración científica
usó el concepto de sistema hombre-máquina, pero
se limitó al nivel de trabajo fabril. - La teoría de las relaciones
humanas amplió el enfoque hombre-máquina a
las relaciones entre las personas dentro de la
organización. Provocó una profunda
revisión de criterios y técnicas
gerenciales. - La teoría estructuralista concibe la empresa
como un sistema social, reconociendo que hay tanto un sistema
formal como uno informal dentro de un sistema total
integrado. - La teoría del comportamiento trajo la
teoría de la decisión, donde la empresa se ve
como un sistema de decisiones, ya que todos los participantes
de la empresa toman decisiones dentro de una maraña de
relaciones de intercambio, que caracterizan al comportamiento
organizacional. - Después de la segunda
guerra mundial, a través de la teoría
matemática se aplicó la
investigación operacional, para la resolución de
problemas grandes y complejos con muchas variables. - La teoría de
colas fue profundizada y se formularon modelos para
situaciones típicas de prestación de servicios,
en los que es necesario programar la cantidad óptima de
servidores para una esperada afluencia de clientes.
Las teorías tradicionales han visto la
organización humana como un sistema cerrado. Eso a llevado
a no tener en cuenta el ambiente, provocando poco desarrollo y
comprensión de la retroalimentación (feedback), básica
para sobrevivir.
El enfoque antiguo fue débil, ya que 1)
trató con pocas de las variables significantes de la
situación total y 2) muchas veces se ha sustentado con
variables impropias.
El concepto de sistemas no es una tecnología en
sí, pero es la resultante de ella. El análisis de
las organizaciones vivas revela "lo general en lo particular" y
muestra, las propiedades generales de las especies que son
capaces de adaptarse y sobrevivir en un ambiente típico.
Los sistemas vivos sean individuos o organizaciones, son
analizados como "sistemas abiertos", que mantienen un continuo
intercambio de materia/energía/información con el
ambiente. La TS permite reconceptuar los fenómenos dentro
de un enfoque global, para integrar asuntos que son, en la
mayoría de las veces de naturaleza completamente
diferente.
Página siguiente |