1. Orígenes y
Evolución de la Computación
3. Modelo De Von Neumann
4. Sistemas
Operativos
5. Piratería de
Software
1. Orígenes y Evolución de la
Computación
Computadora
La computadora es
un artefacto simple. Una máquina capaz de efectuar una
secuencia de operaciones
determinada mediante un "programa",
definido de tal manera que se realice un procesamiento (un
conjunto de operaciones) sobre otro conjunto de datos de entrada,
obteniéndose como resultado otro conjunto de datos de
salida.
Tipos De Computadoras
Se clasifican de acuerdo al principio de
operación de Analógicas y Digitales.
- Computadora Analógica
Las computadoras
analógicas desarrollan un modelo
(eléctrico, neumático, mecánico,
hidráulico, etc.) en esencia idéntico al
fenómeno físico que tratan de analizar o procesar.
Ese modelo arroja un resultado que puede representarse
matemáticamente y procesarse de manera repetitiva para
arrojar resultados iguales. Aprovechando el hecho de que
diferentes fenómenos físicos se describen por
relaciones matemáticas similares (v.g. Exponenciales,
Logarítmicas, etc.), estas pueden entregar la
solución muy rápidamente. Tienen, sin embargo, el
inconveniente de que al cambiar el problema a resolver, hay que
realambrar la circuitería (cambiar el Hardware).
- Computadora Digital
Están basadas en dispositivos biestables, i.e.,
que sólo pueden tomar uno de dos valores
posibles: "1" ó "0". Tienen como ventaja, el poder ejecutar
diferentes programas para
diferentes problemas, sin
tener la necesidad de modificar físicamente la
máquina.
2.
Historia de la
Computación
Uno de los primeros dispositivos mecánicos para
contar fue el ábaco,
cuyo origen se remonta a las antiguas civilizaciones griega y
romana. Este dispositivo es muy sencillo, consta de cuentas
ensartadas en varillas que a su vez están montadas en un
marco rectangular. Al desplazar las cuentas sobre varillas, sus
posiciones representan valores almacenados, y es mediante dichas
posiciones que este representa y almacena datos. A este
dispositivo no se le puede llamar computadora por carecer del
elemento fundamental llamado programa.
Otro de los inventos
mecánicos fue la Pascalina inventada por Blaise Pascal (1623 –
1662) de Francia y la
de Gottfried Wilhelm von Leibniz (1646 – 1716) de Alemania. Con
estas máquinas,
los datos se representaban mediante las posiciones de los
engranajes, y los datos se introducían manualmente
estableciendo dichas posiciones finales de las ruedas, de manera
similar a como leemos los números en el
cuentakilómetros de un automóvil.
La primera computadora fue la Máquina
Analítica creada por Charles Babbage, profesor
matemático de la Universidad de
Cambridge en el siglo XIX. La idea que tuvo Charles Babbage sobre
un computador
nació debido a que la elaboración de las tablas
matemáticas era un proceso
tedioso y propenso a errores. En 1823 el gobierno
Británico lo apoyo para crear el proyecto de una
máquina de diferencias, un dispositivo mecánico
para efectuar sumas repetidas.
Mientras tanto Charles Jacquard (francés),
fabricante de tejidos,
había creado un telar que podía reproducir
automáticamente patrones de tejidos leyendo la información codificada en patrones de
agujeros perforados en tarjetas de papel
rígido. Al enterarse de este método
Babbage abandonó la máquina de diferencias y se
dedico al proyecto de la máquina analítica que se
pudiera programar con tarjetas perforadas para efectuar cualquier
cálculo
con una precisión de 20 dígitos. La tecnología de la
época no bastaba para hacer realidad sus ideas.
El mundo no estaba listo, y no lo estaría por
cien años más.
En 1944 se construyó en la Universidad de Harvard, la Mark
I, diseñada por un equipo encabezado por Howard H. Aiken.
Esta máquina no está considerada como computadora
electrónica debido a que no era de
propósito general y su funcionamiento estaba basado en
dispositivos electromecánicos llamados
relevadores.
En 1947 se construyó en la Universidad de
Pennsylvania la ENIAC (Electronic Numerical Integrator And
Calculator) que fue la primera computadora electrónica, el
equipo de diseño
lo encabezaron los ingenieros John Mauchly y John Eckert. Esta
máquina ocupaba todo un sótano de la Universidad,
tenía más de 18 000 tubos de vacío,
consumía 200 KW de energía
eléctrica y requería todo un sistema de
aire
acondicionado, pero tenía la capacidad de realizar
cinco mil operaciones aritméticas en un
segundo.
El proyecto, auspiciado por el departamento de Defensa
de los Estados Unidos,
culminó dos años después, cuando se
integró a ese equipo el ingeniero y matemático
húngaro John von Neumann
(1903 – 1957). Las ideas de von Neumann resultaron tan
fundamentales para su desarrollo
posterior, que es considerado el padre de las
computadoras.
La EDVAC (Electronic Discrete Variable Automatic
Computer) fue diseñada por este nuevo equipo. Tenía
aproximadamente cuatro mil bulbos y usaba un tipo de memoria basado en
tubos llenos de mercurio por donde circulaban señales
eléctricas sujetas a retardos.
La idea fundamental de von Neumann fue: permitir que en
la memoria
coexistan datos con instrucciones, para que entonces la computadora
pueda ser programada en un lenguaje, y no
por medio de alambres que eléctricamente interconectaban
varias secciones de control, como en
la ENIAC.
Todo este desarrollo de las computadoras suele divisarse
por generaciones y el criterio que se determinó para
determinar el cambio de
generación no está muy bien definido, pero resulta
aparente que deben cumplirse al menos los siguientes
requisitos:
- La forma en que están construidas.
- Forma en que el ser humano se comunica con
ellas.
Primera Generación
En esta generación había un gran
desconocimiento de las capacidades de las computadoras, puesto
que se realizó un estudio en esta época que
determinó que con veinte computadoras se saturaría
el mercado de los
Estados Unidos en el campo de procesamiento de
datos.
Esta generación abarco la década de los
cincuenta. Y se conoce como la primera generación. Estas
máquinas tenían las siguientes
características:
- Estas máquinas estaban construidas por medio
de Tubos de Vacío. - Eran programadas en Lenguaje de
Máquina.
En esta generación las máquinas son
grandes y costosas (de un costo aproximado
de ciento de miles de dólares).
Para ver el
gráfico, bajar la versión completa del
menú superior
En 1951 aparece la UNIVAC (NIVersAl Computer), fue la
primera computadora comercial, que disponía de mil
palabras de memoria central y podían leer cintas
magnéticas, se utilizó para procesar el censo de
1950 en los Estados Unidos.
En las dos primeras generaciones, las unidades de entrada
utilizaban tarjetas perforadas, retomadas por Herman Hollerith
(1860 – 1929), quien además fundó una
compañía que con el paso del tiempo se
conocería como IBM (International Bussines Machines).
Después se desarrolló por IBM la IBM 701 de la cual
se entregaron 18 unidades entre 1953 y 1957.
Posteriormente, la compañía Remington Rand
fabricó el modelo 1103, que competía con la 701 en
el campo científico, por lo que la IBM desarrollo la 702,
la cual presentó problemas en memoria, debido a esto no
duró en el mercado.
La computadora más exitosa de la primera generación
fue la IBM 650, de la cual se produjeron varios cientos. Esta
computadora que usaba un esquema de memoria secundaria llamado
tambor magnético, que es el antecesor de los discos
actuales.
Otros modelos de
computadora que se pueden situar en los inicios de la segunda
generación son: la UNIVAC 80 y 90, las IBM 704 y 709,
Burroughs 220 y UNIVAC 1105.
Segunda Generación
Cerca de la década de 1960, las computadoras
seguían evolucionando, se reducía su tamaño
y crecía su capacidad de procesamiento. También en
esta época se empezó a definir la forma de
comunicarse con las computadoras, que recibía el nombre de
programación de sistemas.
Las características de la segunda
generación son las siguientes:
- Están construidas con circuitos de
transistores. - Se programan en nuevos lenguajes llamados lenguajes
de alto nivel.
En esta generación las computadoras se reducen de
tamaño y son de menor costo. Aparecen muchas
compañías y las computadoras eran bastante
avanzadas para su época como la serie 5000 de Burroughs y
la ATLAS de la Universidad de Manchester.
Algunas de estas computadoras se programaban con cintas
perforadas y otras más por medio de cableado en un
tablero. Los programas eran hechos a la medida por un equipo de
expertos: analistas, diseñadores, programadores y
operadores que se manejaban como una orquesta para resolver los
problemas y cálculos solicitados por la
administración. El usuario final de la
información no tenía contacto directo con las
computadoras. Esta situación en un principio se produjo en
las primeras computadoras personales, pues se requería
saberlas "programar" (alimentarle instrucciones) para obtener
resultados; por lo tanto su uso estaba limitado a aquellos
audaces pioneros que gustaran de pasar un buen número de
horas escribiendo instrucciones, "corriendo" el programa
resultante y verificando y corrigiendo los errores o bugs que
aparecieran. Además, para no perder el "programa"
resultante había que "guardarlo" (almacenarlo) en una
grabadora de astte, pues en esa época no había
discos flexibles y mucho menos discos duros
para las PC; este procedimiento
podía tomar de 10 a 45 minutos, según el programa.
El panorama se modificó totalmente con la aparición
de las computadoras personales con mejore circuitos, más
memoria, unidades de disco flexible y sobre todo con la
aparición de programas de aplicación general en
donde el usuario compra el programa y se pone a trabajar.
Aparecen los programas procesadores de
palabras como el célebre Word Star, la
impresionante hoja de
cálculo (spreadsheet) Visicalc y otros más que
de la noche a la mañana cambian la imagen de la PC.
El sortware empieza a tratar de alcanzar el paso del hardware.
Pero aquí aparece un nuevo elemento: el usuario.
El usuario de las computadoras va cambiando y evolucionando con
el tiempo. De estar totalmente desconectado a ellas en las
máquinas grandes pasa la PC a ser pieza clave en el
diseño tanto del hardware como del software. Aparece el
concepto de
human interface que es la relación entre el usuario y su
computadora. Se habla entonces de hardware ergonómico
(adaptado a las dimensiones humanas para reducir el cansancio),
diseños de pantallas antirreflejos y teclados que
descansen la muñeca. Con respecto al software se inicia
una verdadera carrera para encontrar la manera en que el usuario
pase menos tiempo capacitándose y entrenándose y
más tiempo produciendo. Se ponen al alcance programas con
menúes (listas de opciones) que orientan en todo momento
al usuario (con el consiguiente aburrimiento de los usuarios
expertos); otros programas ofrecen toda una artillería de
teclas de control y teclas de funciones
(atajos) para efectuar toda suerte de efectos en el trabajo
(con la consiguiente desorientación de los usuarios
novatos). Se ofrecen un sinnúmero de cursos prometiendo
que en pocas semanas hacen de cualquier persona un
experto en los programas comerciales. Pero el problema
"constante" es que ninguna solución para el uso de los
programas es "constante". Cada nuevo programa requiere aprender
nuevos controles, nuevos trucos, nuevos menús. Se empieza
a sentir que la relación usuario-PC no está acorde
con los desarrollos del equipo y de la potencia de los
programas. Hace falta una relación amistosa entre el
usuario y la PC.
Las computadoras de esta generación fueron: la
Philco 212 (esta compañía se retiró del
mercado en 1964) y la UNIVAC M460, la Control Data Corporation
modelo 1604, seguida por la serie 3000, la IBM mejoró la
709 y sacó al mercado la 7090, la National Cash Register
empezó a producir máquinas para proceso de datos de
tipo comercial, introdujo el modelo NCR 315.La Radio
Corporation of America introdujo el modelo 501, que manejaba
el lenguaje
COBOL, para
procesos
administrativos y comerciales. Después salió al
mercado la RCA 601.
Tercera Generación
Con los progresos de la electrónica y los avances
de comunicación con las computadoras en la
década de los 1960, surge la tercera generación
de las computadoras. Se inaugura con la IBM 360 en abril de
1964. Las características de esta generación fueron
las siguientes:
- Su fabricación electrónica esta basada
en circuitos
integrados. - Su manejo es por medio de los lenguajes de control de
los sistemas
operativos.
La IBM produce la serie 360 con los modelos 20, 22, 30,
40, 50, 65, 67, 75, 85, 90, 195 que utilizaban técnicas
especiales del procesador,
unidades de cinta de nueve canales, paquetes de discos
magnéticos y otras características que ahora son
estándares (no todos los modelos usaban estas
técnicas, sino que estaba dividido por
aplicaciones).
El sistema operativo
de la serie 360, se llamó OS que contaba con varias
configuraciones, incluía un conjunto de técnicas de
manejo de memoria y del procesador que pronto se convirtieron en
estándares.
En 1964 CDC introdujo la serie 6000 con la computadora
6600 que se consideró durante algunos años como la
más rápida.
En la década de 1970, la IBM produce la serie 370
(modelos 115, 125, 135, 145, 158, 168). UNIVAC compite son los
modelos 1108 y 1110, máquinas en gran escala; mientras
que CDC produce su serie 7000 con el modelo 7600. Estas
computadoras se caracterizan por ser muy potentes y
veloces.
A finales de esta década la IBM de su serie 370
produce los modelos 3031, 3033, 4341. Burroughs con su serie 6000
produce los modelos 6500 y 6700 de avanzado diseño, que se
reemplazaron por su serie 7000. Honey – Well participa con su
computadora DPS con varios modelos.
A mediados de la década de 1970, aparecen en el
mercado las computadoras de tamaño mediano, o
minicomputadoras que no son tan costosas como las grandes
(llamadas también como mainframes que significa
también, gran sistema), pero disponen de gran capacidad de
procesamiento. Algunas minicomputadoras fueron las siguientes: la
PDP – 8 y la PDP – 11 de Digital Equipment Corporation, la VAX
(Virtual Address eXtended) de la misma compañía,
los modelos NOVA y ECLIPSE de Data General, la serie 3000 y 9000
de Hewlett – Packard con varios modelos el 36 y el 34, la Wang y
Honey – Well -Bull, Siemens de origen alemán, la ICL
fabricada en Inglaterra. En la
Unión Soviética se utilizó la US (Sistema
Unificado, Ryad) que ha pasado por varias
generaciones.
Cuarta Generación
Para ver el
gráfico, bajar la versión completa del
menú superior
Aquí aparecen los microprocesadores
que es un gran adelanto de la microelectrónica, son
circuitos integrados de alta densidad y con
una velocidad
impresionante. Las microcomputadoras con base en estos circuitos
son extremadamente pequeñas y baratas, por lo que su uso
se extiende al mercado industrial. Aquí nacen las
computadoras personales que han adquirido proporciones enormes y
que han influido en la sociedad en
general sobre la llamada "revolución
informática".
En 1976 Steve Wozniak y Steve Jobs inventan la primera
microcomputadora de uso masivo y más tarde forman la
compañía conocida como la Apple que fue la segunda
compañía más grande del mundo, antecedida
tan solo por IBM; y esta por su parte es aún de las cinco
compañías más grandes del mundo.
En 1981 se vendieron 800 00 computadoras personales, al
siguiente subió a 1 400 000. Entre 1984 y 1987 se
vendieron alrededor de 60 millones de computadoras personales,
por lo que no queda duda que su impacto y penetración han
sido enormes.
Con el surgimiento de las computadoras personales, el
software y los sistemas que con ellas de manejan han tenido un
considerable avance, porque han hecho más interactiva
la
comunicación con el usuario. Surgen otras aplicaciones
como los procesadores de palabra, las hojas electrónicas
de cálculo, paquetes gráficos, etc. También las industrias del
Software de las computadoras personales crece con gran rapidez,
Gary Kildall y William Gates se dedicaron durante años a
la creación de sistemas
operativos y métodos
para lograr una utilización sencilla de las
microcomputadoras (son los creadores de CP/M y de los productos de
Microsoft).
No todo son microcomputadoras, por su puesto, las
minicomputadoras y los grandes sistemas continúan en
desarrollo. De hecho las máquinas pequeñas
rebasaban por mucho la capacidad de los grandes sistemas de 10 o
15 años antes, que requerían de instalaciones
costosas y especiales, pero sería equivocado suponer que
las grandes computadoras han desaparecido; por el contrario, su
presencia era ya ineludible en prácticamente todas las
esferas de control gubernamental, militar y de la gran industria. Las
enormes computadoras de las series CDC, CRAY, Hitachi o IBM por
ejemplo, eran capaces de atender a varios cientos de millones de
operaciones por segundo.
Quinta Generación
En vista de la acelerada marcha de la
microelectrónica, la sociedad industrial se ha dado a la
tarea de poner también a esa altura el desarrollo del
software y los sistemas con que se manejan las computadoras.
Surge la competencia
internacional por el dominio del
mercado de la computación, en la que se perfilan dos
líderes que, sin embargo, no han podido alcanzar el nivel
que se desea: la capacidad de comunicarse con la computadora en
un lenguaje más cotidiano y no a través de
códigos o lenguajes de control especializados.
Japón lanzó en 1983 el llamado "programa
de la quinta generación de computadoras", con los objetivos
explícitos de producir máquinas con innovaciones
reales en los criterios mencionados. Y en los Estados Unidos ya
está en actividad un programa en desarrollo que persigue
objetivos semejantes, que pueden resumirse de la siguiente
manera:
- Procesamiento en paralelo mediante arquitecturas y
diseños especiales y circuitos de gran
velocidad. - Manejo de lenguaje natural y sistemas de inteligencia
artificial.
El futuro previsible de la computación es muy
interesante, y se puede esperar que esta ciencia siga
siendo objeto de atención prioritaria de gobiernos y de la
sociedad en conjunto.
Las computadoras digitales actuales se ajustan al modelo
propuesto por el matemático John Von Neumann. De acuerdo
con el, una característica importante de este modelo es
que tanto los datos como los programas, se almacenan en la
memoria antes de ser utilizados.
Elementos.
Hardware son
todos aquellos componentes físicos de una computadora,
todo lo visible y tangible. El Hardware realiza las
actividades fundamentales: entrada, procesamiento, salida y
almacenamiento
secundario.
En realidad, un ordenador digital no es una única
máquina, en el sentido en el que la mayoría de la
gente considera a los ordenadores. Es un sistema compuesto de
cinco elementos diferenciados: una CPU (unidad
central de proceso); dispositivos de
entrada; dispositivos de
almacenamiento de memoria; dispositivos de salida y una red de comunicaciones, denominada bus, que enlaza a todos los
elementos del sistema y conecta a éste con el mundo
exterior.
El software es el conjunto de instrucciones que las
computadoras emplean para manipular datos. Sin el software, la
computadora sería un conjunto de medios sin
utilizar. Al cargar los programas en una computadora, la
máquina actuará como si recibiera una educación
instantánea; de pronto "sabe" cómo pensar y
cómo operar. El Software es un conjunto de programas,
documentos,
procedimientos, y rutinas asociados con la
operación de un sistema de cómputo.
Distinguiéndose de los componentes físicos llamados
hardware.
Comúnmente a los programas de computación
se les llama software; el software asegura que el programa o
sistema cumpla por completo con sus objetivos, opera con eficiencia, esta
adecuadamente documentado, y suficientemente sencillo de operar.
Es simplemente el conjunto de instrucciones individuales que se
le proporciona al microprocesador
para que pueda procesar los datos y generar los resultados
esperados.
El hardware por si solo no puede hacer nada, pues es
necesario que exista el software, que es el conjunto de
instrucciones que hacen funcionar al hardware.
Un Sistema Operativo (SO) es en sí mismo un
programa de computadora. Sin embargo, es un programa muy
especial, quizá el más complejo e importante en una
computadora. El SO despierta a la computadora y hace que
reconozca a la CPU, la memoria, el teclado, el
sistema de vídeo y las unidades de disco.
Además, proporciona la facilidad para que los
usuarios se comuniquen con la computadora y sirve de plataforma a
partir de la cual se ejecutan programas de
aplicación.
Cuando se enciende una computadora, lo primero que
ésta hace es llevar a cabo un autodiagnóstico
llamado autoprueba de encendido (Power On Self Test, POST).
Durante la POST, la computadora identifica su memoria, sus
discos, su teclado, su sistema de vídeo y cualquier otro
dispositivo conectado a ella. Lo siguiente que la computadora
hace es buscar un SO para arrancar (boot).
Una vez que la computadora ha puesto en marcha su SO,
mantiene al menos parte de éste en su memoria en todo
momento. Mientras la computadora esté encendida, el SO
tiene 4 tareas principales:
Interfaz de Línea de Comando: se introducen
palabras y símbolos desde el teclado de la
computadora, ejemplo, el MS-DOS.Interfaz gráfica del Usuario (GUI), se
seleccionan las acciones
mediante el uso de un Mouse para
pulsar sobre figuras llamadas iconos o seleccionar opciones
de los menús.- Proporcionar ya sea una Interfaz de Línea de
Comando o una Interfaz Gráfica al Usuario, para que este
último se pueda comunicar con la
computadora. - Administrar los Dispositivos de Hardware en la
Computadora. Cuando corren los programas, necesitan utilizar la
memoria, el monitor, las
unidades de disco, los puertos de Entrada/Salida (impresoras,
módems, etc). El SO sirve de intermediario entre los
programas y el hardware. - Administrar y Mantener los Sistemas de Archivo de
Disco. Los SO agrupan la información dentro de
compartimientos lógicos para almacenarlos en el disco.
Estos grupos de
información son llamados archivos. Los
archivos pueden contener instrucciones de programas o
información creada por el usuario. El SO mantiene una
lista de los archivos en un disco, y nos proporciona las
herramientas
necesarias para organizar y manipular estos
archivos. - Apoyar a otros Programas. Otra de las funciones
importantes del SO es proporcionar servicios a
otros programas. Estos servicios son similares a aquellos que
el SO proporciona directamente a los usuarios. Por ejemplo,
listar los archivos, grabarlos a disco, eliminar archivos,
revisar espacio disponible, etc.
Cuando los programadores escriben programas de computadora,
incluyen en sus programas instrucciones que solicitan los
servicios del SO. Estas instrucciones son conocidas como
"llamadas del sistema".
5. Piratería de Software.
- Copias simples sin licencia realizadas por personas o
negocios. O,
en el caso de licencias en volumen, puede
significar que se reporte un número menor de
computadoras en las cuales se utiliza/instala el
software. - Preinstalación en Disco Duro.
Lo practican los integradores de PCs deshonestos que venden PCs
con software ilícito preinstalado. Los distribuidores
utilizan una copia adquirida legalmente para la
instalación ilegal en muchas máquinas. Los discos
y la documentación con frecuencia se pierden o
están incompletos. Ocasionalmente, el software sin
licencia es un medio magnético y/o documentación
falsa que luego se vende a los usuarios finales que no
están conscientes del estado
ilegal del software. - Clasificación. La piratería de software
a gran escala, en la cual el software y su empaque son
duplicados ilegalmente, normalmente por círculos de
crimen
organizado, para su posterior redistribución como un
supuesto producto
legal. - Distribución No Autorizada. Software
distribuido bajo licencia de descuentos especiales, ya sea a
clientes que
manejan altos volúmenes, fabricantes de computadoras o
instituciones académicas, que luego se
redistribuye a otros que no tienen o no califican para estas
licencias.
¿Cómo impacta la
piratería?
La piratería de software daña a todos
desde desarrolladores a revendedores y consumidores.
Derechos de Propiedad
Intelectual
La propiedad
intelectual es la posesión de ideas así como el
control sobre la representación tangible o virtual de esas
ideas. El software es propiedad intelectual, como lo son los
libros,
películas y la música. Como los
intérpretes de música, los desarrolladores de
software usan las leyes de derecho de
autor para proteger su trabajo y su
inversión en el campo. El robo de propiedad
intelectual elimina los recursos usados
para desarrollar nuevos y mejores productos.
Daño al Consumidor
El software pirata daña directamente al los
consumidores porqué:
- A menudo carece de elementos y documentación y
nunca tiene garantía de protección u opciones de
actualización. - Los discos falsificados pueden estar infestados de
virus que
dañarán su disco duro y pueden inhabilitar su
red. - Si se copia software en el trabajo, los usuarios
quedan en riesgo, ellos
mismos y su compañía por piratear un producto que
está protegido por las leyes de derechos de
autor.
Revendedores
La piratería de software daña inmediatamente a los
revendedores de software causando más de $500 millones de
dólares en ganancias perdidas. Además, más
de la mitad de los trabajos perdidos debido a la piratería
de software viene de los canales de
distribución.
En un esfuerzo de por nivelar el campo de juego para los
resellers honestos, Microsoft está tomando acciones
legales contra los infractores repetitivos. Microsoft's AP
Business Desk es un programa diseñado para ayudar a los
resellers que creen que han perdido una importante porción
de negocio como resultado de la venta de software
falsificado por parte de la competencia.
En 1998 38 por ciento del software en circulación
era pirata, provocando perdidas por aproximadamente $11 000
millones de dólares a la industria del software. La
piratería de software es un serio problema mundial
particularmente dónde el índice de piratería
de software es cercano al 100 por ciento. Un factor que
contribuye a la piratería de software es la disparidad
entre las leyes de propiedad intelectual y derechos de autor aunado al
crecimiento de Internet. Y aunque las
organizaciones
han tenido éxito
en sus esfuerzos por combatir la piratería de software,
los gobiernos alrededor del mundo deben tomar los pasos para
mejorar sus leyes de propiedad intelectual y sistemas de
cumplimiento de las órdenes.
Sin un compromiso para reducir la piratería, se
impide el potencial para el crecimiento
económico mundial. El alto índice de
piratería inhibe el desarrollo de la industria del
software y lo imposibilita para alcanzar su completo potencial
mundial al engañar a los desarrolladores legítimos
de software y a las compañías con los derechos y
regalías de la propiedad intelectual.
La industria del software está comprometida a
ayudar a los gobiernos en el reto de de mejorar y hacer cumplir
las leyes de propiedad intelectual y educar al público
acerca de la importancia de los derechos de propiedad intelectual
en el software.
Países con las más grandes pérdidas
en dólares debido a la piratería de
Software:
- Estados Unidos
- China
- Japón
- Alemania
- Reino Unido
- Francia
- Brasil
- Italia
- Canadá
- Rusia
*Las pérdidas en estos países sumaron $7.3
mil millones o 67% de las pérdidas mundiales en 1998. Con
$3.2 mil millones de dólares, la piratería de
software en Norte América
representó 26% de las pérdidas por ganancias en
1998.
Paquetes de Edición.
Los paquetes de edición o publicación son
programas con instrucciones a la computadora, en forma de
comandos
amigables para el usuario, que contribuyen a publicar textos.
Así, además de las características de
procesamiento de las palabras, también justifican,
paginan, formatean y numeran el texto
dejándolo listo para las computadoras de las imprentas.
Están orientados a la publicación masiva de textos
(libros, revistas, periódicos).
Procesador de Palabras.
Un programa procesador de
texto (como el que estamos utilizando para este trabajo),
consiste en una serie de instrucciones a la computador a partir
de "comandos" amigables para el usuario. Los comandos
típicos de un programa de procesamiento de palabras son
aquellos que modifican los factores referentes a la escritura:
tipos de letra, alineación de párrafos, corte de
texto, copiado y pegado. Con el tiempo se han ido sofisticando de
tal forma que hoy es posible escribir con corrección
automática de la ortografía, traducción de distintos idiomas y la
utilización de modelos o plantillas que embellecen la
presentación de las páginas.
Se anticipan futuros de procesadores de palabras con
comando de voz, o cualquier cosa que la imaginación pueda
contemplar.
Aplicabilidad de Software.
Desde los primeros días de las computadoras
modernas, la tecnología del hardware ha progresado lejos
más rápidamente que el software que la
acompaña. Por ejemplo, existen computadoras que poseen un
Hardware con un funcionamiento veloz e increíble, pero el
Software (Sistema Operativo) que estas máquinas poseen es
tan pobre que son extremadamente difíciles de programar.
Debido al estado inmaduro de estos sistemas operativos, estas
computadoras funcionan solamente en una fracción
pequeña de su velocidad máxima mientras que
trabajan bajo cargas de trabajo típicas.
Es por el anterior que la industria del software debe
ahora dedicar más tiempo y energía al desarrollo de
este. Una vez que la tecnología del software alcance el
nivel de la tecnología del hardware, los sistemas
serán no sólo más de gran alcance y
prácticos, sino que utilizarán sus recursos de
hardware mucho más eficientemente.
Con la llegada de los nuevos Sistemas Operativos el
hardware se aprovechará al máximo y se
reducirá esa brecha tan grande de rapidez que existe entre
el hardware y el software que lo controla. Con estos Sistemas
Operativos se llegará a concretar lo que se llama la
quinta generación de computadoras, la cual pretende
multiplicar la velocidad, disponer procesamientos paralelos,
diseñar una arquitectura de
hardware-software muy superior y utilizar el lenguaje
natural.
La renovación que aportarán los sistemas
operativos es múltiple. Ya no viene determinada
únicamente por la introducción de cambios material o de
hardware, sino por la combinación de novedades en el
material y en la programación.
Enciclopedia de Informática y
Computación
Biblioteca de Consulta Microsoft Encarta 2004
Enciclopedia de Computación y
Tecnología
www.monografias.com
Francisco Javier Ayala
Martinez
Edad: 18 Años