Indice
1.
Orígenes y evolución de la
computación
2. Historia de la
computación
3. Modelo De Von Neumann
4. Sistemas
operativos.
5. Piratería de
software.
1. Orígenes y
evolución de la
computación
Computadora
La computadora
es un artefacto simple. Una máquina capaz de efectuar una
secuencia de operaciones
determinada mediante un "programa",
definido de tal manera que se realice un procesamiento (un
conjunto de operaciones) sobre otro conjunto de datos de entrada,
obteniéndose como resultado otro conjunto de datos de
salida.
Tipos De Computadoras
Se clasifican de acuerdo al principio de operación de
Analógicas y Digitales.
- Computadora Analógica
- Las computadoras
analógicas desarrollan un modelo
(eléctrico, neumático, mecánico,
hidráulico, etc.) en esencia idéntico al
fenómeno físico que tratan de analizar o
procesar. Ese modelo arroja un resultado que puede
representarse matemáticamente y procesarse de manera
repetitiva para arrojar resultados iguales. Aprovechando el
hecho de que diferentes fenómenos físicos se
describen por relaciones matemáticas similares (v.g.
Exponenciales, Logarítmicas, etc.), estas pueden
entregar la solución muy rápidamente. Tienen, sin
embargo, el inconveniente de que al cambiar el problema a
resolver, hay que realambrar la circuitería (cambiar el
Hardware).
- Computadora Digital
- Están basadas en dispositivos biestables,
i.e., que sólo pueden tomar uno de dos valores
posibles: "1" ó "0". Tienen como ventaja, el poder
ejecutar diferentes programas para
diferentes problemas,
sin tener la necesidad de modificar físicamente la
máquina.
2. Historia de la
computación
Uno de los primeros dispositivos mecánicos para
contar fue el ábaco,
cuyo origen se remonta a las antiguas civilizaciones griega y
romana. Este dispositivo es muy sencillo, consta de cuentas
ensartadas en varillas que a su vez están montadas en un
marco rectangular. Al desplazar las cuentas sobre varillas, sus
posiciones representan valores almacenados, y es mediante dichas
posiciones que este representa y almacena datos. A este
dispositivo no se le puede llamar computadora
por carecer del elemento fundamental llamado programa.
Otro de los inventos
mecánicos fue la Pascalina inventada por Blaise Pascal (1623 –
1662) de Francia y la
de Gottfried Wilhelm von Leibniz (1646 – 1716) de Alemania. Con
estas máquinas,
los datos se representaban mediante las posiciones de los
engranajes, y los datos se introducían manualmente
estableciendo dichas posiciones finales de las ruedas, de manera
similar a como leemos los nْmeros en el
cuentakilómetros de un automóvil.
La primera computadora fue la máquina
analítica creada por Charles Babbage, profesor
matemático de la Universidad de
Cambridge en el siglo XIX. La idea que tuvo Charles Babbage sobre
un computador
nació debido a que la elaboración de las tablas
matemáticas era un proceso
tedioso y propenso a errores. En 1823 el gobierno
Británico lo apoyo para crear el proyecto de una
máquina de diferencias, un dispositivo mecánico
para efectuar sumas repetidas.
Mientras tanto Charles Jacquard (francés), fabricante de
tejidos,
había creado un telar que podía reproducir
automáticamente patrones de tejidos leyendo la información codificada en patrones de
agujeros perforados en tarjetas de
papel
rígido. Al enterarse de este método
Babbage abandonó la máquina de diferencias y se
dedico al proyecto de la máquina analítica que se
pudiera programar con tarjetas perforadas para efectuar cualquier
cálculo
con una precisión de 20 dígitos. La tecnología de la
época no bastaba para hacer realidad sus ideas.
El mundo no estaba listo, y no lo estaría por cien
años más.
En 1944 se construyó en la Universidad de Harvard, la Mark
I, diseٌada por un equipo encabezado por Howard H. Aiken.
Esta máquina no está considerada como computadora
electrónica debido a que no era de
propósito general y su funcionamiento estaba basado en
dispositivos electromecánicos llamados
relevadores.
En 1947 se construyó en la Universidad de
Pennsylvania la ENIAC (Electronic Numerical Integrator And
Calculator) que fue la primera computadora electrónica, el
equipo de diseٌo lo encabezaron los ingenieros John Mauchly
y John Eckert. Esta máquina ocupaba todo un sótano
de la Universidad, tenía más de 18 000 tubos de
vacío, consumía 200 KW de energía
eléctrica y requería todo un sistema de
aire
acondicionado, pero tenía la capacidad de realizar
cinco mil operaciones aritméticas en un segundo.
El proyecto, auspiciado por el departamento de Defensa de los
Estados
Unidos, culminó dos años después, cuando
se integró a ese equipo el ingeniero y matemático
húngaro John von Neumann (1903 – 1957). Las ideas de von
Neumann resultaron tan fundamentales para su desarrollo
posterior, que es considerado el padre de las computadoras.
La EDVAC (Electronic Discrete Variable Automatic Computer) fue
diseٌada por este nuevo equipo. Tenía
aproximadamente cuatro mil bulbos y usaba un tipo de memoria basado en
tubos llenos de mercurio por donde circulaban seٌales
eléctricas sujetas a retardos.
La idea fundamental de von Neumann fue: permitir que en la memoria
coexistan datos con instrucciones, para que entonces la
computadora pueda ser programada en un lenguaje, y no
por medio de alambres que eléctricamente interconectaban
varias secciones de control, como en
la ENIAC.
Todo este desarrollo de las computadoras suele divisarse por
generaciones y el criterio que se determinó para
determinar el cambio de
generación no está muy bien definido, pero resulta
aparente que deben cumplirse al menos los siguientes
requisitos:
- La forma en que están construidas.
- Forma en que el ser humano se comunica con
ellas.
Primera Generación
En esta generación había una gran desconocimiento
de las capacidades de las computadoras, puesto que se
realizó un estudio en esta época que
determinó que con veinte computadoras se saturaría
el mercado de los
Estados Unidos en el campo de procesamiento de
datos.
Esta generación abarco la década de los cincuenta.
Y se conoce como la primera generación. Estas
máquinas tenían las siguientes características:
- Estas máquinas estaban construidas por medio
de tubos de vacío. - Eran programadas en lenguaje de
máquina.
En esta generación las máquinas son
grandes y costosas (de un costo aproximado
de ciento de miles de dólares).
En 1951 aparece la UNIVAC (NIVersAl Computer), fue la
primera computadora comercial, que disponía de mil
palabras de memoria central y podían leer cintas
magnéticas, se utilizó para procesar el censo de
1950 en los Estados Unidos.
En las dos primeras generaciones, las unidades de entrada
utilizaban tarjetas perforadas, retomadas por Herman Hollerith
(1860 – 1929), quien además fundó una
compaٌía que con el paso del tiempo se
conocería como IBM (International Bussines Machines).
Después se desarrolló por IBM la IBM 701
de la cual se entregaron 18 unidades entre 1953 y 1957.
Posteriormente, la compaٌía Remington Rand
fabricó el modelo 1103, que competía con la 701 en
el campo científico, por lo que la IBM desarrollo la 702,
la cual presentó problemas en memoria, debido a esto no
duró en el mercado.
La computadora más exitosa de la primera generación
fue la IBM 650, de la cual se produjeron varios cientos. Esta
computadora que usaba un esquema de memoria secundaria llamado
tambor magnético, que es el antecesor de los discos
actuales.
Otros modelos de
computadora que se pueden situar en los inicios de la segunda
generación son: la UNIVAC 80 y 90, las IBM 704 y 709,
Burroughs 220 y UNIVAC 1105.
Segunda Generación
Cerca de la década de 1960, las computadoras
seguían evolucionando, se reducía su tamaٌo y
crecía su capacidad de procesamiento. También en
esta época se empezó a definir la forma de
comunicarse con las computadoras, que recibía el nombre de
programación de sistemas.
Las características de la segunda generación son
las siguientes:
- Están construidas con circuitos de
transistores. - Se programan en nuevos lenguajes llamados lenguajes
de alto nivel.
En esta generación las computadoras se reducen de
tamaٌo y son de menor costo. Aparecen muchas
compañías y las computadoras eran bastante
avanzadas para su época como la serie 5000 de Burroughs y
la ATLAS de la Universidad de Manchester.
Algunas de estas computadoras se programaban con cintas
perforadas y otras más por medio de cableado en un
tablero. Los programas eran hechos a la medida por un equipo de
expertos: analistas, diseñadores, programadores y
operadores que se manejaban como una orquesta para resolver los
problemas y cálculos solicitados por la
administración. El usuario final de la
información no tenía contacto directo con las
computadoras. Esta situación en un principio se produjo en
las primeras computadoras personales, pues se requería
saberlas "programar" (alimentarle instrucciones) para obtener
resultados; por lo tanto su uso estaba limitado a aquellos
audaces pioneros que gustaran de pasar un buen número de
horas escribiendo instrucciones, "corriendo" el programa
resultante y verificando y corrigiendo los errores o bugs que
aparecieran. Además, para no perder el "programa"
resultante había que "guardarlo" (almacenarlo) en una
grabadora de astte, pues en esa época no había
discos flexibles y mucho menos discos duros
para las PC; este procedimiento
podía tomar de 10 a 45 minutos, según el programa.
El panorama se modificó totalmente con la aparición
de las computadoras personales con mejore circuitos, más
memoria, unidades de disco flexible y sobre todo con la
aparición de programas de aplicación general en
donde el usuario compra el programa y se pone a trabajar.
Aparecen los programas procesadores de
palabras como el célebre Word Star, la
impresionante hoja de
cálculo (spreadsheet) Visicalc y otros más que
de la noche a la mañana cambian la imagen de la PC.
El sortware empieza a tratar de alcanzar el paso del hardware.
Pero aquí aparece un nuevo elemento: el usuario.
El usuario de las computadoras va cambiando y evolucionando con
el tiempo. De estar totalmente desconectado a ellas en las
máquinas grandes pasa la PC a ser pieza clave en el
diseٌo tanto del hardware como del software. Aparece el
concepto de
human interface que es la relación entre el usuario y su
computadora. Se habla entonces de hardware ergonómico
(adaptado a las dimensiones humanas para reducir el cansancio),
diseños de pantallas antirreflejos y teclados que
descansen la muٌeca. Con respecto al software se inicia una
verdadera carrera para encontrar la manera en que el usuario pase
menos tiempo capacitándose y entrenándose y
más tiempo produciendo. Se ponen al alcance programas con
menúes (listas de opciones) que orientan en todo momento
al usuario (con el consiguiente aburrimiento de los usuarios
expertos); otros programas ofrecen toda una artillería de
teclas de control y teclas de funciones
(atajos) para efectuar toda suerte de efectos en el trabajo
(con la consiguiente desorientación de los usuarios
novatos). Se ofrecen un sinnْmero de cursos
prometiendo que en pocas semanas hacen de cualquier persona un
experto en los programas comerciales. Pero el problema
"constante" es que ninguna solución para el uso de los
programas es "constante". Cada nuevo programa requiere aprender
nuevos controles, nuevos trucos, nuevos menْs. Se empieza a
sentir que la relación usuario-PC no está acorde
con los desarrollos del equipo y de la potencia de los
programas. Hace falta una relación amistosa entre el
usuario y la PC.
Las computadoras de esta generación fueron: la Philco 212
(esta compañía se retiró del mercado en
1964) y la UNIVAC M460, la Control Data Corporation modelo 1604,
seguida por la serie 3000, la IBM mejoró la 709 y
sacó al mercado la 7090, la National Cash Register
empezó a producir máquinas para proceso de datos de
tipo comercial, introdujo el modelo NCR 315.La Radio
Corporation of America introdujo el modelo 501, que manejaba
el lenguaje
COBOL, para
procesos
administrativos y comerciales. Después salió al
mercado la RCA 601.
Tercera generación
Con los progresos de la electrónica y los avances
de comunicación con las computadoras en la
década de los 1960, surge la tercera
generación de las computadoras. Se inaugura con la
IBM 360 en abril de 1964. Las características de esta
generación fueron las siguientes:
- Su fabricación electrónica esta basada
en circuitos
integrados. - Su manejo es por medio de los lenguajes de control de
los sistemas
operativos.
La IBM produce la serie 360 con los modelos 20, 22, 30,
40, 50, 65, 67, 75, 85, 90, 195 que utilizaban técnicas
especiales del procesador,
unidades de cinta de nueve canales, paquetes de discos
magnéticos y otras características que ahora son
estándares (no todos los modelos usaban estas
técnicas, sino que estaba dividido por aplicaciones).
El sistema operativo
de la serie 360, se llamó OS que contaba con varias
configuraciones, incluía un conjunto de técnicas de
manejo de memoria y del procesador que pronto se convirtieron en
estándares.
En 1964 CDC introdujo la serie 6000 con la computadora 6600 que
se consideró durante algunos aٌos como la más
rápida.
En la década de 1970, la IBM produce la serie 370 (modelos
115, 125, 135, 145, 158, 168). UNIVAC compite son los modelos
1108 y 1110, máquinas en gran escala; mientras
que CDC produce su serie 7000 con el modelo 7600. Estas
computadoras se caracterizan por ser muy potentes y veloces.
A finales de esta década la IBM de su serie 370 produce
los modelos 3031, 3033, 4341. Burroughs con su serie 6000 produce
los modelos 6500 y 6700 de avanzado diseٌo, que se
reemplazaron por su serie 7000. Honey – Well participa con su
computadora DPS con varios modelos.
A mediados de la década de 1970, aparecen en el mercado
las computadoras de tamaño mediano, o
minicomputadoras que no son tan costosas como las
grandes (llamadas también como mainframes que
significa también, gran sistema), pero disponen de gran
capacidad de procesamiento. Algunas minicomputadoras fueron las
siguientes: la PDP – 8 y la PDP – 11 de Digital Equipment
Corporation, la VAX (Virtual Address eXtended) de la misma
compañía, los modelos NOVA y ECLIPSE de Data
General, la serie 3000 y 9000 de Hewlett – Packard con varios
modelos el 36 y el 34, la Wang y Honey – Well -Bull, Siemens de
origen alemán, la ICL fabricada en Inglaterra. En la
Unión Soviética se utilizó la US (Sistema
Unificado, Ryad) que ha pasado por varias
generaciones.
Cuarta Generación
Aquí aparecen los microprocesadores que
es un gran adelanto de la microelectrónica, son circuitos
integrados de alta densidad y con
una velocidad
impresionante. Las microcomputadoras con base en estos circuitos
son extremadamente pequeٌas y baratas, por lo que su uso se
extiende al mercado industrial. Aquí nacen las
computadoras personales que han adquirido proporciones enormes y
que han influido en la sociedad en
general sobre la llamada "revolución
informática".
En 1976 Steve Wozniak y Steve Jobs inventan la primera
microcomputadora de uso masivo y más tarde forman la
compaٌía conocida como la Apple que fue la segunda
compaٌía más grande del mundo, antecedida tan
solo por IBM; y esta por su parte es aْn de las cinco
compaٌías más grandes del mundo.
En 1981 se vendieron 800 00 computadoras personales, al siguiente
subió a 1 400 000. Entre 1984 y 1987 se vendieron
alrededor de 60 millones de computadoras personales, por lo que
no queda duda que su impacto y penetración han sido
enormes.
Con el surgimiento de las computadoras personales, el software y
los sistemas que con ellas de manejan han tenido un considerable
avance, porque han hecho más interactiva la
comunicación con el usuario. Surgen otras aplicaciones
como los procesadores de palabra, las hojas electrónicas
de cálculo, paquetes gráficos, etc. También las industrias del
Software de las computadoras personales crece con gran rapidez,
Gary Kildall y William Gates se dedicaron durante aٌos a la
creación de sistemas
operativos y métodos
para lograr una utilización sencilla de las
microcomputadoras (son los creadores de CP/M y de los productos de
Microsoft).
No todo son microcomputadoras, por su puesto, las
minicomputadoras y los grandes sistemas continْan en
desarrollo. De hecho las máquinas pequeٌas rebasaban
por mucho la capacidad de los grandes sistemas de 10 o 15
aٌos antes, que requerían de instalaciones costosas
y especiales, pero sería equivocado suponer que las
grandes computadoras han desaparecido; por el contrario, su
presencia era ya ineludible en prácticamente todas las
esferas de control gubernamental, militar y de la gran industria. Las
enormes computadoras de las series CDC, CRAY, Hitachi o IBM por
ejemplo, eran capaces de atender a varios cientos de millones de
operaciones por segundo.
Quinta Generación
En vista de la acelerada marcha de la microelectrónica, la
sociedad industrial se ha dado a la tarea de poner también
a esa altura el desarrollo del software y los sistemas con que se
manejan las computadoras. Surge la competencia
internacional por el dominio del
mercado de la computación, en la que se perfilan dos
líderes que, sin embargo, no han podido alcanzar el nivel
que se desea: la capacidad de comunicarse con la computadora en
un lenguaje más cotidiano y no a través de
códigos o lenguajes de control especializados.
Japón
lanzó en 1983 el llamado "programa de la quinta
generación de computadoras", con los objetivos
explícitos de producir máquinas con innovaciones
reales en los criterios mencionados. Y en los Estados Unidos ya
está en actividad un programa en desarrollo que persigue
objetivos semejantes, que pueden resumirse de la siguiente
manera:
- Procesamiento en paralelo mediante arquitecturas y
diseños especiales y circuitos de gran
velocidad. - Manejo de lenguaje natural y sistemas de inteligencia
artificial.
El futuro previsible de la computación es muy
interesante, y se puede esperar que esta ciencia siga
siendo objeto de atención prioritaria de gobiernos y de la
sociedad en conjunto.
Las computadoras digitales actuales se ajustan al modelo
propuesto por el matemático John Von Neumann. De acuerdo
con el, una característica importante de este modelo es
que tanto los datos como los programas, se almacenan en la
memoria antes de ser utilizados.
Elementos.
Hardware son todos aquellos componentes físicos de una
computadora, todo lo visible y tangible. El Hardware realiza las
actividades fundamentales: entrada, procesamiento, salida
y almacenamiento
secundario.
En realidad, un ordenador digital no es una única
máquina, en el sentido en el que la mayoría de la
gente considera a los ordenadores. Es un sistema compuesto de
cinco elementos diferenciados: una CPU (unidad
central de proceso); dispositivos de
entrada; dispositivos de
almacenamiento de memoria; dispositivos de salida y una red de comunicaciones, denominada bus, que enlaza a todos los
elementos del sistema y conecta a éste con el mundo
exterior.
El software es el conjunto de instrucciones que las computadoras
emplean para manipular datos. Sin el software, la computadora
sería un conjunto de medios sin
utilizar. Al cargar los programas en una computadora, la
máquina actuará como si recibiera una educación
instantánea; de pronto "sabe" cómo pensar y
cómo operar.
El Software es un conjunto de programas, documentos,
procedimientos, y rutinas asociados con la
operación de un sistema de cómputo.
Distinguiéndose de los componentes físicos llamados
hardware.
Comúnmente a los programas de computación se les
llama software; el software asegura que el programa o sistema
cumpla por completo con sus objetivos, opera con eficiencia, esta
adecuadamente documentado, y suficientemente sencillo de
operar.
Es simplemente el conjunto de instrucciones individuales que se
le proporciona al microprocesador
para que pueda procesar los datos y generar los resultados
esperados.
El hardware por si solo no puede hacer nada, pues es
necesario que exista el software, que es el conjunto de
instrucciones que hacen funcionar al hardware.
Un Sistema Operativo (SO) es en sí mismo un
programa de computadora. Sin embargo, es un programa muy
especial, quizá el más complejo e importante en una
computadora. El SO despierta a la computadora y hace que
reconozca a la CPU, la memoria, el teclado, el
sistema de vídeo y las unidades de disco.
Además, proporciona la facilidad para que los usuarios se
comuniquen con la computadora y sirve de plataforma a partir de
la cual se ejecutan programas de aplicación.
Cuando se enciende una computadora, lo primero que ésta
hace es llevar a cabo un autodiagnóstico llamado
autoprueba de encendido (Power On Self Test, POST).
Durante la POST, la computadora indentifica su memoria, sus
discos, su teclado, su sistema de vídeo y cualquier otro
dispositivo conectado a ella. Lo siguiente que la computadora
hace es buscar un SO para arrancar (boot).
Una vez que la computadora ha puesto en marcha su SO, mantiene al
menos parte de éste en su memoria en todo momento.
Mientras la computadora esté encendida, el SO tiene 4
tareas principales:
1.- Proporcionar ya sea una interfaz de línea de comando o
una interfaz gráfica al usuario, para que este
último se pueda comunicar con la computadora.
Interfaz de línea de comando: se introducen palabras y
símbolos desde el teclado de la computadora, ejemplo, el
MS-DOS.
Interfaz gráfica del Usuario (GUI), se seleccionan las
acciones
mediante el uso de un Mouse para
pulsar sobre figuras llamadas iconos o seleccionar opciones de
los menús.
2.- Administrar los dispositivos de hardware en la computadora
· Cuando corren los programas, necesitan utilizar la
memoria, el monitor, las
unidades de disco, los puertos de Entrada/Salida (impresoras,
módems, etc). El SO sirve de intermediario entre los
programas y el hardware.
3.- Administrar y mantener los sistemas de archivo de disco
· Los SO agrupan la información dentro de
compartimientos lógicos para almacenarlos en el disco.
Estos grupos de
información son llamados archivos. Los
archivos pueden contener instrucciones de programas o
información creada por el usuario. El SO mantiene una
lista de los archivos en un disco, y nos proporciona las herramientas
necesarias para organizar y manipular estos archivos.
4.- Apoyar a otros programas.
Otra de las funciones importantes del SO es proporcionar servicios a
otros programas. Estos servicios son similares a aquellos que el
SO proporciona directamente a los usuarios. Por ejemplo, listar
los archivos, grabarlos a disco, eliminar archivos, revisar
espacio disponible, etc.
Cuando los programadores escriben programas de computadora,
incluyen en sus programas instrucciones que solicitan los
servicios del SO. Estas instrucciones son conocidas como "llamadas del sistema"
5. Piratería de software.
Copias simples sin licencia realizadas por personas o
negocios. O,
en el caso de licencias en volumen, puede
significar que se reporte un número menor de computadoras
en las cuales se utiliza/instala el software.
2 Preinstalación en disco duro
Lo practican los integradores de PCs deshonestos que venden PCs
con software ilícito preinstalado. Los distribuidores
utilizan una copia adquirida legalmente para la
instalación ilegal en muchas máquinas. Los discos y
la documentación con frecuencia se pierden o
están incompletos. Ocasionalmente, el software sin
licencia es un medio magnético y/o documentación
falsa que luego se vende a los usuarios finales que no
están conscientes del estado ilegal
del software.
3 Clasificación
La piratería de software a gran escala, en la cual el
software y su empaque son
duplicados ilegalmente, normalmente por círculos de crimen
organizado, para su posterior redistribución como un
supuesto producto
legal.
4 Distribución no autorizada
Software distribuido bajo licencia de descuentos especiales, ya
sea a clientes que
manejan altos volúmenes, fabricantes de computadoras o
instituciones
académicas, que luego se redistribuye a otros que no
tienen o no califican para estas licencias.
¿Cómo impacta la piratería?
La piratería de software daña a todos desde
desarrolladores a revendedores y consumidores.
Derechos de propiedad
intelectual
La propiedad intelectual es la posesión de ideas
así como el control sobre la representación
tangible o virtual de esas ideas. El software es propiedad
intelectual, como lo son los libros,
películas y la música. Como los
intérpretes de música, los desarrolladores de
software usan las leyes de derecho
de autor para proteger su trabajo y su inversión en el campo. El robo de propiedad
intelectual elimina los recursos usados
para desarrollar nuevos y mejores productos.
Daño al consumidor
El software pirata daña directamente al los consumidores
porqué:
A menudo carece de elementos y documentación y nunca tiene
garantía de protección u opciones de
actualización.
Los discos falsificados pueden estar infestados de virus que
dañarán su disco duro y
pueden inhabilitar su red.
Si se copia software en el trabajo, los usuarios quedan en
riesgo, ellos
mismos y su compañía por piratear un producto que
está protegido por las leyes de derechos de
autor.
Revendedores
La piratería de software daña inmediatamente a los
revendedores de software causando más de $500 millones de
dólares en ganancias perdidas. Además, más
de la mitad de los trabajos perdidos debido a la piratería
de software viene de los canales de
distribución.
En un esfuerzo de por nivelar el campo de juego para los
resellers honestos, Microsoft está tomando acciones
legales contra los infractores repetitivos. Microsoft's AP
Business Desk es un programa diseñado para ayudar a los
resellers que creen que han perdido una importante porción
de negocio como resultado de la venta de software
falsificado por parte de la competencia.
En 1998 38 por ciento del software en circulación era
pirata, provocando perdidas por aproximadamente $11 000 millones
de dólares a la industria del software. La
piratería de software es un serio problema mundial
particularmente dónde el índice de piratería
de software es cercano al 100 por ciento.
Un factor que contribuye a la piratería de software es la
disparidad entre las leyes de propiedad intelectual y derechos de autor aunado al
crecimiento de Internet. Y aunque las
organizaciones
han tenido éxito
en sus esfuerzos por combatir la piratería de software,
los gobiernos alrededor del mundo deben tomar los pasos para
mejorar sus leyes de propiedad intelectual y sistemas de
cumplimiento de las órdenes.
Sin un compromiso para reducir la piratería, se impide el
potencial para el crecimiento
económico mundial. El alto índice de
piratería inhibe el desarrollo de la industria del
software y lo imposibilita para alcanzar su completo potencial
mundial al engañar a los desarrolladores legítimos
de software y a las compañías con los derechos y
regalías de la propiedad intelectual.
La industria del software está comprometida a ayudar a los
gobiernos en el reto de de mejorar y hacer cumplir las leyes de
propiedad intelectual y educar al público acerca de la
importancia de los derechos de propiedad intelectual en el
software..
Páises con las más grandes pérdidas en
dólares debido a la piratería de
software*:
- Estados Unidos
- China
- Japón
- Alemania
- Reino Unido
- Francia
- Brasil
- Italia
- Canadá
- Rusia
*Las pérdidas en estos países sumaron $7.3
mil millones o 67% de las pérdidas mundiales en 1998. Con
$3.2 mil millones de dólares, la piratería de
software en Norte América
representó 26% de las pérdidas por ganancias en
1998.
Paquetes de edición.
Los paquetes de edición o publicación son programas
con instrucciones a la computadora, en forma de comandos
amigables para el usuario, que contribuyen a publicar textos.
Así, además de las características de
procesamiento de las palabras, también justifican,
paginan, formatean y numeran el texto
dejándolo listo para las computadoras de las imprentas.
Están orientados a la publicación masiva de textos
(libros, revistas, periódicos).
Procesador de palabras.
Un programa procesador de
texto (como el que estamos utilizando para este trabajo),
consiste en una serie de instrucciones a la computador a partir
de "comandos" amigables para el usuario.
Los comandos típicos de un programa de procesamiento de
palabras son aquellos que modifican los factores referentes a la
escritura:
tipos de letra, alineación de párrafos, corte de
texto, copiado y pegado. Con el tiempo se han ido sofisticando de
tal forma que hoy es posible escribir con corrección
automática de la ortografía, traducción de distintos
idiomas y la utilización de modelos o plantillas que
embellecen la presentación de las páginas.
Se anticipan futuros de procesadores de palabras con comando de
voz, o cualquier cosa que la imaginación pueda
contemplar.
Aplicabilidad de software.
Desde los primeros días de las computadoras modernas, la
tecnología del hardware ha progresado lejos más
rápidamente que el software que la acompaña. Por
ejemplo, existen computadoras que poseen un Hardware con un
funcionamiento veloz e increíble, pero el Software
(Sistema Operativo) que estas máquinas poseen es tan pobre
que son extremadamente difíciles de programar. Debido a
el estado
inmaduro de estos sistemas operativos, estas computadoras
funcionan solamente en una fracción pequeña de su
velocidad máxima mientras que trabajan bajo cargas de
trabajo típicas.
Es por los anterior que la industria del software debe ahora
dedicar más tiempo y energía al desarrollo de este.
Una vez que la tecnología del software alcance el nivel de
la tecnología del hardware, los sistemas serán no
sólo más de gran alcance y prácticos, sino
que utilizarán sus recursos de hardware mucho más
eficientemente.
Con la llegada de los nuevos Sistemas Operativos el hardware se
aprovechará al máximo y se reducirá esa
brecha tan grande de rapidez que existe entre el hardware y el
software que lo controla. Con estos Sistemas Operativos se
llegará a concretar lo que se llama la quinta
generación de computadoras, la cual pretende multiplicar
la velocidad, disponer procesamientos paralelos, diseñar
una arquitectura de
hardware-software muy superior y utilizar el lenguaje
natural.
La renovación que aportarán los sistemas operativos
es múltiple. Ya no viene determinada únicamente por
la introducción de cambios material o de
hardware, sino por la combinación de novedades en el
material y en la programación.
El tipo de trabajo propio que realizarán el hardware y
software de la quinta generación no solo en el tratamiento
de datos, sino en la adquisición de información y,
a partir de los materiales y
estructuras de
que dispone, en la elaboración de conocimientos, es decir,
en la elaboración inteligente del saber. Es decir se
anuncia el aprovechamiento de la computadora para adquirir
conocimientos artificialmente, a través de las
máquinas. A partir de esto, estas ya no solo
aportarán fuerza o
habilidad, sino que también proveerán al hombre de un
conocimiento
del mundo.
Autor:
Marisela Villa Rojas