Monografias.com > Sin categoría
Descargar Imprimir Comentar Ver trabajos relacionados

Guía practica para manejar y reparar la computadora (página 2)




Enviado por Anonimo



Partes: 1, 2

En 1801 el francés Joseph Jacquard (1752-1834), hijo de un modesto obrero textil, utilizó un mecanismo de tarjetas perforadas para controlar el dibujo formado por los hilos de las telas confeccionadas por una máquina de tejer. Estas plantillas o moldes metálicos perforados permitían programar las puntadas del tejido, logrando obtener una diversidad de tramas y figuras.

En 1822 Charles Babbage, matemático e inventor inglés, ideó una máquina que algunos toman como la primera máquina computadora. Hacía operaciones aritméticas y cálculos diversos por medio de un mecanismo de entrada y salida con tarjetas perforadas, una memoria, una unidad de control y una unidad aritmético-lógica. Una de sus características más importantes era que podía alterar su secuencia de operaciones basándose en el resultado de cálculos anteriores, algo fundamental en los computadores actuales.

Charles Babbage fue maestro de Augusta Ada Byron (1815-1851), condesa de Lovelace, hija del poeta Inglés Lord Byron. Se reconoce a Ada Byron como la primera persona en escribir un lenguaje de programación de carácter general, interpretando las ideas de Babbage.

Un poco antes de 1870, William Thomson Kelvin, matemático y físico escocés, inventor de las llantas usadas en bicicletas y autos, y también muy estudioso del fenómeno del calor, había elaborado la teoría de una máquina capaz de resolver ecuaciones diferenciales, pero sólo fue construida 50 años más tarde, en 1925, por Vannevar Bush, un ingeniero eléctrico nacido en Massachusetts (Estados Unidos).

En 1879, a los 19 años de edad, Herman Hollerith fue contratado como asistente en las oficinas del censo norteamericano y desarrolló un sistema de cómputo mediante tarjetas perforadas en las que los agujeros representaban el sexo, la edad, raza, etc. Gracias a la máquina de Hollerith el censo de 1890 se realizó en dos años y medio, cinco menos que el censo de 1880.

Hollerith dejó las oficinas del censo en 1896 para fundar Tabulating Machine Company. En 1900 había desarrollado una máquina que podía clasificar 300 tarjetas por minuto (en vez de las 80 cuando el censo), una perforadora de tarjetas y una máquina de cómputo semiautomática. En 1924 fusionó su compañía con otras dos para formar la International Business Machines hoy mundialmente conocida como IBM.

1900: Comienzo de la física cuántica. A finales del siglo 19 los científicos estaban intrigados por el comportamiento de los cuerpos negros, los cuales, según la física que conocían, absorbían y radiaban energía en toda la gama de frecuencias, cosa que no ocurre con los cuerpos de color. Suponían que la energía era emitida a manera de flujo continuo, mayor o menor según la frecuencia de radiación electromagnética y la cantidad de calor en el cuerpo, pero estaban equivocados.

En 1900 el físico teórico alemán Max Planck aceptó la teoría electromagnética de la luz, que sostenía que la luz era un fenómeno ondulatorio y que la materia -que se suponía que contenía pequeños cuerpos cargados eléctricamente, o partículasirradiaba energía en la forma de ondas de luz cuando esas partículas cargadas eran aceleradas. Con el objetivo de estudiar la radiación de un cuerpo negro, Planck se imaginó las partículas cargadas como pequeños osciladores, acelerados y desacelerados repetidamente de manera uniforme.

Para poder calcular el equilibrio de la energía entre los supuestos osciladores y su radiación de entrada y salida, Planck halló que necesitaba suponer la existencia de cuantos, o diminutas divisiones de energía, en vez de una gama continua de energías posibles. Por ello, llegó a deducir la definición de un cuanto de energía como la frecuencia de la oscilación multiplicada por un diminuto número que no tardó en ser conocido como la constante de Planck. Esos supuestos fueron los utilizados por Planck para resolver el problema del cuerpo negro, pero nunca llegó más allá en una interpretación significativa de sus cuantos.

Se denomina cuanto al salto que experimenta la energía de un corpúsculo cuando absorbe o emite radiación. Dicha energía es proporcional a la frecuencia de la radiación.

En 1905 Einstein, basándose en el trabajo de Planck, publicó su teoría sobre el fenómeno conocido como efecto fotoeléctrico y demostró que las partículas cargadas –que en esos tiempos se suponían que eran electronesabsorbían y emitían energía en cuantos finitos que eran proporcionales a la frecuencia de la luz o radiación, fenómeno que hoy se está aprovechando para crear los nuevos computadores cuánticos, en los que ya no se habla de bits que representan 1 ó 0, sino de qubits que pueden asumir a la vez dos estados opuestos.

El paso sustancial hacia la nueva teoría cuántica de los átomos se le debe al físico alemán Werner Heisenberg, quien después de haber inventado la mecánica matricial, en 1925, junto con Max Born y Pascual Jordan, elaboró una versión completa de la nueva teoría cuántica, una nueva dinámica que servía para calcular las propiedades de los átomos, igual que había servido la mecánica de Newton para calcular las órbitas de los planetas.

Para concebir el mundo cuántico, Heisenberg y Niels Bohr se esforzaron por hallar una estructura nueva que estuviera de acuerdo con la nueva mecánica cuántica. Heisenberg descubrió, cuando intentaba resolver estos problemas interpretativos, el «principio de incertidumbre», el cual revelaba una característica distintiva de la mecánica cuántica que no existía en la mecánica newtoniana.

En 1938 el alemán Konrad Zuse terminó la primera máquina binaria para calcular, y la llamó Z1.

A comienzos de los años 30, John Vincent Atanasoft, un norteamericano doctorado en física teórica, hijo de un ingeniero eléctrico emigrado de Bulgaria y de una maestra de escuela, se encontró con que los problemas que tenía que resolver requerían una excesiva cantidad de cálculo.Aficionado a la electrónica y conocedor de la máquina de Pascal y las teorías de Babbage, empezó a considerar la posibilidad de construir un calculador digital. Decidió que la máquina habría de operar en sistema binario, y hacer los cálculos de modo distinto a como los realizaban las calculadoras mecánicas.

Con 650 dólares donados por el Concejo de Investigación del Estado de lowa, contrató la cooperación de Clifford Berry, estudiante de ingeniería, y los materiales para un modelo experimental. Posteriormente recibió otras donaciones que sumaron 6460 dólares. Este primer aparato fue conocido como ABC AtanasoffBerry-Computer.

Prácticamente al mismo tiempo que John VincentAtanasoft, el ingeniero John Mauchly, director en ese momento del Departamento de física del Ursine College cerca de Filadelfia, se había encontrado con los mismos problemas en cuanto a velocidad de cálculo, y estaba convencido de que habría una forma de acelerar el proceso por medios electrónicos. Al carecer de medios económicos, construyó un pequeño calculador digital y se presentó al congreso de la AAAS (Asociación Americana para el Avance de la Ciencia) para presentar un informe sobre el mismo. Allí, en diciembre de 1940, se encontró con Atanasoff, y el intercambio de ideas que tuvieron originó una disputa sobre la paternidad de la computadora digital.

En 1941 Mauchly se matriculó en unos cursos en la Escuela Moore de Ingeniería Eléctrica de la Universidad de Pensilvania, donde conoció a J. Presper Eckert, un instructor de laboratorio. La escuela Moore trabajaba entonces en un proyecto conjunto con el ejército para realizar unas tablas de tiro para armas balísticas. La cantidad de cálculos necesarios era inmensa, tanto que se demoraba unos treinta días en completar una tabla mediante el empleo de una máquina de cálculo analógica. Aun así, esto era unas 50 veces más rápido de lo que tardaba un hombre con una sumadora de sobremesa.

Mauchly publicó un artículo con sus ideas y las de Atanasoff, lo cual despertó el interés de Lieutenant Herman Goldstine, un oficial de la reserva que hacía de intermediario entre la universidad y el ejército, el cual consiguió interesar al Departamento de Ordenación en la financiación de una computadora electrónica digital. El 9 de abril de 1943 se autorizó a Mauchly y Eckert iniciar el desarrollo del proyecto. Se le llamó ENIAC (Electronic Numerical integrator and Computer) y comenzó a funcionar en las instalaciones militares norteamericanas del campo Aberdeen Proving Ground en Agosto de 1947. La construcción tardó 4 años y costó $486.804,22 dólares (el equivalente actual a unos tres millones de dólares por menos poder de cómputo del que actualmente se consigue en las calculadoras de mano).

El ENIAC tenía 19.000 tubos de vacío, 1.500 relés, 7.500 interruptores, cientos de miles de resistencias, condensadores e inductores y 800 kilómetros de alambres, funcionando todo a una frecuencia de reloj de 100.000 ciclos por segundo. Tenía 20 acumuladores de 10 dígitos, era capaz de sumar, restar, multiplicar y dividir, y tenía tres tablas de funciones. La entrada y la salida de datos se realizaba mediante tarjetas perforadas. Podía realizar unas 5.000 sumas por segundo (lo cual es muy poco, comparado con la capacidad de los computadores actuales). Pesaba unas 30 toneladas y tenía un tamaño equivalente al de un salón de clases. Consumía 200 kilovatios de potencia eléctrica (una computadora personal moderna consume apenas 200 vatios y es más poderosa) y necesitaba un equipo de aire acondicionado para disipar el gran calor que producía. En promedio, cada tres horas de uso fallaba una de las válvulas.

Lo que caracterizaba al ENIAC como computadora moderna no era simplemente su velocidad de cálculo, sino el que permitía realizar tareas que antes eran imposibles.

En 1941 Konrad Suze presentó el Z3, el primer computador electromagnético programable mediante una cinta perforada. Tenía dos mil electroimanes, una memoria de 64 palabras de 22 bits, pesaba mil kilos y consumía cuatro mil watts. Una adición demoraba 0,7 segundos, mientras que en una multiplicación o división tardaba 3 segundos.

En 1943 fue desarrollado en Inglaterra el primer computador electrónico, llamado Colossus, por un equipo de matemáticos, ingenieros eléctricos y agentes de inteligencia del ejército británico, dirigido por el matemático Alan Turing, un pionero en el desarrollo de la lógica de los computadores modernos, y en el tema de la inteligencia artificial. Colossus se instaló en Bletchley Park, una vieja casa solariega ubicada a la mitad del camino entre Cambridge y Oxford, y permitía descifrar automáticamente en pocos segundos los mensajes secretos de los nazis durante la Segunda Guerra Mundial, cifrados por la máquina Enigma. El computador competidor más cercano, el ENIAC norteamericano, comenzó a funcionar dos años más tarde, en 1945.

Entre 1939 y 1944, Howard Aiken de la Universidad de Harvard, en colaboración con IBM, desarrolló el Mark 1, conocido como Calculador Automático de Secuencia Controlada. Era una computadora electromecánica de 16 metros de largo y unos 2 de alto; tenía 700.000 elementos móviles y varios centenares de kilómetros de cables; podía realizar las cuatro operaciones básicas y trabajar con información almacenada en forma de tablas; operaba con números de hasta 23 dígitos y podía multiplicar tres números de 8 dígitos en un segundo.

El Mark 1, y las versiones que posteriormente se realizaron del mismo, tenían el mérito de asemejarse al tipo de máquina ideado por Babbage, aunque trabajaban en código decimal y no en binario.

El avance que dieron estas máquinas electromecánicas a la informática fue rápidamente ensombrecido por el ENIAC con sus circuitos electrónicos.

Durante la II Guerra Mundial, Norbert Wiener, matemático nacido en Missouri, trabajó con la defensa antiaérea norteamericana y estudió la base matemática de la comunicación de la información y del control de un sistema para derribar aviones. En 1948 publicó sus resultados en un libro que tituló CYBERNETICS (Cibernética), palabra que provenía del griego "piloto", y que se usó ampliamente para indicar automatización de procesos.

En 1946 el matemático húngaro John Von Neumann propuso una versión modificada del ENIAC; el EDVAC (Electronic Discrete Variable Automatic Computer), que se construyó en 1952. Esta máquina presentaba dos importantes diferencias respecto al ENIAC: En primer lugar empleaba aritmética binaria, lo que simplificaba enormemente los circuitos electrónicos de cálculo. En segundo lugar, permitía trabajar con un programa almacenado. El ENIAC se programaba conectando centenares de clavijas y activando un pequeño número de interruptores. Cuando había que resolver un problema distinto, era necesario cambiar todas las conexiones, proceso que llevaba muchas horas.

Von Neumann propuso cablear una serie de instrucciones y hacer que éstas se ejecutasen bajo un control central. Además propuso que los códigos de operación que habían de controlar las operaciones se almacenasen de modo similar a los datos en forma binaria. De este modo el EDVAC no necesitaba una modificación del cableado para cada nuevo programa, pudiendo procesar instrucciones tan deprisa como los datos. Además, el programa podía modificarse a sí mismo, ya que las instrucciones almacenadas, como datos, podían ser manipuladas aritméticamente.

Luego de abandonar la universidad, Eckert y Mauchly fundaron su propia compañía, la cual fue absorbida por Remington Rand. En 1951 entregaron a la Oficina del Censo su primera computadora: el UNIVACI. Posteriormente aparecería el UNIVACII con memoria de núcleos magnéticos, lo que le haría superior a su antecesor, pero, por diversos problemas, esta máquina no vio la luz hasta 1957, fecha en la que había perdido su liderazgo en el mercado frente al 705 de IBM.

En 1953 IBM fabricó su primera computadora para aplicaciones científicas, y la primera que usó memoria de núcleos de ferrita: la IBM 705.

En 1958 comenzó el empleo de circuitos transistorizados en las computadoras, en vez de válvulas al vacío. Un transistor puede tener el tamaño de una lenteja mientras que un tubo de vacío tiene un tamaño mayor que el de un cartucho de escopeta. Mientras que las tensiones de alimentación de los tubos estaban alrededor de los 300 voltios, las de los transistores vienen a ser de 10 voltios, con lo que los demás elementos de circuito también pueden ser de menor tamaño, al tener que disipar y soportar tensiones mucho menores. El transistor es un elemento constituido fundamentalmente por silicio o germanio. Su vida media es prácticamente ilimitada y en cualquier caso muy superior a la del tubo de vacío.

En 1962 el mundo estuvo al borde de una guerra nuclear entre la Unión Soviética y los Estados Unidos, en lo que se denominó "la crisis de los misiles de Cuba". A causa de esto, una de las preocupaciones de las Fuerzas Armadas de los Estados Unidos era conseguir una manera de que las comunicaciones fuesen más seguras en caso de un eventual ataque militar con armas nucleares.

Como solución entró en consideración solamente el proceso de datos en forma electrónica. Los mismos datos se deberían disponer en diferentes computadores alejados unos de otros. Todos los computadores entrelazados deberían poder enviarse en un lapso corto de tiempo el estado actual de los datos nuevos o modificados, y cada uno debería poder comunicarse de varias maneras con cada otro. Dicha red también debería funcionar si una computadora individual o cierta línea fuera destruida por un ataque del enemigo.

Ese mismo año 1962, J.C.R. Licklider escribió un ensayo sobre el concepto de Red Intergaláctica, donde todo el mundo estaba interconectado para acceder a programas y datos desde cualquier lugar del planeta. En Octubre de ese año, Lickider es el primer director de ARPA (Advanced Research Projects Agency), o Agencia de Proyectos de Investigación Avanzada, una organización científica creada en 1958 y cuyos resultados de investigación eran destinados a fines militares.

En 1963 un comité IndustriaGobierno desarrolló el código de caracteres ASCII, (se pronuncia asqui), el primer estándar universal para intercambio de información (American Standard Code for Information Interchange), lo cual permitió que máquinas de todo tipo y marca pudiesen intercambiar datos.

En 1964 el IBM 360 marcó el comienzo de la tercera generación de computadoras. Las placas de circuito impreso con múltiples componentes pasan a ser reemplazadas por los circuitos integrados. Estos elementos son unas plaquitas de silicio llamadas chips, sobre cuya superficie se depositan por medios especiales unas impurezas que hacen las funciones de diversos componentes electrónicos. Esto representó un gran avance en cuanto a velocidad y, en especial, en reducción de tamaño. En un chip de silicio no mayor que un centímetro cuadrado caben 64.000 bits de información. En núcleos de ferrita esa capacidad de memoria puede requerir cerca de un litro en volumen.

En 1964, investigadores del Instituto Tecnológico de Massachusetts (MIT), de la Corporación Rand y del Laboratorio Nacional de Física de la Gran Bretaña, entre los que se destacan Paul Baran, Donald Davies, Leonard Kleinrock, presentaron simultáneamente soluciones a lo propuesto por las Fuerzas Armadas norteamericanas. Y ese mismo año la Fuerza Aérea le asignó un contrato a la Corporación RAND para la llamada "red descentralizada". Ese proyecto fracasó después de muchos intentos y nunca fue realizado, pero la idea de una red que no dependiese de un solo punto central y con la transferencia de datos por paquete se quedó anclada en la cabeza de muchas personas.

Paul Baran, quien por ese entonces trabajaba con Rand Corporation, fue uno de los primeros en publicar en Data Communications Networks sus conclusiones en forma casi simultánea con la publicación de la tesis de Kleinrock sobre teoría de líneas de espera. Diseñó una red de comunicaciones que utilizaba computadores y no tenía núcleo ni gobierno central. Además, asumía que todas las uniones que conectaban las redes eran altamente desconfiables.

El sistema de Baran era algo así como una oficina de correos diseñada por un loco, que trabajaba con un esquema que partía los mensajes en pequeños pedazos y los metía en sobres electrónicos, llamados "paquetes", cada uno con la dirección del remitente y del destinatario. Los paquetes se lanzaban al seno de una red de computadores interconectados, donde rebotaban de uno a otro hasta llegar a su punto de destino, en el cual se juntaban nuevamente para recomponer el mensaje total. Si alguno de los paquetes se perdía o se alteraba (y se suponía que algunos se habrían de dislocar), no era problema, pues se volvían a enviar.

En 1966 la organización científica ARPA se decidió a conectar sus propios computadores a la red propuesta por Baran, tomando nuevamente la idea de la red descentralizada. A finales de 1969 ya estaban conectados a la red ARPA los primeros cuatro computadores, y tres años más tarde ya eran 40. En aquellos tiempos era, sin embargo, la red propia de ARPA. En los años siguientes la red fue llamada ARPANET (red ARPA), y su uso era netamente militar.

En 1966, un grupo de investigadores de los Laboratorios Bell (hoy AT&T) desarrolló un sistema operativo experimental llamado MULTICS (Información multiplexada y Sistema de Computación) para usar con una computadora General Electric. Los laboratorios Bell abandonaron el proyecto, pero en 1969, Ken Thompson, uno de los investigadores del MULTICS, diseñó un juego para dicha computadora, llamado Space Travel (Viaje Espacial), que simulaba el sistema solar y una nave espacial. Con la ayuda de Dennis Ritchie, Thompson volvió a escribirlo, ahora para una computadora DEC (Digital Equipment Corporation), aprovechando que, junto con Ritchie y Rudd Canaday, había creado también un sistema operativo multitarea, con sistema de archivos, intérprete de órdenes y algunas utilidades para la computadora DEC. Se le llamó UNICS (Información Uniplexada y Sistema de Computación) y podía soportar dos usuarios simultáneamente. En 1970 se renombró Unix. Fue un sistema operativo bueno y seguro, pero su licencia de uso era muy costosa, lo cual lo ponía fuera del alcance de muchas personas. Esto motivaría luego la creación del Proyecto GNU para el desarrollo de software libre.

En 1969 la organización ARPA junto con la compañía Rand Corporation desarrolló una red sin nodos centrales basada en conmutación de paquetes tal y como había propuesto Paul Baran. La información se dividía en paquetes y cada paquete contenía la dirección de origen, la de destino, el número de secuencia y una cierta información. Los paquetes al llegar al destino se ordenaban según el número de secuencia y se juntaban para dar lugar a la información. Al viajar paquetes por la red, era más difícil perder datos ya que, si un paquete concreto no llegaba al destino o llegaba defectuoso, la computadora que debía recibir la información sólo tenía que solicitar a la computadora emisora el paquete que le faltaba. El protocolo de comunicaciones se llamó NCP (Network Control Protocol). Esta red también incluyó un gran nivel de redundancia (repetición) para hacerla más confiable.

ARPANET conectó los computadores centrales por medio de procesadores de pasarela, o routers, conocidos como Interface Message Processors (IMPs). El 1 de Septiembre de 1969 el primer IMP llegó a UCLA. Un mes después el segundo fue instalado en Stanford. Despues en UC Santa Barbara y después en la Universidad de Utah.

En 1971 se creó el primer programa para enviar correo electrónico. Fue Ray Tomlinson, del BBN, y combinaba un programa interno de correo electrónico y un programa de transferencia de archivos. También en este año un grupo de investigadores del MIT presentaron la propuesta del primer "Protocolo para la transmisión de archivos en Internet". Era un protocolo muy sencillo basado en el sistema de correo electrónico pero sentó las bases para el futuro protocolo de transmisión de ficheros (FTP).

Las instituciones académicas se interesaron por estas posibilidades de conexión.

La NSF (National Science Foundation) dio acceso a sus seis centros de supercomputación a otras universidades a través de la ARPANET. A partir de aquí se fueron conectando otras redes, evitando la existencia de centros, para preservar la flexibilidad y la escalabilidad.

El 22 de mayo de 1973 Bob Metcalfe propuso oficialmente Ethernet, una solución tecnológica que permite las conexiones y el intercambio de información en una red de computadoras pequeñas. Ethernet fue creada por Metcalfe en el Xerox PARC (Centro de investigaciones de Palo Alto) y por ello se le reconoce como coinventor de la futura Internet.

En 1973 ARPA cambió su nombre por DARPA, se inició un programa para investigar técnicas y tecnologías para interconectar redes de tipos diferentes y se lanzaron dos nuevas redes: PRNET por Packet Radio de la Universidad de Hawaii, diseñada por Norm Abramson, conectando siete computadores en cuatro islas, y SATNET, una red conectada vía satélite, enlazando dos naciones: Noruega e Inglaterra.

Bob Kahn y Larry Roberts se propusieron interconectar a DARPA con PRNET y SATNET, con diferentes interfaces, tamaños de paquetes, rotulados, convenciones y velocidades de transmisión. Y en 1974, Vint Cerf, primer Presidente de la Internet Society, y conocido por muchos como el padre de Internet, junto con Bob Kahn, publicaron "Protocolo para Intercomunicación de Redes por paquetes", donde especificaron en detalle el diseño del Protocolo de control de transmisión (TCP, Transmission Control Protocol), que se convirtió en el estándar aceptado. La implementación de TCP permitió a las diversas redes conectarse en una verdadera red de redes alrededor del mundo.

En ese mismo año se creó el sistema Ethernet para enlazar a través de un cable único a las computadoras de una red local.

En enero de 1975 la revista Popular Electronics hizo el lanzamiento del Altair 8800, la primera computadora personal reconocible como tal. Tenía una CPU Intel de 8 bits y 256 bytes de memoria RAM. El código de máquina se introducía por medio de interruptores montados en el frente del equipo, y unos diodos luminosos servían para leer la salida de datos en forma binaria. Costaba 400 dólares, y el monitor y el teclado había que comprarlos por separado.

En este mismo año 1975 se fundó Microsoft. Y al año siguiente Steve Jobs y Steve Wozniak comienzan en un garaje lo que sería Apple, la fábrica de PCs identificados con una manzanita.

En 1978 se ofreció la primera versión del procesador de palabras WordStar.

En enero de 1979 Daniel Fylstra creó la CalcuLedger, la primera hoja de cálculo. En ese mismo año Dan Bricklin y Bob Frankston crearon la hoja de cálculo VisiCalc para la computadora APPLE II, que tuvo que ver mucho con el auge de las computadoras personales. Esto dio origen a Multiplan de Microsoft, a Lotus 1-2-3 (en 1982), a Quattro Pro y Excel.

También en 1979, ARPA creó la primera comisión de control de la configuración de Internet y en 1981 se terminó de definir el protocolo TCP/IP (Transfer Control Protocol / Internet Protocol), el cual ARPANET aceptó en 1982 como estándar, sustituyendo a NCP. Son las primeras referencias a Internet, como "una serie de redes conectadas entre sí, específicamente aquellas que utilizan el protocolo TCP/IP". Internet es la abreviatura de Interconnected Networks, es decir, Redes interconectadas, o red de redes.

En octubre de 1980 la IBM comenzó a buscar un sistema operativo para la nueva computadora personal que iba a lanzar al mercado, y Bill Gates, quien por ese entonces se había retirado de la universidad y junto con su amigo Paul Allen había desarrollado una versión de Basic para la computadora Altair, basado en otro lenguaje Basic de dominio público, convenció en 1981 a IBM de que tenía uno casi terminado y negoció en millones de dólares su sistema operativo de disco MS-DOS (Disk Operating System), sin tenerlo realmente. Ya con este contrato, compró por $50.000 dólares el QDOS (Quick-and-Dirty OS -Sistema Operativo Sucio y Rápido) de Seattle Computing. Este producto era una copia del CP/M de Gary Kildall, un amigo de Gates.

En 1981 IBM presentó la primera computadora personal (PC) reconocida popularmente como tal, con procesador Intel 8088 y el sistema operativo DOS.

En 1983 IBM presentó el PC XT, con un procesador 8088 de 4,77 MHz de velocidad y un disco duro de 10 MB. Ese mismo año, Microsoft presentó la versión 1.0 del procesador de palabras Word para DOS y ARPANET se separó de la red militar que la originó, de modo que, ya sin fines militares, se puede considerar esta fecha como el nacimiento de Internet. Es el momento en que el primer nodo militar se desliga, dejando abierto el paso para todas las empresas, universidades y demás instituciones que ya por esa época poblaban la red.

En 1983 Richard Stallman, quien por ese entonces trabajaba en el Instituto Tecnológico de Massachussets (MIT), decidió dedicarse al proyecto de software libre que denominó GNU, acrónimo de la expresión Gnu"s Not Unix (GNU no es Unix), el cual es compatible con Unix.

La palabra "libre" en este caso indica libertad (en inglés se usa la misma expresión "free" para libre y gratuito). Se puede o no pagar un precio por obtener software GNU, y una vez que se obtiene hay libertad de copiar el programa y darlo a otros, libertad de cambiar el programa como se quiera (por tener acceso completo al código fuente) y libertad de distribuir una versión mejorada, ayudando así a desarrollar la comunidad GNU. Si redistribuyes software GNU puedes cobrar una cuota por el acto físico de efectuar la copia, o puedes regalarla.

Las personas deseosas de ejecutar Unix en los PCs, y que no podían pagar el precio de la licencia de éste, podían instalar Minix, un sistema operativo parecido a Unix, desarrollado por el profesor Andrew Tanenbaum para enseñarle a sus alumnos acerca del diseño de sistemas operativos. Sin embargo, debido al enfoque puramente educacional del Minix, Tanenbaum no permitía que éste fuera modificado demasiado, ya que esto podía hacerlo complejo y difícil de entender.

En 1984 IBM presentó el PC AT, un sistema con procesador Intel 286, bus de expansión de 16 bits y 6 MHz de velocidad. Tenía 512 KB de memoria RAM, un disco duro de 20 MB y un monitor monocromático. Precio en ese momento: 5.795 dólares.

En 1985 Microsoft lanzó el sistema operativo Windows, el cual permitió a las computadoras compatibles IBM manejar también el ambiente gráfico, usual en los computadores Mac de Apple.

En septiembre de 1986 Compaq lanzó la primera computadora basada en el procesador Intel 80386, adelantándose a IBM.

En 1990 Tim Berners-Lee ideó el hipertexto para crear el World Wide Web (www) una nueva manera de interactuar con Internet. Su sistema hizo mucho más facil compartir y encontrar datos en Internet. BernersLee también creó las bases del protocolo de transmisión HTTP, el lenguaje de documentos HTML y el concepto de los URL.

En 1991 Linus Torvalds, un estudiante de Ciencias de la Computación de la Universidad de Helsinki (Finlandia), al ver que no era posible extender las funciones del Minix, decidió escribir su propio sistema operativo compatible con Unix, y lo llamó Linux (el parecido con su nombre personal es mera coincidencia). Miles de personas que querían correr Unix en sus PCs vieron en Linux su única alternativa, debido a que a Minix le faltaban demasiadas cosas. El proyecto GNU que Stallman había iniciado hacía ya casi diez años había producido para este entonces un sistema casi completo, a excepción del kernel, que es el programa que controla el hardware de la máquina, el cual desarrolló Torvalds y agregó al GNU para formar Linux.

Linux es un sistema operativo libre, no requiere licencia. Es más estable que Windows, de arquitectura abierta (puede ser adaptado por el usuario a sus propias necesidades) y es poco atacado por los virus. A mediados de los años noventa Linux se había convertido ya en el Unix más popular entre la gente que buscaba alternativas al Windows de Microsoft. Hoy en día existen varias distribuciones de Linux, tales como Caldera, Corel, Debian, Mandrake, RedHat, SuSe, Slackware y Stampede. En Internet se puede encontrar el enfoque y la facilidad de uso de cada una de estas distribuciones Linux.

En 1993 Charles H. Bennet de IBM; Gilles Brassard, Claude Crépeau y Richard Joasza de la Universidad de Montreal; Asher Peres del Instituto de Tecnología de Israel (Technion) y William Wootters del Williams College, descubrieron que un rasgo de la mecánica cuántica, llamado enlazamiento, podía utilizarse para superar las limitaciones de la teoría del cuanto (quantum) aplicada a la construcción de computadoras cuánticas y a la teleportación (teleportation).

Desde 1995, año del lanzamiento de Windows 95, Microsoft ha sacado al mercado varias versiones mejoradas, y supuestamente corregidas, tales como Windows 98, 2000 Server, 2000 Professional, NT Workstation, NT SMB (Small Business Server), ME, XP Professional, XP Home Edition y Windows Longhorn.Anteriores a estas versiones estuvieron Windows 1.0, Windows 3.10 y Windows for Workgroups.

En octubre de 1996 se creó Internet 2, mucho más veloz y de banda más ancha que la Internet original, ideal para manejo de archivos grandes y aplicaciones en vídeoconferencia, telemedicina y muchas otras cosas. Fue resultado de la unión de 34 universidades de Estados Unidos, las cuales formaron la University Corporation for Advanced Internet Development (UCAID). En ensayos a finales del 2003 se logró enviar de Europa a América en sólo siete segundos el equivalente a una película de DVD completa.

El 15 de agosto del 2000, Isaac Chuang, investigador de los laboratorios de IBM en Almaden (Estados Unidos), durante una conferencia en la Universidad de Stanford, describió los experimentos que su equipo llevó a cabo para construir una computadora cuántica y mostró el potencial que esta tecnología ofrece para la resolución de problemas complejos. Por ejemplo, con una computadora cuántica se podrán resolver en un minuto problemas que hoy, con una computadora clásica, se tardaría cientos de años.

Una computadora cuántica (quantum computer) utiliza las leyes de la mecánica cuántica para resolver problemas. Son leyes muy raras que hasta hace muy poco se usaban para crear paradojas, pero que, a partir de los estudios de Planck y del físico vienés Erwin Schrödinger, se comenzó a averiguar que se podían aplicar a la computación. Una de ellas dice: "Las cosas no están definidas, a menos que las observes". Otra ley argumenta: "Un gato puede estar vivo y muerto a la vez". Una tercera ley, resultado de la unión de la primera y la segunda, expresa: "un gato deja de estar vivo y muerto a la vez cuando uno lo observa. En ese momento o está vivo, o está muerto. Pero si no se le observa, su estado no está definido". Una cuarta ley afirma: "una partícula puede pasar por dos agujeros a la vez, y los dos agujeros pueden estar en cualquier sitio".

El prototipo de computadora cuántica construida por IBM constaba de 5 átomos, se programaba mediante pulsos de radiofrecuencia y su estado podía ser leído mediante instrumentos de resonancia magnética, similares a los empleados en hospitales y laboratorios de química. Cada uno de los átomos de flúor que la componían actuaba como un qubit. Un qubit es similar a un bit en una computadora electrónica tradicional, pero con una diferencia: merced al curioso comportamiento de las partículas, puede estar en ambos estados simultáneamente, y dos partículas pueden estar relacionadas entre sí, de manera que aunque en un momento dado se desconoce el estado de cada una de ellas, se sabe que sus estados son opuestos.

En el 2003 comenzó a circular la versión de prueba de Windows Longhorn, sucesor del XP, y cuyo nombre traducido al español sería algo así como "Windows cachón".

Y mientras se trabaja en el diseño comercial de los computadores cuánticos, los cuales harán parecer a los PC binarios como de la época de las cavernas, por su mayor capacidad de memoria y extraordinaria velocidad, se labora también en el campo de los monitores de pantalla plana y de imagen tridimensional (3D), así como en la teleportación de partículas con tecnología cuántica, inicio de lo que será la teletransportación de objetos vista en la ciencia ficción.

En las siguientes direcciones de Internet se puede encontrar más información: www.research.ibm.com/resources/news/ 20000815_quantum.html http://arxiv.org Física, biología. www.uspto.gov Patentes USA. www.digidome.nl/ Historia, museo www.google.com Monitor 3D. www.google.com Teleportation.

2

Principio de funcionamiento

Por lo que una computadora hace, pareciera que es una máquina inteligente, pero no es así, ya que no puede entender, comprender, imaginar, reflexionar o razonar. Sólo puede hacer operaciones matemáticas y comparación de resultados a muy alta velocidad, con base en lo cual genera una respuesta escrita, visual, de control o auditiva previamente prevista por los creadores del sistema operativo o del programa de aplicación. Cuando hay un bloqueo, por ejemplo, lo más seguro es que se presentó una situación imprevista en el programa, la cual deberá ser corregida por el programador en la siguiente versión del software.

Orquesta comparada con una computadora El principio de funcionamiento de una computadora se puede comparar con el de una orquesta, la cual necesita de lo siguiente para sus presentaciones:

Monografias.com

1. Aparatos diversos, tales como instrumentos musicales, micrófonos, amplificador de sonido y un auditorio dotado con las sillas y señales adecuadas.

Una computadora también consta de aparatos diversos, denominados hardware, entre los que se cuentan el teclado, el ratón, parlantes, la impresora, el escáner y la fuente de energía.

2. Un lenguaje para representar en un pentagrama las notas musicales mediante símbolos que significan octavas, tonos, corcheas, tiempos y demás elementos de una composición.

Monografias.com

En el campo de los sistemas informáticos también se dispone de lenguajes para escribir las instrucciones que la computadora debe interpretar y ejecutar. Algunos de estos son el Assembler, Basic, CP/M, Fortran, Cobol, C y Pascal.

3. Un sistema operativo que le indique al director, ejecutantes y ayudantes lo que cada uno debe hacer en el momento que le corresponda, según la obra musical que el público desea escuchar.

En informática, el sistema operativo es un programa o conjunto de programas que controlan la operación de la computadora, administran los recursos de hardware y permiten la interacción de la máquina con el usuario.

El programa principal del sistema operativo es el denominado interprete de comandos o núcleo del sistema. En el caso del sistema operativo DOS (Disk Operative System) dicho interprete de comandos se conoce como el Command.com. En sistemas operativos multiusuario como UNIX, Linux y Windows, se llama Kernel.

4. Un reloj calendario para tener control del día y hora del concierto, así como un cronómetro o barita de director para marcar el ritmo y la entrada en escena de cada instrumento.

Monografias.com

La computadora también tiene dos relojes: Un reloj de tiempo real para medir segundos, minutos, horas, días, meses y años, y un reloj lógico, consistente de un circuito oscilador que entrega pulsos binarios al microprocesador (processor) para que se pueda sincronizar, principalmente, con la memoria electrónica. Cada vez que le llega al microprocesador un pulso binario (bit=1), ejecuta una instrucción lógica binaria, tal como transferir un dato binario procesado a la memoria, recoger un dato binario de la misma, ejecutar una suma o resta binaria internamente, hacer movimientos entre sus registros internos, direccionar un dispositivo de entrada salida o simplemente ubicarse en una dirección determinada de la memoria.

La velocidad con que llegan estos pulsos al microprocesador se denomina frecuencia de reloj (clock) y se mide actualmente en millones de pulsos por segundo. Por ejemplo, si nos informan que determinado microprocesador funciona a 133 MHz (megahertz), significa que le están llegando en un segundo algo más de 133 millones de pulsos binarios, equivalentes al proceso de igual número de instrucciones lógicas binarias en un mismo segundo.

5. Un director responsable de todas las operaciones de la orquesta y de la ejecución de la obra musical. Entre otras muchas cosas, atiende las interrupciones, las peticiones del público, carga el programa en la memoria e indica a cada ejecutante cuándo y cómo tocar su instrumento.

En la computadora, esa labor le corresponde al microprocesador, también llamado CPU, que significa Unidad Central de Procesamiento. Es la pieza fundamental, sin la cual no puede funcionar ninguna de las otras. Recibe las instrucciones de los programas, las traduce al lenguaje interno de la máquina, las ejecuta, controla todos y cada uno de los pasos del proceso y administra los accesos a la memoria. Hace las operaciones aritméticas, compara los resultados y procede en consecuencia.

6. Partituras con las notas de las composiciones que se han de interpretar.

Monografias.com

Las partituras equivalen a los programas de aplicación en una computadora. Son conjuntos de instrucciones desarrollados para que la CPU ejecute las tareas del usuario, tal como llevar la contabilidad de la empresa, convertir la computadora en una máquina para escribir o dibujar, elaborar planillas, actuar como si fuese un equipo de sonido o de vídeo, etc. El programa de aplicación puede ser desarrollado por el usuario, o comprado en tiendas especializadas.

7. Atriles para cargar las partituras durante la ejecución de la obra.

Monografias.com

La CPU de la computadora también necesita cargar intrucciones, programas y datos temporales mientras ejecuta las tareas o programas de aplicación del usuario, y para ello utiliza unos módulos con circuitos electrónicos integrados (o chips) denominados memoria RAM. Esta memoria opera como si fuese un cuaderno de apuntes que se puede borrar al terminar.

8. Maletines para guardar las carpetas con las partituras y los accesorios de los instrumentos.

Monografias.com

Los archivos de texto, archivos de datos y archivos de programas de la computadora, así como las carpetas que sea menester, se guardan usualmente en el disco duro, en discos CD (compactos) o en disquetes. A estos dispositivos se les llama "memoria de almacenamiento".

Cualquier información grabada en los dispositivos de almacenamiento se puede copiar también parcial o totalmente en la "memoria RAM" para que la CPU haga su trabajo de una forma más eficiente, ya que a los datos de la memoria RAM se puede acceder mucho más rápido que si estos se tomaran de un disco.

9. Diversos instrumentos musicales. Los hay de entrada por teclado (pianos y órganos); de salida de viento (trompetas y flautas); de cuerdas o de percusión (tambores), por citar algunos.

En un sistema informático, los instrumentos equivalen a los equipos de entrada y salida de datos, tales como el teclado, el ratón (mouse), la cámara de vídeo, el joystick (palanca de juegos), el escáner (explorador para digitalizar imágenes), la impresora y el monitor.

Si se utilizan para que el usuario introduzca información al sistema, caso del ratón, el teclado, el joystick y el escáner, se llaman periféricos de entrada. Si su función es comunicar información de la computadora al usuario, como lo hacen la impresora y el monitor, se llaman periféricos de salida.

Los periféricos de entrada y salida (I/O, Input/Output) cumplen a la vez las dos funciones, tales como los disquetes, el disco duro, el disco CD-RW y algunos monitores con pantalla sensible al tacto.

Hardware, software y firmware Se llama hardware, que significa duro, rígido, a todo dispositivo que conforma la computadora. Los elementos de hardware más representativos son la caja o chasís central, llamada popularmente CPU para indicar que allí se aloja el microprocesador o Unidad Central de Procesamiento (CPU), el monitor, el teclado, el ratón (mouse) y la impresora. Para casos especiales se puede agregar al sistema un escáner, una cámara de vídeo y un joystick o palanca de juegos.

Monografias.com

Se llama software, que significa blando, alterable, a las instrucciones, rutinas o programas que la CPU debe interpretar y ejecutar para hacer funcionar adecuadamente el sistema. Tales programas se pueden almacenar en un disco o en una memoria ROM. En el primer caso se pueden modificar, y en el segundo permanecen inalterables.

Se llama firmware, que significa firme, inalterable, a las instrucciones grabadas en un circuito electrónico o chip de memoria que no permite modificaciones. Tiene aplicación en maquinaria y procesos industriales automatizados.

En la computadora, las instrucciones firmware se almacenan en un chip de memoria ROM (de sólo lectura) o de memoria Flash (reprogramable mediante "destello" eléctrico) y se ejecutan automáticamente cada vez que encendemos el equipo. Se utilizan para iniciar y poner el sistema en condiciones de trabajar.

Computadora comparada con una oficina Se puede comparar la computadora con una oficina que tiene una mesa de trabajo y varios archivadores a manera de cajones dispuestos en muebles o escritorios. La memoria RAM equivale a la superficie de la mesa, ya que su función es proveer espacio para poner cosas a las que se pueda acceder fácil y rápido, como los archivos con los que se está trabajando en el momento actual. Las unidades de almacenamiento de datos y programas, como el disco duro, el CD y el disquete, equivalen los cajones o archivadores.

La mesa de trabajo carga los accesorios indispensables para el trabajo diario, como una lámpara, el teléfono, hojas para escribir, lápices y un calendario, mientras que en el archivador se guardan, ordenan o archivan documentos, correspondencia y facturas.

Monografias.com

Si hubiere más de un escritorio, cada uno se puede identificar con el nombre del usuario, o simplemente con una letra, tal como A, B, C, etc. Los cajones se pueden marcar con nombres alusivos al contenido, como Mis documentos, Facturas, Música, Ventas 2005, Herramientas.

En vez de cajones, la computadora utiliza espacio en discos para grabar programas y datos del usuario. Los hay removibles, tal como los disquetes y los CD, y los hay fijos a la máquina. A estos últimos se les denomina discos duros, y su capacidad de almacenamiento (también llamada memoria, porque se usa para "memorizar" o guardar datos) puede ser muchísimo mayor que la de un disquete o la de un CD.

Qué es un archivo

Monografias.com

En general, archivo es una colección de textos, escritos, documentos, pinturas o grabaciones sonoras que se guardan y clasifican en un mueble, local o edificio destinado para ello, y que por extensión recibe también el nombre de Archivo (con mayúscula). Uno muy común en las empresas es el que contiene los datos del inventario de la mercancía, el cual se controla a menudo con un aparato portafichas (tarjetas)

en las que se anota lo que hay en existencia, lo que sale y lo que entra. Por dicha función se denomina fichero.

En informática, un archivo (file) o fichero es un conjunto organizado de información almacenada en un dispositivo de memoria de una computadora, tal como el disco duro, un disco compacto (CD) o un disquete. Un archivo puede contener todo lo relativo a un documento, programa o conjunto de datos.

El significado de archivo y fichero es el mismo en informática, pero en algunas regiones se han acostumbrado a usar más el uno que el otro. Para diferenciarlo del aparato portafichas, usaremos el término archivo en vez de fichero.

Archivos de programa y archivos de texto o datos. Los archivos de programa (program files en inglés), también conocidos como ejecutables, contienen instrucciones que la CPU debe procesar para obtener un resultado. Algunos archivos ejecutables están formados por líneas de texto normal, como los archivos cuyo nombre tiene la extensión BAT, y otros contienen códigos que sólo entiende la CPU, como los archivos con extensión COM y EXE.

Un programa es un conjunto de instrucciones para ejecutar una tarea cualquiera . Si está diseñado para encargarse de tareas menores, a manera de módulo de un programa mayor, se le llama rutina. Una rutina se puede encargar de hacer sonidos, marcos, botones para los menús o formatos de impresión.

Si el programa tiene por misión ejecutar tareas propias del usuario de la computadora, se le denomina aplicación. Los procesadores de texto, hojas de cálculo, enciclopedias y juegos, son ejemplos de programas de aplicación.

Un programa puede constar de uno o más archivos ejecutables y de uno o más archivos de datos, como la identificación de la impresora, rutinas para dibujar un menú en la pantalla o el listado de los empleados de la empresa.

Los archivos de texto son aquellos que se pueden leer en la pantalla o la impresora, tales como párrafos de texto, documentos y tablas. Por tal motivo también se llaman archivos ASCII, acrónimo de American Standard Code for Information Interchange (Código EstándarAmericano para Intercambio de Información).

Los archivos de datos (data file) son aquellos que contienen información complementaria de documentos o de programas de aplicación, tales como una canción comprimida en formato MP3, o una carpeta con el conjunto de archivos que constituyen el programa Linux, por ejemplo.

Salvar un archivo significa guardarlo. La expresión viene de Save, que en inglés significa guardar, salvar, proteger.

Monografias.com

Correr un programa equivale a ejecutarlo, ponerlo en funcionamiento. En inglés se dice Run, que significa ejecutar, correr, hacer correr, empujar.

Monografias.com

Qué es una carpeta Para facilitar la consulta de los libros y documentos en una biblioteca, se organizan en estanterías o archivadores según un determinado criterio, tal como por su tema, contenido o nombre del autor.

Monografias.com

Esto mismo no se puede hacer en el disco de la computadora, porque no puede tener cajones como tal, pero el sistema operativo puede simular su función mediante un archivo denominado carpeta, folder o directorio, que actúa como contenedor para almacenar archivos u otras carpetas. Las carpetas son útiles para organizar la información. Por ejemplo, puedes crear una carpeta que contenga todos los archivos relacionados con un tema específico.

Cada carpeta es realmente en el disco un índice o tabla de referencia en la que se graban los nombres y localizaciones de los archivos que contiene, además de información de control.

En el sistema operativo se utilizan las letras A y B para identificar las unidades para manejo de disquetes (algo así como si fuesen dos escritorios de menor tamaño), y las letras desde la C hasta la Z para los discos duros, los discos compactos CD o las unidades de cinta magnética.

Los archivos y carpetas necesitan un nombre Así como las personas tienen nombre y apellido para distinguirlas, de manera similar debemos colocar un nombre o código de identificación a cada archivo o carpeta (directorio o subdirectorio) que grabemos en el disco.

En el sistema operativo DOS, el nombre puede tener hasta 8 caracteres y una extensión opcional de 1 a 3 caracteres. El nombre y la extensión se separan por un punto: Varios, carta.doc, clientes.dbf, dibujo2.pcx. Los nombres de las carpetas (directorios) usualmente no llevan extensión, pero se les puede poner.

La extensión del nombre del archivo es como un apellido que ayuda a identificar el tipo de archivo. Así, DOC significa que el archivo es un documento, DBF indica que es una base de datos, TXT se agrega a un nombre de archivo de texto, EXE se refiere a un archivo ejecutable (que contiene instrucciones para el sistema).

En Linux, Windows (a partir de la versión 95) y otros sistemas operativos recientes, los archivos o carpetas de archivos pueden tener nombres hasta de 255 caracteres, tal como "Canciones populares clásicas", "Correspondencia recibida en el 2004", "SISTEMA CONTABLE", etc. En este caso la extensión del nombre es puesta automáticamente por el programa de aplicación que generó el archivo y queda oculta al usuario; se requiere para saber con qué aplicación se creó.

Puede haber más de un archivo con el mismo nombre Puesto que los programas de aplicación utilizan la ruta (path) preestablecida en su configuración, o la indicada por el usuario para leer o grabar un determinado archivo, se puede tener más de un archivo de nombre igual en directorios o carpetas diferentes. Incluso se pueden tener en la misma carpeta si tienen diferente extensión.

Claro está que esta situación se debe evitar en la práctica, para reducir el riesgo de cometer errores.

Los archivos y carpetas se organizan por temas o jerarquía Algunas carpetas pueden contener a su vez otras carpetas denominadas "subcarpetas" o subdirectorios, porque dependen de otra de mayor jerarquía. Comparado con un árbol, el directorio principal equivale al tronco, y las carpetas con sus archivos o ficheros equivalen a las ramas y sus hojas. El directorio principal se denomina directorio raíz (root directory).

Monografias.com

El directorio raíz y los subdirectorios (carpetas y subcarpetas) son básicamente tablas que el sistema operativo utiliza a manera de índice para almacenar información básica sobre cada archivo contenido en el disco. Lo único diferente son sus características: El directorio raíz tiene un tamaño fijo y se graba en una determinada zona del disco. El subdirectorio, en cambio, es una adición que se hace al directorio raíz, no tiene tamaño fijo y se puede grabar en cualquier parte de la zona de datos del disco, como cualquier otro archivo. El único limitante para el tamaño de un subdirectorio es el espacio disponible en el disco.

El disco tiene inicialmente sólo el directorio raíz (root), el cual se genera en el momento del formateo. Esto es equivalente a tener una mesa sin cajones, sobre la cual se puede colocar lo que se necesita regularmente, tal como una libreta con anotaciones importantes para el personal de la oficina, un teléfono, el portalápices, la calculadora, el reloj o el calendario. De manera similar, el directorio raíz del disco se usa para almacenar los archivos indispensables, tal como el registro de Windows (system.1st, user.dat), el intérprete de comandos del DOS (command.com) y, si el sistema operativo es anticuado, los archivos autoexec.bat y config.sys.

Así como a la tabla de la mesa se le pueden poner cajones, al directorio raíz del disco se le agregan directorios, subdirectorios o carpetas para archivos.

El tamaño y la posición del directorio raíz en el disco se configuran durante la etapa de formateo lógico del disco (preparación para recibir archivos) y no puede alterarse posteriormente.

Puesto que el directorio raíz puede considerarse como una tabla que tiene dibujadas sus filas y columnas desde el formateo del disco, puede contener sólo un número limitado de archivos. Si se quiere grabar más archivos, es necesario crear subdirectorios que los contengan.

Los subdirectorios están siempre conectados a un directorio padre, que puede ser el directorio raíz u otro subdirectorio (a manera de carpetas o subdivisiones en un cajón del archivador) y pueden ramificarse en varios niveles de subdirectorios, formando una estructura jerarquizada como la de un árbol invertido, es decir, con la raíz en la parte superior y las ramas (subdirectorios) creciendo hacia abajo. A este tipo de estructura también se le llama de niveles múltiples.

El directorio raíz de un disco no tiene nombre; se representa con un backslash, una raya inclinada hacia atrás () a continuación de la letra que identifica a la unidad de disco: C:… D:… etc.

Para recordar el símbolo del directorio raíz (), lo podemos comparar con la vista de perfil de la superficie de una mesa inclinada para dibujo. Al respecto, recordemos que una computadora puede elaborar planos para arquitectura y funcionar como un excelente dibujante para diseño gráfico. AutoCAD, Corel Draw y Photoshop son programas que funcionan muy bien para estos menesteres.

Monografias.com

Es conveniente crear un directorio para los trabajos Cuando se va a grabar por primera vez lo que estamos haciendo, el programa de aplicación pregunta en cuál directorio se quiere hacer. Si no escribimos ningún nombre o ruta, se graba en el directorio preestablecido en la configuración del programa. Es bueno poner un poco de atención aquí, para evitar que los documentos sean guardados en la misma carpeta que contiene los archivos del programa, o en otra que luego no recuerdes. Las aplicaciones de Windows asumen por defecto la carpeta "Mis documentos" (My documents). Directorio actual El sistema operativo considera directorio actual al que se tiene abierto o activo en primer plano. Cuando se realiza una tarea, tal como ejecutar un archivo, el sistema operativo asume por predeterminación (default) que éste se encuentra en el directorio actual, a menos que se especifique otra cosa.

3

El sistema binario

Origen del sistema decimal Debido a que nuestros antepasados usaban los 10 dedos de las manos para hacer las cuentas, se hizo popular el sistema numérico decimal o "de base 10", representado por símbolos que van desde el 0 hasta el 9. Reciben el nombre de "dígitos" por tener su origen en los dedos o "deditos".

Monografias.com

El 0 y el 1 son los dos dígitos empleados en un sistema binario Puesto que una computadora no tiene manos con dedos, ni un equivalente eléctrico con 10 niveles, ya que funciona con circuitos digitales que conducen impulsos eléctricos formados por sólo 2 niveles de voltaje (alto y bajo, o activo e inactivo), no puede manejar directamente los 10 dígitos decimales del sistema de numeración clásico.

En informática se tuvo que adoptar un sistema de numeración y de comunicación de sólo dos dígitos, el 0 y el 1, llamado binario. Su nombre se formó con el prefijo Bi que significa dos o doble: bifurcación, bicolor, bizco.

El 1 se representa usualmente con un pulso eléctrico activo, y el 0 con lo contrario: con apagado o un nivel de señal bajo. En álgebra de lógica Boole, el 0 equivale a Falso y el 1 a Verdadero.

Bit significa dígito binario. Su nombre es una abreviatura de BInary digiT. Un bit es la mínima unidad de información en un sistema binario, así como una letra es la mínima unidad en un sistema alfabético. Por ejemplo, la expresión 1101 0101 está formada por 8 bits.

Contemos en binario La manera de contar con números binarios es muy similar a la que empleamos con el sistema decimal. En el sistema decimal comenzamos a contar desde el 0 (lo que hay antes de que llegue la primera unidad, o sea nada) y vamos diciendo 1, 2, 3, 4… etc.

Si los dígitos decimales sólo van del 0 al 9, ¿cómo indicar una cifra mayor? Muy sencillo: cuando se hayan utilizado los números del 1 al 9, se termina colocando un 0 en tal columna y se aumenta una unidad en la columna que le sigue:

1, 2, 3, 4 … 8, 9, 10, 11, 12, 13.., 19, 20, 21, 22, 23… 97, 98, 99, 100, etc.

Continuando con el proceso en el sistema decimal, se podrá ver que un número en una columna representa un valor diez veces mayor que un número en una columna anterior. Por eso se dice columna de unidades, decenas, centenas, mil, diezmil, etc.

Cuando se cuenta en el sistema binario, y se han cumplido las dos combinaciones posibles (0 y 1) en la columna de unidades, se coloca un 1 en la columna que sigue. Este 1, como se puede deducir, representa un valor dos veces mayor que el de la columna anterior.

Contemos en forma ascendente, pero utilizando números que sólo estén formados por unos y/o ceros: Cero (0), uno (1), diez (10), once (11), cien (100), ciento uno (101), ciento diez (110), ciento once (111), mil (1000), mil uno (1001), mil diez (1010), mil once (1011), mil cien (1100), mil ciento uno (1101), (1110), (1111), etc. En binario se dice "uno cero cero" y no cien, y "uno uno cero" en vez de seis.

Monografias.com

Igual que en el sistema decimal , el bit del extremo derecho representa las unidades. Se le denomina bit de menor peso, o menos significante (LSB). Observa que cuando este bit es un 1, el número resultante en la columna de los decimales es impar (3, 5, 7, etc.). Cuando el segundo bit a partir del extremo derecho es 1, equivale a tener el decimal 2. El 1 en la tercera posición representa al 4, el cuarto al 8, y así sucesivamente. Siempre se multiplica por 2 al valor del bit anterior.

El bit de mayor peso o significación dentro de un byte es el dígito de la izquierda (MSB), y su valor equivalente en decimal resulta de elevar a la potencia "n" el número 2, siendo "n" el número que resulta de restar 1 a la posición que ocupa dicho bit dentro del byte, contando a partir del extremo derecho. Así, por ejemplo, el primer bit equivale a 20; el segundo equivale a 21; el tercero equivale a 22. El 2 elevado a la potencia 3 (23) es igual a 2x2x2=8.

Un byte es una palabra de 8 bits Así como juntamos letras para formar palabras en un idioma, se pueden agrupar bits para formar palabras binarias o words que puedan interpretarse en informática. La palabra más común en informática está formada por 8 bits y se llama byte (se pronuncia "báit"). Las 256 combinaciones que permiten 8 bits, desde 0000 0000 hasta 1111 1111, son suficientes para representar los caracteres del inglés e idiomas similares, incluyendo los 10 números decimales, signos ortográficos, signos matemáticos y algunos elementos gráficos.

Múltiplos del bit Un byte (se pronuncia báit) es un conjunto de 8 bits. Cuando un sistema trabaja a 32 bits, por ejemplo, quiere decir que procesa simultáneamente 4 bytes (8×4=32).

Puesto que con un conjunto de 8 bits (unos y ceros) se pueden obtener hasta 256 combinaciones (resultado de elevar 2 a la octava potencia, ó 28), cada una de las cuales representa un carácter o símbolo del lenguaje alfanumérico, se dice que un byte es lo mismo que un carácter.

Un kilobyte (KB) es igual a 1.024 bytes ó 210 bytes. Se escribe con B mayúscula para diferenciarlo de Kb, que equivale a kilobits.

Fuera del campo de la informática, un kilo representa mil unidades. Sin embargo, como se puede ver de las equivalencias binarias, kilo en informática representa exactamente 1024 unidades.

Un megabyte (MB) es igual a 1.048.576 bytes, 1.024 KB ó 220 bytes.

Un gigabyte (GB) es igual a 1.024 MB, ó 230 bytes.

Un terabyte (TB) es igual a 1.024 GB, 1.099.511.627.776 bytes ó 240 bytes.

Un petabyte (PB) es igual a 1.024 TB, un millón de gigabytes, mil millones de bytes, 106 GB ó 1015 bytes.

Las tablas de caracteres Las solas letras no sirven para comunicarnos. Es necesario crear un idioma que junte grupos de letras y les asigne algún significado a esas palabras. Y para facilitar la comunicación entre quienes hablan idiomas distintos, se hacen diccionarios que tienen las equivalencias de significados. "Come", por ejemplo, en español significa "ingerir alimentos", pero en inglés quiere decir "venir".

Puesto que los circuitos electrónicos de los computadores clásicos manejan solamente los dígitos binarios (0 y 1) cosa diferente ocurre con los computadores cuánticos, que manejan una lógica multiestado más complejalos caracteres que digitamos con el teclado y los que aparecen en la pantalla e impresora son procesados por un circuito "traductor" (codificador/descodificador) que los convierte al lenguaje binario, y viceversa. Tal circuito busca las equivalencias en un código de conversión que hace las veces de un diccionario con las equivalencias en bits unos y ceros para el alfabeto, los números y los signos de puntuación más usuales.

La IBM, pionera en el campo de los PC personales, adoptó el código ASCII. Se pronuncia asqui, y es la abreviatura de American Standard Code for Information Interchange (Código Americano para Intercambio de Información). Fue creado en 1968 y tenía originalmente 128 palabras binarias de 8 bits (128 bytes), las cuales representaban a los 128 caracteres alfanuméricos más usados, como las letras de varios idiomas, caracteres acentuados, caracteres para control de la máquina, los números del 0 al 9, los signos matemáticos y de puntuación.

Posteriormente, dada la necesidad de una tabla que tuviese también equivalencias binarias para representar elementos gráficos, como líneas y tramas de puntos, se adoptó el código ANSI, el cual permitió a los usuarios del DOS mejorar los gráficos y ha sido el código típico de Windows. El código ANSI adoptó los 128 caracteres delASCII y creó otros 128 más, para un total de 256 caracteres.

Por último, dadas las limitaciones del ASCII y del ANSI para representar caracteres de idiomas como el árabe y el chino, por ejemplo, se amplió la tabla de equivalencias a 65.536 caracteres y se le llamó código Unicode, el cual se usa en las versiones modernas de Windows.

Lenguaje de la máquina Los computadores emplean un lenguaje que tiene una palabra o instrucción para cada una de las tareas para las que fue diseñado el microprocesador (CPU). Dicho lenguaje se llama de bajo nivel, lenguaje de máquina o lenguaje ensamblador (assembler). El conjunto (set) de instrucciones del lenguaje de máquina es propio de cada procesador.

Lenguajes de alto nivel Aunque podemos aprender las instrucciones para ordenar al microprocesador tareas en su lenguaje de máquina, ello no resulta práctico. Para facilitar la comunicación con la máquina se han diseñado unos lenguajes de alto nivel, más fáciles de manejar, tales como el Basic, Fortran, C, Pascal, etc. Los programadores utilizan alguno de estos lenguajes para desarrollar los programas de aplicación que han de manejar los usuarios de la computadora.

La notación hexadecimal se usa para simplificar notación binaria El hexadecimal es un sistema numérico en el que se emplean 16 dígitos diferentes para la notación, razón por la cual se le llama "de base 16". Son ellos los mismos diez dígitos del sistema decimal, además de las letras A, B, C, D, E y F, para representar los valores decimales que van del 10 al 15. Es muy empleado por los desarrolladores de software para simplificar la representación de números binarios (de base 2), como veremos más adelante.

EL PRESENTE TEXTO ES SOLO UNA SELECCION DEL TRABAJO ORIGINAL.
PARA CONSULTAR LA MONOGRAFIA COMPLETA SELECCIONAR LA OPCION DESCARGAR DEL MENU SUPERIOR.

Partes: 1, 2
 Página anterior Volver al principio del trabajoPágina siguiente 

Nota al lector: es posible que esta página no contenga todos los componentes del trabajo original (pies de página, avanzadas formulas matemáticas, esquemas o tablas complejas, etc.). Recuerde que para ver el trabajo en su versión original completa, puede descargarlo desde el menú superior.

Todos los documentos disponibles en este sitio expresan los puntos de vista de sus respectivos autores y no de Monografias.com. El objetivo de Monografias.com es poner el conocimiento a disposición de toda su comunidad. Queda bajo la responsabilidad de cada lector el eventual uso que se le de a esta información. Asimismo, es obligatoria la cita del autor del contenido y de Monografias.com como fuentes de información.

Categorias
Newsletter