Monografias.com > Sin categoría
Descargar Imprimir Comentar Ver trabajos relacionados

Componentes de la computadora (página 2)




Enviado por Omar Hernandez



Partes: 1, 2

Cada una de las instrucciones tiene un código
diferente expresado en formato binario. Esta combinación
distinta de unos y ceros la interpreta el <<cerebro>>
del ordenador, y como está diseñado para que sepa
diferenciar lo que tiene que hacer al procesar cada una de ellas,
las ejecuta y continúa con la siguiente
instrucción, sin necesidad de que intervenga el
ordenador.

El proceso de una
instrucción se descompone en operaciones muy
simples de transferencia de información u operaciones
aritméticas y lógicas elementales, que realizadas a
gran velocidad le
proporcionan una gran potencia que es
utilizada en múltiples aplicaciones.

Realmente, esa información digitalizada en binario, a
la que se refiere con unos y ceros, el ordenador la diferencia
porque se trata de niveles diferentes de voltaje.

Cuando se emplean circuitos
integrados, los niveles lógicos bajo y alto, que se
representan por ceros y unos, corresponden a valores muy
próximos a cero y cinco voltios en la mayoría de
los casos.

Cuando las entradas de las puertas lógicas de los
circuitos
digitales se les aplica el nivel alto o bajo de voltaje, el
comportamiento
muy diferente. Por ejemplo, si se le aplica nivel alto conducen o
cierran el circuito; en cambio si se
aplica nivel bajo no conducen o dejan abierto el circuito. Para
que esto ocurra, los transistores que
constituyen los circuitos integrados trabajan en
conmutación, pasando del corte a la saturación.

¿Qué es
un
computador mainframe?

Ordenador o computadora de
gran capacidad, tremendamente rápida y de coste elevado,
utilizada en cálculos complejos o tareas muy especiales.
Normalmente se trata de una máquina capaz de distribuir el
procesamiento de instrucciones y que puede utilizar instrucciones
vectoriales. Las supercomputadoras se usan, por ejemplo, para
hacer el enorme número de cálculos que se necesitan
para dibujar y animar una nave espacial, o para crear un
dinosaurio en movimiento
para una película. También se utilizan para hacer
las previsiones meteorológicas, para construir modelos
científicos a gran escala y en los
cálculos de las prospecciones petrolíferas.

Este tipo de equipos informáticos lo utilizan
principalmente los científicos dedicados a la
investigación pura y aplicada, las grandes
compañías y el ejército.

¿QUE ES UN MICROCOMPUTADOR?

un ordenador o computadora de nivel medio diseñada para
realizar cálculos complejos y gestionar eficientemente una
gran cantidad de entradas y salidas de usuarios conectados a
través de un terminal. Normalmente, los miniordenadores se
conectan mediante una red con otras
minicomputadoras, y distribuyen los procesos entre
todos los equipos conectados. Las minicomputadoras se utilizan
con frecuencia en aplicaciones transaccionales y como interfaces
entre sistemas de
mainframe y redes de área
extensa.

Elementos de un
computador

Los elementos del computador
son:

Hardware

Equipo utilizado para el funcionamiento de una computadora. El
hardware se
refiere a los componentes materiales de
un sistema
informático.

La función de
estos componentes suele dividirse en tres categorías
principales: entrada, salida y almacenamiento.
Los componentes de esas categorías están conectados
a través de un conjunto de cables o circuitos llamado
bus con la unidad
central de proceso (CPU) del
ordenador, el microprocesador
que controla la computadora
y le proporciona capacidad de cálculo.

El hardware es un conjunto de dispositivos
eléctricos y algunos mecánicos. Se compone
principalmente de:

* C.P.U. : microprocesador. Sus funciones
principales son:

a) Controlar y supervisar el sistema integral del
ordenador en base a un programa
almacenado en la memoria
principal.

b) Desarrollar operaciones lógicas que
sean necesarias para procesar las demás y controlar la
secuencia. La ejecución de las instrucciones.

c) Controlar el envío y recepción
de datos de todas
las unidades periféricas a la unidad de memoria.

En función de la cantidad de instrucciones
que puede descodificar la C.P.U. se dividen en:

a) CISC: tiene un gran conjunto de
instrucciones.

b) RISC: tiene un conjunto regular de
instrucciones.

* MEMORIA: dispositivos que permiten almacenar un
conjunto de instrucciones. Dos clases principales:

a) RAM memoria de
lectura/escritura. Son
de acceso aleatorio, lentas y volátil.

b) ROM solo lectura. De acceso aleatorio y
permanentes

* Dispositivos de E/S: Son una serie de
dispositivos que permiten al ordenador comunicarse con el
exterior. Los principales son:

a) Teclados.

b) Displays.

c) Discos: flexibles, duros…

d) Impresoras.

e) Comunicaciones.

El soporte lógico o software

En cambio, es el conjunto de instrucciones que un ordenador
emplea para manipular datos: por ejemplo, un procesador de
textos o un videojuego. Estos programas suelen
almacenarse y transferirse a la CPU a través del hardware
de la computadora. El software también rige
la forma en que se utiliza el hardware, como por ejemplo la forma
de recuperar información de un dispositivo de
almacenamiento. La interacción entre el hardware de entrada y
de salida es controlada por un software llamado BIOS (siglas en
inglés
de 'sistema básico de entrada / salida').

Aunque, técnicamente, los microprocesadores
todavía se consideran hardware, partes de su
función también están asociadas con el
software. Como los microprocesadores tienen tanto aspectos de
hardware como de software, a veces se les aplica el
término intermedio de microprogramación, o
firmware.

Software, programas de computadoras.
Son las instrucciones responsables de que el hardware (la
máquina) realice su tarea. Como concepto general,
el software puede dividirse en varias categorías basadas
en el tipo de trabajo
realizado. Las dos categorías primarias de software son
los sistemas operativos (software del sistema), que controlan los
trabajos del ordenador o computadora, y el software de
aplicación, que dirige las distintas tareas para las
que se utilizan las computadoras. Por lo tanto, el software del
sistema procesa tareas tan esenciales, aunque a menudo
invisibles, como el mantenimiento
de los archivos del
disco y la
administración de la pantalla, mientras que el
software de aplicación lleva a cabo tareas de tratamiento
de textos, gestión
de bases de datos y
similares. Constituyen dos categorías separadas el
software de red, que permite comunicarse
a grupos de
usuarios, y el software de lenguaje
utilizado para escribir programas

Además de estas categorías basadas en tareas,
varios tipos de software se describen basándose en su
método de
distribución. Entre estos se encuentran los
así llamados programas enlatados, el software desarrollado
por compañías y vendido principalmente por
distribuidores, el freeware y software de dominio
público, que se ofrece sin costo alguno, el
shareware, que es similar al freeware, pero suele conllevar una
pequeña tasa a pagar por los usuarios que lo utilicen
profesionalmente y, por último, el infame vapourware, que
es software que no llega a presentarse o que aparece mucho
después de lo prometido.

Lenguajes en
computación

En informática, cualquier lenguaje artificial
puede utilizarse para definir una secuencia de instrucciones para
su procesamiento por un ordenador o computadora. Es complicado
definir qué es y qué no es un lenguaje. Se asume
generalmente que la traducción de las instrucciones a un
código que comprende la computadora debe ser completamente
sistemática. Normalmente es la computadora la que realiza
la traducción.

TIPOS DE LENGUAJES:

Lenguaje Máquina

El lenguaje propio del ordenador, basado en el sistema
binario, o código máquina, resulta
difícil de utilizar para las personas. El programador debe
introducir todos y cada uno de los comandos y datos
en forma binaria, y una operación sencilla como comparar
el contenido de un registro con los
datos situados en una ubicación del chip de memoria puede
tener el siguiente formato: 11001010 00010111 11110101 00101011.
La programación en lenguaje máquina es
una tarea tan tediosa y consume tanto tiempo que muy
raras veces lo que se ahorra en la ejecución del programa
justifica los días o semanas que se han necesitado para
escribir el mismo.

Lenguaje bajo nivel

Vistos a muy bajo nivel, los microprocesadores procesan
exclusivamente señales
electrónicas binarias. Dar una instrucción a un
microprocesador supone en realidad enviar series de unos y ceros
espaciadas en el tiempo de una forma determinada. Esta secuencia
de señales se denomina código máquina. El
código representa normalmente datos y números e
instrucciones para manipularlos. Un modo más fácil
de comprender el código máquina es dando a cada
instrucción un mnemónico, como por ejemplo STORE,
ADD o JUMP. Esta abstracción da como resultado el ensamblador,
un lenguaje de muy bajo nivel que es específico de cada
microprocesador.

Los lenguajes de bajo nivel permiten crear programas muy
rápidos, pero que son a menudo difíciles de
aprender. Más importante es el hecho de que los programas
escritos en un bajo nivel sean altamente específicos de
cada procesador. Si se
lleva el programa a otra máquina se debe reescribir el
programa desde el principio

Lenguaje alto nivel

Los lenguajes de alto nivel sueles utilizar términos
ingleses del tipo LIST, PRINT u OPEN como comandos que
representan una secuencia de decenas o de centenas de
instrucciones en lenguaje máquina. Los comandos se
introducen desde el teclado, desde
un programa residente en la memoria o desde un dispositivo de
almacenamiento, y son interceptados por un programa que los
traduce a instrucciones en lenguaje máquina.

Los programas traductores son de dos tipos: interpretes y
compiladores. Con
un interprete, los programas que repiten un ciclo para volver a
ejecutar parte de sus instrucciones, reinterpretan la misma
instrucción cada vez que aparece. Por consiguiente, los
programas interpretados se ejecutan con mucha mayor lentitud que
los programas en lenguaje máquina. Por el contrario, los
compiladores traducen un programa integro a lenguaje
máquina antes de su ejecución, por lo cual se
ejecutan con tanta rapidez como si hubiese sido escrita
directamente en lenguaje máquina.

Aunque existen centenares de lenguajes informáticos y
de variantes, hay algunos dignos de mención, como el
PASCAL,
diseñado en un principio como herramienta de enseñanza, hoy es uno de los lenguajes de
microordenador más populares; el logro fue desarrollado
para que los niños
pudieran acceder al mundo de la informática; el C, un
lenguaje de Bell Laboratories diseñado en la década
de 1970, se utiliza ampliamente en el desarrollo de
programas de sistemas, al igual que su sucesor, el C++. El LISP y
el PROLOG han alcanzado amplia difusión en el campo de la
inteligencia
artificial.

Monografias.com

ELEMENTOS DE ENTRADA

  • También llamados periféricos o unidades de
    entrada

  • Son los encargados de introducir los datos y los programas
    desde el exterior a la memoria central para su
    utilización.

  • Preparan la información para que el computador la
    entienda de forma correcta

  • Entre ellos se tiene: el teclado, el ratón,
    scanner, CR-ROM, lectoras de barra, etc.

ELEMENTOS DE SALIDA

  • Son aquellos dispositivos cuya misión es recoger y
    proporcionar al exterior los datos de salida o resultado de
    los procesos que se ejecutan

  • Entre ellos se tiene: Monitor, impresoras, etc.

Medios de almacenamientos

Los medios de
almacenamientos también son conocidos como memorias
secundarias, entre estos tenemos
:

Memoria: es un dispositivo físico, generalmente
un circuito electrónico, en el que se almacenan datos e
instrucciones para recuperarlos y utilizarlo posteriormente. En
un sentido amplio tenemos las siguientes memorias:

Discos Duros ó memoria secundaria: es en esta
memoria donde se almacena el sistema
operativo, los multimedia,
juegos y los
programas de aplicación entre otros.

Pen Drive ó Flash Memory:
es una memoria bajo un circuito integrado de alta capacidad,
velocidad, con un conector para puertos USB, viene en
diferentes modelos y versiones con capacidades de mega byte y
giga byte, además es cómoda y
portátil.

Unidad de Floppy ó Diskette de 31/2: en este
dispositivo se utiliza un pequeño disco flexible con alta
densidad
magnética el cual almacena información, pero en
baja calidad de
retención ya que esta se borra cuando el disco pierde su
magnetismo con
el pasar de los tiempos.

UNIDAD CENTRAL DE PROCESOS (CPU, Central Process
Unit)

LA MEMORIA PRINCIPAL

Está formada por un conjunto de celdas, posiciones o
palabras de memoria. En cada celda se archiva determinada
información (datos o instrucciones de programa). La manera
de diferenciar unas posiciones de otras es asignando una dirección diferente a cada celda. Para
acceder a ella es necesario únicamente referenciar la
dirección de memoria que las identifica.

DEFINICIÓN DE HARDWARE

  • Palabra compuesta de : Hard (duro) y Ware (equipo)

  • Constituye todo el equipo duro del computador, la parte
    tangible o perceptible.

  • Todos aquellos elementos que tienen entidad física
    forman parte del hardware, por ejemplo: componentes de la
    computadora, dispositivos externos (monitor, teclado,
    impresora, cables, soportes de información, etc.)

Unidad Central de Procesos (CPU, Central
Process Unit): es el corazón
del Computador. Su principal misión
consiste en coordinar y realizar todas las operaciones del
sistema informático. Consta de:

  • Procesador: encargado del control y ejecución de
    las operaciones; esta formado por:

  • Unidad de Control (CU,Control Unit) : es la parte del
    procesador encargada de gobernar el resto de las unidades,
    además de interpretar y ejecutar las instrucciones
    controlando su secuencia.

  • Unidad Aritmético Lógica (ALU, Aritmetic
    logical Unit) : es la parte del procesador encargada de
    realizar todas las operaciones elementales de tipo
    aritmético y tipo lógico

UNIDAD CENTRAL DE PROCESOS

  • Memoria Central:

  • También denominada memoria interna o principal
    (main memory).

  • Es el encargado de almacenar los programas y los datos de
    estos, necesarios para que el sistema informático
    realice un determinado trabajo.

  • Una característica importante es que es
    volátil, es decir, al cortar el flujo eléctrico
    se borra el contenido almacenado en ella

  • Memoria RAM (Random Access Memory), memoria de acceso
    aleatorio

MEMORIA AUXILIAR

  • Dispositivos de almacenamiento masivo de
    información

  • Su principal importancia radica en que permite almacenar
    información a lo largo del tiempo,
    recuperándola cuando se quiera y sin que se pierda
    aunque el dispositivo quede desconectado de la red
    eléctrica.

  • Ejemplos: Diskettes, Disco duro, Cintas
    magnéticas

La secuencia lógica
que la unidad de control debe
realizar para ejecutar una instrucción es la
siguiente:

  • Localizar y extraer de la memoria principal la
    instrucción correspondiente

  • Transferir la instrucción de la memoria a la Unidad
    de control

  • Determinar qué tipo de operación se debe
    ejecutar

  • Ejecutar la instrucción, enviando las
    señales de control u órdenes a los elementos
    pertinentes

  • Supervisar la operación anterior para determinar si
    ha finalizado correctamente.

  • Localizar la siguiente instrucción a ejecutar.

Monografias.com

 

DEFINICIÓN DE SOFTWARE

  • Palabra compuesta de : Soft (suave) y Ware (equipo)

  • Programas de computadoras. Son las instrucciones
    responsables de que el hardware (la máquina) realice
    su tarea.

  • Constituye la parte imperceptible o intangible

  • Es la parte lógica que le da al equipo
    físico la capacidad de realizar cualquier tipo de
    trabajo.

El CPU como corazón de la
organizaci
ón del computador

En su forma más simple, un sistema de computadora
cuenta con una unidad que ejecuta instrucciones de programas.
Esta unidad se comunica con otros subsistemas dentro de la
computadora, y a menudo controla su operación. Debido al
papel central de tal unidad se conoce como unidad central de
procesamiento, o CPU (Central processing unit). Dentro de muchas
computadoras, un subsistema como una unidad de entrada, o un
dispositivo de almacenamiento masivo, puede incorporar una unidad
de procesamiento propia. Tal unidad de procesamiento, aunque es
central para su propio subsistema, resulta claro que no es
"central" para el sistema de computadora en su conjunto. Sin
embargo, los principios del
diseño
y operación de una CPU son independientes de su
posición en un sistema de computadora. Este trabajo
estará dedicado a la
organización del hardware que permite a una CPU
realizar su función principal: traer instrucciones desde
la memoria y ejecutarlas.

El algoritmo de
solución de cualquier problema consiste en varios pasos
que deben realizarse en una secuencia específica. Para
implantar tal algoritmo en una computadora, estos pasos se
descomponen en pasos más pequeños, cada uno de los
cuales representa una instrucción de máquina. La
secuencia de instrucciones resultante es un programa en lenguaje
de máquina que representa al algoritmo en cuestión.
El mismo enfoque general se utiliza para permitir a la
computadora realizar funciones especificadas por instrucciones
individuales de máquina. Esto es, cada una de estas
instrucciones se ejecuta realizando una secuencia de operaciones
más rudimentarias. Estas operaciones, y los medios por los
cuales se generan, serán el tema principal de análisis en este trabajo.

PUERTOS EN SERIE

El puerto en serie de un ordenador es un adaptador
asíncrono utilizado para poder
intercomunicar varios ordenadores entre si. Un puerto serie
recibe y envía información fuera del ordenador
mediante un determinado software de comunicación o un drive del puerto
serie.

El Software envía la información al puerto,
carácter a carácter, convirtiendo en
una señal que puede ser enviada por cable serie o un
módem. Cuando se ha recibido un carácter, el puerto
serie envía una señal por medio de una
interrupción indicando que el carácter está
listo. Cuando el ordenador ve la señal, los servicios del
puerto serie leen el carácter.

Ubicación en el sistema informativo

Se ubican en la parte trasera del case, podremos identificar
estos puertos por los nombres COM 1, COM 2, COM 3. La cantidad de
puertos de serie dependen de la tarjeta, ya que hay algunas
tarjetas que
son capaces de tener 4 u 8 puertos.

PUERTO PARALELO

Este puerto de E/S envía datos en formato paralelo
(donde 8 bits de datos, forman un byte, y se envían
simultáneamente sobre ocho líneas individuales en
un solo cable.) El puerto
paralelo usa un conector tipo D-25 (es de 25 pin) El puerto
paralelo se utiliza principalmente para impresoras.

La mayoría de los software usan el termino LPT
(impresor en línea) más un número para
designar un puerto paralelo (por ejemplo, LPT1). Un ejemplo donde
se utiliza la designación del puerto es el procedimiento de
instalación de software donde se incluye un paso en que se
identifica el puerto al cual se conecta a una impresora.

Ubicación en el sistema informático:

Se encuentra en la parte trasera del case, se pueden
identificar fácilmente ya que la mayoría de los
software utilizan el termino LPT (que significa impresión
en línea por sus siglas en inglés). También
en algunos modelos se pueden localizar en la parte inferior al
puerto del Mouse.

Recursos del puerto paralelo:

Cada adaptador de puerto paralelo tienes tres direcciones
sucesivas que se corresponden con otros tantos registros que
sirven para controlar el dispositivo. Son el registro de salida
de datos; el registro de estado y el
registro de control.

El puerto paralelo está formado por 17 líneas de
señales y 8 líneas de tierra. Las
líneas de señales están formadas por
grupos:

4. Líneas de control.

5. Líneas de estado.

8. Líneas de datos.

En el diseño original las líneas de control son
usadas para la interfase, control e intercambio de mensajes al PC
(falta papel, impresora ocupada, error en la impresora).

Las líneas de datos suministran los datos de impresora
del PC hacia la impresora y solamente en esa dirección.
Las nuevas implementaciones del puerto permiten una
comunicación bidireccional mediante estas
líneas.

Tipos de puerto paralelo:

En la actualidad se conoce cuatro tipos de puerto
paralelo:

  • Puerto paralelo estándar (Standard Parallel Port
    SPP).

  • Puerto paralelo PS/2 (bidireccional).

  • Enhanced Parallel Port (EPP).

  • Extended Capability Port (ECP).

En la siguiente tabla se muestra
información sintetizada de cada uno de estos tipos de
puertos.

PUERTO USB (UNIVERSAL SERIAL BUS)

El puerto USB fue creado a principio de 1996. La sigla USB
significa Bus Serie Universal (Universal Serial Bus) Se llama
universal, porque todos los dispositivos se conecten al puerto.
Conexión que es posible, porque es capaz de hacer conectar
hasta un total de 127 dispositivos.

Unas de las razones más importantes dieron origen a
este puerto fueron:

  • Conexión del PC con el teléfono.

  • Fácil uso.

  • Expansión del puerto.

Unas de las principales características más
importantes de este puerto es que permite la conexión
entre l PC y el teléfono, además, nos elimina la
incomodidad al momento de ampliar el PC.

Cabe destacar que para hacer esto, se necesita abrir el case e
introducir las tarjetas de expansión o cualquier
dispositivo deseado y después configurar y reiniciar el
PC. Por lo tanto se puede decir que con este puerto tienes la
capacidad de almacenar hasta de 127 dispositivos
periféricos simultáneamente.

Ubicación en el sistema Informático:

El puerto USB está ubicado en la mayoría de los
case en la parte frontal o lateral y en la parte trasera del
mismo. Pero hay otros case que poseen este puerto
únicamente en la parte trasera del case.

Tipos de transferencia:

El puerto USB permite cuatro tipos de transferencia, que
son:

  • Transferencias de control:

Es una transferencia no esperada, no se realiza
periódicamente, sino que la realiza el software para
iniciar una petición/respuesta de comunicación.
Normalmente se utiliza para operar operaciones de control o
estado.

  • Transferencias Isocrónicas:

Es periódica, una comunicación continúa
entre el controlador y el dispositivo, se usa normalmente para
información.

Este tipo de transferencia envía la señal de
reloj encapsulando en los datos, mediante comunicaciones
NZRI.

  • Transferencias Continúa:

Son datos pequeños no muy frecuentes, que provocan la
espera de otras transferencias hasta que son realizadas.

No son transferencias periódicas. Se trata de paquetes
de gran tamaño, usados en aplicaciones donde se utiliza
todo el ancho de banda disponible en la
comunicación. Estas transferencias pueden quedar a la
espera de que el ancho de banda quede disponible.

Conectores RCA:

El conector RCA es un tipo de conector eléctrico
común en le mercado
audiovisual. El nombre RCA deriva de La Radio
Corporation Of America, que introdujo el diseño en
1940.

Ubicación en el sistema informático:

Éste está ubicado en la parte trasera del case,
exactamente en la ranura donde fue colocada la tarjeta
gráfica o de sonido. El
conector RCA de video mayormente
está presente en la tarjeta de video
y el conector RCA de audio siempre está presente en la
tarjeta de sonido.

Conector de video VGA:

El equipo utiliza un conector D subminiatura de alta densidad
de 15 patas en el panel posterior para conectar al equipo un
monitor
compatible con el estándar VGA (Video Graphics Arry
{Arreglo de gráficos de videos}). Los circuitos de
video en la placa base sincronizan las señales que
controlan los cañones de electrones rojo, verde y azul en
el monitor.

Ubicación en el sistema informático:

Se encuentran en la parte de atrás del case, no tienen
un lugar en especifico pero en algunos modelos se pueden ubicar
arriba de los conectores RCA y por un símbolo de red; en
la mayoría de los casos solo se encuentra un solo puerto
en el case.

Conector PS-2:

Es un conector de clavijas de conexión
múltiples, DIN, (acrónimo de Deutsche Industrie
Norm) miniatura, su nombre viene del uso que se le daba en los
antiguos ordenadores de IBM PS/2 (Personal
System/2). Actualmente los teclados y ratones utilizan este tipo
de conector y se supone que en unos años casi todo se
conectará al USB, en una cadena de periféricos conectados al mismo cable.

Conector RJ-45:

El RJ45 es una interfaz física
comúnmente usada para conectar redes de cableado
estructurado, (categoría 4, 5, 5e y 6). RJ es un
acrónico inglés de Registered que a su vez es parte
del código federal de regulaciones de Estados Unidos.
Posee ocho pines o conexiones eléctricas.

Ethernet Nació en 1972 ideada por Roberto Metralfe y
otros investigadores de Seros, en palo alto, California Research
Center Ethernet al que
también se le conoce como Ethernet II o IEEE 802.3, es el
estándar más popular para las que se usa
actualmente.

El estándar 802.3 emplea una topología de bus. Ethernet transmite datos
a través de la red a una velocidad de 10 Mbisps por
segundo.

Existen cinco estándares de Ethernet: 10Base5, 10Base2,
10BASE-T, Fast Ethernet 100BaseVg y 100BaseX, que define el tipo
de cable de red, las especificaciones de longitud y la
topología física que debe utilizarse para conectar
nudo en la red.

Conector RJ-11

Es el conector modular común del teléfono. Es
universal en los teléfonos, los módems, los faxes,
y artículos similares y utilizado en receptores de la TV
vía satélite

Ubicación en el sistema informático:

El conector del módem RJ-11 se encuentra en la parte
posterior del ordenador. La ficha RJ-11 es un enchufe modular con
4 pines.

Recomendaciones

  • Tener Cuidado a la hora de enchufar los conectores porque
    son muy delicados y pueden dañarse los pines.

  • Revisar que el CPU no este energizado a la hora de acoplar
    los conectores al puerto.

  • Antes de adquirir o comprar un puerto para tu computador
    solicita una previa orientación.

  • Realizar actualizaciones como instalar puertos USB en el
    case de su computador ya que estos trabajan a una mayor
    velocidad.

Buses del
sistema

Funciones que realiza

El bus se puede definir como un conjunto de líneas
conductoras de hardware utilizadas para la transmisión de
datos entre los componentes de un sistema informático. Un
bus es en esencia una ruta compartida que conecta diferentes
partes del sistema, como el microprocesador, la controladora de
unidad de disco, la memoria y los puertos de entrada/salida
(E/S), para permitir la transmisión de
información.

En el bus se encuentran dos pistas separadas, el bus de datos
y el bus de direcciones. La CPU escribe la dirección de la
posición deseada de la memoria en el bus de direcciones
accediendo a la memoria, teniendo cada una de las líneas
carácter binario. Es decir solo pueden representar 0 o 1 y
de esta manera forman conjuntamente el número de la
posición dentro de la memoria (es decir: la
dirección). Cuanto mas líneas haya disponibles,
mayor es la dirección máxima y mayor es la memoria
a la cual puede dirigirse de esta forma. En el bus de direcciones
original habían ya 20 direcciones, ya que con 20 bits se
puede dirigir a una memoria de 1 MB y esto era exactamente lo que
correspondía a la CPU.

Esto que en le teoría
parece tan fácil es bastante mas complicado en la
práctica, ya que aparte de los bus de datos y de
direcciones existen también casi dos docenas más de
líneas de señal en la comunicación entre la
CPU y la memoria, a las cuales también se acude. Todas las
tarjetas del bus escuchan, y se tendrá que encontrar en
primer lugar una tarjeta que mediante el envío de una
señal adecuada indique a la CPU que es responsable de la
dirección que se ha introducido. Las demás tarjetas
se despreocupan del resto de la comunicación y quedan a la
espera del próximo ciclo de transporte de
datos que quizás les incumba a ellas.

Entrada Y Salida

Funciones que realiza

Vamos a señalar las funciones que debe
realizar un computador para ejecutar trabajos de
entrada/salida:

Direccionamiento o selección
del dispositivo que debe llevar a cabo la operación de
E/S. Transferencia de los datos entre el procesador y el
dispositivo (en uno u otro sentido).Sincronización y
coordinación de las operaciones.

Esta última función es necesaria
debido a la deferencia de velocidades entre los dispositivos y la
CPU y a la independencia
que debe existir entre los periféricos y la CPU (por
ejemplo, suelen tener relojes diferentes).

Se define una transferencia elemental de información
como la transmisión de una sola unidad de
información (normalmente un byte) entre el procesador y el
periférico o viceversa. Para efectuar una transferencia
elemental de información son precisas las siguientes
funciones:

Establecimiento de una comunicación física entre
el procesador y el periférico para la transmisión
de la unidad de información.

Control de los periféricos, en que se incluyen
operaciones como prueba y modificación del estado del
periférico.

Para realizar estas funciones la CPU gestionará las
líneas de control necesarias.

Definiremos una operación de E/S como el conjunto de
acciones
necesarias para la transferencia de un conjunto de datos (es
decir, una transferencia completa de datos). Para la
realización de una operación de E/S se deben
efectuar las siguientes funciones:

Recuento de las unidades de información transferidas
(normalmente bytes) para reconocer el fin de
operación.

Sincronización de velocidad entre la CPU y el
periférico.

Detección de errores (e incluso corrección)
mediante la utilización de los códigos necesarios
(bits de paridad, códigos de redundancia cíclica,
etc.)

Almacenamiento temporal de la información. Es
más eficiente utilizar un buffer temporal
específico para las operaciones de E/S que utilizan el
área de datos del programa.Conversión de
códigos, conversión serie/paralelo, etc.

Dispositivos externos

Una de las funciones básicas del computador es
comunicarse con los dispositivos exteriores, es decir, el
computador debe ser capaz de enviar y recibir datos desde estos
dispositivos. Sin esta función, el ordenador no
sería operativo porque sus cálculos no
serían visibles desde el exterior.

Existe una gran variedad de dispositivos que pueden
comunicarse con un computador, desde los dispositivos
clásicos (terminales, impresoras, discos, cintas, cte.)
hasta convertidores A/D y D/A para aplicaciones de medida y
control de procesos, De todos los posibles periféricos,
algunos son de lectura, otros de escritura y otros de lectura y
escritura (es importante resaltar que este hecho siempre se mira
desde el punto de vista del proceso). Por otra parte, existen
periféricos de almacenamiento también llamados
memorias auxiliares o masivas.

La mayoría de los periféricos están
compuestos por una parte mecánica y otra parte electrónica. Estas partes suelen separarse
claramente para dar una mayor modularidad. A la componente
electrónica del periférico se le suele denominar
controlador del dispositivo o, también, adaptador del
dispositivo. Si el dispositivo no tiene parte mecánica (como, por ejemplo, la pantalla de
un terminal), el controlador estará formado por la parte
digital del circuito. Frecuentemente los controladores de los
dispositivos están alojados en una placa de circuito
impreso diferenciada del resto del periférico. En este
caso es bastante habitual que un mismo controlador pueda dar
servicio a
dispositivos de características similares.

El principal problema planteado por los periféricos es
su gran variedad que también afecta a las velocidades de
transmisión. Por tanto, el mayor inconveniente que
encontramos en los periféricos es la diferencia entre sus
velocidades de transmisión y la diferencia entre
éstas y la velocidad de operación del
computador. 

Uso de interrupciones

Un computador debe disponer de los elementos suficientes para
que el programador tenga un control total sobre todo lo que
ocurre durante la ejecución de su programa. La llegada de
una interrupción provoca que la CPU suspenda la
ejecución de un programa e inicie la de otro (rutina de
servicio de interrupción). Como las interrupciones pueden
producirse en cualquier momento, es muy probable que se altere la
secuencia de sucesos que el programador había previsto
inicialmente. Es por ello que las interrupciones deber

Lenguaje binario y
sistema de medidas

Lenguaje binario: Para comenzar es muy importante
saber, que es un BIT; un Bit, en informática,
acrónimo de Binary Digit (dígito binario), que
adquiere el valor 1
ó 0 en el sistema numérico binario. En el
procesamiento y almacenamiento informático un BIT es la
unidad de información más pequeña manipulada
por el ordenador, y está representada físicamente
por un elemento como un único pulso enviado a
través de un circuito, o bien como un pequeño punto
en un disco magnético capaz de almacenar un 0 ó un
1. La representación de información se logra
mediante la agrupación de bits para lograr un conjunto de
valores mayor que permite manejar mayor información. Por
ejemplo, la agrupación de ocho bits componen un byte que
se utiliza para representar todo tipo de información,
incluyendo las letras del alfabeto y los dígitos del 0 al
9. Cuando se trabaja con señales digitales, estos traen
asociadas el sistema de numeración binaria y el sistema de
numeración hexadecimal. Ambos aparecen en los manuales de
configuración de los dispositivos del PC. En dichos
manuales el numero binario 1 puede representar el valor de
encendido "On", cerrado ó 5 voltios. Un 0 lógico
puede representar un apagado "Off", abierto, ó 0
voltios.

En el sistema de numeración tradicional, el decimal, la
base de las potencias es el número 10 y los multiplicandos
son el 0,1,2,3,4,5,6,7,8 y el 9 y cualquier valor superior se
representa en base a estos, ejemplo:237  = 2*10^2 + 3*10^1 +
7*10^0 y     En el caso de los números
binarios la base de las potencias es el 2 y los multiplicando son
el 0 y el 1. En este caso, el numero 237 decimal
sería:

237decimal  =   1*2^7 + 1*2^6 + 1*2^5 + 0*2^4 +
1*2^3 +1*2^2 + 0*2^1+ 1*2^0 

                     
=    11101101 binario

    En el sistema hexadecimal la base de las
potencias es el número 16 y los multiplicandos posibles
son: 0,1,2,3,4,5,6,7,8,9,A, B, C ,D, E, F.

237 decimal =  E*16^1 + D*16^0

Tabla de conversión binaria

Continuación: Este sistema de
numeración se emplea en el PC para indicar direcciones y
valores diversos en la configuración del mismo.

        Es sencillo
pasar del sistema binario al hexadecimal y viceversa haciendo uso
de la tabla que se presenta a continuación, aquí a
la derecha

El sistema de numeración octal es en base a las
potencia de 8 y con números multiplicandos que son el
0,1,2,3,4,5,6,7.Estos eran empleados en el pasado por ciertos
computadores centrales llamados ( mainframe).

Decimal

Binario

Hexadecimal

0

0000

0

1

0001

1

2

0010

2

3

0011

3

4

0100

4

5

0101

5

6

0110

6

7

0111

7

8

1000

8

9

1001

9

10

1010

A

11

1011

B

12

1100

C

13

1101

D

14

1110

E

15

1111

F

Conversión de datos en el sistema binario

Convertir de Decimal 5010 a Binario 502

Esto se realiza de la siguiente manera, ejemplo: primero se
divide el nº 50 entre 2 hasta que el cociente llegue a la
reducción final luego se ordenan, de derecha a izquierda,
comenzando desde el ultimo cociente y aunándolo con el
resto ó residuo de la división.

Monografias.com

Fíjese en la imagen animada,
para usted es un divertido payasito…Sin embargo para el
computador no es mas que una secuencia de códigos binarios
que se repiten una y otra vez., ó señales
eléctricas de corriente directa (DC).

Pues, Así es como el computador interpreta las ordenes
del usuario, atraviesa una veloz y sorprendente conversión
de datos, analizada e interpretada por el procesador (CPU), ya
bien sea imágenes
animadas, imágenes en 3D, sonidos, colores ó
textos.

Conversión de datos en el sistema binario

Convertir de Binario 1100102 a Decimal 5010

Esta conversión se realiza de la siguiente manera,
primero se toma el código 110010 binario, se cuenta
cuantos dígitos tiene, en este caso tiene 6
dígitos, luego se multiplica por la potencia con base 2
precedido del símbolo + para ser sumados por la otra
potencia.

¿Cómo se ordenaran los exponentes?

Después usted contará los exponentes de derecha
a izquierda pero contando desde el nº cero (0) hasta el
nº xxx es decir, hasta donde termine el conteo, y en este
caso termina en el nº 5 como exponentes agregado.

Ejemplo:

D emostración: 1 1 0 0 1 0 Elevar a la potencia de
2n.

(1x 25 ) + (1x 24 ) + (0x 23 ) + (0x 22 ) + (1x 21 ) + (0x
20 ) esto es igual a = 50

Conversión de datos en el sistema binario

Convertir de Binario 1100102 a Hexadecimal ¿
?16

de Binario 11110111101001012 a Hexadecimal
¿?16

Este procedimiento se realiza agrupando de cuatro en cuatro de
derecha a izquierda y recontando los exponentes así :
23222120 _ 23222120 etc.. Luego se busca la letra ó el
nº en la tabla a la cual pertenece.

Ejemplo:

Monografias.com

sistema de medidas

El bit: Unidad de información mas
pequeña manipulada por el ordenador su valor es el (0 y
1).

El byte: Es la unidad de información que consta de 8
bits, representa a una letra y el almacenamiento.

El kilobyte: Equivale a 1.024 bytes, y de posibles
almacenaje.

El Megabyte: Equivale a 1.048.576 bytes, es decir 1024
kilobytes.

El Gigabyte: Equivale a 1.073.741.824 bytes, es decir 1.024
megabytes.

Bit, unidad binaria de información. Es la
cantidad más pequeña de almacenamiento de un
ordenador y también la cantidad más pequeña
que se puede procesar. (el bit sólo puede tomar dos
valores: el 0 y el 1). dígito en sistema binario (0 o 1)
con el que se forma toda la información. Evidentemente
esta unidad es demasiado pequeña para poder contener una
información diferente a una dualidad (abierto/cerrado,
si/no), por lo que se emplea un conjunto de bits (en español el
plural de bit NO es bites, sino bits). 8 bits equivalen a 1
byte.

Byte, Formado normalmente por un octeto (8 bits),
aunque pueden ser entre 6 y 9 bits. La progresión de esta
medida es del tipo B=Ax2, siendo esta del tipo 8, 16, 32, 64,
128, 256, 512. Se pueden usar capacidades intermedias, pero
siempre basadas en esta progresión y siendo mezcla de
ellas (24 bytes=16+8). Se describe como la unidad básica
de almacenamiento de información, generalmente equivalente
a ocho bits (01011101), pero el tamaño del byte depende
del código de caracteres o código de
información en el que se defina.

Kilobyte, Aunque se utilizan las acepciones utilizadas
en el SI, un Kilobyte no son 1.000 bytes. Debido a lo
anteriormente expuesto, un KB (Kilobyte) son 1.024 bytes. Debido
al mal uso de este prefijo (Kilo, proveniente del griego, que
significa mil), se está utilizando cada vez más el
término definido por el IEC (Comisión Internacional
de Electrónica) Kibi o KiB para designar esta unidad. Un
kilobyte (pronunciado /kilobáit/) es una unidad de medida
común para la capacidad de memoria o almacenamiento de las
computadoras. Es equivalente a 1024 (o 210) bytes. Generalmente
se abrevia como KB, K, kB, Kbyte o k-byte. Las PC de IBM
más antiguas, por ejemplo, tenían una capacidad
máxima de 640 K, o alrededor de 640 000 caracteres de
datos.

Megabytes, El MB es la unidad de capacidad más
utilizada en Informática. Un MB NO son 1.000 KB, sino
1.024 KB, por lo que un MB son 1.048.576 bytes. Al igual que
ocurre con el KB, dado el mal uso del término, cada vez se
está empleando más el término MiB. El
Megabyte (MB) es una unidad de medida de cantidad de datos
informáticos. Es un múltiplo binario del byte, que
equivale a 220 (1 048 576) bytes, traducido a efectos
prácticos como 106 (1 000 000) bytes.

Gigabyte, Un GB son 1.024 MB (o MiB), por lo tanto
1.048.576 KB. Cada vez se emplea más el término
Gibibyte o GiB. Un gigabyte (de símbolo GB ó GiB)
es una unidad de medida informática equivalente a mil
millones de bytes (no confundir con el billón americano).
Dado que los ordenadores trabajan en base binaria, en lugar de
que un gigabyte sea 10³ megabytes (1000 MiB), el
término gigabyte significa 210 megabytes (1024 MiB). Pero
si somos exactos, 1 GB son 1.073.741.824 bytes ó 1.024 MB.
En este último caso, puede ser abreviado como GiB
(recomendado) ó GB

Terabyte, Aunque es aun una medida poco utilizada,
pronto nos tendremos que acostumbrar a ella, ya que por poner un
ejemplo la capacidad de los discos duros
ya se está aproximando a esta medida. Un Terabyte son
1.024 GB. Aunque poco utilizada aun, al igual que en los casos
anteriores se está empezando a utilizar la acepción
Tebibyte. Una unidad de almacenamiento tan desorbitada que
resulta imposible imaginársela, ya que coincide con algo
más de un trillón de bytes. Un uno seguido de
dieciocho ceros. Su símbolo es el TB y es equivalente a
240 bytes

Monografias.com

Nota: Usted debe enterarse que, la velocidad de un
computador se mide, por la frecuencia del procesador (CPU), y
este se conoce como: Hertz (Hz). Antes se usaba el Mega Hertz
(MHz), ahora hoy en día, en la CPU se emplea o se mide por
Giga Hertz (GHz), es decir, más velocidad.

CONVERSIÓN NUMÉRICA DE
DECIMAL-BINARIO

Para cambiar un número decimal a número binario,
se divide el número entre dos. Se escribe el cociente y el
residuo. Si el cociente es mayor de uno, se divide el cociente
entre dos. Se vuelve a escribir el cociente y el residuo. Este
proceso se sigue realizando hasta que el cociente sea cero.
Cuando el cociente es cero, se escribe el cociente y el residuo.
Para obtener el número binario, se escribe cada uno de los
residuos comenzando desde el último hasta el primero de
izquierda a derecha, o sea, el primer residuo se escribe a la
izquierda, el segundo residuo se escribe a la derecha del primer
residuo, y así sucesivamente.

CONVERSIÓN DE SISTEMA NUMÉRICO
BINARIO-DECIMAL.

El sistema de numeración binario es un sistema de
posición donde cada dígito binario (bit) tiene un
valor basado en su posición relativa al LSB. Cualquier
número binario puede convenirse a su equivalente decimal,
simplemente sumando en el número binario las diversas
posiciones que contenga un 1.

Ejemplo: Cómo cambiar el número binario 11012 al
sistema decimal.

11012 = 1 x 23 + 1 x 22 + 0 x 21 + 1 x 20

=1 x 8 + 1 x 4 + 0 x 2 + 1 x 1

= 8 + 4 + 0 + 1

= 13

Resultado 11012 = 1310

Unidades de
medida

Herzt.

Unidad de frecuencia que equivale a un ciclo o
repetición de un evento por segundo. Esto en palabras
simples, significa que un procesador que trabaje a una velocidad
de 500 megahercios es capaz de repetir 500 millones de ciclos por
segundo. En la actualidad, dada la gran velocidad de los procesadores, la
unidad más frecuente es el gigahercio, que corresponde a
1.000 millones de hercios por segundo. El hercio es la unidad de
frecuencia del Sistema Internacional de Unidades. Proviene del
apellido del físico alemán Heinrich Rudolf Hertz,
descubridor de la transmisión de las ondas
electromagnéticas. Su símbolo es hz. (que se
escribe sin punto). En inglés se llama hertz (y se
pronuncia /jérts/). Un hercio representa un ciclo por cada
segundo, entendiendo ciclo como la repetición de un
evento.

Megaherzt.

Múltiplo del hertzio igual a 1 millón de
hertzios. Utilizado para medir la "velocidMegahertzios, es una
medida de frecuencia (número de veces que ocurre algo en
un segundo). En el caso de los ordenadores, un equipo a 200 MHz
será capaz de dar 200 millones de pasos por segundo. En la
velocidad real de trabajo no sólo influyen los MHz, sino
también la arquitectura del
procesador (y el resto de los componentes); por ejemplo, dentro
de la serie X86, un Pentium a 60 MHz
era cerca del doble de rápido que un 486 a 66 MHzad bruta"
de los microprocesadores.

Ejemplo:

Si usted mira el dial de un receptor de radio,
encontrará que lleva una indicación de frecuencias
o longitudes de onda. La mayoría de los receptores tienen
varias bandas de ondas y éstas pueden ser seleccionadas
por medio de un botón llamado comúnmente el
"selector de bandas de ondas", que le ofrece a usted una
elección, por ejemplo, entre la banda de onda media
(emisoras standard), la de la onda corta, o bandas de onda corta
y la banda FM.

Nanosegundos, es la milmillonésima parte de un
segundo, 10-9. Este tiempo tan corto no se usa en la vida diaria,
pero es de interés en
ciertas áreas de la física, la química, la
electrónica y en la informática. Así, un
nanosegundo es la duración de un ciclo de reloj de un
procesador de 1 GHz, y es también el tiempo que tarda la
luz en
recorrer aproximadamente 30 cm.

Milisegundos, es el período de tiempo que
corresponde a la milésima fracción de un segundo
(0,001s).Su simbología, al igual que otras milesimas
partes de distintas magnitudes como pudieran ser la masa o la
longitud, viene especificada mediante una "m" minúscula
antepuesta a la magnitud fundamental, que en el caso del segundo
es una letra "s", resultando:

1 ms = 0.001 segundo = 1 milisegundo

Microsegundos, Es una Unidad de tiempo, equivalente a
una milésima parte de un segundo. (ms).

Ejemplo:

Numerosas personas, no obstante, se han dado cuenta de que en
49.7 días hay 4294080000 milisegundos. Esa cifra es muy
semejante a 2^32 = 4294967296. En otras palabras, un registro de
32 bits podría contar 4294967296 milisegundos o, lo que es
lo mismo, 49'7103 días (exactamente, 49 días, 17
horas, 2 minutos y 47'296 segundos).

Software
libre

Definición legal

Programa de computación cuya licencia garantiza al
usuario acceso al código fuente del programa y lo autoriza
a ejecutarlo con cualquier propósito, modificarlo y
redistribuir tanto el programa original como sus modificaciones
en las mismas condiciones de licenciamiento acordadas al programa
original, sin tener que pagar regalías a los
desarrolladores previos (Decreto 3390, artículo 2).

Se denomina software
libre, (en inglés free software), al software que
brinda libertad a los
usuarios sobre su producto
adquirido y por tanto, una vez obtenido, puede ser usado,
copiado, estudiado. Siguiendo el mismo orden de ideas, software libre
se refiere a la libertad de los usuarios para ejecutar, copiar,
distribuir, estudiar, cambiar y mejorar el software modificado y
redistribuido libremente. Cabe destacar que se refiere a cuatro
libertades de los usuarios del software: la libertad de usar el
programa, con cualquier propósito; de estudiar el
funcionamiento del programa, y adaptarlo a las necesidades; de
distribuir copias, con lo que puede ayudar a otros; de mejorar el
programa y hacer públicas las mejoras, de modo que toda la
comunidad se
beneficie (para la segunda y última libertad mencionadas,
el acceso al código fuente es un requisito previo).

El software libre suele estar disponible gratuitamente, o a
precio del
coste de la distribución a través de otros medios;
sin embargo no es obligatorio que sea así, por ende no hay
que asociar software libre a "software gratuito" (denominado
usualmente freeware). El freeware suele incluir una licencia de
uso, que permite su redistribución pero con algunas
restricciones, como no modificar la aplicación en
sí, ni venderla, y dar cuenta de su autor. También
puede desautorizar el uso en una compañía con fines
comerciales o en una entidad gubernamental

¿Qué son los Programas
Informáticos Libres?

Los Programas Informáticos Libres son
aquellos que cumplen con las siguientes cuatro libertades
básicas:

Libertad Cero: "usar el programa con
cualquier propósito". Es decir, el ejercicio de esta
libertad implica que lo podemos utilizar con cualquier fin, ya
sea educativo, cultural, comercial, político, social, etc.
Esta libertad deriva de que hay ciertas licencias que restringen
el uso del software a un determinado propósito, o que
prohíben su uso para determinadas actividades.

Libertad Uno: "Estudiar como funciona
el programa, y adaptarlo a sus necesidades". Significa que
podemos estudiar su funcionamiento (al tener acceso al
código fuente) lo que nos va a permitir, entre otras
cosas: descubrir funciones ocultas, averiguar como realiza
determinada tarea, descubrir que otras posibilidades tiene, que
es lo que le falta para hacer algo, etc. El adaptar el programa a
mis necesidades implica que puedo suprimirle partes que no me
interesan, agregarle partes que considero importantes, copiarle
una parte que realiza una tarea y adicionarla a otro programa,
etc.

Libertad Dos: "Distribuir copias".
Quiere decir que somos libres de redistribuir el programa, ya sea
gratis o con algún costo, ya sea por email, FTP o en
CD, ya sea a
una persona o a
varias, ya sea a un vecino o a una persona que vive en otro
país, etc.

Libertad Tres: "Mejorar el programa, y liberar las
mejoras al publico". Es la libertad de hacer mejor el programa,
es decir que podemos hacer menores los requerimientos de hardware
para funcionar, que tenga mayores prestaciones,
que ocupe menos espacio, que tenga menos errores, entre otras
modificaciones. El poder liberar las mejoras al publico quiere
decir que si realizamos una mejora que permita un requerimiento
menor de hardware, o que haga que ocupe menos espacio, soy libre
de poder redistribuir ese programa mejorado, o simplemente
proponer la mejora en un lugar publico (un foro de noticias, una
lista de correo, un sitio Web, un FTP, un
canal de Chat).

Sistemas
operativos

"El Sistema Operativo es un conjunto de programas (software)
que trata de optimizar todo el poder de una computadora y sus
periféricos (hardware) y de facilitar al usuario el
aprovechamiento de su equipo"

Redondo y Algara CCV 1999.

"Es el que toma el control cuando encendemos la computadora y
realiza las primeras acciones….junto con la interfaz
gráfica está al centro de la acción
del software" Long y Long 1.997

Objetivos…..

  • Facilita la comunicación entre el sistema y la
    gente que lo maneja

  • Facilita la comunicación entre los componentes del
    sistema

  • Minimiza el tiempo para ejecutar un comando

  • Optimiza el uso de los recursos del sistema

  • Lleva el control de los archivos almacenados en disco.

  • Proporciona una cubierta de seguridad al sistema de
    computación.

  • Monitorea todas las capacidades del sistema y alerta al
    usuario sobre posibles fallas.

Funciones de los S. O.

  • Asignación de tiempo de CPU:

  • Planificar las diversas actividades.

  • Control de recursos:

  • Asignar recursos de forma racional. P. E. División
    de la memoria del ordenador entre los programas, controlar
    colas de e/s.

  • Control de entrada/salida:

  • Gestionar los datos desde y hacia los
    periféricos.

  • Control de los errores y protección:

  • Informar de las situaciones anómalas

  • Interfaz con el usuario:

  • Facilita el uso.

  • Facilidades contables:

  • Cálculo de costes de uso de CPU.

Monografias.com

TIPOS DE SISTEMAS OPERATIVOS

Un sistema Operativo (SO) es en sí mismo un programa de
computadora. Sin embargo, es un programa muy especial,
quizá el más complejo e importante en una
computadora. El SO despierta a la computadora y hace que
reconozca a la CPU, la memoria, el tecla do, el sistema de
vídeo y las unidades de disco.

Además, proporciona la facilidad para que los usuarios
se comuniquen con la computadora y sirve de plataforma a partir
de la cual se corran programas de aplicación.

Sistemas Operativos por Servicios(Visión Externa).

Esta clasificación es la más comúnmente
usada y conocida desde el punto de vista del usuario final. Esta
clasificación se comprende fácilmente con el cuadro
sinóptico que a continuación se muestra:

Por Número de Usuarios:

Sistema Operativo Monousuario.

Los sistemas
operativos monousuarios son aquéllos que soportan a un
usuario a la vez, sin importar el número de procesadores
que tenga la computadora o el número de procesos o tareas
que el usuario pueda ejecutar en un mismo instante de tiempo. Las
computadoras personales típicamente se han clasificado en
este renglón.

Sistema Operativo Multiusuario.

Los sistemas
operativos multiusuarios son capaces de dar servicio a
más de un usuario a la vez, ya sea por medio de varias
terminales conectadas a la computadora o por medio de sesiones
remotas en una red de comunicaciones. No importa el número
de procesadores en la máquina ni el número de
procesos que cada usuario puede ejecutar
simultáneamente.

En esta categoría se encuentran todos los sistemas que
cumplen simultáneamente las necesidades de dos o
más usuarios, que comparten mismos recursos. Este
tipo de sistemas se emplean especialmente en redes. En otras
palabras consiste en el fraccionamiento del tiempo
(timesharing).

Sistema Operativo Multitarea.

Un sistema operativo multitarea es aquél que le permite
al usuario estar realizando varias labores al mismo tiempo.

Es el modo de funcionamiento disponible en algunos sistemas
operativos, mediante el cual una computadora procesa varias
tareas al mismo tiempo. Existen varios tipos de multitareas. La
conmutación de contextos (context Switching) es un tipo
muy simple de multitarea en el que dos o más aplicaciones
se cargan al mismo tiempo, pero en el que solo se esta procesando
la aplicación que se encuentra en primer plano (la que ve
el usuario. En la multitarea cooperativa,
la que se utiliza en el sistema operativo Macintosh, las tareas
en segundo plano reciben tiempo de procesado durante los tiempos
muertos de la tarea que se encuentra en primer plano (por
ejemplo, cuando esta aplicación esta esperando
información del usuario), y siempre que esta
aplicación lo permita. En los sistemas multitarea de
tiempo compartido, como OS/2, cada tarea recibe la atención del microprocesador durante una
fracción de segundo.

Sistema Operativo de Uniproceso.

Un sistema operativo uniproceso es aquél que es capaz
de manejar solamente un procesador de la computadora, de manera
que si la computadora tuviese más de uno le sería
inútil. El ejemplo más típico de este tipo
de sistemas es el DOS y MacOS.

Sistema Operativo de Multiproceso.

Un sistema operativo multiproceso se refiere al número
de procesadores del sistema, que es más de uno y
éste es capaz de usarlos todos para distribuir su carga de
trabajo. Generalmente estos sistemas trabajan de dos formas:
simétrica o asimétricamente.

Asimétrica.

Cuando se trabaja de manera asimétrica, el sistema
operativo selecciona a uno de los procesadores el cual
jugará el papel de procesador maestro y servirá
como pivote para distribuir la carga a los demás
procesadores, que reciben el nombre de esclavos.

Simétrica.

Cuando se trabaja de manera simétrica, los procesos o
partes de ellos (threads) son enviados indistintamente a cual
quiera de los procesadores disponibles, teniendo,
teóricamente, una mejor distribución y equilibrio en
la carga de trabajo bajo este esquema.

Sistemas Operativos por su Estructura
(Visión Interna).

Según, se deben observar dos tipos de requisitos cuando
se construye un sistema operativo, los cuales son:

Requisitos de usuario: Sistema fácil de usar y de
aprender, seguro,
rápido y adecuado al uso al que se le quiere destinar.

Requisitos del software: Donde se engloban aspectos como el
mantenimiento, forma de operación, restricciones de uso,
eficiencia,
tolerancia
frente a los errores y flexibilidad.

A continuación se describen las distintas estructuras
que presentan los actuales sistemas operativos para satisfacer
las necesidades que de ellos se quieren obtener.

Estructura Monolítica.

Es la estructura de los primeros sistemas operativos
constituidos fundamentalmente por un solo programa compuesto de
un conjunto de rutinas entrelazadas de tal forma que cada una
puede llamar a cualquier otra. Las características
fundamentales de este tipo de estructura son:

  • Construcción del programa final a base de
    módulos compilados separadamente que se unen a
    través del ligador.

  • Buena definición de parámetros de enlace
    entre las distintas rutinas existentes, que puede provocar
    mucho acoplamiento.

  • Carecen de protecciones y privilegios al entrar a rutinas
    que manejan diferentes aspectos de los recursos de la
    computadora, como memoria, disco, etc.

Generalmente están hechos a medida, por lo que son
eficientes y rápidos en su ejecución y
gestión, pero por lo mismo carecen de flexibilidad para
soportar diferentes ambientes de trabajo o tipos de
aplicaciones.

Estructura Jerárquica.

A medida que fueron creciendo las necesidades de los usuarios
y se perfeccionaron los sistemas, se hizo necesaria una mayor
organización del software, del sistema
operativo, donde una parte del sistema contenía subpartes
y esto organizado en forma de niveles.

Se dividió el sistema operativo en pequeñas
partes, de tal forma que cada una de ellas estuviera
perfectamente definida y con un claro interface con el resto de
elementos.

Se constituyó una estructura jerárquica o de
niveles en los sistemas operativos, el primero de los cuales fue
denominado THE (Technische Hogeschool, Eindhoven), de Dijkstra,
que se utilizó con fines didácticos. Se puede
pensar también en estos sistemas como si fueran
`multicapa'. Multics y Unix caen en
esa categoría.

Máquina Virtual.

Se trata de un tipo de sistemas operativos que presentan una
interface a cada proceso, mostrando una máquina que parece
idéntica a la máquina real subyacente. Estos
sistemas operativos separan dos conceptos que suelen estar unidos
en el resto de sistemas: la multiprogramación y la
máquina extendida. El objetivo de
los sistemas operativos de máquina virtual es el de
integrar distintos sistemas operativos dando la sensación
de ser varias máquinas
diferentes.

Cliente-Servidor(Microkernel).

El tipo más reciente de sistemas operativos es el
denominado Cliente-servidor,
que puede ser ejecutado en la mayoría de las computadoras,
ya sean grandes o pequeñas.

Este sistema sirve para toda clase de
aplicaciones por tanto, es de propósito general y cumple
con las mismas actividades que los sistemas operativos
convencionales.

Sistemas Operativos por la Forma de Ofrecer sus
Servicios

Esta clasificación también se refiere a una
visión externa, que en este caso se refiere a la del
usuario, el cómo accesa a los servicios. Bajo esta
clasificación se pueden detectar dos tipos principales:
sistemas operativos de red y sistemas operativos
distribuidos.

Sistema Operativo de Red.

Los sistemas operativos de red se definen como aquellos que
tiene la capacidad de interactuar con sistemas operativos en
otras computadoras por medio de un medio de transmisión
con el objeto de intercambiar información, transferir
archivos, ejecutar comandos remotos y un sin fin de otras
actividades. El punto crucial de estos sistemas es que el usuario
debe saber la sintaxis de un conjunto de comandos o llamadas al
sistema para ejecutar estas operaciones, además de la
ubicación de los recursos que desee accesar. Por ejemplo,
si un usuario en la computadora hidalgo necesita el archivo matriz.pas que
se localiza en el directorio /software/codigo en la
computadora morelos bajo el sistema operativo UNIX, dicho usuario
podría copiarlo a través de la red con los comandos
siguientes: hidalgo% hidalgo% rcp
morelos:/software/codigo/matriz.pas . hidalgo%. En este caso, el
comando rcp que significa "remote copy" trae el archivo indicado
de la computadora morelos y lo coloca en el directorio donde se
ejecutó el mencionado comando. Lo importante es hacer ver
que el usuario puede accesar y compartir muchos recursos.

Sistemas Operativos Distribuidos.

Los sistemas operativos distribuidos abarcan los servicios de
los de red, logrando integrar recursos ( impresoras, unidades de
respaldo, memoria, procesos, unidades centrales de proceso ) en
una sola máquina virtual que el usuario accesa en forma
transparente. Es decir, ahora el usuario ya no necesita saber la
ubicación de los recursos, sino que los conoce por nombre
y simplemente los usa como si todos ellos fuesen locales a su
lugar de trabajo habitual. Todo lo anterior es el marco
teórico de lo que se desearía tener como
sistema operativo distribuido, pero en la realidad no se ha
conseguido crear uno del todo, por la complejidad que suponen:
distribuir los procesos en las varias unidades de procesamiento,
reintegrar sub-resultados, resolver problemas de
concurrencia y paralelismo, recuperarse de fallas de algunos
recursos distribuidos y consolidar la protección y
seguridad
entre los diferentes componentes del sistema y los usuarios. Los
avances
tecnológicos en las redes de área local y la
creación de microprocesadores de 32 y 64 bits lograron que
computadoras mas o menos baratas tuvieran el suficiente poder en
forma autónoma para desafiar en cierto grado a los
mainframes, y a la vez se dio la posibilidad de
intercomunicarlas, sugiriendo la oportunidad de partir procesos
muy pesados en cálculo en unidades más
pequeñas y distribuirlas en los varios microprocesadores
para luego reunir los sub-resultados, creando así una
máquina virtual en la red que exceda en poder a un
mainframe. El sistema integrador de los microprocesadores que
hacer ver a las varias memorias, procesadores, y todos los
demás recursos como una sola entidad en forma transparente
se le llama sistema operativo distribuído.

Monografias.com

VENTAJAS Y DESVENTAJAS DE MAC ,LINUX
Y WINDOWS

Cada Sistema operativo tiene sus pro y contras
quen no debemos dejar pasar por alto, debido aquello les dejo
algunas ventajas y desventajas de windows de mac
y de linux

LinuxVentajas:

  • El mejor costo del mercado, gratuito o un
    precio simbolico por el cd.

  • Tienes una enorme cantidad de software libre
    para este sistema

  • Mayor estabilidad por algo lo usan en
    servidores de alto rendimiento

  • Entorno grafico (beryl) mejor que el aero de
    windows.

  • Existen distribuciones de linux para diversos
    tipos de equipo, hasta para maquinas de 64 bits.

  • Las vulneralidades son detectadas y
    corregidas más rapidamente que cualquier otro sistema
    operativo.

Desventajas:

  • Para algunas cosas debes de saber usar
    unix

  • La mayoria de los ISP no dan soporte para
    algo que no sea windows (ignorantes).

  • No Existe mucho software comercial.

  • Muchos juegos no corren en linux.

Windows

Ventajas:

  • Es más conocido

  • Es el que tiene más software
    desarrollado.

Desventajas:

  • El costo es muy alto

  • Las nuevas versiones requieren muchos
    recursos

  • La mayoria de los virus estan echos para
    win

  • Puedes tener errores de compatibilidad en
    sistemas nuevos.

  • Historicamente es más inestable de los
    3

Mac

Ventajas:

  • mejor interfaz grafica del mercado

  • Ideal para diseño grafico.

  • Es muy estable

Desventajas:

  • Costoso (aunque viene incluido con la
    maquina)

  • Existe poco software para este sistema
    operativo.

Es más complicado encontrar gente que la pueda arreglar
en caso de fallas.

Historia

Años 40, A finales de los años 40, con la
primera generación de computadoras, se accedía
directamente a la consola de la computadora desde la cual se
actuaba sobre una serie de micro interruptores que
permitían introducir directamente el programa en la
memoria de la computadora.

Por aquel entonces no existían los sistemas operativos,
y los programadores debían interactuar con el hardware del
computador sin ayuda externa. Esto hacía que el tiempo de
preparación para realizar una tarea fuera considerable.
Además para poder utilizar la computadora debía
hacerse por turnos.

Años 50, A principios de los años 50 con
el objeto de facilitar la interacción entre persona y
computador, los sistemas operativos hacen una aparición
discreta y bastante simple, con conceptos tales como el monitor
residente, el proceso por lotes y el almacenamiento temporal.

Años 60, En los años 60 se produjeron
cambios notorios en varios campos de la informática, con
la aparición del circuito cerrado la mayoría
orientados a seguir incrementando el potencial de los
computadores. Para ello se utilizaban técnicas
de lo más diversas:

  • Multiprogramación

  • Tiempo compartido

  • Tiempo real

  • Multiprocesador

Años 70, Debido al avance de la
electrónica, pudieron empezar a crearse circuitos con
miles de transistores en un centímetro cuadrado de
silicio, lo que llevaría, pocos años
después, a producirse los primeros sistemas
integrados.

Se creó específicamente para re-escribir por
completo el código del sistema operativo Unix,
convirtiéndolo en uno de los pocos SO escritos en un
lenguaje de alto nivel.

SISTEMAS OPERATIVOS DESARROLLADOS:

  • MULTICS (Multiplexed Information and Computing
    Service):
    proyecto cooperativo liderado por Fernando
    Corbato del MIT, con General Electric y los laboratorios
    Bell, los laboratorios Bell lo abandonaron en 1969 para
    comenzar a crear el sistema UNIX.

  • MVS (Multiple Virtual Storage): Fue el sistema
    operativo más usado en los modelos de mainframes ,
    desarrollado también por IBM y lanzado al mercado por
    primera vez en 1974. Permitía ejecución de
    múltiples tareas, introdujo el concepto de memoria
    virtual.

  • CP/M (Control Program/Monitor): Desarrollado por
    Gary Kildall para el microprocesador 8080/85 de Intel y el
    Zilog Z80, salió al mercado en 1976,
    distribuyéndose en disquetes de ocho pulgadas. Fue el
    SO más usado en las computadoras personales de esta
    década. Su éxito se debió a que era
    portátil.

Años 80, Un avance importante que se
estableció a mediados de 1980 fue el desarrollo de redes
de PC que corrían sistemas operativos en red y sistemas
operativos distribuidos. En esta escena, dos sistemas operativos
eran los mayoritarios: MS-DOS,
escrito por Microsoft para
IBM PC y otras computadoras que utilizaban la CPU Intel 8088 y
sus sucesores, y UNIX, que dominaba en los ordenadores personales
que hacían uso del Motorola 68000.

MS-DOS, En 1981 Microsoft compró un sistema
operativo llamado QDOS que, tras realizar unas pocas
modificaciones, se convirtió en la primera versión
de MS-DOS (Microsoft Disk Operating System).

Apple Macintosh, El lanzamiento oficial se produjo en
enero de 1984, al precio de 2495 dólares. Muchos usuarios,
al ver que estaba completamente diseñado para funcionar a
través de una GUI (Graphic User Interface), acostumbrados
a la línea de comandos, lo tacharon de juguete. A
pesar de todo, el Mac se situó a la cabeza en el mundo de
la edición
a nivel gráfico

Años 90, GNU/Linux.- En 1991 aparece la primera
versión del núcleo de Linux. Creado por Linus
Torvalds y un sinfín de colaboradores a través de
Internet. Este
sistema se basa en Unix, un sistema que en principio trabajaba en
modo comandos, estilo MS-DOS.

Hoy en día dispone de Ventanas, gracias a un servidor
grafico y a gestores de ventanas como KDE, GNOME entre muchos.
Recientemente GNU/Linux dispone de un aplicativo que convierte
las ventanas en un entorno 3D como por ejemplo Beryl. Lo que
permite utilizar Linux de una forma muy visual y atractiva.

Novedades en sistemas
operativos

Windows 7 El desarrollo de este sistema operativo
comenzó inmediatamente después del lanzamiento de
Windows Vista. El 20 de julio de 2007, se reveló que este
sistema operativo es llamado internamente por Microsoft como la
versión "7". Hasta el momento, la compañía
declaró que Windows 7 tendrá soporte para
plataformas de 32 bits y 64 bits,2 aunque la versión para
servidor (que sucedería a Windows Server 2008) será
exclusivamente de 64 bits.3

El 13 de octubre del 2008 fue anunciado que "Windows 7"
además de haber sido uno de los tantos nombres
código, sería el nombre oficial de este nuevo
sistema operativo. Mike Nash dijo que esto se debía a que
Windows 7 apunta a la simplicidad, y el nombre debe
reflejarlo.

Ya para el 7 de enero del 2009, la versión beta se
publicó para suscriptores de Technet y MSDN. El 9 de
enero, se habilitó brevemente al público general
mediante descarga directa en la página oficial, pero hubo
problemas con los servidores que
obligaron a retirar la posibilidad de descarga hasta horas
más tarde después de añadir más
servidores y, además, cambiaron el límite de 2,5
millones de personas como disculpa por el problema del retraso,
el nuevo límite fue hasta el 10 de febrero del 2009.

Windows 7 (anteriormente conocido con nombre código
Blackcomb, y luego Vienna) será la próxima
versión de Microsoft Windows, sucesor de Windows Vista.
Creado sobre un kernel basado en el de Windows Server 2008 y
permitirá la compatibilidad hacia atrás mediante la
virtualización.

Al tener 6.1 como código de versión, mucha gente
piensa que éste será una actualización menor
con respecto a Windows Vista, cuyo código de
versión es 6.0, pero esto se debe únicamente para
evitar problemas de compatibilidad, ya que Windows 7 será
un significativo avance evolutivo y una edición mayor de
los sistemas operativos de Microsoft.

NUEVAS TECNOLOGÍAS

Los investigadores, del Laboratorio
Nacional de Argonne, han descubierto que las estructuras de giro
llamadas vórtices magnéticos, cuando se encuentran
atrapadas dentro de estructuras ferromagnéticas estampadas
litográficamente, se comportan de manera sorprendente. En
una aleación de níquel-hierro, los
dos vórtices se arremolinan en direcciones opuestas, uno
en el sentido de las agujas del reloj y el otro en sentido
contrario. Sin embargo, los investigadores han descubierto que la
polaridad magnética del centro de los vórtices,
como el ojo de un huracán, es controlada por la evolución temporal de las propiedades
magnéticas y no por la dirección de los giros.

El material estudiado es de un tamaño
aproximado de una micra, y el área del centro del
vórtice es de unos 10 nanómetros.

Deisseroth cree que se puede controlar las neuronas por medio
de golpes de luz. El experto trabaja en identificar las neuronas
responsables de la depresión
para desarrollar un medicamento dirigido a las partes relevantes
y eliminar los efectos secundarios actuales.

Uno de los avances más innovadores es el uso de
pequeñas fibras que podrán salvar a personas
durante cirugías o accidentes en
el futuro. El científico del MIT, Rutledge Ellis-Behnke,
responsable de la investigación, ha hecho pruebas en
cirugías con ratas.

Al cortar intencionalmente una artería principal del
hígado de uno de estos animales y
colocar un líquido transparente en la herida, el sangrado
se detiene de inmediato. Este líquido está formado
por nanofragmentos de proteína que funcionan como una
malla. Según el experto, aún faltan unos diez
años para probar su uso en humanos.

Otros proyectos
parecen, más bien, sacados de una obra de ficción.
Tal es el caso de Kenneth Crozier y Federico Capasso, de la
Universidad de
Harvard, quienes diseñaron antenas
ópticas que son alimentadas por la luz y que se espera
permitan crear discos similares a los de DVD actuales,
pero con una capacidad para almacenar unos 3.6 terabytes, es
decir, el equivalente de 750 DVD grabables en un solo
disco.

Otra apuesta va en el sentido de producir energía
solar de bajo costo. Actualmente, los paneles solares para su
producción alcanzan precios
exorbitantes. La gran novedad es utilizar celdas denominadas
"fotovoltaicas" que utilizan semiconductores,
como la silicona, para convertir la energía de la luz en
corriente
eléctrica.

Tecnologías futras en sistemas operativos,
Los sistemas operativos siguen evolucionando. Los
sistemas operativos distribuidos están diseñados
para su uso en un grupo de
ordenadores conectados pero independientes que comparten
recursos. En un sistema operativo distribuido, un proceso puede
ejecutarse en cualquier ordenador de la red (normalmente, un
ordenador inactivo en ese momento) para aumentar el rendimiento
de ese proceso. En los sistemas
distribuidos, todas las funciones básicas de un
sistema operativo, como mantener los sistemas de archivos,
garantizar un comportamiento razonable y recuperar datos en caso
de fallos parciales, resultan más complejas.

 

 

Autor:

Omar Hernández

Partes: 1, 2
 Página anterior Volver al principio del trabajoPágina siguiente 

Nota al lector: es posible que esta página no contenga todos los componentes del trabajo original (pies de página, avanzadas formulas matemáticas, esquemas o tablas complejas, etc.). Recuerde que para ver el trabajo en su versión original completa, puede descargarlo desde el menú superior.

Todos los documentos disponibles en este sitio expresan los puntos de vista de sus respectivos autores y no de Monografias.com. El objetivo de Monografias.com es poner el conocimiento a disposición de toda su comunidad. Queda bajo la responsabilidad de cada lector el eventual uso que se le de a esta información. Asimismo, es obligatoria la cita del autor del contenido y de Monografias.com como fuentes de información.

Categorias
Newsletter