Monografias.com > Sin categoría
Descargar Imprimir Comentar Ver trabajos relacionados

Telemática. Capa de enlace de datos (página 2)




Enviado por Yadira Sanchez



Partes: 1, 2

MARCO TEÓRICO

LA CAPA
DE ENLACE DE DATOS

El nivel de enlace es el segundo nivel del modelo
OSI.
Recibe peticiones del nivel de red y utiliza los servicios del
nivel físico.

El objetivo del
nivel de enlace es conseguir que la información fluya, libre de errores, entre
dos máquinas
que estén conectadas directamente (servicio
orientado a conexión).

Para lograr este objetivo tiene que montar bloques de
información (llamados tramas en este nivel), dotarles de
una dirección de nivel de enlace, gestionar la
detección o corrección de errores, y ocuparse del
control de flujo
entre equipos (para evitar que un equipo más rápido
desborde a uno más lento).

Cuando el medio de comunicación está compartido entre
más de dos equipos es necesario arbitrar el uso del mismo.
Esta tarea se realiza en el subnivel de acceso al
medio.

Dentro del grupo de
normas
IEEE
802, el subnivel de enlace lógico se
recoge en la norma IEEE
802.2 y es común para todos los
demás tipos de redes
(Ethernet
o IEEE
802.3, IEEE
802.11 o Wi-Fi,
IEEE
802.16 o WiMAX,
etc.); todas ellas especifican un subnivel de acceso al medio
así como un nivel físico distintos.

Tramas

En la capa de enlace, los datos se organizan en unidades
llamadas tramas. Cada trama tiene una cabecera que incluye una
dirección e información de control y una cola que
se usa para la detección de errores.

La cabecera de una trama de red de área local
(LAN) contiene
las direcciones físicas del origen y el destino de la LAN.
La cabecera de una trama que se transmite por una red de área
extensa (WAN) contiene un identificador de circuito en su campo
de dirección.

Recuerde que un enlace es una red de área local,
una línea punto a punto o alguna otra facilidad de
área extensa por la que se pueden comunicar los sistemas mediante
un protocolo de la
capa de enlace de datos.

Funciones

La Capa de enlace de datos es responsable de la
transferencia fiable de información a través de un
circuito de transmisión de datos. La transmisión de
datos lo realiza mediante tramas que son las unidades de
información con sentido lógico para el intercambio
de datos en la capa de enlace.

Sus principales funciones son
8:

Iniciación, terminación e
identificación.

Segmentación y bloqueo.

Sincronización de octeto y carácter.

Delimitación de trama y transparencia.

Control de errores.

Control de flujo.

Recuperación de fallos

Gestión
y coordinación de la
comunicación.

Protocolos elementales de enlace de
datos

Protocolo simplex sin restricciones

Los datos se transmiten en una dirección, las
capas de red en el transmisor y receptor siempre están
listas, el tiempo de
procesamiento puede ignorarse, espacio infinito de buffer, canal
libre errores.

Dos procedimientos
diferentes, uno transmisor y uno receptor que se ejecutan en la
capas de enlace.

Transmisor solo envía datos a la línea,
obtiene un paquete de la capa de red, construye un frame de
salida y lo envía a su destino. Receptor espera la llegada
de un frame.

Protocolo simplex de parada y espera

El receptor no es capaz de procesar datos de entrada con
una rapidez infinita

Receptor debe proporcionar realimentación al
transmisor, el transmisor envía un frame y luego espera
acuse antes de continuar.

Protocolo simplex para un canal
ruidoso

Canal presenta errores, los frame pueden llegar
dañados o perderse por completo

Agregar un temporizador, falla si el frame de acuse se
pierde pues se retransmitirá el frame.

Se debe agregar un numero de secuencia en el encabezado
de cada frame que se envía.

Protocolo de ventana corrediza

Usar el mismo circuito para datos en ambas
direcciones

Se mezclan los frames de datos con los frame de acuse de
recibido

Receptor analiza el campo de tipo en el encabezado de un
frame de entrada para determinar si es de datos o
acuse.

Incorporación, retardo temporal de los acuses
para que puedan colgarse del siguiente frame de datos de salida,
usando el campo ack del encabezado del frame

Mejor aprovechamiento del ancho de banda del canal, no
son frames independientes

Si no llega un nuevo frame en un tiempo predeterminado,
la capa de enlace de datos manda un frame de acuse
independiente.

En todos los protocolos de
ventana corrediza, cada frame de salida contiene un número
de secuencia con un intervalo que va desde 0 hasta algún
máximo. El máximo es generalmente 2(n) -1, por lo
que el número de secuencia cabe bien

en un campo de n bits.

Protocolo de ventana corrediza de un
bit

Usa parada y espera, ya que el transmisor envía
un frame y espera su acuse antes de transmitir el
siguiente.

La máquina que arranca obtiene su primer paquete
de su capa de red, construye un frame a partir de él y lo
envía. Al llegar este frame, la capa de enlace de datos
receptor lo revisa para ver si es un duplicado. Si el marco es el
esperado, se pasa a la capa de red y la ventana del receptor se
recorre hacia arriba.

El campo de acuse contiene el número del
último frame recibido sin error. Si este número
concuerda con el número de

secuencia del marco que está tratando de enviar
el transmisor, éste sabe que ha terminado con el marco
almacenado en el buffer y que puede obtener el siguiente paquete
de su capa de red. Si el número de secuencia no concuerda
con el número, debe continuar intentando enviar el mismo
frame.

Por cada frame que se recibe, se envía un frame
de regreso.

Problema si el transmisor tiene un temporizador corto,
ya que enviará varias veces el frame, sin embargo el
receptor sólo aceptará el frame una vez y no
entregará frames repetidos a la capa de red.

Protocolo que usa regresar n y protocolo de
repetición selectiva

Hasta ahora hemos supuesto insignificante el tiempo
necesario para que un frame llegue al receptor más el
tiempo para que regrese el acuse.

El tiempo de viaje tiene importantes implicaciones para
la eficiencia del
aprovechamiento del ancho de banda. Canal de 50Kbps con retardo
de propagación de ida y vuelta de 500 mseg.

Con frames de 1000 bits, en 20 mseg. el frame ha sido
enviado completamente.

En 270 mseg. el frame llega por completo al receptor y
en 520 mseg. llega el acuse de regreso al transmisor.

El transmisor estuvo bloqueado durante el 96% del tiempo
(500/520). Sólo se usó el 4% del ancho de banda
disponible.

PPP-
PROTOCOLO PUNTO A PUNTO

Para mejorar la situación, el IETF
estableció un grupo dedicado a diseñar un protocolo
de enlace de datos para líneas punto a punto que
resolviera todos estos problemas y
que pudiera volverse un estándar oficial de Internet. Este trabajo
culmino con el PPP (Point-to-Point Protocol, protocolo punto a
punto). El PPP realiza detección de errores, reconoce
múltiples protocolos, permite la negociación de direcciones de IP en el
momento de la conexión, permite la verificación de
autenticidad y tiene muchas mejoras respecto a SLIP. Aunque
muchos proveedores de
servicios de
Internet aun reconocen tanto SLIP como PPP, el futuro
claramente esta en PPP, no solo en las líneas por discado
sino también en las líneas arrendadas de enrutador
a enrutador.

PPP proporciona tres cosas:

1. Un método de
enmarcado que delinea sin ambigüedades el final de un marco
y el inicio del siguiente. El formato de marco también
maneja la detección de errores.

2. Un protocolo de control de enlace para activar
líneas, probarlas, negociar opciones y desactivarlas
ordenadamente cuando ya no son necesarias. Este protocolo se
llama LCP (link Control Protocol, protocolo de control de
enlace).

3. Un mecanismo para negociar opciones de capa de red
con independencia
del protocolo de red usado. El método escogido consiste en
tener un NCP (Network Control Protocol, protocolo de control de
red) distinto para cada capa de red reconocida.

Para ver la manera en que encajan estas piezas,
consideremos la situación típica de un usuario
casero llamando al proveedor de servicios de Internet para
convertir una PC casera en un host temporal de Internet. La PC
llama inicialmente al enrutador del proveedor a través de
un modem. Una vez
que el modem del enrutador ha contestado el teléfono y ha establecido una
conexión física, la PC manda
al enrutador una serie de paquetes LCP en el campo de carga
útil de uno o mas marcos PPP. Estos paquetes, y sus
respuestas, seleccionan los parámetros PPP por
usar.

Una vez que se han acordado estos parámetros, se
envía una serie de paquetes NCP para configurar la capa de
red. Típicamente, la PC quiere ejecutar una pila de
protocolos TCP/IP, por lo
que necesita una dirección de IP. La diferencia principal
entre PPP y HDLC es que el primero esta orientado a caracteres,
no a bits. En particular PPP, como SLIP, usa el relleno de
caracteres en las líneas por discado con modem, por lo que
todos los marcos tienen un numero entero de bytes. En otras
palabras, PPP no proporciona por omisión
transmisión confiable usando números de secuencias
y acuses. En ambientes ruidosos, como los de las redes
inalámbricas, se puede usar el modo numerado para
transmisión confiable.

En resumen, PPP es un mecanismo de enmarcado
multiprotocolo adecuado para usarse a través de
módems, líneas de serie de bits HDLC,SONET y otras
capas físicas, Maneja detección de errores,
negociación de opciones, compresión de encabezados
y, opcionalmente, transmisión confiable con marcos
HDLC.

Los códigos de terminación sirven para
desactivar una línea cuando ya no se necesita. Los
códigos de rechazo-código
y rechazo-protocolo son usados por el contestador para indicar
que recibió algo que no entiende. Los códigos eco
sirven para probar la calidad de la
línea.

Control de errores

Como asegurar que todos los marcos sean entregados
finalmente a la capa de red en el destino, en el orden apropiado.
Suponga que el transmisor se dedico a enviar marcos sin
importarle si estaban llegando adecuadamente. Esto podría
estar bien para un servicio sin acuse sin conexión, pero
ciertamente no será correcto para un servicio confiable
orientado a la conexión.

La manera normal de asegurar la entrega confiable de
datos es proporcionar al transmisor realimentación sobre
lo que esta ocurriendo en el otro lado de la línea.
Típicamente, el protocolo exige que el transmisor
envié de regreso marcos de control especiales que
contengan acuses positivos o negativos de los marcos de entrada.
Si el transmisor recibe un acuse positivo de un marco, sabe que
el marco llego correctamente. Un acuse negativo significa que
algo fallo y el marco debe transmitirse otra vez.

Una complicación adicional surge de la
posibilidad de que problemas de Hardware pueden causar la
desaparición de un marco completo. En este caso el
receptor no reaccionara en absoluto, ya que no tiene razón
para reaccionar. Debe quedar claro que un protocolo en el cual el
transmisor envía un marco y luego espera un acuse,
positivo o negativo, se quedaría esperando eternamente si
se pierde por completo un marco debido a una falla del
hardware.

Esta posibilidad se maneja introduciendo temporizadores
en la capa de enlace de datos. Cuando el transmisor envía
un marco, generalmente también arranca un temporizador. El
temporizador se ajusta de modo que termine cuando haya
transcurrido un intervalo suficiente para que el marco llegue a
su destino, se procese ahí y el acuse se propague de
regreso al transmisor. Normalmente, el marco se recibirá
correctamente y el acuse llegará antes de que el
temporizador termine, en cuyo caso se cancelara.

Sin embargo, si el marco o el acuse se pierden, el
temporizador terminara, alertando al transmisor sobre un problema
potencial. La solución obvia es simplemente transmitir de
nuevo el marco. Sin embargo, aun cuando los marcos pueden
transmitirse muchas veces y que lo pase a la capa de red mas de
una vez. Para evitar que ocurra esto, generalmente es necesario
asignar números de secuencia a los marcos de salida, para
que el receptor pueda distinguir las retransmisiones de los
originales.

La administración de temporizadores y
números de secuencia para asegurar que cada marco llegue
finalmente a la capa de red en el destino una sola vez, ni mas ni
menos, es una de las tares importantes de la capa de enlace de
datos.

Existen 2 métodos de
control de errores:

• FEC
o corrección de errores por anticipado y no tiene
control de flujo.

El receptor puede detectar errores y en la
decodificación puede arreglarlos.Este sistema conlleva
el uso de códigos correctores que trabajan con palabras
código que tienen bits de reduncancia.Suelen usar
códigos de bloque, donde se usan las
características de la distancias de hamming y
generación de códigos cíclicos mediante
polinomios generadores.Tambinén puede usar códigos
convolucionales.

Son adecuados para entornos en los que el número
de erróneos no es grande y los bits erróneos se
presentan aislados.

Se utilizan en transmisiones simples, aplicaciones
militares cuando el receptor no quiere que se detecte su
presencua o transmisiones via satélite.

• ARQ:
Posee control de flujo mediante parada y espera, o/y ventana
deslizante.

Controlan los errores utilizando la técnica de
repetición automática de respuesta. Se basan en
detectar errores mediante códigos sencillos que permiten
al receptor descartar las tramas erróneas.Y corregir los
errores mediante la representación de las tramas
transmitidas.

Las posibles implementaciones son:

Parada y espera simple: Emisor envía trama y
espera una señal del emisor para enviar la siguiente o la
que acaba de enviar en caso de error.

Envio continuo y rechazo simple: Emisor envía
continuamente tramas y el receptor las va validando. Si encuentra
una errónea, elimina todas las posteriores y pide al
emisor que envíe a partir de la trama
errónea.

Envio continuo y rechazo selectivo: transmisión
continua salvo que solo retransmite la trama defectuosa. El
receptor se complica ya ha de guardar en un registro todas
las tramas posteriores a un error hasta que le llegue la
retransmisión de la trama para poder
entregarlas el orden.

CONTROL DE FLUJO

Que hacer con un transmisor que sistemáticamente
quiere transmitir marcos a mayor velocidad que
aquella con que puede aceptarlos el receptor. Esta
situación puede ocurrir fácilmente cuando el
transmisor opera en una computadora
rápida (o con baja carga) y el receptor opera en una
maquina lenta (o sobrecarga). El transmisor envía los
marcos a alta velocidad hasta que satura por completo al
receptor. Aun si la transmisión esta libre de errores, en
cierto punto el receptor simplemente no será capaz de
manejar los marcos según van llegando y comenzara a perder
algunos. Es obvio que algo tiene que hacerse para evitar esta
situación. La solución común es introducir
un control de flujo para controlar la velocidad del transmisor de
modo que no envíe a mayor velocidad que la que puede
manejar el receptor. Este control de velocidad generalmente
requiere algún mecanismo de realimentación, para
que el transmisor pueda enterarse si el receptor es capaz de
mantener el ritmo o no.

Se conocen varios esquemas de control de flujo, pero la
mayoría se basan en el mismo principio. El protocolo
contiene reglas bien definidas respecto al momento en que un
transmisor puede enviar el siguiente marco. Estas reglas con
frecuencia prohíben el envío de marcos hasta que el
receptor lo haya autorizado, implícita o
explícitamente. Por ejemplo, cuando se establece una
conexión, el receptor podría decir: "puedes
enviarme n marcos ahora, pero tras transmitirlos, no
envíes mas hasta que te haya indicado que
continúes".

DETECCIÓN Y CORRECCIÓN DE
ERRORES

Los procesos
físicos que generan los errores en algunos medios (por
ejemplo la radio) tienden
a aparecer en ráfagas, no individualmente. El que los
errores lleguen en una ráfaga tienen tantas ventajas como
desventajas respecto a los errores aislados de un solo bit. Por
el lado de lasa ventajas, los datos de computadora siempre se
envían en bloques de bits. Suponga que el tamaño
del bloque es de 1000bits y la tasa de error es de 0.001 por bit.
Si los errores fueran independientes, la mayor parte de los
bloque contendrían un error. Sin embargo, si los errores
llegan en ráfagas de 100, en promedio solo uno o dos
bloques de cada 100 serán afectados. La desventaja de los
errores en ráfaga es que son mucho más
difíciles de detectar y corregir que los errores
aislados.

EL PROTOCOLO CSMA/CD.

Carrier Sense Multiple Access with
Collision Detection

Cuando la interfaz del servidor tiene un
paquete para transmitir, escucha en la línea para
determinar si hay mensajes siendo transmitidos. Si no detecta
transmisión alguna, la interfaz comienza a enviar. Cada
transmisión está limitada en el tiempo, pues existe
un tamaño máximo de paquete. Cuando un transceiver
comienza a transmitir, la señal no llega a cada punto de
la red simultáneamente, a pesar de que viaja a casi un 80%
de la velocidad de la luz. Por lo
anterior, es posible que 2 transceivers determinen que la red
está ociosa y comiencen a transmitir al mismo tiempo;
provocando la colisión de las dos señales.

Detección de Colisiones (CD):

Cada transceiver monitorea el cable mientras está
transfiriendo para verificar que una señal externa no
interfiera con la suya. Cuando colisión es detectada, la
interfaz aborta la transmisión y espera hasta que la
actividad cese antes de volver a intentar la transmisión.
Política
de retención exponencial. El emisor espera un tiempo
aleatorio después de la primera colisión; un
periodo de espera 2 veces más largo que el primero en caso
de una segunda colisión; 4 veces más largo la
próxima vez, etc., reduciendo así al máximo
la probabilidad de
colisión.

EJEMPLOS:

El protocolo CSMA/CD funciona de algún modo como
una conversación en una habitación
oscura.

Todo el mundo escucha hasta que se produce un periodo de
silencio, antes de hablar (CS, detección de
portadora).

Una vez que hay silencio, todo el mundo tiene las mismas
oportunidades de decir algo (Acceso Múltiple).

Si dos personas empiezan a hablar al mismo tiempo, se
dan cuenta de ello y dejan de hablar (Detección de
Colisiones.)

CONCLUSIONES

La capa de enlace asegura confiabilidad del medio de
transmisión, ya que realiza la verificación de
errores, retransmisión, control fuera del flujo y la
secuencia de las capacidades que utiliza en la capa de
red.

El nivel de enlace es responsable del funcionamiento de
las redes de area
local.

BIBLIOGRAFÍA

Andrew S. Tanenbaum.. Redes de Computadoras.
Tercera edición. Pearson
Educación

P García Teodoro; Comunicaciones
y redes de computadores, 7a. edición; Pearson
Educación
;.

P García Teodoro, J E Díaz Verdejo, JM
López Soler; Transmisión de datos y redes de
computadores; Pearson Educación;

Jenny Duran

Julieth Niño

Yadira Sanchez

Flor Santamaria

"CORUNIVERSITEC"

CORPORACIÓN UNIVERSAL DE INVESTIGACIÓN Y
TECNOLOGÍA

TELEMÁTICA

TECNOLOGÍA EN INGENIERÍA DE
SISTEMAS

BOGOTÁ – MAYO 14 -2007

JOSE LUIS MUÑOZ

DOCENTE

Partes: 1, 2
 Página anterior Volver al principio del trabajoPágina siguiente 

Nota al lector: es posible que esta página no contenga todos los componentes del trabajo original (pies de página, avanzadas formulas matemáticas, esquemas o tablas complejas, etc.). Recuerde que para ver el trabajo en su versión original completa, puede descargarlo desde el menú superior.

Todos los documentos disponibles en este sitio expresan los puntos de vista de sus respectivos autores y no de Monografias.com. El objetivo de Monografias.com es poner el conocimiento a disposición de toda su comunidad. Queda bajo la responsabilidad de cada lector el eventual uso que se le de a esta información. Asimismo, es obligatoria la cita del autor del contenido y de Monografias.com como fuentes de información.

Categorias
Newsletter