Professional Documents
Culture Documents
TELETRFICO
PRESENTADO A:
JAMES HERNAN BETANCOURT
Contenido
INTRODUCCION ............................................................................................................... 3
ACTIVIDAD ....................................................................................................................... 4
Nodo .................................................................................................................................. 4
E/S de un nodo .................................................................................................................. 5
Procesamiento de un nodo ................................................................................................ 5
CONCLUSIONES ............................................................................................................ 37
REFERENCIAS BIBLIOGRFICAS ................................................................................. 38
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA
ESCUELA DE CIENCIAS BSICAS, TECNOLOGA E INGENIERA
INTRODUCCION
MPLS es hoy da una solucin clsica y estndar al transporte de informacin en las
redes. Aceptado por toda la comunidad de Internet, ha sido hasta hoy una solucin
aceptable para el envo de informacin, utilizando Routing de paquetes con ciertas
garantas de entrega.
A su vez, los avances en el hardware y una nueva visin a la hora de manejar las redes,
estn dando lugar al empleo creciente de las tecnologas de Conmutacin, encabezadas
por la tecnologa ATM. Aportando velocidad, calidad de servicio y facilitando la gestin de
los recursos en la red.
De aqu derivan los siguientes problemas: el paradigma del Routing est muy extendido
en todos los entornos, tanto empresariales como acadmicos, etc. El rediseo total del
software existente hacia la Conmutacin supondra un enorme gasto de tiempo y dinero.
Igualmente sucede con el hardware que est funcionando hoy da.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA
ESCUELA DE CIENCIAS BSICAS, TECNOLOGA E INGENIERA
ACTIVIDAD
Nodo
Cuando se hace referencia a un Nodo en QoS, se hace referencia al funcionamiento de un
nodo en una red.
Segn Manuel Castells, Un nodo es:
Un nodo es el punto en el que una curva se interseca consigo mismo. Lo que un nodo es
concretamente, depende del tipo de redes a que nos refiramos. [1]
Un computador:
Un servidor:
Un segmento de red:
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA
ESCUELA DE CIENCIAS BSICAS, TECNOLOGA E INGENIERA
E/S de un nodo
De forma sencilla, lo que hace valiosa a una red es la transmisin de datos entre estos
nodos y que eventualmente permitirn a un usuario de uno de estos nodos acceder a la
informacin total de la red; es decir, todo lo que fluye a travs de los nodos es informacin
tanto en la entrada como en su salida.
Pero este proceso de transmisin de informacin est compuesto por mltiples capas que
existen para asegurar la integridad del mensaje.
Procesamiento de un nodo
Esta parte queda para investigar ms debido a falta de documentacin.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA
ESCUELA DE CIENCIAS BSICAS, TECNOLOGA E INGENIERA
QoS en ATM
Una de las grandes ventajas de ATM (Asynchronous Transfer Mode Modo de
Transferencia Asncrona) respecto de tcnicas como el Frame Relay y Fast Ethernet es que
admite niveles de QoS. Esto permite que los proveedores de servicios ATM garanticen a
sus clientes que el retardo de extremo a extremo no exceder un nivel especfico de tiempo
o que garantizarn un ancho de banda especfico para un servicio. Esto es posible
marcando los paquetes que provengan de una direccin IP determinada de los nodos
conectados a un gateway (como por ejemplo la IP de un telfono IP, segn la puerta del
router, etc.). Adems, en los servicios satelitales da una nueva perspectiva en la utilizacin
del ancho de banda, dando prioridades a las aplicaciones de extremo a extremo con una
serie de reglas.
Una red IP est basada en el envo de paquetes de datos. Estos paquetes de datos tienen
una cabecera que contiene informacin sobre el resto del paquete. Existe una parte del
paquete que se llama ToS (Type of Service), en realidad pensada para llevar banderas o
marcas. Lo que se puede hacer para darle prioridad a un paquete sobre el resto es marcar
una de esas banderas (flags, en ingls).
Para ello, el equipo que genera el paquete, por ejemplo una puerta de enlace (gateway, en
ingls) de voz sobre IP, coloca una de esas banderas en un estado determinado. Los
dispositivos por donde pasa ese paquete despus de ser transmitido deben tener la
capacidad para poder discriminar los paquetes para darle prioridad sobre los que no fueron
marcados o los que se marcaron con una prioridad menor a los anteriores. De esta manera
podemos generar prioridades altas a paquetes que requieren una cierta calidad de envo,
como por ejemplo la voz o el vdeo en tiempo real, y menores al resto.
1. QosDevice
2. QosPolicyHolder
3. QosManager
La relacin entre estos servicios puede verse en la figura (2) en la que se muestra un
diagrama con la arquitectura UPnP QoS.
El QosManager calcula adems los puntos intermedios en la ruta desde el origen al destino
del flujo, y con la informacin de la poltica, configura los QosDevices que hay en dicha ruta.
En funcin de los dispositivos QosDevices, o bien ellos mismos o bien la pasarela pueden
realizar control de admisin de flujos. Estas interacciones entre los distintos componentes
de la arquitectura
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA
ESCUELA DE CIENCIAS BSICAS, TECNOLOGA E INGENIERA
- Planificacin FIFO
Es muy simple, los procesos se despachan de acuerdo con su tiempo de llegada a la cola
de listos.
Una vez que el proceso obtiene la cpu, se ejecuta hasta terminar, ya que es una disciplina
no apropiativa.
Puede ocasionar que procesos largos hagan esperar a procesos cortos y que procesos no
importantes hagan esperar a procesos importantes.
Es ms predecible que otros esquemas.
No puede garantizar buenos tiempos de respuesta interactivos.
Suele utilizarse integrado a otros esquemas, por ejemplo, de la siguiente manera:
Los procesos se despachan con algn esquema de prioridad.
Los procesos con igual prioridad se despachan FIFO.
Prioridad:
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA
ESCUELA DE CIENCIAS BSICAS, TECNOLOGA E INGENIERA
No persigue la optimizacin del uso del disco, sino cumplir con otros objetivos
Los trabajos por lotes que sean cortos tienen una prioridad ms alta.
Proporciona un buen tiempo de respuesta interactiva.
Encolado FIFO/FCFS
Encolado FIFO/FCFS First-In, First Out (FIFO) o First-Come, First-Served (FCFS) es el
algoritmo ms simple. Los paquetes son atendidos y enrutados a travs del sistema
envindose por la correspondiente interfaz de salida de acuerdo al orden en que llegaron.
Todos los paquetes son tratados por igual. Cuando un paquete llega, y el sistema (router)
est ocupado, se coloca en una cola de salida nica (espacio de buffer). Dado que la
cantidad de memoria en cada router es finita, el espacio se podra llenar. Si no hay suficiente
espacio los paquetes debern, de acuerdo a la poltica de descarte, ser descartados. En el
caso FIFO la poltica es muy sencilla, los paquetes nuevos que arriban cuando la cola est
llena se descartan y los ms viejos permanecern esperando a los que se encolaron
previamente. Esta poltica de descarte se conoce como Tail Drop.
Cuando es el turno para el paquete, se quita de la cola, se procesa y, finalmente, se enva
a travs de una interfaz de salida (si el router encuentra con xito una ruta). Las colas FIFO
son el mecanismo por default utilizado en los dispositivos de red para procesar paquetes.
La mayora de los routers de Internet funcionaban de una manera FIFO estricta. Se trata de
una solucin bsica, pero que no proporciona mecanismos para QoS, todos los paquetes
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA
ESCUELA DE CIENCIAS BSICAS, TECNOLOGA E INGENIERA
obtendrn la misma manipulacin por lo que los retardos pueden variar en funcin de la
carga del router.
Este manejo no permite a los dispositivos de red organizar, reordenar los paquetes en forma
diferente, por lo tanto, no pueden dar un servicio a un flujo de datos particular de manera
diferente que el resto del trfico. En ocasiones un flujo brusty en una cola FIFO permite
que se consuma todo el espacio en memoria de la misma, haciendo que todos los otros
flujos (tal vez de buen comportamiento) no puedan recibir un servicio adecuado. El llenado
de la cola produce un bloqueo durante un intervalo de tiempo. El trafico TCP es ms
susceptible a sufrir una negacin temporal de servicio.
Modelo FIFO
Las colas FIFO pueden ofrecer los siguientes beneficios:
Espera Equitativa Ponderada (en ingls Weighted Fair Queuing (WFQ)) se trata de una
tcnica de encolamiento que proporciona QoS en redes convergentes. Trata de evitar la
congestin. Controla directamente las colas de los nodos mediante un tratamiento
diferencial del trfico proporcionado por una determinada disciplina de servicio. WFQ es
una generalizacin de la cola de prioridad (Fair Queuing,FQ). Tanto en FQ como en WFQ,
cada flujo de datos tiene una cola FIFO separada. En FQ, con un enlace de velocidad de
transmisin de datos de R, en un momento dado los N flujos de datos activos (los nicos
con colas no vacas) son servidos a la vez, cada uno a un promedio velocidad de
transmisin de datos de R / N . Dado que cada flujo de datos tiene su propia cola, un mal
comportamiento de flujo (que ha enviado los paquetes ms grandes o ms paquetes por
segundo que los otros desde que esta activo) solo se castigar a s mismo y no a otras
sesiones. Contrario a FQ, WFQ permite a las diferentes sesiones tener diferentes cuotas
de servicio. Si actualmente N flujos de datos estn activos con pesos w 1 , w 2 . . . w N ,
nmero de flujo de datos i alcanzar un promedio de velocidad de transmisin de datos:
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA
ESCUELA DE CIENCIAS BSICAS, TECNOLOGA E INGENIERA
R w i /( w 1 + w 2 + . . . + w N )
Puede ser demostrado que al usar una red con conmutadores WFQ y un flujo de datos con
limitacin Leaky Bucket y un retraso obligado de extremo a extremo se puede garantizar.
Regulando los pesos del WFQ dinmicamente, WFQ puede ser utilizado para controlar la
calidad del servicio QoS por ejemplo para lograr garantizar la velocidad de transmisin de
datos. Proporcional equidad se puede lograr mediante el establecimiento de los pesos en
wi=1/ci
, donde c i es el coste por bits de datos del flujo de datos i. Por ejemplo en CDMA redes
celulares de espectro ensanchado el coste puede ser la energa necesaria (el nivel de
interferencia), y en sistemas Dynamic Channel Allocation el coste puede ser el nmero de
sitios cercanos a la estacin base que no pueden usar el mismo canal de frecuencia, en
vista de evitar la interferencia co-canal.
que los flujos de alto volumen sean empujados al final de la cola, y los volmenes bajos,
sensibles al retardo, sean empujados al principio de la cola.
Esta tcnica es apropiada en situaciones donde se desea proveer un tiempo respuesta
consistente ante usuarios que generan altas y bajas cargas en la red, ya que se adapta a
las condiciones cambiantes del trfico en sta.
A manera de resumen, mostramos las caractersticas ms importantes:
WFQ tiene algunas limitantes de escalamiento, ya que la implementacin del algoritmo se
ve afectada a medida que el trfico por enlace aumenta, colapsa debido a la cantidad
numerosa de flujos que analizar. CBWFQ fue desarrollada para evitar esas limitaciones,
tomando el algoritmo de
WFQ y expandindolo, permitiendo la definicin de clases definidas por el usuario, que
permiten un mayor control sobre las colas de trfico y asignacin de ancho de
banda.Algunas veces es necesario garantizar una determinada tasa de transmisin para
cierto tipo de trfico, lo cual no es posible mediante WFQ pero s con CBWFQ. Las clases
que son posibles implementar con CBWFQ pueden ser determinadas segn protocolo ACL,
valor DSCP o interfaz de ingreso. Cada clase posee una cola separada y todos los paquetes
que cumplen con el criterio definido para una clase en particular son asignados a dicha cola.
Una vez que se establecen los criterios para las clases, es posible determinar cmo los
paquetes pertenecientes a dicha clase sern manejados. Si una clase no utiliza su porcin
de ancho de banda, otras pueden hacerlo. Se pueden configurar especficamente el ancho
de banda y el lmite de paquetes mximos (o profundidad de cola) para cada clase. El peso
asignado a la cola de la clase es determinado mediante el ancho de banda asignado a dicha
clase.
Funcionamiento
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA
ESCUELA DE CIENCIAS BSICAS, TECNOLOGA E INGENIERA
Configuracin en Routers
Router (Config)#interface serial 0/0
Router (Config-if)#fair-queue
WFQ es adecuado para situaciones donde se necesite un buen tiempo de respuesta, para
usuarios que hagan tanto un uso elevado de la red, tanto como para los que hagan un uso
ms leve, sin aadir ancho de banda adicional.
TCNICAS DE ENCOLAMIENTO
Las polticas de QoS implementadas en una red se activan nicamente cuando ocurre algn
tipo de congestin en la red.
Las tcnicas de encolamiento son una de las tcnicas empleadas para administrar las
congestiones que ocurren en una red, tcnicas que permiten almacenar, priorizar y si se
requiere, re ordenar los paquetes antes de ser transmitidos.
Existen algunos mtodos de encolamiento, entre los ms importantes estn:
FIFO - Fist-Input-First-Output y Weighted Fair Queuing (WFQ)
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA
ESCUELA DE CIENCIAS BSICAS, TECNOLOGA E INGENIERA
DIAGRAMA DE RED
Garantiza que en cada punto de la red el trfico importante reciba el servicio de forma
rpida.
Esquema Grfico PQ
El esquema se evidencia las 4 clases de priorizacin de trfico, donde cada paquete se
debe ubicar en una de las cuatro colas de prioridad: alta, media, normal, baja, aunque se
corre el riesgo de inanicin, es decir, dejar fuera de servicio a trfico menos prioritario. La
prioridad de los paquetes se puede diferenciar por el protocolo de red, interfaz del router
por el que llegue el paquete, su tamao y direccin origen o destino, de igual manera los
paquetes que no pueden clasificar se asignan a la cola de prioridad normal.
(Juan Domingo)
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA
ESCUELA DE CIENCIAS BSICAS, TECNOLOGA E INGENIERA
LLQ, Usado para el trfico real-time como voz y videoconferencia muy sensibles al delay.
Con LLQ, los datos sensibles al retardo, como la voz, son colocados en la cola de mayor
prioridad y son los primeros en ser enviados.
Tomado de:
https://www.icesi.edu.co/revistas/index.php/sistemas_telematica/article/.../1040
Una vez que la clase ha sido definida de acuerdo con los criterios de seleccin, se le pueden
asignar caractersticas. Para caracterizar una clase, se le asigna su ancho de banda, peso
y lmite mximo de paquete. El ancho de banda asignado para la clase es el ancho de
banda garantizado para esa clase durante periodos de congestin.
LLQ es un mecanismo QoS para dar manejo a la congestin, es decir, que LLQ controla la
congestin una vez que ocurre. Una forma de que los elementos de la red manejen un
desbordamiento de trfico de entrada consiste en usar un algoritmo de encolamiento para
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA
ESCUELA DE CIENCIAS BSICAS, TECNOLOGA E INGENIERA
parar el trfico y determinar entonces algn mtodo que establezca prioridades a la hora
de usar el enlace de salida.
Sin LLQ, CBWFQ sirve todos los paquetes de manera equitativa basndose en su peso,
pero no proporciona prioridad estricta (strict priority) para ninguna clase de paquetes. Esto
puede suponer un problema para el trfico de voz que es muy sensible al retardo y
especialmente a la varianza del retardo o jitter.
LLQ proporciona Strict Priority Queueing a CBWFQ reduciendo la varianza del retardo jitter
en las conversaciones de voz. Cuando se activa LLQ se emplea una nica cola de prioridad
estricta (Strict Priority Queue) dentro de CBWFQ a nivel de clase, permitiendo llevar el
trfico perteneciente a una clase a una CBWFQ Strict Priority Queue.
El modelo Diff Serv plantea la asignacin de prioridades a cada uno de los paquetes que
son enviados a la red. Cada Router debe analizar y dar un tratamiento diferencial a cada
uno de los paquetes. En este enfoque nos es necesario asignar ningn estado ni establecer
algn proceso de sealizacin en cada nodo.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA
ESCUELA DE CIENCIAS BSICAS, TECNOLOGA E INGENIERA
Los elementos de la arquitectura Diff-Serv comprende un clasificador que gua los paquetes
con caractersticas similares hacia los procedimientos de condicionamiento de trfico, un
medidor que pasa su informacin hacia el bloque de acondicionamiento para determinar
alguna accin para cada paquete se encuentre fuera o dentro del perfil de trafico, un
marcador de paquetes que trabajo con un conjunto de cdigos DS, un acondicionador que
realiza el descarte de paquetes cuando no existe espacio en la cola y un descartador de
paquetes que se usa para evitar la congestin.
Tomado de:
https://www.icesi.edu.co/revistas/index.php/sistemas_telematica/article/.../1040
MPLS (Multi-Protocol Label Switching) es una red privada IP que combina la flexibilidad de
las comunicaciones punto a punto o Internet y la fiabilidad, calidad y seguridad de
los servicios Prvate Line, Frame Relay o ATM.
Asigna a los datagramas de cada flujo una etiqueta nica que permite una
conmutacin rpida en los routers intermedios (solo se mira la etiqueta, no
la direccin de destino)
o Policy Routing
o Servicios de VPN
Por tanto MPLS es una tecnologa que permite ofrecer QoS, independientemente
de la red sobre la que se implemente.
Orgenes de MPLS
Para poder crear los circuitos virtuales como en ATM, se pens en la utilizacin de
etiquetas aadidas a los paquetes. Estas etiquetas definen el circuito virtual por toda la red.
Estos circuitos virtuales estn asociados con una QoS determinada, segn el SLA.
Ejemplo de arquitectura
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA
ESCUELA DE CIENCIAS BSICAS, TECNOLOGA E INGENIERA
MPLS
Conmutacin MPLS
Funcionamiento de MPLS
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA
ESCUELA DE CIENCIAS BSICAS, TECNOLOGA E INGENIERA
Las etiquetas pueden anidarse, formando una pila con funcionamiento LIFO (Last
In, First Out). Esto permite ir agregando (o segregando) flujos. El mecanismo es
escalable.
En ATM y Frame Relay la etiqueta MPLS ocupa el lugar del campo VPI/VCI o en el
DLCI, para aprovechar el mecanismo de conmutacin inherente
Etiquetas MPLS
Las etiquetas MPLS identifican a la FEC asociada a cada paquete
Routing MPLS
Los paquetes se envan en funcin de las etiquetas.
o El direccionamiento es ms rpido
Ejemplo de MPLS
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA
ESCUELA DE CIENCIAS BSICAS, TECNOLOGA E INGENIERA
MPLS deba ser compatible con el Modelo de Servicios Integrados del IETF,
incluyendo el protocolo RSVP
como objetivo del grupo, ya que el encaminamiento tradicional de nivel 3 siempre sera un
requisito en la Internet por los siguientes motivos:
El filtrado de paquetes en los cortafuegos (FW) de acceso a las LAN corporativas y
en los lmites de las redes de los NSPs es un requisito fundamental para poder
gestionar la red y los servicios con las necesarias garantas de seguridad. Para ello
se requiere examinar la informacin de la cabecera de los paquetes, lo que impide
prescindir del uso del nivel 3 en ese tipo de aplicaciones.
Las etiquetas MPLS tienen solamente significado local (es imposible mantener
vnculos globales entre etiquetas y hosts en toda la Internet). Esto implica que en
algn punto del camino algn dispositivo de nivel 3 debe examinar la cabecera del
paquete para determinar con exactitud por dnde lo enva: por routing convencional
o entregndolo a un LSR, que lo expedir por un nuevo LSP.
Del mismo modo, el ltimo LSR de un LSP debe usar encaminamiento de nivel 3
para entregar el paquete al destino, una vez suprimida la etiqueta, como se ver
seguidamente al describir la funcionalidad MPLS.
estndar de sealizacin (el Label Distribution Protocol, LDP, del que se tratar ms
adelante).
Pero, de acuerdo con los requisitos del IETF, el transporte de datos puede ser cualquiera.
Si ste fuera ATM, una red IP habilitada para MPLS es ahora mucho ms sencilla de
gestionar que la solucin clsica IP/ATM. Ahora ya no hay que administrar dos arquitecturas
diferentes a base de transformar las direcciones IP y las tablas de encaminamiento en las
direcciones y el encaminamiento ATM: esto lo resuelve el procedimiento de intercambio de
etiquetas MPLS.
El papel de ATM queda restringido al mero transporte de datos a base de celdas. Para
MPLS esto es indiferente, ya que puede utilizar otros transportes como Frame Relay, o
directamente sobre lneas punto a punto.
Un camino LSP es el circuito virtual que siguen por la red todos los paquetes asignados a
la misma FEC. Al primer LSR que interviene en un LSP se le denomina de entrada o de
cabecera y al ltimo se le denomina de salida o de cola. Los dos estn en el exterior del
dominio MPLS. El resto, entre ambos, son LSRs interiores del dominio MPLS. Un LSR es
como un router que funciona a base de intercambiar etiquetas segn una tabla de envo.
Esta tabla se construye a partir de la informacin de encaminamiento que proporciona la
componente de control, segn se ver ms adelante. Cada entrada de la tabla contiene un
par de etiquetas entrada/salida correspondientes a cada interfaz de entrada, que se utilizan
para acompaar a cada paquete que llega por ese interfaz y con la misma etiqueta. A un
paquete que llega al LSR por el interfaz 3 de entrada con la etiqueta 45 el LSR le asigna la
etiqueta 22 y lo enva por el interfaz 4 de salida al siguiente LSR, de acuerdo con la
informacin de la tabla.
figura el LSR de entrada recibe un paquete normal (sin etiquetar) cuya direccin de destino
es 212.95.193.1. El LSR consulta la tabla de encaminamiento y asigna el paquete a
la clase FEC definida por el grupo 212.95/16.
Asimismo, este LSR le asigna una etiqueta y enva el paquete al siguiente LSR del LSP.
Dentro del dominio MPLS los LSR ignoran la cabecera IP; solamente analizan la etiqueta
de entrada, consultan la tabla correspondiente (tabla de conmutacin de etiquetas) y la
reemplazan por otra nueva, de acuerdo con el algoritmo de intercambio de etiquetas. Al
llegar el paquete al LSR de cola (salida), ve que el siguiente salto lo saca de la red MPLS;
al consultar ahora la tabla de conmutacin de etiquetas quita sta y enva el paquete por
routing convencional.
Como se ve, la identidad del paquete original IP queda enmascarada durante el transporte
por la red MPLS, que no "mira" sino las etiquetas que necesita para su envo por los
diferentes saltos LSR que configuran los caminos LSP. Las etiquetas se insertan en
cabeceras MPLS, entre los niveles 2 y 3. Segn las especificaciones del IETF, MPLS deba
funcionar sobre cualquier tipo de transporte: PPP, LAN, ATM, Frame Relay, etc. Por ello, si
el protocolo de transporte de datos contiene ya un campo para etiquetas (como ocurre con
los campos VPI/VCI de ATM y DLCI de Frame Relay), se utilizan esos campos nativo para
las etiquetas. Sin embargo, si la tecnologa de nivel 2 empleada no soporta un campo para,
entonces se emplea una cabecera genrica MPLS de 4 octetos, que contiene un campo
especfico para la etiqueta y que se inserta entre la cabecera del nivel 2 y la del paquete
(nivel 3).
En la figura se representa el esquema de los campos de la cabecera genrica MPLS y su
relacin con las cabeceras de los otros niveles. Segn se muestra en la figura, los 32 bits
de la cabecera MPLS se reparten en: 20 bits para la etiqueta MPLS, 3 bits para identificar
la clase de servicio en el campo EXP (experimental, anteriormente llamdo CoS), 1 bit de
stack para poder apilar etiquetas de forma jerrquica (S) y 8 bits para indicar el TTL (time-
to-live) que sustenta la funcionalidad estndar TTL de las redes IP. De este modo, las
cabeceras MPLS permiten cualquier tecnologa o combinacin de tecnologas de
transporte, con la flexibilidad que esto supone para un proveedor IP a la hora de extender
su red.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA
ESCUELA DE CIENCIAS BSICAS, TECNOLOGA E INGENIERA
El primero de ellos est relacionado con la informacin que se tiene sobre la red: topologa,
patrn de trfico, caractersticas de los enlaces, etc. Es la informacin de control tpica de
los algoritmos de encaminamiento. MPLS necesita esta informacin de routing para
establecer los caminos virtuales LSPs. Lo ms lgico es utilizar la propia informacin de
encaminamiento que manejan los protocolos internos IGP (OSPF, IS-IS, RIP...) para
construir las tablas de encaminamiento (recurdese que los LSR son routers con
funcionalidad aadida). Esto es lo que hace MPLS precisamente: para cada "ruta IP" en la
red se crea un "camino de etiquetas" a base de concatenar las de entrada/salida en cada
tabla de los LSRs; el protocolo interno correspondiente se encarga de pasar la informacin
necesaria.
El segundo aspecto se refiere a la informacin de "sealizacin". Pero siempre que se
quiera establecer un circuito virtual se necesita algn tipo de sealizacin para marcar el
camino, es decir, para la distribucin de etiquetas entre los nodos. Sin embargo,
la arquitectura MPLS no asume un nico protocolo de distribucin de etiquetas; de hecho
se estn estandarizando algunos existentes con las correspondientes extensiones; unos de
ellos es el protocolo RSVP del Modelo de Servicios Integrados del IETF. Pero, adems, en
el IETF se estn definiendo otros nuevos, especficos para la distribucin de etiquetas, cual
es el caso del Label Distribution Protocol (LDP). Consltese las referencias
correspondientes del IETF.
c) Funcionamiento global MPLS
Una vez vistos todos los componentes funcionales, el esquema global de funcionamiento
es el que se muestra en la figura, donde quedan reflejadas las diversas funciones en cada
uno de los elementos que integran la red MPLS. Es importante destacar que en el borde de
la nube MPLS tenemos una red convencional de routers IP. El ncleo MPLS proporciona
una arquitectura de transporte que hace aparecer a cada par de routers a una distancia de
un slo salto. Funcionalmente es como si estuvieran unidos todos en una topologa mallada
(directamente o por PVCs ATM). Ahora, esa unin a un solo salto se realiza por MPLS
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA
ESCUELA DE CIENCIAS BSICAS, TECNOLOGA E INGENIERA
mediante los correspondientes LSPs (puede haber ms de uno para cada par de routers).
La diferencia con topologas conectivas reales es que en MPLS la construccin de caminos
virtuales es mucho ms flexible y que no se pierde la visibilidad sobre los paquetes IP. Todo
ello abre enormes posibilidades a la hora de mejorar el rendimiento de las redes y de
soportar nuevas aplicaciones de usuario, tal como se explica en la seccin siguiente.
Aplicaciones de MPLS
Redes de alto rendimiento: las decisiones de encaminamiento que han de tomar los
routers MPLS en base a la LIB son mucho ms sencillas y rpidas que las que toma
un router IP ordinario (la LIB es mucho ms pequea que una tabla de rutas normal).
La anidacin de etiquetas permite agregar flujos con mucha facilidad, por lo que el
mecanismo es escalable.
QoS: es posible asignar a un cliente o a un tipo de trfico una FEC a la que se asocie
un LSP que discurra por enlaces con bajo nivel de carga.
VPN: la posibilidad de crear y anidar LSPs da gran versatilidad a MPLS y hace muy
sencilla la creacin de VPNs.
Soporte multiprotocolo: los LSPs son vlidos para mltiples protocolos, ya que el
encaminamiento de los paquetes se realiza en base a la etiqueta MPLS estndar,
no a la cabecera de nivel de red.
INGENIERA DE TRFICO
El objetivo bsico de la ingeniera de trfico es adaptar los flujos de trfico a los recursos
fsicos de la red. La idea es equilibrar de forma ptima la utilizacin de esos recursos, de
manera que no haya algunos que estn suprautilizados, con posibles puntos calientes y
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA
ESCUELA DE CIENCIAS BSICAS, TECNOLOGA E INGENIERA
cuellos de botella, mientras otros puedan estar infrautilizados. A comienzos de los 90 los
esquemas para adaptar de forma efectiva los flujos de trfico a la topologa fsica de las
redes IP eran bastante rudimentarios. Los flujos de trfico siguen el camino ms corto
calculado por el algoritmo IGP correspondiente. En casos de congestin de algunos
enlaces, el problema se resolva a base de aadir ms capacidad a los enlaces. La
ingeniera de trfico consiste en trasladar determinados flujos seleccionados por el
algoritmo IGP sobre enlaces ms congestionados, a otros enlaces ms descargados,
aunque estn fuera de la ruta ms corta (con menos saltos). En el esquema de la figura se
comparan estos dos tipos de rutas para el mismo par de nodos origen-destino.
El camino ms corto entre A y B segn la mtrica normal IGP es el que tiene slo dos saltos,
pero puede que el exceso de trfico sobre esos enlaces o el esfuerzo de los routers
correspondientes haga aconsejable la utilizacin del camino alternativo indicado con un
salto ms. MPLS es una herramienta efectiva para esta aplicacin en grandes backbones,
ya que:
Permite al administrador de la red el establecimiento de rutas explcitas,
especificando el camino fsico exacto de un LSP.
La ventaja de la ingeniera de trfico MPLS es que se puede hacer directamente sobre una
red IP, al margen de que haya o no una infraestructura ATM por debajo, todo ello de manera
ms flexible y con menores costes de planificacin y gestin para el administrador, y con
mayor calidad de servicio para los clientes.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA
ESCUELA DE CIENCIAS BSICAS, TECNOLOGA E INGENIERA
entre cada par de LSR exteriores se pueden provisionar mltiples LSPs, cada uno
de ellos con distintas prestaciones y con diferentes garantas de ancho de banda.
P. ej., un LSP puede ser para trfico de mxima prioridad, otro para una prioridad
media y un tercero para trfico best-effort, tres niveles de servicio, primero,
preferente y turista, que, lgicamente, tendrn distintos precios.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA
ESCUELA DE CIENCIAS BSICAS, TECNOLOGA E INGENIERA
Como resumen, las ventajas que MPLS ofrece para IP VPNs son:
proporcionan un modelo "acoplado" o "inteligente", ya que la red MPLS "sabe" de la
existencia de VPNs (lo que no ocurre con tneles ni PVCs)
CONCLUSIONES
REFERENCIAS BIBLIOGRFICAS