Computers">
Calidad de Servicios en Redes-Book-UTP-pa
Calidad de Servicios en Redes-Book-UTP-pa
Calidad de Servicios en Redes-Book-UTP-pa
2014
CONTENIDO
Objetivos:
Conceptualizar el tema calidad de servicios en redes
Presentar una perspectiva histórica de la calidad de servicios en redes
Comparar la calidad de servicios versus las clases de servicios
paquetes perdidos, tasa máxima de errores en los bits de los paquetes, etc.) y la
percepción subjetiva de inteligibilidad del habla.
Será por tanto el tipo de aplicación o usuario al que se deba dar servicio lo que
condicionará el tipo y los valores de los parámetros que marcarán la definición de
cada CS. A continuación se presenta un conjunto acotado de parámetros de
servicio, que se detallan a continuación:
Retardo medio de los paquetes de información: se entiende por retardo
de cada paquete el tiempo transcurrido desde que el bloque de información
llega a la capa MAC hasta que es transmitido correctamente por la capa
física.
Varianza del retardo de los paquetes de información: el retardo de cada
paquete, tal y como se ha definido en el punto anterior, es una variable
aleatoria de la que podemos obtener su desviación típica y su varianza.
Retardo máximo de los paquetes de información: se puede establecer un
cierto tiempo de vida máximo de los paquetes, de tal modo que cuando el
retardo de uno de ellos es superior a este tiempo de vida, el paquete es
descartado.
Tasa máxima de paquetes perdidos: porcentaje de paquetes descartados
a causa de que su retardo ha superado el tiempo de vida prefijado para ellos.
Tasa de error media en los bits de información: puede definirse antes o
después de codificación, e indica el número relativo de bits erróneos (medido
en porcentaje o como una probabilidad) que pueden admitirse por la
aplicación.
Velocidad media de transmisión garantizada: normalmente medida en
Kbps, indica la velocidad media de transmisión para intervalos ‘largos’ de
tiempo. Un intervalo largo se define como un número suficientemente grande
de unidades de tiempo del sistema. Este número deberá ser grande en
comparación con el tiempo en el que pueden variar las condiciones del tráfico
ofrecido.
1
Prof. Vladimir Villarreal
0
Curso: Calidad de Servicios en Redes
Bibliografía
Tanenbaum. Andrew S. (2003). Redes de Computadoras. Pearson
Educación. México.
J.A. Jimenez Toro. UF1875: Gestión de recursos, servicios y de la red de
Comunicaciones. Editorial Elearning SL. Edición 5.0. ISBN: 978-84-16199-
01-3. España.
Álvarez, S., González, A. Estudio y Configuración de Calidad de Servicio para
Protocolo IPV4 e IPV6 en una Red de Fibra Óptica WDM. Universidad
Técnica Federico Santa María.
1
Prof. Vladimir Villarreal
1
Curso: Calidad de Servicios en Redes
Caso de Estudio
1
Prof. Vladimir Villarreal
2
Curso: Calidad de Servicios en Redes
Objetivos:
Conocer el concepto de estándar y los organismos que regulan los
estándares en las comunicaciones.
Resaltar la importancia de la aplicación de estándares en las
comunicaciones.
1
Prof. Vladimir Villarreal
3
Curso: Calidad de Servicios en Redes
1
Prof. Vladimir Villarreal
4
Curso: Calidad de Servicios en Redes
1
Prof. Vladimir Villarreal
5
Curso: Calidad de Servicios en Redes
1
Prof. Vladimir Villarreal
6
Curso: Calidad de Servicios en Redes
1
Prof. Vladimir Villarreal
7
Curso: Calidad de Servicios en Redes
1
Prof. Vladimir Villarreal
8
Curso: Calidad de Servicios en Redes
1
Prof. Vladimir Villarreal
9
Curso: Calidad de Servicios en Redes
2
Prof. Vladimir Villarreal
0
Curso: Calidad de Servicios en Redes
implica a su vez un ahorro en los gastos de alojamiento Web. Por otra parte,
la adecuación gramatical de las páginas de un sitio, contribuye a que se
muestren más rápido a los usuarios, lo que mejora la experiencia de éstos.
Mayor confianza en la Web: La Web es un medio colaborativo, donde los
usuarios interactúan y se relacionan, siendo necesaria la confianza entre sí.
Para ello, se han desarrollado tecnologías como las firmas digitales de
documentos, la encriptación de datos confidenciales o las políticas de
privacidad de datos de los sitios Web.
Mayor carga semántica: Se proporcionan mecanismos para añadir
significado a los recursos, haciendo posible que una máquina pueda
interpretar los datos de la Web de forma análoga como lo hacen los seres
humanos. De este modo, también se consigue una mejora del rendimiento y
eficiencia de la Web, beneficiando a los usuarios a través de una mayor
precisión en sus búsquedas y operaciones.
Estándar XML
XML es una especificación de carácter genérico derivada del Estándar SGML
(Standard Generalized Markup Language) que permite definir lenguajes de
marcado. Es lo que se denomina un metalenguaje: no se usa directamente, sino
que sirve para definir otros lenguajes. Su importancia reside en su capacidad para
expresar el significado de un contenido con independencia del formato de
documento final que se presente al usuario gracias a una serie de etiquetas.
Un documento XML puede ser procesado por un sistema automático o transformado
en un formato adaptado al usuario. No se ve limitado por las características o
capacidades del usuario ni la forma de presentación. Por su flexibilidad, XML es
aplicable a una gran diversidad de campos como pueden ser el intercambio de
mensajes de datos entre diferentes sistemas, dibujos vectoriales, correo por voz,
2
Prof. Vladimir Villarreal
1
Curso: Calidad de Servicios en Redes
2
Prof. Vladimir Villarreal
2
Curso: Calidad de Servicios en Redes
2
Prof. Vladimir Villarreal
3
Curso: Calidad de Servicios en Redes
El hecho de que HTML sea un Estándar del W3C, permite que cualquier página
Web creada a través de dicho lenguaje pueda ser visualizada de forma homogénea,
con independencia del navegador o plataforma empleados (siempre que estos sean
fieles a los estándares).
Así, los orígenes del HTML se remontan a 1980, año en el que Tim Berners-Lee,
trabajador del CERN (European Laboratory for Particle Physics), comienza a
elaborar un sistema de hipertexto para Internet, no siendo hasta el 1990 cuando
definiera el lenguaje HTML como un subconjunto del poderoso lenguaje de
etiquetado SGML. En 1991, Tim Berners-Lee publica la primera descripción formal
de HTML, conocida como HTML Tags, en la que se recogen los 22 primeros
elementos del lenguaje.
En 1993, el organismo IETF (Intenet Engineering Task Force) elabora una
propuesta para estandarizar HTML. Si bien, no se llega a establecer como Estándar
ninguna de las dos propuestas existentes en el momento (HTML y HTML+). Será el
22 de Septiembre del año 1995 cuando el IETF logre publicar el Estándar HTML 2.0
como primer Estándar oficial de HTML, creado con fines divulgativos y académicos,
y donde prevalecía el contenido por encima del diseño.
Con todo, HTML 2.0 no permitía controlar el diseño de las páginas ni añadir
elementos multimedia, a lo que la empresa Netscape responde definiendo nuevas
etiquetas en el estándar. Por otro lado, el consorcio internacional W3C, creado en
Marzo de 1995, comenzó a desarrollar un borrador para la versión HTML 3.0, no
siendo bien acogido debido al elevado número de elementos y atributos que se
definieron en él, lo que le hacía muy complejo para poder desarrollarse mediante la
tecnología del momento y finalmente fue abandonado.
El 14 de Enero de 1997 es la fecha elegida por el W3C para publicar HTML 3.2, que
es oficialmente su primera recomendación. En ella se abandonan muchas de las
características de HTML 3.0 y se incluyen los últimos avances desarrollados por los
navegadores Internet Explorer y Netscape Navigator, como por ejemplo los applets
de Java o el texto flotado.
2
Prof. Vladimir Villarreal
4
Curso: Calidad de Servicios en Redes
2
Prof. Vladimir Villarreal
5
Curso: Calidad de Servicios en Redes
2
Prof. Vladimir Villarreal
6
Curso: Calidad de Servicios en Redes
2
Prof. Vladimir Villarreal
7
Curso: Calidad de Servicios en Redes
2
Prof. Vladimir Villarreal
8
Curso: Calidad de Servicios en Redes
Todos los estándares IEEE 802 son más tarde aprobados por ANSI y por la ISO. El
estándar IEEE 802.x tiene un estándar equivalente ISO 8802-x Normalmente un
estándar IEEE es aprobado más tarde por ISO bajo la denominación 8802.x,
convirtiéndose así en estándares internacionales; así por ejemplo el estándar ISO
8802.3 es equivalente al IEEE 802.3
2
Prof. Vladimir Villarreal
9
Curso: Calidad de Servicios en Redes
Bibliografía
José Antonio Merlo Vega. Organizaciones de Normalización en Internet.
Revista Española de Documentación Científica, jul.-sep. 2000, vol 23, n.2, p.
327-340.
Guía Práctica de Comprobación de Accesibilidad: ESTÁNDARES WEB.
2010. Instituto Nacional de Tecnología de la Comunicación (INTECO).
España.
Caso de Estudio
1. Importancia de los estándares
Los estándares son acuerdos que estructuran cualquier actividad o industria. Son
reglas o guías que todos aplican. Asimismo, constituyen una forma de medir,
describir o clasificar productos o servicios.
Una de las formas más sencillas de entender la utilidad de los estándares es pensar
en lo que ocurre cuando ellos no existen o no se aplican normas. Tomemos el
ejemplo del tamaño del calzado. Un zapato de mujer que sea número 7 en Nueva
York , será un tamaño 38 en Shangai, un número 4,5 en Londres, un 37,5 en París,
un número 23 en Tokio, un 5,5 en Sydney y un 38 en Buenos Aires. Esto resulta
inconveniente y dificultoso para un turista que desee ir de compras, pero resulta
increíblemente inconveniente y dificultoso para las compañías que fabrican calzado
o están en la industria de la moda.
3
Prof. Vladimir Villarreal
0
Curso: Calidad de Servicios en Redes
Debido a que no existen estándares globales para los tamaños de calzado, las
empresas tienen que marcar los mismos zapatos de manera diferente y deben
especificar la referencia del tamaño de manera correcta en todas las órdenes de
compra, facturas y remitos de entrega para cada país. Además, dado que lleva más
tiempo prestar atención a todas estas especificaciones, resulta más engorroso
desde el punto de vista de los procesos de producción. Acarrea mayores costos en
las fábricas que luego deben ser trasladados a los consumidores y todo ello se
traduce en un calzado con precios más altos para el comprador final.
1. Aplique el ejemplo de los calzados a los estándares que regulan las
telecomunicaciones, y explique la importancia de su implementación en
estas.
3
Prof. Vladimir Villarreal
1
Curso: Calidad de Servicios en Redes
Objetivos:
Conocer algunos de los requerimientos, los métodos y técnicas para la
calidad de servicio en internet.
Reconocer las características principales de los mecanismos y arquitecturas
que podemos implementar para ofrecer QoS en la red de internet.
3
Prof. Vladimir Villarreal
2
Curso: Calidad de Servicios en Redes
3
Prof. Vladimir Villarreal
3
Curso: Calidad de Servicios en Redes
voz, vídeo y datos que están apareciendo en el mercado. Por lo tanto, el reto de los
administradores y los arquitectos de redes ha sido construir redes que puedan
soportar estas nuevas aplicaciones de voz, imágenes y datos basadas en IP junto
con las aplicaciones tradicionales orientadas a circuitos sobre redes WAN, que
utilizan variedad de medios.
Algunos fabricantes ofrecen exhaustivos mecanismos extremo a extremo de QoS
que satisfacen estas demandas independientemente del/los medio(s) utilizado(s)
para construir su WAN, como por ejemplo ATM, Frame Relay y SONET
3
Prof. Vladimir Villarreal
4
Curso: Calidad de Servicios en Redes
3
Prof. Vladimir Villarreal
5
Curso: Calidad de Servicios en Redes
3
Prof. Vladimir Villarreal
6
Curso: Calidad de Servicios en Redes
Estas técnicas de QoS a nivel 3, a veces llamados a nivel IP, son las clásicas
basadas en colas de prioridades asociadas al DSCP o al TOS de las
cabeceras IP, por ejemplo.
El problema que presenta la técnica L3QoS es que no se conoce con
exactitud la capacidad y la disponibilidad del medio sobre el que se
transmiten. Imaginemos que tenemos un medio sin cables. El tráfico bruto
puede depender del usuario al que se transmita, ya que podrían estar más
lejos u obstruidos. Usar técnicas de L3QoS en estos casos, al desconocer la
capacidad real por usuario destino, por ejemplo, lleva a una ineficiencia
insalvable: “No se puede garantizar una QoS en términos absolutos, solo
relativos”. Esto quiere decir que si tenemos un servicio de 1Mbps y otro de
2Mbps, la única garantía que puede hacer un sistema de L3QoS es que el
tráfico del primero va a ser la mitad que el del segundo, pero no puede
garantizar cuál va a ser en realidad ese mínimo, ya que desconoce el estado
y disponibilidad del medio. Este problema aún se agrava mucho más en el
caso en el que el medio está gestionado en contienda (WiFi, ethernet…) En
estos casos el propio uso del medio es estadístico, ni siquiera el nivel 2 puede
saber si podrá transmitir en un momento dado. Es más, en el caso de que la
red empiece a cursar mucho tráfico, es posible que un paquete jamás sea
transmitido debido a las continuas colisiones.
L2QoS: QoS a nivel MAC: Cuando la asignación de recursos se hace a nivel
2, el sistema que va asignando los slots de transmisión conoce en todo
momento tanto la disponibilidad del medio como la calidad o tráfico neto que
es capaz de transmitir para cada usuario. Es también conocida como QoS a
nivel MAC. Esto hace posible implementar algoritmos que permitan
garantizar de forma absoluta la asignación de tráfico. Por ejemplo, WiMAX
es un sistema de L2QoS. La estación base es el nodo maestro de la red, que
asigna la transmisión de datos tanto en la bajada hacia los usuarios
(Downlink) como en la subida desde los usuarios (Uplink). El tener un nodo
central permite eliminar la contienda, lo que garantiza que la BS puede, si así
3
Prof. Vladimir Villarreal
7
Curso: Calidad de Servicios en Redes
3
Prof. Vladimir Villarreal
8
Curso: Calidad de Servicios en Redes
3) sus entornos operativos son muy dinámicos, desde este punto de vista, resulta
complejo modelar, analizar y resolver los problemas asociados al mantenimiento,
gestión y afinamiento de las redes.
Objetivo de la Ingeniería de Tráfico
El objetivo global de la IT, es mejorar el rendimiento de una red operacional,
minimizando la congestión en una red al mismo tiempo que se intenta incrementar
la eficiencia de la utilización de sus recursos.
Congestión en una red
Cuando muchos paquetes están presentes en la red, su rendimiento se reducirá.
Esta situación es llamada congestión. Cuando el número de paquetes acumulados
en la red por los hosts está dentro de su capacidad de carga, ellos son todos
entregados y el número entregado es proporcional al número enviado. Sin embargo
como el tráfico incrementa más, el router pierde los paquetes. Esto tiende a hacer
los problemas peores. En un tráfico alto, el rendimiento colapsa completamente y
casi todos los paquetes no son entregados.
La congestión en una red, puede deberse a muchos factores:
Insuficiencia de recursos en la red (por ejemplo, capacidad de enlaces).
Utilización ineficiente de los recursos debido al mapeado del tráfico.
El primer caso, se podría resolver aumentando la capacidad de los recursos; para
el segundo caso, la Ingeniería de Tráfico adapta los flujos de tráfico a los recursos
físicos de la red, tratando de equilibrar de forma óptima la utilización de esos
recursos, de manera que no haya algunos que estén subutilizados, y otros sobre
utilizados que crean cuellos de botella. Solucionar los problemas de congestión en
costos razonables es uno de los mayores objetivos de la ITE.
Tareas de la Ingeniería de Tráfico
Caracterización de la demanda de tráfico
Se realiza mediante modelos que aproximan el comportamiento estadístico de la
red. Los modelos de tráfico, adoptan suposiciones simplificadas acerca de los
procesos de tráfico que usualmente son complicados.
3
Prof. Vladimir Villarreal
9
Curso: Calidad de Servicios en Redes
4
Prof. Vladimir Villarreal
0
Curso: Calidad de Servicios en Redes
4
Prof. Vladimir Villarreal
1
Curso: Calidad de Servicios en Redes
Objetivos:
Conocer el modelo de servicio de internet IntServ, sus componentes y
principales características.
Distinguir entre aplicaciones elásticas e inelásticas, a través de sus
principales características.
Analizar el funcionamiento del protocolo RSVP y sus herramientas para
garantizar QoS.
4
Prof. Vladimir Villarreal
2
Curso: Calidad de Servicios en Redes
4
Prof. Vladimir Villarreal
3
Curso: Calidad de Servicios en Redes
4
Prof. Vladimir Villarreal
4
Curso: Calidad de Servicios en Redes
4
Prof. Vladimir Villarreal
5
Curso: Calidad de Servicios en Redes
4
Prof. Vladimir Villarreal
6
Curso: Calidad de Servicios en Redes
4
Prof. Vladimir Villarreal
7
Curso: Calidad de Servicios en Redes
4
Prof. Vladimir Villarreal
8
Curso: Calidad de Servicios en Redes
4
Prof. Vladimir Villarreal
9
Curso: Calidad de Servicios en Redes
Modelo de reservación
El proceso RSVP empieza cuando una fuente genera un mensaje Path, el cual es
enviado a través de la red para documentar la ruta de la reservación de extremo a
extremo. El paquete contiene información que permite identificar el flujo que
demanda el servicio y los parámetros que definen el servicio esperado. En un punto
dado el paquete contiene la dirección IP del salto previo e información de la
capacidad y retardo introducido en el nodo.
Luego que este mensaje llega al destino, el receptor tiene una idea clara de la ruta,
de los servicios y capacidades relativas que la red puede ofrecer, las cuales
comparándolas con la descripción del tráfico de la fuente, genera un mensaje de
reservación Resv. Este mensaje contiene el mismo clasificador que permite
identificar al flujo y además información que describe el tipo de reservación, la cual
puede ser garantizada o de carga controlada.
En cada nodo se realizan las pruebas de control de admisión y control de políticas,
la primera para verificar si hay recursos disponibles y la segunda verifica si el
transmisor tiene permiso para hacer la reservación; si ambas pruebas son exitosas
entonces se realiza la reservación.
Se debe observar que quien realmente empieza la reservación es el receptor, pues
aunque aparentemente lo más obvio sería que la inicie el transmisor, ya que éste
conoce las características del tráfico que enviará, en cambio el receptor sabe lo que
desea (o lo que puede) recibir. Si se dejara la tarea de iniciación de la reservación
al transmisor, ello provocaría problemas de escalamiento en árboles multicast
grandes, dinámicos, y con receptores heterogéneos.
Estos problemas de escalamiento se resuelven dejando que el receptor sea el que
inicie la reservación, de este modo se manipula fácilmente una reservación para
receptores heterogéneos ya que cada receptor simplemente solicita la reservación
para sí mismo, y si se presentan reservaciones diferentes, simplemente éstas se
combinan dentro de la red. La iniciación del receptor también es consistente con el
multicast del protocolo IP, en el cual un grupo multicast se crea implícitamente por
los receptores que se unen a él.
5
Prof. Vladimir Villarreal
0
Curso: Calidad de Servicios en Redes
Bibliografía
D. Fonseca, P. Morales. 2001. Estudio de Factores Técnicos y Operativos
que Interviene en la Infraestructura de Calidad de Servicio en Internet. Tesis
para optar al grado de Ingeniero en Electrónica y Telecomunicaciones.
Universidad Politécnica Nacional. Quito, Ecuador.
T. García. 2007.“Análisis de los Modelos de Servicios Diferenciales y
Servicios Integrales para Brindar QoS en Internet. Tesis para optar al grado
de Ingeniero en Computación. Universidad Tecnológica de la Mixteca.
México
5
Prof. Vladimir Villarreal
1
Curso: Calidad de Servicios en Redes
Objetivos:
Conocer el modelo de servicio de internet DiffServ, sus componentes y
principales características.
Realizar una comparación entre los servicios IntServ y DiffServ.
Analizar el funcionamiento del protocolo MPLS y sus herramientas para
garantizar QoS.
5
Prof. Vladimir Villarreal
2
Curso: Calidad de Servicios en Redes
5
Prof. Vladimir Villarreal
3
Curso: Calidad de Servicios en Redes
5
Prof. Vladimir Villarreal
4
Curso: Calidad de Servicios en Redes
5
Prof. Vladimir Villarreal
5
Curso: Calidad de Servicios en Redes
de ser descartados, según la prioridad del código DSCP. Los PHB también
son divididos en cuatro clases con diferentes prioridades, cada clase tiene
códigos que determinan la probabilidad de ser descartados en una
congestión. El IETF define estos PHB en los RFC 3260 y 2597.
Class Selector (CS): Anteriormente se utilizaba el campo Precedence en el
campo Type of Service de IPv4 para determinar prioridad. Estos PHB son
utilizados para mantener compatibilidad hacia dispositivos antiguos.
Voice Admit (VA): En el RFC 5865 se define este PHB y básicamente tiene
el mismo principio de funcionamiento que EF aplicado a tráfico de llamadas
de voz (VoIP).
El IETF también define unas reglas para la asignación de codigos a los PHB en el
RFC 3140, en resumen un PHB especifica el tratamiento por cada enrutador dentro
de un dominio DiffServ (DS). Se denomina un dominio DS a un grupo de
enrutadores contiguos los cuales trabajan con una política de servicio común
implementada en cada enrutador. Todos los enrutadores tienen reglas de
redireccionamiento basadas en los valores de DS de los paquetes, los cuales, son
comparados con su correspondiente valor de PHB. En caso de no poseer ningún
tratamiento de QoS el campo DSCP será igual a 0. Los límites de la región la
determinan los enrutadores o host de frontera, estos son los encargados de
clasificar los paquetes entrantes en una determinada clase y se aseguran que estén
correctamente etiquetados usando PHB por todo el dominio. Un dominio DS
generalmente consiste en una red o un conjunto de redes que utilizan los mismos
códigos PHB. Un domino también se consideran como una unidad administrativa.
Ahora bien se denomina una región DS como un conjunto de dominios de DS que
aseguran las rutas de servicios por todas las redes y dominios que abarca. Cada
dominio dentro de una región puede contar con una definición y mapeo igual o
diferente de PHB, de ser diferente es necesario el uso de condicionadores de tráfico
hacer las respectivas traducciones de los mapeos y definiciones de PHB.
5
Prof. Vladimir Villarreal
6
Curso: Calidad de Servicios en Redes
5
Prof. Vladimir Villarreal
7
Curso: Calidad de Servicios en Redes
Son aplicables en redes pequeñas Presenta un buen desempeño tanto en redes pequeñas como
grandes
Funciona en el nivel 4 del modelo OSI Trabaja en el nivel 3 del modelo OSI, el cual lo hace transparente
para el usuario
Deja que los usuarios puedan realizar Tiene solo 12 posibilidades de servicio
explícitamente peticiones de QoS
Permite solicitudes de calidad de servicio Los tipos de servicios son permanentes
con gran granularidad
Necesita periódicamente refrendar el tipo de Los recursos son asignados en el router de frontera
servicio
Utiliza un protocolo de reserva para designar Los nodos procesan los paquetes de acuerdo al campo DS
recursos
Posee un mecanismo más complejo y Tiene una forma sencilla de clasificar y priorizar el tráfico.
exigente
Tala 2: Comparación de características de DiffServ e IntServ
5
Prof. Vladimir Villarreal
8
Curso: Calidad de Servicios en Redes
5
Prof. Vladimir Villarreal
9
Curso: Calidad de Servicios en Redes
6
Prof. Vladimir Villarreal
0
Curso: Calidad de Servicios en Redes
2. Se le asignan etiquetas a cada flujo FEC particular para evitar el uso de etiquetas
globales que dificultan el manejo y la cantidad de las mismas. Por esta razón las
etiquetas solo hacen referencia al flujo específico. La asignación de nombres y rutas
se puede realizar manualmente o bien se puede utilizar el Protocolo de Distribución
de Etiquetas (LDP).
3. En esta sección el paquete entra al dominio MPLS mediante un LSR frontera que
determina que servicios de red requiere, definiendo así su QoS. Al terminar dicha
asignación el LSR asigna el paquete a una FEC y a un LSP particular, lo etiqueta y
lo envía. Si no existe ningún LSP, el router frontera trabaja en conjunto con los
demás LSRs para definirlo.
4. En este momento el paquete ya está dentro del dominio MPLS, cuando los routers
contiguos del LSR reciben el paquete se llevan a cabo los siguientes procesos:
Se deshecha la etiqueta de entrada y se le añade la nueva etiqueta de salida
al paquete.
Se envía el paquete al siguiente LSR dentro del LSP.
El LSR de salida “abre” la etiqueta y lee el encabezado IP para enviarlo al destino
final.
6
Prof. Vladimir Villarreal
1
Curso: Calidad de Servicios en Redes
Como se puede observar en la Figura 4 cada LSR tiene una tabla de reenvío para
cada LSP que pasa por sus interfaces. Dichas tablas manejan diferentes tipos de
datos, la tabla del LSR de entrada maneja la FEC, la interfaz de salida y etiqueta de
6
Prof. Vladimir Villarreal
2
Curso: Calidad de Servicios en Redes
6
Prof. Vladimir Villarreal
3
Curso: Calidad de Servicios en Redes
Una etiqueta MPLS está conformada por 32 bits, divididos como se muestra
en la Figura 5, y contiene los siguientes elementos:
Valor de la etiqueta: Etiqueta de 20 bits con valor local.
Experimental: Son los 3 bits siguientes reservados para uso experimental.
S: Es el bit de posición de pila:
o Cuando es 1 denota que es la entrada más antigua en la pila.
o Cuando es 0 denota que es cualquier otra entrada.
Tiempo de Vida (TTL): Son los últimos 8 bits del paquete y se utilizan
para codificar el valor del conteo de saltos (IPv6) o de tiempo de vida
(IPv4).
Procesando el TTL
Un elemento clave en el encabezado de un paquete IP es el campo TTL y el
Límite de Saltos (Hop limit). En un ambiente común de Internet (basado en IP),
dicho campo va disminuyendo uno a uno hasta que llega a cero y se elimina el
paquete. Esto es una medida de prevención de los paquetes se ciclen (looping)
o estén demasiado tiempo en el Internet debido a un ruteo mediocre.
En el ruteo MPLS no se lee el encabezado de los paquetes, es por eso que se
añaden estos 8 bits que manejan el TTL para evitar que ocurra lo mencionado
anteriormente.
6
Prof. Vladimir Villarreal
4
Curso: Calidad de Servicios en Redes
6
Prof. Vladimir Villarreal
5
Curso: Calidad de Servicios en Redes
campo TTL
es disminuido en una unidad en cada salto, es por eso que en IPv6 a este
decremento de unidades en cada salto se le llama Conteo de Saltos (hop
count).
Pila de etiquetas
La última sección del formato de las etiquetas es la sección S, en donde está
contenida la información del orden en la pila. Cuando S = 1 indica que es la
última etiqueta y que al salir quedará vacía la pila, esto generalmente ocurre
en el router de salida, cuando es S = 0 indica que por lo menos hay otra etiqueta
antes, en la pila.
6
Prof. Vladimir Villarreal
6
Curso: Calidad de Servicios en Redes
6
Prof. Vladimir Villarreal
7
Curso: Calidad de Servicios en Redes
Ingeniería de Tráfico
Es la habilidad de definir rutas dinámicamente y planear la asignación de
recursos con base en la demanda, así como optimizar el uso de la red. MPLS
facilita la asignación de recursos en las redes para balancear la carga
dependiendo de la demanda y proporciona diferentes niveles de soporte
dependiendo de las demandas de tráfico de los usuarios. El protocolo IP provee
una forma primitiva de Ingeniería de Tráfico al igual que el protocolo del Camino
Más Corto Primero (OSPF) que permite a los enrutadores cambiar la ruta de
los paquetes cuando sea necesario para balancear la carga. Sin embargo esto
no es suficiente ya que este tipo de ruteo dinámico puede llevar a congestionar
la red y no soporta QoS.
Todo tráfico entre dos puntos finales (endpoints) sigue la misma ruta y puede
ser cambiada si ocurriera congestión, sin embargo este cambio solo ocurre solo
cuando hay congestión que es algo que siempre se trata de evitar. En MPLS a
diferencia de OSPF no se ve paquete por paquete sino flujos de paquetes con
su respectivo QoS y demanda tráfico predecible. Con este protocolo es posible
predecir rutas en base a flujos individuales, pudiendo haber diferentes flujos
6
Prof. Vladimir Villarreal
8
Curso: Calidad de Servicios en Redes
6
Prof. Vladimir Villarreal
9
Curso: Calidad de Servicios en Redes
Bibliografía:
R. Montes, K. Tous. 2006. “Servicios Integrados y Diferenciados de Internet”.
Tesis para optar por el título de Ingeniero Electrónico. Universidad
Tecnológica de Bolívar. Colombia.
J.A. Jimenez Toro. UF1875: Gestión de recursos, servicios y de la red de
Comunicaciones. Editorial Elearning SL. Edición 5.0. ISBN: 978-84-16199-
01-3. España.
Benítez, M., Castellar A. (2011). Differentiad Services (DIFFSERV): Ventajas,
Desventajas y Casos de Estudio. Universidad Tecnológica de Bolívar. Tesis
para optar al Título de Ingeniero en Sistemas. Colombia.
Caso de Estudio
1. Indique cómo tienen que configurarse los parámetros de una red DiffServ para
que un flujo TCP y uno UDP que compiten obtengan el mismo caudal. Indique cómo
sería la compartición de caudal en una red sin DiffServ.
Solución: Hay que limitar la tasa máxima permitida al tráfico UDP a la mitad del
caudal disponible. De no existir una red Diffserv, UDP mantendría su tasa constante
mientras que TCP tendería reducir su tasa debido al mecanismo de control de
congestión de TCP.
7
Prof. Vladimir Villarreal
0
Curso: Calidad de Servicios en Redes
En este ejemplo, queremos dar QoS de extremo a extremo a varios tipos diferentes
de clases de tráfico utilizando Cisco IOS Differentiated Services. Las clases de
tráfico que se van a utilizar son las siguientes:
Clase Premium: tráfico de voz
Clase Oro: son sesiones TACACS con tráfico marcado con DSCP 12 y 14.
Clase plata: consta de Telnet, SMTP y sesiones FTP.
Clase bronce: es tráfico web y tráfico marcado con DSCP 28 y 30.
Cualquier otro tráfico se considera perteneciente a la clase de tráfico best-
effort.
Las características de funcionamiento deben ser:
La clase Premium debe ser enviada al siguiente nodo con el menor retardo
posible, hasta un máximo de 500kBps durante periodos de congestión.
La clase oro debe ser tratada preferencialmente con respecto a la clase plata,
y esta con más preferencia que la bronce. Estas tres clases deben tener un
35%, 25% y 15% respectivamente, del ancho de banda de la interfaz con
unas garantías mínimas de ancho de banda.
En provisión de clases de tráfico distintas, el tráfico necesita ser clasificado
basándose en valores DSCP en un dominio DiffServ. Ya que ese tráfico se
basa en valores DSCP, debe ser premarcado con los DSCP adecuados en
el momento de entrar en la red. Esto se debe hacer en las interfaces F0/0 de
los routers extremos. Este marcado puede conseguirse con una política de
entrada.
La siguiente tabla muestra los valores usados para marcar las distintas clases de
tráfico que entran en la red de ejemplo:
7
Prof. Vladimir Villarreal
1
Curso: Calidad de Servicios en Redes
7
Prof. Vladimir Villarreal
2
Curso: Calidad de Servicios en Redes
Objetivos:
Identificar las políticas para el aseguramiento de la calidad de servicio en
redes
Evaluar las distintas disciplinas de encolamiento y sus principales
características.
Comprender el funcionamiento de las técnicas de control de congestión en la
red.
7
Prof. Vladimir Villarreal
3
Curso: Calidad de Servicios en Redes
7
Prof. Vladimir Villarreal
4
Curso: Calidad de Servicios en Redes
7
Prof. Vladimir Villarreal
5
Curso: Calidad de Servicios en Redes
7
Prof. Vladimir Villarreal
6
Curso: Calidad de Servicios en Redes
Figura 7. Funcionamiento de PQ
Cada una de estas colas actúa como leaky bucket individual la cual es propensa al
descarte de la cola. Los tamaños de cola pueden ser ajustados manualmente de 0
a 32767 paquetes.
El encolamiento de prioridad puede parecer un enfoque tosco para la priorización
de tráfico, pero permite dar a ciertas clases de tráfico prioridad sobre otras. Por
ejemplo, muchos sistema heredados tal como mainframes usan arquitectura de red
de sistemas SNA (Systems Network Architecture) como método de transporte. SNA
es muy susceptible a los retardos por lo que sería un excelente candidato para una
cola de prioridad alta. Si Telnet es el negocio central de una empresa, podría
también ser colocado en la cola de alta prioridad sobre otros tipos de tráfico
cualquiera. Esto asegura que los protocolos de volumen alto como FTP no impacten
negativamente a las aplicaciones críticas del negocio.
7
Prof. Vladimir Villarreal
7
Curso: Calidad de Servicios en Redes
7
Prof. Vladimir Villarreal
8
Curso: Calidad de Servicios en Redes
otros; tiene prioridad sobre todas las otras colas y así es vaciada antes de cualquier
cola definida por el usuario), la misma que es creada automáticamente por el
proceso de CQ. Esta cola es configurada por el usuario, pero esto no es
recomendable. Cada una de las colas configurables por el usuario, e incluso la cola
0, representan un leaky bucket individual, el cual también es susceptible a los
descartes de la cola.
El encolamiento personalizado asegura que cada cola sea atendida, evitando así la
situación potencial en la cual cierta cola nunca sea procesada. Este encolamiento
lleva su nombre del hecho que los administradores de red pueden controlar el
número de colas en los procesos de encolamiento. Adicionalmente, la cantidad de
bytes o la cuenta de bytes para cada cola pueden ser ajustadas con el fin de gastar
más tiempo en ciertas colas en los procesos de CQ. Por lo tanto, el encolamiento
personalizado puede ofrecer un mecanismo de encolamiento más refinado, pero no
puede asegurar prioridad absoluta como el encolamiento de prioridad.
El encolamiento personalizado opera mediante el servicio de colas configuradas por
el usuario, individuales y secuenciales, para una cantidad específica de bytes. La
cuenta de byte por defecto para cada cola es 1500 bytes, sin ninguna
personalización, CQ debería procesar 1500 bytes de la cola 1, después 1500 bytes
de la cola 2, luego 1500 bytes de la cola 3, y demás.
El tráfico puede ser clasificado y asignado a cualquier cola a través de los mismos
métodos como en el encolamiento de prioridad, esto es, tipos de protocolo o
subprotocolo, interfaces origen, tamaño de paquete o cualquier otro parámetro
identificable a través de una lista de acceso. La figura 8, muestra la operación del
encolamiento personalizado.
7
Prof. Vladimir Villarreal
9
Curso: Calidad de Servicios en Redes
8
Prof. Vladimir Villarreal
0
Curso: Calidad de Servicios en Redes
cambios de ambiente de red. Todos los protocolos nuevos que no están definidos
en la configuración CQ serían asignados a la cola por defecto para el procesamiento
de la información.
8
Prof. Vladimir Villarreal
1
Curso: Calidad de Servicios en Redes
8
Prof. Vladimir Villarreal
2
Curso: Calidad de Servicios en Redes
8
Prof. Vladimir Villarreal
3
Curso: Calidad de Servicios en Redes
8
Prof. Vladimir Villarreal
4
Curso: Calidad de Servicios en Redes
más alta ajustando sus pesos. Si todos los paquetes tienen el mismo valor de
precedencia por defecto, entonces el factor ponderado no afecta el proceso WFQ.
El peso de los flujos, donde los valores presentes de ToS son diferentes, es
calculado mediante la adición de 1 a la precedencia del paquete. El peso total de
todos los flujos representa el ancho de banda total a ser dividido entre los flujos
individuales. Por ejemplo, si tres flujos utilizan una precedencia IP por defecto de 0,
cada flujo tiene un peso de 1 (0+1). El peso del ancho de banda total es 3 (1+1+1),
y cada flujo representa un tercio del total del ancho de banda. En cambio, si dos
flujos tiene una precedencia IP de 0, y un tercer flujo tiene una precedencia de 5, el
peso total es 8 (1+1+6). Los primeros dos flujos representan cada uno un octavo del
ancho de banda, mientras que el tercer flujo recibe seis octavos del ancho de banda.
8
Prof. Vladimir Villarreal
5
Curso: Calidad de Servicios en Redes
8
Prof. Vladimir Villarreal
6
Curso: Calidad de Servicios en Redes
Tail Drop permite a las colas permanecer llenas o casi llenas durante largos
periodos de tiempo, ya que los host no reconocen la congestión (mediante el
descarte de paquetes) hasta que las colas no alcanzan el 100% de su
capacidad y se consumen completamente los recursos.
Tail Drop es un algoritmo extremadamente pobre para tráfico basado en TCP.
Aproximadamente del 85 al 95% del tráfico de las redes IP es TCP. TCP
supone que si se tira un paquete en un router es debido a la congestión. Esto
permite a las sesiones TCP controlar su propia tasa de transferencia. Sin
embargo, Tail Drop produce que todas las sesiones TCP que atraviesan la
cola congestionada reduzcan sus tasas de transmisión al mismo tiempo
resultando un proceso conocido como sincronización global TCP. Esto
produce oscilaciones drásticas en el tráfico que dan como resultado un uso
ineficiente del ancho de banda de salida debido a que muchas sesiones
dividen por dos sus ventanas de transmisión al mismo tiempo.
Las sesiones individuales de TCP se recuperan más lentamente de descartes
de paquetes múltiples que se un descarte individual. Esto puede reducir
significativamente el caudal global de los flujos de los clientes.
Una media de la profundidad de la cola grande incrementa el retardo de
extremo a extremo experimentado por los flujos de los clientes que atraviesan
la red.
8
Prof. Vladimir Villarreal
7
Curso: Calidad de Servicios en Redes
Los beneficios de la gestión activa de las colas comparadas con Tail Drop incluyen:
La eliminación de la sincronización global de fuentes TCP que da como
resultado un uso más eficiente del ancho de banda de la red.
El soporte de fluctuaciones momentáneas en el tamaño de la cola, que
permiten absorber ráfagas sin descartar paquetes y causar que los host
reduzcan sus caudales cuando reducen sus tasas de transmisión.
La habilidad para controlar el tamaño de la cola influyendo en la media del
retardo de encolamiento a través del router.
8
Prof. Vladimir Villarreal
8
Curso: Calidad de Servicios en Redes
Cuando múltiples sesiones TCP operan sobre un enlace común, todas aumentarán
el tamaño de sus ventanas deslizantes tanto como las ACKs satisfactorias son
recibidas. Gradualmente esta progresión sincronizada consume el ancho de banda
del enlace hasta que el enlace este congestionado. En este punto, todas las
8
Prof. Vladimir Villarreal
9
Curso: Calidad de Servicios en Redes
9
Prof. Vladimir Villarreal
0
Curso: Calidad de Servicios en Redes
baja tiene una tasa de descarte mayor y por lo tanto es más probable que se
reduzca.
WRED difiere de otras técnicas de prevención de congestión como las estrategias
de encolamiento porque procura anticipar y evitar la congestión además de controlar
la congestión una vez que esta se produzca.
Beneficios
WRED efectúa detección temprana de congestión y suministra para múltiples clases
de tráfico. También protege contra la sincronización global. Por estas razones,
WRED es útil en cualquier interfaz de salida donde se espera que ocurra saturación.
Sin embargo, por lo general WRED es utilizado en los enrutadores de núcleo de una
red en lugar de los enrutadores de borde sobre esta. Los enrutadores de borde
asignan precedencias IP a los paquetes mientras van ingresando a la red de
comunicación. WRED utiliza estas precedencias para determinar los diferentes tipos
de tráfico.
WRED establece los umbrales por separado y pondera las diferentes precedencias
IP, permitiendo proporcionar diferentes calidades de servicio en lo que respecta al
descarte de paquetes para diferentes tipos de tráfico. El tráfico estándar puede ser
descartado más frecuentemente que otra clase de tráfico durante los períodos de
congestión.
Funcionamiento
Al descartar paquetes aleatoriamente antes de los períodos de congestión, WRED
anuncia al origen de paquetes para disminuir su velocidad de transmisión. Si el
origen de paquete está utilizando TCP, disminuye su velocidad de transmisión hasta
que todos los paquetes alcanzan su destino, lo cual indica que la congestión está
clareada.
9
Prof. Vladimir Villarreal
1
Curso: Calidad de Servicios en Redes
WRED solo es útil cuando la mayoría de tráfico es tráfico TCP/IP. Con TCP,
paquetes descartados indican congestión, por lo que el origen de paquete reducirá
sus velocidades de transmisión. Con otros protocolos, los orígenes de paquete
pueden no responder o pueden reenviar paquetes descartados en la misma tasa.
En consecuencia, el descarte de paquetes no disminuye la congestión.
WRED trata al tráfico no IP como precedencia 0, la más baja precedencia. Por tanto,
el tráfico no IP, en general, es más probable a ser descartado que el tráfico IP.
9
Prof. Vladimir Villarreal
2
Curso: Calidad de Servicios en Redes
Bibliografía:
Cadena C. (2010).Escuela Politécnica del Ejército. Tesis para obtener el
grado de Ingeniero. Control de Tráfico en Redes TCP/IP Fundamentado en
Procedimientos y Técnicas de Calidad de Servicio a lo Largo de una
Infraestructura de Telecomunicaciones. Ecuador.
Rubio, G. (2016). QoS en routers y switches Cisco. ISBN: 978-1-329-84032-
4.
Alarcón R. (2003). Estudio e Implementación de Mecanismos de Calidad de
Servicio sobre una Arquitectura de Servicios Diferenciados. Tesi para optar
al título de Ingeniería Técnica de Telecomunicación, especialidad
Telemática. Colombia.
J.A. Jimenez Toro. UF1875: Gestión de recursos, servicios y de la red de
Comunicaciones. Editorial Elearning SL. Edición 5.0. ISBN: 978-84-16199-
01-3. España.
9
Prof. Vladimir Villarreal
3
Curso: Calidad de Servicios en Redes
Casos de Estudio
1. Colas de prioridad
Objetivo
• Explicar dónde se puede implementar la calidad de servicio para afectar el flujo
de tráfico
9
Prof. Vladimir Villarreal
4
Curso: Calidad de Servicios en Redes
9
Prof. Vladimir Villarreal
5
Curso: Calidad de Servicios en Redes
9
Prof. Vladimir Villarreal
6
Curso: Calidad de Servicios en Redes
Paso 5: Determinar los requisitos de la cola de prioridad para el estudio del caso
a. Al utilizar el estudio del caso FilmCompany, cuáles cree que serán los requisitos
de la cola de prioridad?
b. Analice y compare sus prioridades con los demás estudiantes.
c. Corrija las sentencias de su lista de prioridades de modo que incluyan el tráfico
asociado con la actualización de la red propuesta.
9
Prof. Vladimir Villarreal
7
Curso: Calidad de Servicios en Redes
Objetivos:
Conocer las principales características del protocolo IPv6 y sus herramientas
para proporcionar calidad de servicio en las redes.
9
Prof. Vladimir Villarreal
8
Curso: Calidad de Servicios en Redes
9
Prof. Vladimir Villarreal
9
Curso: Calidad de Servicios en Redes
1
Prof. Vladimir Villarreal 0
0
Curso: Calidad de Servicios en Redes
1
Prof. Vladimir Villarreal 0
1
Curso: Calidad de Servicios en Redes
Bibliografía
Salcedo J., López D., Ríos A. Desempeño de la Calidad del Servicio (QoS)
sobre IPv6. Revista Tecnura vol. 15. Enero-Junio 2011. Colombia.
Ramírez G. (2013). Agente Administrador de QoS sobre Redes IPv6.
Pontificia Universidad Javeriana. Tesis para optar al título de Magister en
Ingeniería Electrónica. Colombia.
Caso de Estudio
1
Prof. Vladimir Villarreal 0
2
Curso: Calidad de Servicios en Redes
Compare los paquetes IPv4 e IPv6... Identifique cada uno de los campos del
encabezado IP en los dos casos y observe sus valores. Compare también el ICMP.
Responda las siguientes preguntas:
- ¿Cuál es la diferencia de tamaño entre el encabezado IPv4 y el encabezado IPv6?
- ¿Hay también diferencias en el encabezado ICMP? ¿Cuáles?
1
Prof. Vladimir Villarreal 0
3
Curso: Calidad de Servicios en Redes
1
Prof. Vladimir Villarreal 0
4
Curso: Calidad de Servicios en Redes
1
Prof. Vladimir Villarreal 0
5
Curso: Calidad de Servicios en Redes
Como ya se mencionó, ATM define una celda de tamaño fijo con una longitud de 53
bytes. Consta de dos partes: la carga útil o payload de 48 bytes que transporta la
información generada por un emisor o transmisor, y el encabezamiento o header de
5 bytes que contiene la información necesaria para la transferencia de la celda. Las
1
Prof. Vladimir Villarreal 0
6
Curso: Calidad de Servicios en Redes
celdas son enviadas sobre una estructura de transmisión física, como por ejemplo
el DS1, DS3 o SONET de Norte América; el E1, E3, E4 o STM de Europa.
1
Prof. Vladimir Villarreal 0
7
Curso: Calidad de Servicios en Redes
Bibliografía:
Redes e Internet de Alta velocidad; Rendimiento y Calidad de Servicio,
segunda edición, William Stalling, Ed. Pearson/Prentice Hall, 2002.
Calidad de Servicio en Redes IP, ATM Y FRL. Mecanismos, protocolos y
Aplicaciones. Edición 2002- ISBN 84-89416-31-1. 199 pág.
https://lmdata.es/reports/qos.htm
Caso de Estudio
1. Red Multicampus de la Universidad George Mason
El objetivo es proporcionar buen acceso a internet y a intranet a gran cantidad de
usuarios distribuidos en un entorno inseguro. Asimismo, era necesario sustituir y
unificar las diferentes tecnologías y protocolos de las LANs existentes para poder
proporcionar interoperabilidad entre sus usuarios.
La solución adoptada fue recablear con fibra óptica las conexiones entre todos los
edificios formando un backbone ATM.
1
Prof. Vladimir Villarreal 1
0
Curso: Calidad de Servicios en Redes
Dado que la red tiene que transportar tanto aplicaciones críticas como acceso de
estudiantes a internet, es preciso proveer de algún tipo de seguridad al sistema. La
forma de hacerlo es instalando firewalls a la entrada/salida de los sistemas críticos
en vez de proteger mediante firewall el acceso a toda la red, dado que el control y
configuración necesario se complicaría demasiado.
Como protección frente a los usuarios internos, es decir, los propios estudiantes, se
decidió asignar a cada boca una dirección IP fija, que permita hacer un traceo de
los paquetes IP hasta su origen.
1
Prof. Vladimir Villarreal 1
1
Curso: Calidad de Servicios en Redes
1
Prof. Vladimir Villarreal 1
2
Curso: Calidad de Servicios en Redes
1
Prof. Vladimir Villarreal 1
3
Curso: Calidad de Servicios en Redes
1
Prof. Vladimir Villarreal 1
4
Curso: Calidad de Servicios en Redes
datos, cada uno con sus propiedades tales como: nombre, destino, ancho
de banda, tamaño del paquete, DSCP (Differentiated Services Code Point),
y rangos de tiempo. http://packgen.rubyforge.org/files/README.html
GASP. Gasp es un sistema analizador y generador de protocolos. Este
permite construir paquetes a mano para probar el comportamiento de sus
programas cuando enfrentan algún paquete desconocido. GASP está Linux/ GPL
dividido en dos partes +: un compilador que toma las especificaciones del Windows
protocolo y genera el código manualmente de tal protocolo, este código es
un nuevo comando Tcl. como GASP está construido sobre Tcl/Tk y
extendido a script, facilidades proveídas por Tcl.
http://laurent.riesterer.free.fr/gasp/
Gspoof 3.0. Gspoof es una herramienta que con exactitud y facilidad
construye y envía paquetes TCP-IP. Esta trabaja desde la consola (línea de Linux GPL
comando) y tiene una interfase gráfica fácil de usar escrita en GTK+ too.
Soporta manipulación de cabecera ethernet, manipulación de cabecera IP,
manipulación de cabecera tcp, carga útil Tcp, torrentes, soporta notificación
de congestión.
http://gspoof.sourceforge.net/
Harpoon. Harpoon es un generador flujo a nivel de tráfico. Este usa un set Linux, Solaris Other
de parámetros distribucionales que pueden ser automáticamente extraídos 8, FreeBSD, (non-
de trazas netflow para generar flujos que exhiben las mismas MAcOSX commercia
cualidades estadísticas presentes en las trazas medidas de Internet, l research
incluyendo características temporales y espaciales. Harpoon puede ser purposes
usado para generar tráfico representativo Background para probar only)
aplicaciones ó protocolos, o para probar swicht y routers.
http://www.cs.wisc.edu/~jsommers/harpoon/http://wail.cs.wisc.edu/waildow
nload.py
1
Prof. Vladimir Villarreal 1
5
Curso: Calidad de Servicios en Redes
1
Prof. Vladimir Villarreal 1
6
Curso: Calidad de Servicios en Redes
pérdida, retardo, jitter, códec utilizado, tasa de bits del video, lenguaje en audio, etc.
Para lograr el mapeo deseado se debe generar una base de entrenamiento que
consiste en un conjunto de valores de los parámetros y el correspondiente valor de
calidad obtenido mediante tests subjetivos.
El obtener una buena base de entrenamiento, es decir un rango considerable de
variación de los parámetros, es el principal limitante debido al costo de los tests
subjetivos.
La caracterización fundamental de un servicio es mediante el conocimiento de la
latencia, el jitter, la contabilidad, la capacidad de absorber ráfagas y el volumen del
tráfico. Al conocer para un servicio cada uno de estos parámetros, se podrá anticipar
el comportamiento de la red.
Monitoreo del retardo o latencia
La latencia es uno de los parámetros de mayor importancia en el tránsito de los
paquetes a través de una red. La idea más simple de una Iatencia está relacionada
con la habilidad que posee el servidor para responder. A fin de cuantificar una
verdadera Iatencia, se suele implementar en la red tres clases de pruebas:
PRUEBA 1:
PING: una prueba de este tipo mide la Iatencia de la red (considerando la ida y
vuelta de un paquete, RTT Round-Tríp Time), además de dar muestras claras de la
habilidad del servidor de responder al mencionado PING.
PRUEBA 2:
Prueba TCP: esta prueba incluye la configuración de una sesión TCP y la medición
de la respuesta de tiempo, y otorga resultados específicos sobre el proceso
realizado en el servidor.
PRUEBA 3:
Prueba de Aplicación: esta prueba indica el verdadero comportamiento
(comportamiento final) del servicio.
1
Prof. Vladimir Villarreal 1
7
Curso: Calidad de Servicios en Redes
1
Prof. Vladimir Villarreal 1
9
Curso: Calidad de Servicios en Redes
1
Prof. Vladimir Villarreal 2
0
Curso: Calidad de Servicios en Redes
1
Prof. Vladimir Villarreal 2
1
Curso: Calidad de Servicios en Redes
los parámetros del tráfico de la red son cuantificables y tal vez incluyan
requerimientos del usuario final como el tamaño del buffer.
Bibliografía:
Recomendaciones de la Unión Internacional de Telecomunicaciones (UIT-T,
P.561) (2002). Dispositivos de medida en servicio no intrusivas.
Grupo de Expertos NGN. (2001). “Medición de la Calidad del Servicio”.
Interactic. Documentos NGN No. 01. CINTEL (Centro de Investigación de las
Telecomunicaciones).
1
Prof. Vladimir Villarreal 2
2
Curso: Calidad de Servicios en Redes
Casos de estudio
1. Captura y análisis de paquetes.
Para la captura de paquetes en los servidores y routers Linux utilizaremos el
comando “tcpdump”. Para realizar los análisis utilizaremos el programa “Wireshark”,
previamente instalado en las computadoras portátiles de los participantes.
Para familiarizarnos con el uso de las herramientas vamos a monitorear el tráfico en
la interfaz eth2 del router Rx2, y a ejecutar un traceroute de Sx1 a Sx2.
1
Prof. Vladimir Villarreal 2
3
Curso: Calidad de Servicios en Redes
1
Prof. Vladimir Villarreal 2
4