Computing">
Chafloque MJ
Chafloque MJ
Chafloque MJ
TESIS
AUTOR
ASESOR
Lima, Perú
2018
Reconocimiento - No Comercial - Compartir Igual - Sin restricciones adicionales
https://creativecommons.org/licenses/by-nc-sa/4.0/
Usted puede distribuir, remezclar, retocar, y crear a partir del documento original de modo no
comercial, siempre y cuando se dé crédito al autor del documento y se licencien las nuevas
creaciones bajo las mismas condiciones. No se permite aplicar términos legales o medidas
tecnológicas que restrinjan legalmente a otros a hacer cualquier cosa que permita esta licencia.
Referencia bibliográfica
Lima – Perú
2018
II
LISTA DE FIGURAS
Figura 2.1 Crecimiento del tráfico IP global. Fuente: CISCO VNI (2016) pag. 17
Figura 2.2 Modelo de red en la nube. Fuente: ITU-T (2012) pag. 18
Figura 2.3 Planos de un dispositivo tradicional. Fuente: KREUTZ (2015) pag. 22
Figura 2.4 Tablas RIB y FIB. Fuente: NADEAU; GRAY (2013) pag. 23
Figura 2.5 Topología de red tradicional. Fuente: NADEAU; GRAY (2013) pag. 24
Figura 2.6 Concepto de una red definida por software. Fuente: ODCA (2014) pag. 27
Figura 2.7 Red tradicional y red definida por software.
Fuente: Elaboración propia pag. 28
Figura 2.8 Arquitectura de la red SDN según la RFC 7426. Fuente:
HALEPLIDIS ed al. (2015) pag. 29
Figura 2.9 Arquitectura de la red definida por software basado en la
recomendación. Fuente: ITU-T (2014) pag. 30
Figura 2.10 Diagrama de flujo del proceso de coincidencia en un switch
Openflow. Fuente: ONF(2015) pag. 34
Figura 2.11 Principales componentes de un Switch Openflow. Fuente:
ONF(2015) pag. 36
Figura 2.12
Procesamiento del switch Openflow. Fuente: GORANSSON (2016)
pag. 37
Figura 2.13 Seguimiento del paquete a través de las tablas de flujo. Fuente: ONF
(2015). pag. 38
Figura 2.14 Estructura de un mensaje Openflow Fuente: ONF (2015). pag. 40
Figura 2.15 Establecimiento de las sesiones Openflow. Fuente: GORANSSON
(2016) pag. 41
Figura 2.16
Arquitectura de un controlador SDN. Fuente: GORANSSON (2016)
pag. 44
Figura 3.1 Red modular. Fuente: BRUNO, JORDAN (2017) pag. 48
Figura 3.2 Grafica de tráfico entrante y saliente por SNMP. Fuente: Elaboración
propia. pag. 54
Figura 3.3 Topología de la Red Telemática y Campus de la UNMSM. Fuente:
Elaboración propia. pag. 55
Figura 3.4 Red WAN SDN de Google. Fuente: Big Switch (2012) pag. 57
Figura 4.1 Esquema general de simulación. Fuente: Elaboración propia pag. 59
Figura 4.2 Arquitectura del controlador Opendaylight.
Fuente: SDN HUB (2015). pag. 60
Figura 4.3 Arquitectura del módulo DLUX. Fuente: OPENDAYLIGHT (2017). pag. 64
Figura 4.4 Arquitectura del módulo L2 SWITCH. Fuente: OPENDAYLIGHT
(2017). pag. 65
Figura 4.5 Comunicación entre los componentes de L2 SWITCH. Fuente:
OPENDAYLIGHT (2017). pag. 67
III
LISTA DE TABLAS
RESUMEN
La presente tesis tiene como objetivo brindar una propuesta de diseño de una red de datos
de área local bajo una arquitectura de redes definidas por software (SDN – Software
Defined Network en sus siglas en ingles) para mejorar la eficiencia de la gestión e
interoperabilidad entre los diferentes dispositivos o equipos de red que conforman la red
de datos de área local (LAN – Lan Area Network en sus siglas en ingles) de la Red
Telemática de la Universidad Nacional Mayor de San Marcos -UNMSM-.
La propuesta del diseño de red se realizará de forma simulada bajo el software Mininet,
se explicará la topología a diseñar, así como la descripción del controlador SDN a utilizar
y finalmente se presentarán las pruebas y resultados obtenidos de la simulación.
Con los resultados obtenidos se comparará los beneficios que brinda la arquitectura SDN
con respecto a la red LAN actualmente implementada, presentando las conclusiones y
recomendaciones del proyecto de investigación.
VII
ABSTRACT
The objective of this thesis is to provide a proposal for the design of a local area data
network under an architecture of software defined networks (SDN - Software Defined
Network in its acronym in English) to improve the efficiency of management and
interoperability between different devices or network equipment that make up the local
area data network (LAN - Lan Area Network in its acronym in English) of the Telematics
Network of the National University of San Marcos -UNMSM-.
It will explain the operation of the architecture of networks defined by software, the
protocols and platforms that are used for its development. An analysis of the management
form of the traditional LAN network is presented, as is the Telematic Network, and the
architecture of traditional network devices.
The proposed network design will be simulated under the Mininet software, the topology
to be designed will be explained, as well as the description of the SDN controller to be
used and finally the tests and results obtained from the simulation will be presented.
With the results obtained, the benefits provided by the SDN architecture will be compared
with respect to the LAN network currently implemented, presenting the conclusions and
recommendations of the research project.
8
ÍNDICE GENERAL
CAPITULO I
En los últimos años las redes de datos de área local bajo una arquitectura de red tradicional
se han vuelto más complejas y robustas debido a los nuevos requerimientos de los
servicios de redes, tales como Big Data, colaboración, voz sobre IP, Internet de las cosas,
etc. En la mayoría de los casos, para cumplir con los nuevos servicios y/o aplicaciones,
se usan diferentes dispositivos de red como switches, routers, firewall, entro otros., donde
cada dispositivo de red cumple una función y consiguiente tienen configuraciones
específicas, por lo cual mientras más compleja es la red, más difícil resulta gestionar la
totalidad de los dispositivos instalados complicando la configuración de requerimientos
de alto nivel (calidad de servicio, listas de acceso, entre otros). Adicionalmente la Open
Networking Foundation (ONF,2012) identifico que red tradicional presenta los siguientes
inconvenientes: red estática y compleja, políticas inconsistentes, falta de escalabilidad y
dependencia de los proveedores de dispositivos.
Es por esto por lo que resulta relevante analizar la alternativa de un diseño de red de datos
de área local bajo la arquitectura de una red definida por software para la Red Telemática
y dar un alcance para futuros estudios e implementaciones sobre este tema.
1.2. JUSTIFICACIÓN
1.3. ANTECEDENTES
Actualmente no existe una única definición para la arquitectura de redes definidas por
software, sin embargo, el concepto de SDN puede ser definido como una red definida por
un software que permite separar el plano de control (software) del plano de datos
(hardware) con un único centro de gestión de los dispositivos flexible, programable y con
mayor visibilidad de la red.
El término Software Defined Networking se ha dado a conocer en los recientes años, sin
embargo, el concepto original nació en 1996, derivado del deseo de proporcionar un
controlador para administración total del reenvió de paquetes en los nodos de una red de
los proveedores de servicios.
Los primeros trabajos de los grupos de investigación, pero no limitadas a las siguientes
propuestas, que contribuyeron a la evolución de esta nueva arquitectura de red fueron:
Según Ignasio Errando, “SDN sustituye el nivel de control del hardware de red por una
capa de software abstraída mediante técnicas de virtualización, tratando de hacer la red
más programable. Esto se concreta en distintas aproximaciones, como son: proporcionar
un acceso al hardware basado en programación mediante protocolos como OpenFlow;
arquitecturas construidas sobre un nivel de control basado en software; y crear redes
virtuales por encima del hardware que dirijan el tráfico a través de redes físicas” (Data
Center Dinamics, 2003, p 26-27).
Este comentario acerca del uso protocolos de código abierto, como Openflow, enfatiza la
creación de “redes virtuales” que permitan el control sobre la red independientemente del
fabricante del dispositivo de red.
1.4. OBJETIVOS
Proponer un diseño de una red LAN bajo la arquitectura SDN para la Red Telemática de
la UNMSM en un entorno de simulación, que permita optimizar la gestión e
interoperabilidad de los dispositivos de red mediante un control centralizado.
Para esta tesis con característica de propuesta de diseño de red, se tendrá una metodología
basada en tres etapas: documentación, evaluación de la información recolectada y diseño.
- Documentación
La propuesta de diseño de red implicara simular bajo software libre, en tanto el software
lo permita, los dispositivos de red teniendo en cuenta un único centro de control donde se
logre gestionar centralizadamente todos los dispositivos de red simulados, tomando en
cuenta la viabilidad desde el punto de vista tecnológico, características y requerimientos.
CAPITULO II
Según CISCO (2017), el tráfico de internet está en aumento y se estima que en el año
2021 el tráfico de internet llegara a 278 exabytes por mes, estos incrementos del tráfico
de internet hacen reevaluar los enfoques de la arquitectura de red tradicional.
STALLINGS (2015) indica que las nuevas tendencias en la red pueden agruparse en
computación en la nube, big data, tráfico móvil e internet de las cosas.
Big Data se una tecnología demandante en estos tiempos ya que los bytes de datos
continúan creciendo y cada vez son más debido a que son recolectados por numerosos
sensores, dispositivos móviles, cámaras, micrófonos, lectores de identificación por
radiofrecuencia (RFID), internet de las cosas y otras tecnologías similares. BHAMBRI
(2012) estimó que diariamente se crean 2.5 exabytes (2.5 × 1018 bytes) de datos. Este
gran aumento de datos requiere un procesamiento masivo en paralelo en miles de
servidores, los cuales se interconectan entre sí ocasionando una gran demanda de la
capacidad de la red.
Por este motivo, los usuarios acceden cada vez más a los recursos de la red empresarial a
través de sus dispositivos móviles, sean teléfonos inteligentes, tablets y/o laptops. Estos
dispositivos admiten sofisticadas aplicaciones que pueden consumir y generar tráfico de
imagen y video, incrementando la carga de tráfico en la red empresarial conllevando a
tener la necesidad de añadir más dispositivos de red para soporten el aumento de tráfico.
La mayoría de las "cosas" en el Internet de las cosas genera un tráfico modesto, aunque
hay excepciones, como las cámaras de video de vigilancia. Pero el gran número de
dispositivos de este tipo, para algunas empresas, resulta en una carga significativa para la
red empresarial.
Las redes actuales son el resultado de una serie de protocolos y arquitecturas de red que
se desarrollaron inicialmente en los años 1970, donde la primera red de computadoras
ARPANET hacia su aparición. En ese momento, se preveía que 32 bits del campo del
direccionamiento IP serían suficientes para manejar todas las direcciones de Internet
Protocol (IPv4) que Internet necesitaría (aproximadamente 16 millones) sin embargo, el
20
3 de febrero de 2011, la IANA asignó los últimos bloques libres a los Registro Regional
de Internet (RIRs) agotando el pool de direcciones IPv4 disponibles. Una vez establecida,
la arquitectura de red no ha cambiado mucho en las últimas décadas, sin embargo, los
servidores que se conectan a las redes de internet actuales han sufrido una dramática
transformación en la última década.
Con la llegada de la virtualización, los servidores han cambiado su funcionalidad, los
servidores son ahora dinámicos ya que es posible crear y/o mover fácilmente un servidor
virtual, derivando en un aumento del número de servidores que pueden utilizar la red.
Antes, las aplicaciones se asociaban con un único servidor que tenía una ubicación fija en
la red, con la ayuda de la virtualización, las aplicaciones se pueden distribuir a través de
varias máquinas virtuales (VM), cada una de las VM pueden intercambiar flujos de tráfico
con los demás. Los administradores de red pueden mover las máquinas virtuales para
optimizar y reequilibrar las cargas de trabajo del servidor. El movimiento de la aplicación
puede hacer que cambien los puntos finales físicos de un flujo existente. La capacidad de
migrar VMs crea desafíos para muchos aspectos de la llamada red tradicional.
Junto con la virtualización de servidores, muchas compañías también están utilizando una
sola red para entregar todas las necesidades de red de voz, video y datos que tienen,
teniendo la necesidad de proporcionar un nivel diferenciado de servicio para diferentes
aplicaciones, lo cual es conocido como calidad de servicio (QoS). En la arquitectura de
red tradicional, el aprovisionamiento de muchas herramientas QoS en la mayoría de los
casos se realiza de manera manual. El administrador de la red debe configurar el
dispositivo de cada proveedor por separado y ajustar parámetros como el ancho de banda
de la red y la calidad de servicio en cada sesión por aplicación, esto demanda tener el
conocimiento de la configuración de cada dispositivo por cada proveedor que posea.
manuales se deben utilizar para configurar el equipo de cada proveedor por cada servicio
o aplicación e incluso por sesión.
Considerando las limitaciones de las redes actuales, listadas por la ONF, la OPEN DATA
CENTER ALLIANCE (ODCA,2014), establece una lista útil y concisa de soluciones,
que incluyen lo siguiente.
Según la “Open Data Center Alliance” ODCA, la arquitectura de red definidas por
software tiene la capacidad de satisfacer las necesidades mencionadas.
Cada plano realiza funciones específicas y pueden comunicarse entre ellas en el mismo
dispositivo. Los tres planos se detallan a continuación:
El plano de control es el nivel más alto ya establece el conjunto de datos local que será
utilizado para crear la tabla de reenvío de paquetes que, a su vez, son utilizadas por el
plano de datos para reenviar tráfico entre puertos de entrada y salida en el dispositivo.
El FIB se programa una vez que el RIB se considera consistente y estable, para mantener
estable la tabla RIB, el plano de control tiene que desarrollar una vista de la topología de
la red. Esta visión de la red puede ser programada manualmente, aprendida a través de la
observación, o construida a partir de la información recopilada a través de otras instancias
de planos de control, que puede ser mediante el uso de uno o varios protocolos de
enrutamiento (por ejemplo, RIP, OSPF, EIGRP, IS-IS, etc.), programación manual o una
combinación de ambos.
procesador y/o tarjeta y el plano de datos en otro procesador y/o tarjeta independiente,
ambos contenidos en un solo chasis.
De acuerdo con NADEAU; GRAY (2013), en la figura 2.5, los paquetes se reciben en
los puertos de entrada del Router A en la tarjeta de línea donde reside el plano de datos.
Si, por ejemplo, se recibe un paquete con destino de una IP nuevo o desconocido para la
tabla FIB, el router redirige la información de este paquete (2) a su plano de control,
donde se aprende, procesa y después se envía hacia su siguiente destino (3). Este mismo
tratamiento se da para controlar el tráfico como mensajes de protocolo de enrutamiento
(por ejemplo, anuncios de estado de enlace OSPF, “Open Shortest Path First).
Una vez que un paquete ha sido entregado al plano de control, la información contenida
en el paquete es procesada y posiblemente resulta en una modificación de la tabla RIB,
así como la transmisión de mensajes adicionales a los demás routers, alertándolos de una
nueva actualización (es decir, una nueva ruta es aprendida). Cuando la tabla RIB se
estabiliza, la tabla FIB se actualiza tanto en el plano de control como en el plano de datos.
Posteriormente, el reenvío se actualizará y reflejará estos cambios para que cuando otro
paquete llegue quiero llegar al mismo destino IP, solo sea procesado en el plano de datos
y reenviar de acuerdo con las entradas de la tabla FIB. Cabe decir que todo cambio en la
tabla RIB, sea manual o automático (mediante protocolos internos), la tabla FIB será
actualizada. El mismo algoritmo para el procesamiento de paquetes sucede en el router
de la derecha.
Según NADEAU; GRAY (2013), debido a las nuevas tendencias de la red, los protocolos
de plano de control que buscan optimizar rutas optimizadas se enfrentan a varios desafíos.
Esto incluye un crecimiento creciente de la base de información utilizada, es decir, el
25
La misma evolución y problemática tienen lugar tanto para las redes de capa 2 como de
capa 3 y en los protocolos que conformaron el plano de control. Un plano de control de
capa 2 se enfoca en direcciones de hardware o de capa física, como direcciones IEEE
MAC. Un plano de control de capa 3 utiliza direcciones de la capa de red como las del
protocolo IP.
Según NADEAU; GRAY (2013), las redes de capa 2 no escalan bien debido al gran
número de host finales derivados del aumento de las tecnologías inalámbricas y la
masificación del internet de las cosas (IOT). Sin embargo, existen estándares de
protocolos de control de capa 2 cuyos objetivos eran mitigar estos inconvenientes, entre
ellos tenemos el protocolo Transparent Interconnection of Lots of Links (TRILL) de la
IETF y el protocolo 802.1aq Shortest Path Bridging (SPB) de la IEEE, pocos usadas en
las redes empresariales debido a su complejidad, no obstante la arquitectura SDN busca
también mitigar estos inconvenientes con las llamadas tablas de flujo, el cual permitirá
un mayor control del QoS de los paquetes.
De acuerdo con NADEAU; GRAY (2013), el plano de datos reenvía las tramas de datos
recibidas en la interfaz física del dispositivo (sea de cable UTP, fibra óptica, medios
inalámbricos, etc.) a través de una serie de operaciones de nivel de la capa de enlace del
modelo OSI. Recogen la trama en su buffer, realizan las modificaciones en la cabecera
para reenviar la trama. La trama de datos se procesa en el plano de datos realizando
búsquedas del destino en la tabla FIB, que son programadas previamente por el plano de
control. Este procedimiento se denomina el reenvió rápido de paquetes porque solo
necesita identificar el destino de la trama usando la tabla FIB previamente configurada.
La única excepción a este procedimiento es cuando la trama no coincide con ninguna
entrada de la tabla FIB (por ejemplo, cuando se tiene un destino desconocido por la tabla
FIB), en estos casos el paquete es enviado al plano de control, donde el paquete es
procesado en la tabla RIB.
utilizan un ancho de banda más alto, ya que estos utilizan tarjetas de línea dedicada al
reenvió de paquetes.
Según KREUTZ (2015), las acciones típicas resultantes de la búsqueda de reenvío en el
plano de datos son las de conmutación del paquete, descarte del paquete, el conteo, etc.
Algunas de estas acciones pueden ser combinadas o encadenadas juntas. En algunos
casos, los paquetes están destinado a un proceso que se ejecuta localmente, como los
protocolos de enrutamiento (OSPF, BGP, etc.), estos paquetes son reenviados
directamente al plano de control.
Además de la decisión de reenvío, el plano de datos puede implementar otros servicios
y/o funciones relacionadas el reenvió de paquetes como las listas de acceso (ACL) o la
calidad de servicio (QoS). Dependiendo del diseño del dispositivo, se pueden
implementar diferentes características dependiendo del fabricante del dispositivo, en
algunos casos puede que algunas funciones sean exclusivas de otros fabricantes.
Según GORANSSON (2016), el procedimiento local utilizada para la búsqueda de
reenvío puede ser alterado, por ejemplo, una política de QoS puede asignar un flujo a una
cola al salir o entrar para normalizar el servicio con las políticas a través de la red. Y, al
igual que una ACL, puede descartar algunos paquetes independientemente de las entradas
en la tabla FIB existentes.
Según la ODCA (2014), el enfoque SDN divide la función del plano de datos y un plano
de control en dispositivos separados (Figura 2.6). El plano de datos es solo responsable
del reenvío de paquetes, mientras que el plano de control proporciona la "inteligencia" en
el diseño de rutas, estableciendo parámetros de prioridad y de direccionamiento para
cumplir con los requisitos de QoS y para hacer frente a los requerimientos de la red. Las
interfaces abiertas se definen de modo que el hardware de conmutación presente una
interfaz uniforme independientemente del proveedor, de igual forma, se definen
interfaces abiertas para permitir que las aplicaciones de red se comuniquen con los
controladores SDN. El controlador centralizado tiene el conocimiento de todos los
componentes de red, teniendo la capacidad de gestionar a los switches mediante mensajes
de software.
Según la ITU-T (2014), la figura 2.9 explica de forma más genérica el enfoque SDN, el
cual está constituido por tres planos: el plano de datos, el plano de control y el plano de
aplicaciones. El plano de datos consiste en switches físicos y/o switches virtuales, en
ambos casos los switches son responsables del reenvío de paquetes. La implementación
interna del switch, como por ejemplo el buffer, parámetros de prioridad y otras estructuras
de datos relacionadas con el reenvío pueden depender del proveedor o fabricante. Sin
embargo, cada switch debe implementar un modelo de abstracción de reenvío de paquetes
que sea común y abierto a los controladores SDN, este modelo se define en términos de
una interfaz de programación de aplicaciones (API) abierta entre el plano de control y el
plano de datos llamado Southbound API, el ejemplo más destacado es el protocolo
OpenFlow. Una API de código abierto o estandarizado puede asegurar la
interoperabilidad del código de la aplicación y la independencia del proveedor o
fabricante de los dispositivos.
STALLINGS (2015) indica que las interfaces Southbound API se utilizan para la
comunicación entre el controlador SDN y los dispositivos de la red (Switch, Router, etc.),
pudiendo ser de código abierto o propietarios.
Según STALLINGS (2015), las Southbound API permite tener el control de los
dispositivos de la red ya que proveen de información al controlador SDN. Las
“Southbound APIs” definen la forma en que el controlador SDN interactúa con el plano
de datos de los dispositivos de la red, ajustando parámetros para responder
dinámicamente de acuerdo con las demandas y/o necesidades de la red en tiempo real. El
protocolo OpenFlow, que fue desarrollado por la Fundación Open Networking (ONF), es
la interfaz Southbound más comúnmente aceptada en la comunidad SDN. Además de
OpenFlow, existen otros protocolos que buscan el mismo fin, como el protocolo
propietario OpFlex desarrollada por Cisco, el protocolo de configuración de red
(NetConf) que utiliza el lenguaje XML para comunicarse con los switches y routers, el
protocolo LISP (RFC 6830) también usado para proporcionar comunicación entre el
controlador y los dispositivos de red.
STALLINGS (2015) indica que las interfaces Northbound API se utilizan para la
comunicación entre el controlador SDN y los servicios/aplicaciones que se ejecutan a
través de la red.
Según STALLINGS (2015), las Northbound APIs deben soportar una amplia gama de
aplicaciones, ya que deben de comunicar eficientemente las necesidades de diferentes
aplicaciones a través de la programación de la red SDN. Es por este motivo que no se
ajusten a todas las aplicaciones y que aún no se tenga un protocolo estandarizado,
actualmente existen varios protocolos para controlar diferentes tipos de aplicaciones a
través de un controlador SDN. Las Northbound también se utilizan para integrar el
controlador SDN con otras plataformas de virtualización, por ejemplo, OpenStack,
vCloudDirector de VMware o CloudStack de código abierto.
Según las especificaciones del protocolo Openflow versión 1.3.5 de la ONF (2015), una
tabla de flujo consiste en varias entradas de flujo, las cuales son las mencionadas en la
tabla 2.1:
Cuando un paquete llega al switch OpenFlow desde un puerto de entrada (o, en algunos
casos, desde el controlador), el paquete es comparado con la tabla de flujo para determinar
si hay una entrada de flujo coincidente.
Según la ONF (2015), los siguientes campos de coincidencia asociados con el paquete
entrante se pueden utilizar para coincidir con la entrada de flujo:
• Puerto de entrada
• VLAN ID
• Prioridad de la VLAN
• Dirección Ethernet de origen.
• Dirección Ethernet de destino.
• Tipo de trama ethernet.
• Dirección IP de origen.
• Dirección IP de destino.
• Tipo de protocolo IP (IPv4 o IPv6)
• IP Type of Service (ToS) bits.
• TCP/UDP puerto de origen.
• TCP/UDP puerto de destino.
hubiera múltiples entradas de flujo coincidentes con la misma prioridad más alta, la
entrada del flujo es categorizada como explícitamente indefinida y no serán tomadas en
cuenta.
Según la ONF (2015), los switches Openflow deben soportar una entrada de flujo llamada
“Tabla-miss”. Esta entrada de flujo especifica cómo procesar paquetes que no coinciden
con otras entradas de flujo en la tabla de flujo, y puede, por ejemplo, enviar paquetes al
controlador o descartar el paquete.
La entrada de flujo “Tabla-miss Flow” se identifica por tener activa todos los campos de
coincidencia y tiene la prioridad más baja (prioridad igual a cero). Esta entrada se
comporta de la misma manera que cualquier otra entrada de flujo, por lo cual, no existe
de manera predeterminada en una tabla de flujo, el controlador puede agregarla o
eliminarla en cualquier momento. Si la entrada de flujo “Tabla-miss” no existe, los
paquetes predeterminados que no coinciden con las entradas de flujo se descartan.
Según la ONF (2015), las entradas de flujo se eliminan de las tablas de flujo de dos
maneras, por órdenes del controlador o a través del mecanismo de expiración de la entrada
de flujo.
• Por mecanismos de expiración:
Según la ONF (2015), el mecanismo de expiración del flujo es controlado por el switch
independientemente del controlador y depende de los tiempos configurados en cada
entrada de flujo. Una entrada de flujo tiene configurado dos mecanismos de expiración,
el idle_timeout y el hard_timeout
El campo hard_timeout define el tiempo que estará instalado una entrada de flujo en el
switch de manera explícita. Si la hard_timeout es distinto de cero, el switch eliminara la
entrada de flujo después que supere el número de segundos configurado en el
hard_timeout aun cuando la entrada de flujo tenga paquetes coincidentes. Si el campo
hard_timeout es cero, no será considerado.
El campo idle_timeout define el tiempo en que el switch eliminara la entrada de flujo si
es que no tiene paquetes coincidentes en el tiempo especificado. Si la idle_timeout es
distinto de cero, la entrada de flujo será eliminada cuando no tenga coincidencia de
paquetes en el número de segundos especificado. Si el campo idle_timeout es cero, no
será considerado.
Una entrada de flujo no será removida si el idle_timeout y el hard_timeout son iguales a
cero.
• Por órdenes del controlador:
Según la ONF (2015), el controlador puede eliminar activamente las entradas de flujo de
las tablas de flujo mediante el envío de mensajes de modificación de la tabla de flujo.
Según las especificaciones del protocolo brindadas por la ONF (2015), un Switch
Openflow se compone de tres características fundamentales (Figura 2.11):
Cabe decir que un Switch Openflow puede ser cualquier dispositivo que pueda ser
controlado a través de controladores SDN. Un switch OpenFlow puede ser OpenFlow-
only o OpenFlow-hybrid. Un switch OpenFlow-Only reenvía paquetes utilizando
solamente las tablas de flujo, en cambio, un switch OpenFlow-hybrid es un dispositivo
que también puede conmutar paquetes utilizando la lógica de un Router o switch
tradicional, usando su propio plano de control. Un switch OpenFlow-hybrid requiere un
mecanismo de clasificación que determine si el paquete será procesado mediante los
mecanismos de OpenFlow o si usara el procesamiento tradicional de paquetes.
Según la ONF (2015), el switch Openflow debe ser capaz de ejecutar las siguientes
opciones fundamentales al paquete de entrada:
Si un paquete no encuentra ninguna coincidencia en las tablas flujo deberá ser enviado al
controlador SDN siguiendo la ruta “C”. El controlador definirá un nuevo flujo para el
paquete y enviará al switch una o más entradas para las tablas de flujo existente utilizando
el mensaje Packet_Out (ruta “Y”). De esta manera, en la siguiente ocasión que el switch
reciba un paquete similar se tendrá una coincidencia con el nuevo flujo y el switch no
tendrá que volver a reenviar el paquete hacia el controlador, sino que serán encaminados
de acuerdo con la entrada de flujo coincidente.
38
Son los mensajes enviados e inicializados por el controlador SDN hacia el switch
Openflow para gestionar y/o conocer el estado del switch. La ONF (2015) nos detalla los
siguientes mensajes:
Son los mensajes enviados e inicializados por el switch Openflow para informar al
controlador SDN sobre eventos en la red y cambios en el estado del switch. La ONF
(2015) nos detalla los siguientes mensajes:
• Packet-in: Este mensaje es usado por el switch para transferir el control del
paquete recibido al controlador SDN, mayormente porque no encuentra un flujo
asociado al paquete, pero también puede ser debido a una acción expresa de un
flujo de entrada. La respuesta del controlador SDN ante este mensaje es un
paquete "Packet-out".
Son los mensajes que pueden ser inicializados por switch Openflow o por el controlador
SDN sin necesidad de autorización previa. La ONF (2015) nos detalla los siguientes
mensajes:
• Echo: Un mensaje "Echo request" puede ser enviado por el controlador SDN o el
switch, dispositivos y el otro extremo de la conexión deberá enviar un "Echo
reply" para validar que el mensaje fue recibido. Se usan comúnmente para validar
la conexión entre ambos dispositivos.
40
• Error: Son mensajes de error notificados por el controlador SDN o por el switch
cuando existen problemas de conexión. Es comúnmente usado por el switch para
notificar un fallo de una petición iniciada por el Controlador.
Según ONF (2015), los mensajes entre el controlador y el switch anteriormente descritos
se envían a través de un canal seguro previamente establecido. El canal seguro es una
conexión TCP en donde se utilizada TLS (Transport Layer Security) para la
comunicación segura. Los mensajes empiezan por el encabezado Openflow, en el
encabezado se especifica el número de versión de Openflow, el tipo de mensaje, la
longitud del mensaje y el ID de del mensaje (figura 2.14).
Durante la etapa de monitoreo, los mensajes ECHO son utilizados tanto por el switch
como por el controlador para comprobar que la sesión entre ambos aún sigue establecida,
además de medir la latencia actual o el ancho de banda de la conexión. Otros mensajes de
estado es el Flow_Removed usado para informar que la tabla de flujo ha sido eliminada
en el switch y el Port_Status para indicar el estado del puerto, sea por un cambio físico
en el propio medio de comunicación o intervención del usuario.
41
Según ONF (2015), el canal seguro se refiere al medio físico por el cual se envía el tráfico
de control, puede estar conformador por una red exclusiva para este fin o usar la misma
infraestructura de la red de tráfico de datos. Ambas formas son las siguientes:
• Out-Of-Band Control.
• In-Band Control.
42
Según ONF (2015), el control en banda, o In-band control, utiliza los mismos enlaces (es
decir, la misma red) tanto para el tráfico de datos como para el tráfico de control. Este
caso generalmente requiere que los conmutadores tengan un conjunto predefinido de
reglas para establecer la conexión con el controlador.
El plano de datos, también llamado como plano de usuario, plano de reenvío, plano
portador o como plano de reenvío (Forwarding Plane). Según la UIT (2014), es la parte
de una red que transporta tráfico de usuarios y está conformado por los dispositivos de
reenvió. La toma de decisiones y el procesamiento de los paquetes se llevan a cabo de
acuerdo con lo establecido por el plano de control SDN.
Un dispositivo de red en una red SDN realiza la función simple de reenvío de acuerdo
con las tablas de flujo establecidas, sin software incorporado para tomar decisiones
autónomas. Otras funciones es la de modificar el encabezado de los paquetes de acuerdo
con las necesidades de reenvió, así como descartar el paquete. Como ya se ha explicado,
el Southbound API que más aceptado es el protocolo Openflow utilizado para la
comunicación entre el plano de control y el plano de datos.
Según la ITU (2014), el plano de aplicación puede dividirse en las siguientes sub-planos:
43
• Soporte de aplicaciones
• Coordinación:
• Abstracción
Según GORANSSON (2016) la arquitectura del controlador está constituida por módulos
y APIs de comunicación (figura 2.16). Los modelos brindan las funcionalidades propias
del controlador, los Northbound API que pueden estar basados en REST, Phyton, Java,
etc., y el protocolo Openflow es el Southbound API más conocido.
2.9.1.1. MÓDULOS
Los módulos del controlador representan sus principales funciones, las cuales son el
descubrimiento y seguimiento de dispositivos y topologías, la gestión de flujos, la gestión
de dispositivos y el seguimiento de estadísticas. Para la realización de sus funciones, los
módulos mantienen una base de datos locales para contener la topología y estadísticas de
la red.
• OpenDaylight (ODL): Fue desarrollada por Cisco e IBM, y está escrito en Java.
OpenDaylight es capaz de desplegarse en una variedad de entornos de red de
producción, puede proporcionar soporte para otros estándares SDN y protocolos
futuros.
bien escrita, también proporciona una interfaz gráfica de usuario basada en la web
(GUI).
Según la ITU (2014), la capa de aplicación es donde las aplicaciones SDN especifican
los servicios de red o aplicaciones empresariales ya que definen el comportamiento de los
recursos de la red de manera dinámica y programable.
Las aplicaciones SDN especifican cómo deben controlarse y asignarse los recursos de
red, interactuando con la capa de control SDN a través de interfaces de control de
aplicaciones. La programación de una aplicación SDN hace uso de la vista abstracta de
los recursos de red proporcionados por la capa de control SDN por medio de información
y modelos de datos expuestos a través de la interfaz de control de aplicación.
Las aplicaciones SDN pueden ser desarrolladas para cumplir cualquier función para la
que se diseñó, utilizando la información obtenida por la capa de control (Controlador
46
Las aplicaciones SDN responden a eventos derivados del controlador SDN o de entradas
externas. Como nos menciona GORANSSON (2016), las aplicaciones responden a los
siguientes eventos:
CAPITULO III
El Campus de la Universidad Nacional Mayor de San Marcos está estructurado por varias
facultades, bibliotecas y dependencias administrativas descentralizadas, siendo la Red
Telemática la dependencia administración que tiene la función principal de la
administración de la red LAN Campus y de los principales servicios de red. La red LAN
de la Red Telemática consta de computadores, tarjetas de interfaz de red, dispositivos
periféricos, dispositivos de red, entre otros, interconectados para brindar servicios a los
usuarios finales.
La red LAN permite el acceso a los servicios internos a múltiples usuarios. Según la Red
Telemática (2017), la Red Telemática utiliza los recursos de la red brindar los siguientes
servicios de red:
• Hosting: La Red Telemática ofrece a las facultades, departamentos y grupos de
Investigación, la posibilidad de alojar sus páginas Web en los servidores de esta
institución. Igualmente se ofrece este servicio de alojamiento a las unidades
administrativas, teniendo en cuenta limitaciones propias de un servicio de
alojamiento compartido.
• Correo institucional: La UNMSM, en colaboración con Google, ofrece una
versión especial de las aplicaciones de Google para la comunidad universitaria.
Entre los servicios que se ofrecen están: Correo electrónico, Calendar y Drive
entre otros.
• Telefonía: La UNMSM dispone de un sistema telefónico basado en IP (VoIP). El
sistema cuenta con una amplia gama de servicios añadidos como buzones de voz,
identificación de llamadas entrantes, llamadas perdidas, gestión de líneas
ocupadas, conferencia múltiple, etc.
• Alojamiento de Servidores: El servicio de alojamiento de servidores consiste en
proveer un espacio físico o virtual en el datacenter de la Red Telemática,
cubriendo de esta manera las necesidades de las facultades y/o dependencias de
la UNMSM.
• Acceso a internet y redes externas: La Red Telemática monitoreará las actividades
de la red, tanto para correo electrónico, internet y uso de red de datos con el fin
de vigilar el cumplimiento de las políticas establecidas para el uso de tecnologías
de información.
La Red Telemática consta de un diseño de red modular, divide la red en áreas y módulos
de red funcionales para mejorar la escalabilidad. Según BRUNO, JORDAN (2017), las
áreas y módulos son:
48
• Routing: BGP, OSPF, RIP v1/v2, Rutas estáticas, ECMP, RPF y enrutamiento
basado en rutas y políticas.
• Multicast: IGMP v1/v2/V3, PIM-SM, PIM-DM, SSM y multicast dentro de
un túnel IPSec.
• Alta disponibilidad: Activo/Activo, Activo/Pasivo, VRRP.
• Gestión de tráfico (QoS): Garantizar ancho de banda, máximo ancho de banda,
políticas de ingreso de tráfico, priorización de utilización de ancho de banda,
marcado DiffServ.
49
Según Big Switch Inc (2011), la configuración de los dispositivos de red presenta los
siguientes inconvenientes cuando se utilizan CLI para su configuración:
1) CLI está destinada principalmente para ser utilizada para configurar dispositivos
de red por personas, CLI no fue diseñada para que capas de software encima de
ella puedan programar la red.
Según Big Switch Inc (2011), existen protocolos, sistemas de administración, etc. que
intentan evitar la fragilidad y la dificultad de la configuración a través de CLI, pero tienen
algunos de los mismos problemas fundamentales que CLI, principalmente en el tercer
punto. Sin embargo, CLI puede usarse para depurar, solucionar problemas o interactuar
en tiempo real con el dispositivo
La red LAN de la red telemática cuenta con dispositivos de red de los fabricantes como
Cisco, Fortinet, Checkpoint, entre otros, y la gestión de estos dispositivos es a nivel local
generalmente mediante CLI. Los distintos fabricantes de dispositivos de red implemente
su propia sintaxis de línea de comandos e incluso cuentan con certificaciones de
especialización para la administración de sus dispositivos, incrementando la dificultad de
la integración y gestión de la red.
En la tabla 3.1, se observa las diferencias de las sintaxis de algunos de los principales
fabricantes de dispositivos de red.
52
Los diferentes tipos de sintaxis y opciones que ofrecen el CLI de cada fabricante complica
la gestión de la red. Las fabricantes de los dispositivos de red incluyen cursos de
capacitación y entrenamiento para la correcta operación de sus dispositivos. Las
certificaciones propietarias ofrecidas se encuentran en la tabla 3.2, generan una inversión
de gasto operacional (Opex) y exigen personal altamente capacitado experto en
configuración de los dispositivos de red.
Según MAREK (2016), cuando la compañía de telecomunicaciones AT&T despliegue
su red SDN a un 75%, los gastos operacionales de su red se reducida hasta un 40 por
ciento o 50 por ciento. Ese ahorro de costos ocurrirá porque muchas de las operaciones
manuales serán reemplazadas por scripts y procedimientos automatizados.
53
Fabricante
Nivel de
CISCO JUNIPER NOKIA HUAWEI
certificación
Sin embargo, SNMP tiene limitación en la cantidad de tipos de datos que puede manejar,
funcionalidad reducida y no facilita el diseño de MIBs propios, por lo cual están bajo el
control de los distintos dispositivos de red y fabricantes.
3.4.1. AT&T
3.4.2. GOOGLE
La empresa de servicios Google Inc. implemento una red WAN SDN para proporcionar
escalabilidad (múltiples terabits de ancho de banda) y tolerancia a fallas. Los dispositivos
de red se conectan entre sí a múltiples controladores OpenFlow. Los dispositivos de red
fueron fabricados por la misma compañía
Según Big Switch (2012), los múltiples controladores Openflow minimizan los puntos
de falla. El controlador Openflow recopila los datos de topología, métricas utilizadas en
tiempo real de la red y la demanda del ancho de banda de las aplicaciones y servicios.
Con esta información, la aplicación SDN calculan las asignaciones de ruta para los flujos
de tráfico y luego programa las rutas en los switches utilizando OpenFlow. En el caso de
cambios de demanda de ancho de banda o eventos de red, la aplicación SDN vuelve a
calcular las asignaciones de ruta y reprograma los switches.
57
Las motivaciones de Google para implementar SDN fueron que el rápido crecimiento del
ancho de banda de Internet llevó a la empresa a pensar que no podrían mantenerse sus
niveles de escalabilidad, tolerancia a fallos, control y costes con tecnologías de WAN
tradicionales.
Según Big Switch (2012), Google observo una convergencia más rápida con su red y una
mayor confiabilidad, concluyendo que la convergencia calculada centralmente por SDN
era buena y precisa. Estas características permitieron que la red de Google funcione con
una ratio de utilización cercana al 100% y de media un 70% en largos períodos de tiempo,
ratio que se corresponde con un incremento de la eficiencia de dos a tres veces,
comparándola con las tecnologías de gestión estándares.
Sin embargo, la red Google presento inconvenientes. Por ejemplo, presento "bottlenecks"
o cuellos de botella, especialmente al enviar paquetes del plano de control al plano de
datos. Los cuellos de botella experimentados estuvieron ligados al rendimiento o
capacidad del controlador para manejar todos los paquetes del plano de control en un
mismo instante de tiempo.
Del caso de Google se pueden extrapolar ideas a un gran número de implementaciones
de SDN en la vida real. A pesar de las particularidades de su red interna hay una serie de
prácticas a considerar. Una de ellas es la aproximación híbrida, que consiste en que la red
soporte los protocolos tradicionales a la vez que Openflow, de forma que la transición no
es traumática y elimina suspicacias a la hora de adoptar SDN.
58
CAPITULO IV
Para la presente simulación se utilizó una laptop con las siguientes características:
Memoria de Sistema
Máquina Virtual CPU Memoria RAM Versión
almacenamiento Operativo
Linux Ubuntu V2.2.2 con
Mininet 2 cores 4 MB 40 GB
14.06 Openflow 1.3
Linux Ubuntu
Opendaylight 2 cores 8 MB 40 GB Nitrogen SR1
14.06
El esquema general del entorno de simulación se muestra en la figura 4.1. Las máquinas
virtuales de Mininet y Opendaylight se ejecutaron en instancias distintas. Se utilizo el
software GNS3 para proveer conectividad entre ambas máquinas virtuales dentro de una
misma área de red local. Los procesos que se ejecutaran en los planos de datos, control y
aplicación de la red SDN son los siguientes:
• Plano de datos:
GNS3
4.2.1. MININET
Mininet es un sistema que permite la creación de redes virtuales, virtualizando los kernel,
switch y códigos de aplicación, en una sola computadora a través de máquinas virtuales,
virtualización en la nube o de forma nativa. Mininet crea redes definidas por software
utilizando mecanismos de virtualización livianos, estas características permiten a Mininet
crear, interactuar, personalizar y compartir rápidamente los prototipos de red
implementados.
Mininet puede crear dispositivos de red que permiten la integración con la arquitectura
SDN. Estos dispositivos de red incluyen hosts, switches, controladores y enlaces. Un host
en Mininet es un proceso simple con su propio entorno de red ejecutándose en el sistema
operativo. Cada uno proporciona procesos con interfaz de red virtual de propiedad
independiente para cada dispositivo de red, incluyendo puertos, direcciones y tablas de
enrutamiento (como ARP e IP). Los switches Openflow creados por Mininet
proporcionan la misma semántica de entrega de paquetes que proporcionaría un switch
real. En la simulación de Mininet, los controladores se pueden ejecutar en la red real o
simulada siempre que la máquina en la que se ejecutan los switch tenga conectividad con
el controlador.
CONTROLADORES
CASOS DE USO Trema Nox/Pox RYU Floodlight Opendaylight ONOS
Virtualización de la red con Virtual Overlays. SI SI SI PARCIAL SI NO
Virtualización de red Hop-by-Hop. NO NO NO SI SI YES
Soporta OpenStack Neutron. NO NO SI SI SI NO
Interoperabilidad con redes tradicionales. NO NO NO NO SI PARCIAL
L4-L7 Servicios de inserción y servicios de chaining. NO NO PARCIAL NO SI PARCIAL
Monitoreo de la red. PARCIAL PARCIAL SI SI SI YES
Políticas de acción. NO NO NO PARCIAL SI PARCIAL
Balanceo de cargas. NO NO NO NO SI NO
Ingeniería de trafico. PARCIAL PARCIAL PARCIAL PARCIAL SI PARCIAL
TAPS dinámicos. NO NO SI SI SI NO
Optimización de red Multi-Layer. NO NO NO NO PARCIAL PARCIAL
Red de campus. PARCIAL PARCIAL PARCIAL PARCIAL PARCIAL NO
Enrutamiento. SI SI SI SI SI SI
Como se puede observar en la tabla 4.2, Opendaylight nos ofrece más características de
usos que los otros controladores de software libre, además de tener soporte y una gran
comunidad de desarrollo. Esto permite que Opendaylight sea de inmensa popularidad en
la comunidad de software libre para realizar test en ambientes de simulación.
Por estos motivos se utilizó el controlador Opendaylight para la simulación de la red SDN,
se utilizó el reléase Nitrogen SR1 de Opendaylight en una máquina virtual utilizando el
software de virtualización llamado Virtual Box.
62
4.2.3. GNS3
GNS3 es un software libre de simulación gráfico de red que permite diseñar topologías
de red complejas, así como permitir utilizar maquina virtuales a través que Qemu y
VirtualBox.
Según GNS3 (2017), el software permite crear, diseñar y testear una red en un entorno
virtual libre de riesgos además de tener una gran comunidad de ayuda y soporte. GNS3
también brinda lo siguiente.
Se utiliza GNS3 2.1 en la presente simulación para crear un ambiente de prueba e incluir
las maquinas creadas en VirtualBox en una misma red, además de permitir unir nuestra
red SDN con dispositivos de red tradicional de manera virtualizada.
BUM es el acrónimo de Broadcast, Unknown, Multicast, los cuales son los tipos de tráfico
que se manifiestan en la capa 2. En una red tradicional LAN como la Red Telemática, el
BUM es generado por diferentes tipos de servicios, por ejemplo, de los protocolos DHCP,
ARP, VoIP, etc.
En la red LAN de la Red Telemática, cuando los dispositivos de capa 2 (switch)
tradicionales reciben un paquete, se crea una asignación en la tabla TCAM registrando la
dirección MAC de origen y el puerto por el cual ingreso del paquete. Si un switch recibe
un paquete destinado a una dirección MAC que no existe en su tabla de direcciones
TCAM, o es un paquete broadcast (por ejemplo, paquetes con destinado a FF; FF: FF:
FF: FF: FF), el switch de capa 2 enviara el paquete por todos sus puertos, excepto el
puerto que recibió el paquete broadcast, inundando de esta manera segmentos de red con
tráfico innecesario.
En la red SDN propuesta, el controlador SDN conocerá toda la red y los hosts. Por lo
cual, el switch Openflow enviará los paquetes broadcast, multicast y unicast que no
tengan coincidencia en las tablas de flujo al controlador, y será el controlador SDN quien
de la información necesario para tratar al paquete.
Un controlador SDN, con el módulo L2-SWITCH de Opendaylight, ira construyendo las
tablas de flujo de los switch de tal forma que se reduzca el número de solicitudes desde
el switch al controlador SDN y pueda reducir el tráfico BUM innecesario.
63
En la red SDN, la red interna no utiliza los protocolos de enrutamiento IGP, sin embargo,
es posible la integración de la red interna con redes de proveedores de servicio a través
del controlador. BGP Path Computation Element Protocol (PCEP) es un protocolo
southbound utilizado entre el controlador SDN y los router de la red exterior para
intercambiar las tablas de enrutamiento y reenvío (en un nivel superior). Las extensiones
del protocolo BGP soportados por Opendaylight son los siguientes:
• BGP PCEP es una extensión de BGP que tiene soporte en routers específicos.
• BGP Linkstate (LS) es otra extensión de BGP que permite a BGP distribuir la
información del estado del enlace de los protocolos de enrutamiento.
BGP-PCEP tiene muchos casos de uso para proveedores de servicios, ya que permite a
las redes de los proveedores de servicios ser influenciados por controladores SDN.
4.5.1. DLUXAPPS
4.5.2. L2 SWITCH
• Topology Link Data Change Handler: Proporciona una ruta óptima entre los
hosts. utilizando el algoritmo Dijkstra, similar a los algoritmos de enrutamiento
IS-IS o OSFP. Path Communication Service aprovecha y modifica los datos de
topología, también puede funcionar con múltiples topologías.
• Flow Writer Service: Se encarga de programar en todos los swtich intermedios
con los flujos adecuados una vez que se ha calculado una ruta óptima entre dos
hosts. Realiza un seguimiento del mapeo, desde metaflujo a flujos individuales,
de manera que los flujos apropiados se pueden reprogramar cuando un puerto se
cae o un switch completo se apaga.
• STP Service: Permite el uso del protocolo Spanning Tree para que el
controlador ODL participar en el STP de la red. Se utiliza cuando SDN se
implementa en conjunto con otra red tradicional y se necesita que los switch
Openflow participen dentro del protocolo de STP de los switch tradicionales.
SDN. Cuando uno de los switch del dominio SDN recibe un paquete que no tiene
ninguna entrada que coincida en sus tables de flujos previamente instalados (origen,
destino MAC e IP, etc.), el switch encapsula todo el paquete en un mensaje OpenFlow
PACKET_IN y lo envía al controlador Opendaylight. Este paquete se desencapsula en
el controlador y se envía al módulo de L2 Switch para que encuentre a donde debe
reenviar el paquete y pueda actualizar las tablas de flujo del switch.
El módulo L2 Switch aprende las direcciones MAC de los hosts utilizando los mensajes
PACKET_IN del Openflow que recibe de los switches en el dominio SDN, de manera
similar a un switch tradicional. Según la documentación de OPENDAYLIGHT (2017),
el módulo L2 Switch realiza las siguientes acciones:
paquetes LACP recibidos a través de enlaces internos (dentro de la red SDN). El módulo
LACP utiliza el servicio SAL-FLOW para crear LAG dentro del switch siguiendo el
diagrama de la figura 4.6.
OPERACIÓN DESCRIPCIÓN
get Provee la actual configuración e información del dispositivo.
Según OPENDAYLIGHT (2017), VTN permite crear instancias virtuales donde cada
instancia puede tener su propia estructura, tales como router virtuales, switch virtual,
70
etc. La aplicación principal para VTN son las plataformas privadas de orquestación de
nubes, como OpenStack o VMware vSphere.
VTN proporciona una abstracción lógica completa para el usuario. Cuando se crean
múltiples redes y enrutadores virtuales en una instancia, VTN se ocupa de todas las
comunicaciones subyacentes. Además, admite la separación completamente el plano
lógico de los planos físicos y de datos, permitiendo crear un diseño e implementar
cualquier red deseada sin tener en cuenta la topología de la red física o las restricciones
de ancho de banda.
Se utilizó el software GNS3 para simular una red externa y proveer conectividad entre el
controlador Opendaylight, la máquina virtual Mininet y otra red externa detrás de un
dispositivo Router tradicional. Se utilizaron las siguientes direcciones IP (ver Tabla 4.5):
VM IP MASCARA GATEWAY
OPENDAYLIGHT 192.168.122.11 255.255.255.0
MININET 192.168.122.20 255.255.255.0
ROUTER 192.168.122.250 255.255.255.0
HOST DE LA RED EXTERNA 190.50.20.2 255.255.255.0 190.50.20.1
controlador SDN se comunicará a través del protocolo BGP con el Router tradicional SO
VyOS para intercambiar información con redes externas tradicionales.
• Compus Core
• Switches de distribución y agregación
• Acceso
• Grande de servidores/Data Center
La capa de Campus Core proporcionara una red conmutada de alta velocidad entre los
accesos a los servidores y redes externas, los dispositivos deberán brindar conectividad
redundante y de convergencia rápida. La capa de distribución del campus universitario
agrega todos los switches de acceso, en esta capa se puede implementar QoS, redundancia
y balanceo de carga. Los switches de acceso del campus universitario proporcionan
acceso a los usuarios finales.
La topología mostrada en la figura 4.9 será simulada con switches Openvswitch versión
2.1 dentro de Mininet a través de un script en lenguaje de programación escrito en Python.
72
La topología contiene hosts conectados a cada switch de acceso para realizar pruebas de
conectividad y conexiones a los distintos hosts de la red.
CAPITULO V
Admite alta redundancia por varios Admite redundancia dual o standy a través de
controladores en un clúster protocolos como VRRP o propietarios.
Se comunica con los dispositivos SDN a Se comunica con otros routers e switches a
través de protocolos southbound como través de protocolos estándar como BGP,
Openflow, NETCONF y BGP PCEP. Y OSPF o API, o propietarios limitando la
se comunica con switches router y compatibilidad.
dispositivos tradicionales fuera de SDN
a través de protocolos northbound como
BGP, OSPF y API directas.
Tabla 5.1: Tabla comparativa entre un controlador SDN y un dispositivo de red
tradicional.
Fuente: Elaboración propia.
Mininet ofrece la posibilidad de manipular los hosts para realizar pruebas dentro de la red
SDN simulada, permite ejecutar comandos tales como pin, pingall, iperf, entre otros, para
realizar pruebas y analizar el comportamiento de la comunicación entre los distintos
terminales y la ruta que siguen.
• Ping: Permite emitir paquetes ICMP entre el origen y destino con el fin de
comprobar la conexión correcta de la red y comprobar la correcta conmutación de
tramas de los dispositivos y del módulo L2-Switch del controlador.
• Ping all: Esta prueba permite realizar ping desde un terminal hacia todos los de
la red, de esta forma se identifica a conexión total en la red y su visualización de
todos los terminales.
y servidor, puede crear flujos de datos para medir el rendimiento entre los dos
extremos en una o ambas direcciones.
Para el análisis de la topología SDN se tomaron los tiempos de respuesta de cada host
hacia los host servidores. En esta prueba, las IPs y MACs de los hosts fueron los
presentados en la tabla 5.2.
NOMBRE DEL
IP/MASK MAC
HOST (NODO)
h1 10.0.0.1/8 00:00:00:00:00:01
h2 10.0.0.2/8 00:00:00:00:00:02
h3 10.0.0.3/8 00:00:00:00:00:03
h4 10.0.0.4/8 00:00:00:00:00:04
h5 10.0.0.5/8 00:00:00:00:00:05
h6 10.0.0.6/8 00:00:00:00:00:06
h7 10.0.0.7/8 00:00:00:00:00:07
h8 10.0.0.8/8 00:00:00:00:00:08
h9 10.0.0.9/8 00:00:00:00:00:09
h10 (Sede Central) 10.0.0.10/8 00:00:00:00:00:0A
h11 (Servidor) 10.0.0.11/8 00:00:00:00:00:0B
h12 (Servidor) 10.0.0.12/8 00:00:00:00:00:0C
h13 (Servidor) 10.0.0.13/8 00:00:00:00:00:0D
Figura 5.4: Pruebas de ICMP de los hosts 1,2,3 y 4 hacia los servidores.
Fuente: Elaboración propia.
Según lo observado en las tablas 5.3; 5.4 y 5.5, el primer paquete enviado tiene un tiempo
de respuesta más elevado comparado con los subsiguientes paquetes enviados (mayor a
1ms) en todos los casos. El primer paquete enviado tiene un tiempo de respuesta mayor a
1ms porque el Switch Openflow aún no tiene las tablas de flujos necesarias para conmutar
el paquete.
El primer paquete enviado por el host es un mensaje ARP que es encapsulado por el
switch de acceso y enviado al controlador Openflow a través de un mensaje “Packet_in”.
El paquete ARP solo se propaga hasta el switch de acceso.
Con la información de la trama completa, el host origen envía los paquetes ICMP con las
direcciones de capa 3 y capa 2 del destino. El switch Openflow encapsulara nuevamente
este paquete para enviarlo al controlador Openflow a través del mensaje “Packet_In”. El
controlador Opendaylight recibe el paquete y realiza la búsqueda en la base de datos
“Address_Tracker” (figura 5.4) del módulo L2-Switch para ubicar al host destino dentro
de la topología. Una vez que el switch Openflow recibe el mensaje “Packet_Out”,
desencapsula el paquete original y lo procesa, renviándolo hacia el destino. De este modo,
las tablas de flujo quedan instalas en el switch Openflow y los siguientes paquetes ICMP
enviados tienen un tiempo de respuesta menor a un 1ms.
El módulo L2-Switch actualizara las tablas de flujos de acuerdo los eventos de la red, por
ejemplo, ante la caída de un enlace o de un puerto o la inclusión de un nuevo host en la
80
red. Ver el Anexo 2 para ver las tablas de flujo del Switch 22 en el controlador
Opendaylight.
En esta prueba se realizó el cambio de las direcciones IP del host “h1” y del host red
telemática “h12” a la subred 192.168.1.0/24 con las direcciones IP de la tabla 5.6, y se
realizaron las pruebas de conectividad con el host4 de la subred 10.0.0.0/8 mediante el
comando ping.
El módulo L2-Switch instalo las entradas de flujos necesarios para la comunicación entre
los hosts y se comprobó que la conectividad es posible (ver figura 5.7) y sin perdidas de
paquetes.
Se realizaron pruebas de tráfico TCP y UDP entre un host y el servidor para medir el
rendimiento en términos de ancho de banda y jitter. Se utilizó la herramienta IPERF,
utilizada ampliamente para medir y ajustar el rendimiento de una red, puede crear flujos
de datos para medir el rendimiento entre un host y un servidor en forma unidireccional o
bidireccional. Los resultados típicamente contienen el ancho de banda utilizado, la
transferencia de datos, el tiempo utilizado, el jitter, entre otros valores dependiendo de la
prueba ejecutada.
Se realizaron las pruebas IPERF utilizando el protocolo TCP de capa 4 del modelo OSI,
con un tamaño de ventana de 85.3 Kbyte. Se configuro el host “h12” como servidor
utilizando el puerto TCP8080, y el host “h1” y “h10” como clientes para enviar datos al
puerto TCP8080 por 20 segundos. Los resultados fueron los mostrados en las figuras 5.8
y 5.9.
Figura 5.8: Pruebas IPERF TCP host cliente “h1” host red telemática “h12”.
Fuente: Elaboración propia.
Figura 5.9: Pruebas IPERF TCP host cliente “h1” host red telemática “h12”.
Fuente: Elaboración propia.
83
Se graficaron los resultados utilizando Gnuplot, los resultados fueron los siguientes:
De las figuras 5.10 y 5.11 se pueden observar que, entre los hosts “h1” y “h10” (red
campus) y el servidor “h12” (Red Telemática), se tienen un BW promedio entre 160 Mbps
y 200 Mbps, por lo cual se puede manifestar que la red SDN simulada puede manejar
tráfico TCP a un BW de 160 Mbps aproximadamente como mínimo. El protocolo de
transmisión TCP es usado por varios servicios de red básicos, tales como, web, correo,
ftp, etc.
Se realizaron las pruebas IPERF utilizando el protocolo UDP de capa 4 del modelo OSI,
con un tamaño de buffer de 208 KBytes. Se configuro el host “h12” como servidor
utilizando el puerto UDP8081, y el host “h1” y “h10” como clientes para enviar datos al
puerto UDP8081 por 20 segundos.
Figura 5.12: Pruebas IPERF UDP host cliente “h1” host “h12”.
Fuente: Elaboración propia.
Figura 5.13: Pruebas IPERF UDP host cliente “h1” host “h12”.
Fuente: Elaboración propia.
85
Los resultados de la simulación, utilizando Gnuplot, son los que se muestran en las
Figuras 5.14 y 5.15.
Figura 5.14: Pruebas IPERF UDP host cliente “h1” host “h12”.
Fuente: Elaboración propia.
Figura 5.15: Pruebas IPERF UDP host cliente “h10” host “h12”.
Fuente: Elaboración propia.
86
En estas figuras 5.14 y 5.15 se puede observar que, entre los hosts “h1” y “h10” (red
campus) y el servidor “h12” (Red Telemática), se tienen un BW promedio entre 160 Mbps
y 200 Mbps, por lo cual se puede manifestar que la red SDN simulada puede manejar
tráfico UDP con un jitter menor a 0.065 msec. El protocolo de transmisión UDP es usado
para las transmisiones de voz sobre IP (VoIP), entre otros.
De acuerdo con la figura 5.17, la conexión HTTP sobre la red SDN se realizó sin
inconvenientes.
El protocolo BGP intercambia prefijos de red (rutas) entre pares BGP. Opendaylight
almacena la información de los prefijos de red en la “Routing Information Base” (RIB) y
la visualización general de la topología de la red. Según las políticas configuradas,
selecciona las rutas potenciales dentro de la RIB.
Para las pruebas, se simulo un Router tradicional con el sistema operativo VyOS v1.1.8.
Según VYOS (2018), VyOS es un sistema operativo de red de código abierto, basado en
GNU / Linux siendo muy similar a los Reuters tradicionales de hardware, focalizado en
un buen soporte para características avanzadas de enrutamiento como protocolos de
enrutamiento dinámico e interfaz de línea de comandos (CLI).
88
Peer BGP
AS 65100
RED: 190.50.20.0/24
192.168.122.11/24
192.168.122.250/24
OPEN
190.50.20.1/24 OPEN Controlador
UPDATE OPENDAYLIGHT
UPDATE IP:192.168.122.11/
24
KEEPALIVE
KEEPALIVE
RED TRADICIONAL RED TELEMÁTICA
Host EXTERNA SDN
Se comprobó que el Router VyOS estableció una correcta sesión BGP, el Router VyOS
envió los prefijos de red 192.168.50.20/24 y recibió el prefijo de red 10.0.0.11/32 del
controlador Opendaylight a través de mensajes Update (ver figura 5.22).
Figura 5.23: Simulación de la red telemática con una arquitectura de red tradicional.
Fuente: Elaboración propia.
Luego de las configuraciones se verifico la conectividad entre los hosts con éxito, así
como la administración de cada dispositivo de red
Según la tabla 5.8, debido a que el plano de control de los dispositivos se encuentra
unificado, los tiempos de implementación de un dispositivo SDN es menor que el tiempo
de implementación de un dispositivo de red tradicional. La reducción del tiempo mejora
la gestión de la red automatizando las tareas de implementación de nuevos dispositivos a
la red.
CAPITULO VI
Un switch OpenFlow puede ser software o dispositivo de hardware que reenvía paquetes
en un entorno de redes definidas por software (SDN). Los switches OpenFlow están
basados en el protocolo OpenFlow o son compatibles con OpenFlow.
No se requieren switch SDN especiales para implementar redes definidas por software,
se recomienda usar switches híbridos. Esto significa que la nueva red debe diseñarse para
admitir protocolos SDN en entornos de swithces físicos y virtuales, y ser compatible con
las redes tradicionales.
Una red híbrida ofrece la ventaja de una migración gradual desde su arquitectura de red
actual hacia una red defina por software pura. La red hibrida ofrece la capacidad de
aprovechar la red telemática existente de Layer 2 y Layer 3 sin tener que reemplazar la
red. La red hibrida busca obtener los beneficios de SDN, que incluyen mejor
aprovisionamiento, flexibilidad de red, calidad de servicio (QoS) y programabilidad
durante la migración de SDN.
La mayoría de los proveedores de SDN tienen arquitecturas y productos que admiten una
migración gradual de las redes tradicionales a SDN, que incluyen Cisco, HP, IBM,
Juniper, Brocade, Avaya, VMware, Big Switch, ADARA Networks, Embrane, Pertino,
Pluribus Networks, Vello Systems, entre otros.
Según la ONF (2018), los dispositivos aprobados para operar en una red SDN son los
siguientes:
Fecha de aprobación Nombre del Fabricante Nombre del Producto Versión del firmware
AT-XS900MX
2018-05 Allied Telesis, Inc. 10 Gigabit Layer 3 AlliedWare Plus v5
stackable switches
V6848XG
DASAN Network
2018-04 48 ports 10GL3 2.14 0050
Solutions Inc.
Switch
K2632SI
n2os-0.03.02-onie-
2018-04 KTNF Inc. System with 36 ports installer-fm10k-
10GbE Switch and 20180315
Intel Xeon Server
95
AT-x310
2018-03 Allied Telesis, Inc. Layer 3 stackable AlliedWare Plus v5
Access Switches with
1G Uplinks
AT-x230
2018-03 Allied Telesis, Inc. Layer 3 Gigabit Edge AlliedWare Plus v5
switches with 1G SFP
uplinks
AT-SBx908 GEN2
High Capacity
2018-03 Allied Telesis, Inc. Stackable Layer3+ AlliedWare Plus v5
Modular Switch with
10G/40G/100G XEMs
AT-x550
2018-02 Allied Telesis, Inc. 10 Gigabit Layer 3 AlliedWare Plus v5
Stackable Switches
with 40G Uplinks
AT-x510
2018-01 Allied Telesis, Inc. Gigabit Layer 3 AlliedWare Plus v5
Stackable Switches
with 1/10G Uplinks
NetVOF-48X
(cl.ver1)2.5.0-199c587-
2018-01 Netvision Telecom Inc. OpenFlow Switch of 201501081931-build
Netvision Telecom
AT-x930
Advanced Gigabit
2017-12 Allied Telesis, Inc. Layer 3 Stackable AlliedWare Plus v5
Switches with 10G
and 40G Uplinks
RG-N18012
Ruijie Newton 18000
Switch Series leads
Ruijie Networks Co., the industry in
2017-12 supporting cloud RGOS 11.0
Ltd
data center with a
broad spectrum of
specialized campus
network features.
RG-S8612E
Ruijie RG-S8600E
Switch Series is
industry leads the
Ruijie Networks Co., industry in
2017-12 RGOS 11.0
Ltd supporting cloud
data center with a
broad spectrum of
specialized campus
network features.
96
L3 Ethernet Switch
with 48
Technologies Co., Ltd. 10/100/1000BASE-T,
4 SFP Plus Ports and
1 sub-slot
Hangzhou H3C S9810
2016-12 DataCenter Cloud CMW710
Technologies Co., Ltd.
High Density Switch
Hangzhou H3C S12508X-AF
2016-12 DataCenter Cloud CMW710
Technologies Co., Ltd.
High Density Switch
Hangzhou H3C SR8808-X
2016-12 H3C SR8808-X Core CMW710
Technologies Co., Ltd.
Router
RG-S2910-24GT4SFP-
UP-H, RG-S2910-
24GT4XS-E, RG-
Ruijie Networks S2910-48GT4XS-E,
RG-S2910C-24GT2XS-
HP-E, RG-S2910C-
48GT2XS-HP-E
Ruijie RG-S2910
2016-12 RGOS 11.4
Switch Series is a
collection of next-
gen Gigabit switches
Co., Ltd. architected for
superior security,
high performance
and outstanding
energy efficiency.
RG-S5750C-28GT4XS-
H, RG-S5750C-
Ruijie Networks
28SFP4XS-H, RG-
S5750C-48GT4XS-H
Ruijie RG-S5750-H
Switch Series is a
2016-12 RGOS 11.4
collection of next-
gen multiservice
Co., Ltd.
switches, offering
remarkable
performance and
enhanced security.
Hangzhou H3C S10508
2016-06 H3C S10508 Core CMW710
Technologies Co., Ltd.
Switch
Hangzhou H3C S10508
2016-06 H3C S7560E Core CMW710
Technologies Co., Ltd.
Switch
98
RG-S6220-48XS6QXS-
Ruijie Networks
H
The RG-S6220 series
is a collection of
2016-05 10GE data center RGOS 11.0
Co., Ltd. switches, offering
non-blocking, unified
and virtualized
switch performance
Hangzhou H3C H3C MSR 56-60
Open Multi-Series
2016-05 Router with dual 7.1
Technologies Co., Ltd.
boards and 6 HMIM
Slots
Ruijie Networks RG-N18010
Ruijie Newton RG-
N18010 Switch is
industry leading in
2016-02 supporting cloud RGOS 11.3
Co., Ltd.
data center with a
broad spectrum of
specialized campus
network features.
Hangzhou H3C H3C S6800-2C
2016-02 L3 Ethernet Switch 142
Technologies Co., Ltd. with 2 QSFP Plus
Ports and 2 Slots
Hangzhou H3C H3C S6800-32Q
2016-02 L3 Ethernet Switch 142
Technologies Co., Ltd. with 32 QSFP Plus
Ports
Hangzhou H3C H3C S6800-4C
2016-02 L3 Ethernet Switch 142
Technologies Co., Ltd.
with 4 Slots
Hangzhou H3C H3C S6800-54QT
L3 Ethernet Switch
2016-02 with 48 10GBASE-T 142
Technologies Co., Ltd.
Ports and 6 QSFP
Plus Ports
Huawei S5720-52X-SI-AC
L3 Ethernet Core
2015-12 Switch with 48 V2R8C06
Technologies Co., Ltd.
10/100/1000BASE-T,
4 10GE SFP+
Huawei S7706
2015-12 L3 Ethernet Switch V2R8C06
Technologies Co., Ltd.
with 48
99
10/100/1000BASE-T
card
Huawei S9306
L3 Ethernet Switch
2015-12 with 48 V2R8C06
Technologies Co., Ltd.
10/100/1000BASE-T
card
Huawei S6720-54C-EI-48S
L3 Ethernet Switch
2015-11 with 48 x GE SFP/10 V2R8C06
Technologies Co., Ltd.
GE SFP+2 QSFP+ 4
x40GE QSFP+
Huawei S6720-54C-EI-48S
L3 Ethernet Switch
2015-11 with 28 V2R8C06
Technologies Co., Ltd. 10/100/1000BASE-T,
4 Combo SFP Ports
and 4 10GE SFP+
Huawei S12708
L3 Ethernet Core
2015-11 Switch with 48 V2R8C06
Technologies Co., Ltd.
10/100/1000BASE-T
card
Digital China DCRS-7604
2015-09 OpenFlow/L3 7.4.3.0(R0001.0081)
Networks, Ltd.
Ethernet Switch
Hangzhou H3C S5130-54QF-HI
L3 Ethernet Switch
2015-09 with 48 ESS 1100
Technologies Co., Ltd. 10/100/1000Base-
T,4 SFP Plus Ports
and 1 sub-slot
Hangzhou H3C H3C S6800-54QF
L3 Ethernet Switch
2015-09 with 48 SFP Plus 142
Technologies Co., Ltd.
Ports and 6 QSFP
Plus Ports
Huawei CE6851-48S6Q-HI
2015-09 Highly versatile, SDN- V100R006
Technologies Co., Ltd. ready Ethernet
switches
ZXR10 M6000-S CTN9000-E
2015-09 ZTE Corporation
SDN Switch V3.00.10(2.20.1)
Para el presente presupuesto se utilizó como base los equipos del proveedor HP por sus
características técnicas y brindar la posibilidad de utilizar aplicaciones de tercer. Según
HP COMPANY (2018), la tienda de aplicaciones HP SDN ofrece a los proveedores de
software independientes una manera fácil de llevar soluciones creativas al mercado,
permitiendo a los administradores de TI resolver sus desafíos de red únicos a través de
estas aplicaciones.
El estándar OpenFlow v1.3 incluye especificaciones para las interacciones híbridas entre
el tráfico OpenFlow y el tráfico que no es de OpenFlow, para permitir una migración
temprana de SDN. OpenFlow v.1.3 especifica dos tipos de switches compatibles con
OpenFlow: OpenFlow puro e híbrido. Los switches híbridos OpenFlow admiten
OpenFlow y la tecnología de conmutación de una red tradicional. El proveedor HP utiliza
hardware de red que soporta la posibilidad de ejecutarlos en modo híbrido.
6.2.1. CONTROLADOR
El HP Open SDN Ecosystem incluye un HP SDN Developer Kit y un HP SDN App Store
con HP y aplicaciones y servicios SDN desarrollados por terceros para proporcionar
soluciones SDN listas para la empresa para el centro de datos, el campus y la sucursal.
Según HP COMPANY (2018), Virtual Application Networks (VAN) SDN Controller de
HP proporciona un punto de control unificado en una red compatible con SDN, lo que
simplifica la administración, el aprovisionamiento y la orquestación. Esto permite la
entrega de una nueva generación de servicios de red basados en aplicaciones y
proporciona interfaces de programación de aplicaciones abiertas (API) que permiten a los
desarrolladores crear soluciones innovadoras para vincular dinámicamente los requisitos
del negocio con la infraestructura de red a través de programas Java personalizados o
interfaces de control RESTful de propósito general.
El controlador HP VAN SDN está diseñado para funcionar en entornos de campus, centro
de datos o proveedor de servicios y brinda las siguientes características principales:
• Procesamiento de flujo proactivo
• Procesamiento de flujo reactivo
• Interfaz gráfica de usuario (GUI)
• API hacia el norte
• API nativas
• Arquitectura escalable
• Alta disponibilidad
• Seguridad del controlador
• Módulo de servicio de enlace
• Módulo de servicio de topología
• Módulo de servicio del administrador de nodo
• Interfaz de control de OpenFlow
101
Los equipos terminales tales como los computadores, impresoras, laptops, teléfonos
móviles, entre otros; no necesitan características adicionales para integrarse a la red SDN.
CONTROLADOR HP VAN Open SDN Aruba VAN SDN Ctrl HA E-LTU $9,990.00 2 $19,980.00
TOTAL $309,670.00
Precio por
Total
DISPOSITIVO FABRICANTE MODELO Unidad Cantidad
(USD)
(USD)
ACCESO Hewlett-Packard (HP) HP 2920-24G $2,719.00 4 $10,876.00
DISTRIBUCIÓN Hewlett-Packard (HP) HP 3800-24G-2XG $13,026.00 1 $13,026.00
HP BL660c Gen9
Servidor HP con
CONTROLADOR Intel Xeon E5- $2,500.00 1 $2,500.00
Opendaylight
4610v3
TOTAL $25,402.00
Tabla 6.3: Presupuesto estimado para un ambiente de laboratorio SDN.
Fuente: ITPRICE (2018)
red. La reducción de costos ha sido el mejor impulsor detrás del movimiento hacia la
tecnología SDN.
6.3.1. CAPEX
Según MURAT, ARJAN (2017), algunos de los factores clave que afectan el potencial
de reducciones de CAPEX incluyen:
• Dispositivos de red más simples: en una red SDN. Los dispositivos serán cajas
blancas más simples y más baratas. Esto debería reducir el costo de cada
dispositivo para los operadores de red.
• Componentes adicionales: en un escenario SDN, la red tendrá elementos
adicionales que una red tradicional no tiene. Estos elementos incluyen el hardware
del controlador y las licencias de software del controlador (si no se utiliza un
software de código abierto). Estos elementos, sin embargo, contribuirán al
CAPEX de la red.
• Dimensionamiento de red: este factor se refiere a la capacidad de la red a través
del número de dispositivos de red necesarios para manejar la carga de la red.
Como los controladores de red pueden tener una vista de red global en caso de
SDN, esto permite una mejor utilización de los recursos de la red mediante
algunos métodos, como el equilibrio de carga. Por lo tanto, es posible que no sea
necesario aprovisionar en exceso la red, lo que puede reducir los gastos de capital
6.3.2. OPEX
Según MURAT, ARJAN (2017), SDN promete reducir algunos de los componentes
principales de OPEX por medio de sus diversas características:
• Costos relacionados con la energía: En una red SDN, los switches no tendrán un
plano de control incorporado, que consume la mayor parte de la energía total que
necesita un switch.
Además, dado que SDN permite una optimización del tráfico más eficiente en los
dispositivos de red, esto reduce la cantidad total de dispositivos necesarios. Esto
conducirá a un menor costo de energía. Sin embargo, un controlador
independiente contribuirá al consumo de energía. A pesar de esta contribución del
(de los) controlador (es), se espera que el consumo total de energía sea menor en
el escenario SDN.
• Costos de mantenimiento: SDN crea un entorno de red homogéneo con respecto
al hardware y el software. No hay ningún caso en el que los diferentes dispositivos
dependientes del proveedor deban gestionarse y mantenerse de manera
independiente.
La administración de software se vuelve más fácil en comparación con el caso de
red tradicional, ya que no se usarán varias versiones de software. Es probable que
también se vean efectos similares para la administración de seguridad.
104
CAPITULO VII
Según AKRAM ed al. (2014), la seguridad en las redes SDN plantea importantes desafíos
porque su aspecto programable presenta un conjunto complejo de problemas para hacer
frente. Se espera que el creciente número de ataques de DDoS y malware, spam y
actividades de phishing cambien la dinámica en torno a la protección de las
infraestructuras SDN. En este contexto, las redes inalámbricas móviles son más
vulnerables que las redes cableadas fijas ya que los canales inalámbricos de difusión
permiten fácilmente interceptar e interceptar mensajes (es decir, vulnerabilidad de
canales). Además, las redes móviles ad-hoc incurren en desafíos de seguridad más
complejos debido a su falta de infraestructura (por ejemplo, servidores de seguridad), lo
que hace que las soluciones de seguridad clásicas no sean viables. Los enfoques de
seguridad tradicionales requieren un tiempo de inactividad para organizar los cambios de
topología mientras se reconfigura la red, se inserta una nueva configuración de seguridad
y se activan y depuran varios servicios de seguridad, por tal razón se están buscando
soluciones nuevas bajo la arquitectura de redes SDN.
virtualización, que está lista para enfrentar los desafíos de las implementaciones en la
nube y en la red a través de la red.
CAPITULO VIII
CONCLUSIONES
• El simulador de red Mininet permitió diseñar de una red LAN bajo la arquitectura
SDN para la Red Telemática de la UNMSM en un entorno de simulación usando
el controlador Opendaylight.
• Los resultados obtenidos en las pruebas conectividad nos permiten concluir que
el controlador Opendaylight puede manejar tráfico TCP y UDP. Una vez
establecida la conexión y la instalación de las tablas de flujo en los switches, los
tiempos de respuesta son menores con respecto a los primeros paquetes enviados.
CAPITULO IX
OBSERVACIONES
CAPITULO X
RECOMENDACIONES
• La presente tesis fue descrita sobre una red virtualizada, por cual se recomienda
para futuros estudios disponer de switches físicos con soporte de Openflow para
implementar entornos de pruebas y de virtualización que permiten comprobar el
rendimiento del controlador SDN Opendaylight en un entorno real. Así como
realizar la evaluación usando diferentes tipos de trafico en la red.
• Se recomienda realizar pruebas con otros controladores SDN para comparar los
diferentes resultados y determinar el controlador óptimo de acuerdo con las
necesidades de la Red Telemática.
REFERENCIAS BIBLIOGRÁFICAS
[32]. Nadeau, T., Gray, K. (2013). Software Defined Networks. Estados Unidos:
O’Really.
[33]. Newman, P., Edwards, W., Hinden, R., Hoffman, E., Ching Liaw, F.,
Lyon, T. y Minshall, G. (1996). lpsilon's general switch management protocol
specification version 1.1. agosto, 1996, de IETF RFC1987. Recuperado de:
https://tools.ietf.org/html/rfc1987
[34]. Openflow (2017). Recuperado de: http://www.openflow.org.
[35]. Open Data Center Alliance. (2014). Master USAGE MODEL: Software-
Defined Networking Rev. 2.0. 2014, de Open Data Center Alliance. Recuperado
de: https://opendatacenteralliance.org/article/software-defined-networking-
master-usage-model-rev2-0/
[36]. Open Nerworking Foundation. (2012). Software-Defined Networking: The
New Norm for Networks. abril, 2012, de Open Nerworking Foundation, white
paper.
[37]. Open Nerworking Foundation. (2015). OpenFlow Switch Specification
Version 1.3.5. marzo, 2015, de Open Nerworking Foundation. Recuperado de:
https://3vf60mmveq1g8vzn48q2o71a-wpengine.netdna-ssl.com/wp-
content/uploads/2014/10/openflow-switch-v1.3.5.pdf
[38]. Rao, S. (2015). SDN Series Part Eight: Comparison Of Open Source SDN
Controllers. marzo, 2015, de The New Stack. Recuperado de:
https://thenewstack.io/sdn-series-part-eight-comparison-of-open-source-sdn-
controllers/.
[39]. Red Telemática UNMSM (2017). [Online]. Recuperado de:
http://telematica.unmsm.edu.pe/
[40]. Rekhter, Y., Lie, T. y Huarez, S. (2006). A Border Gateway Protocol 4
(BGP-4). enero, 2016, de IETF RFC4271. Recuperado de:
https://tools.ietf.org/html/rfc4271
[41]. Rooney, S. y Van Der Merwe, J. (1998). The Tempest: a framework for
safe, resource assured, programmable networks, IEEE Communications
Magazine, 36, pp42-53. 1998, octubre, De IEEE Xplore Base de datos.
[42]. SDN HUB. (2015). OpenDaylight Application Developer’s tutorial.
marzo, 2015, de SDN HUB. Recuperado de:
http://sdnhub.org/tutorials/opendaylight/
[43]. SDXCENTRAL. (2015). Featured Use Case Studies: HP SDN for
Education. setiembre, 2015, de SDXCENTRAL. Recuperado de:
https://www.sdxcentral.com/articles/featured/sdn-for-education-hp-use-
case/2015/09/
[44]. Shailendra, M. y Mohammed, R. (2017). Software Defined Networking:
Research Issues,Challenges and Opportunities. India Journal of Science and
Technology, Majmaah University.
[45]. Stallings, W. (2015). Foundations of Modern Networking: SDN, NFV,
QoE, IoT, and Cloud. Estados Unidos: Pearson Eduaction.
[46]. VYOS (2018). [Online]. Recuperado de: https://vyos.io/es/
[47]. Yang, L., Dantu, R., Anderson. T. y Gopal, R. (2014). Forwarding and
Control Element Separation (ForCES) Framework. abril, 2014, de IETF
RFC3746. Recuperado de: http://tools.ietf.org/html/rfc374
115
ANEXOS
Matriz de consistencia
Título: Propuesta de diseño de una red de datos de área local bajo la arquitectura de redes definidas por
software para la red telemática de la Universidad Nacional Mayor de San Marcos
"""
# switch Core
s1 = self.addSwitch( 's1' )
s2 = self.addSwitch( 's2' )
# switch acceso
# switch nodo1
s17 = self.addSwitch( 's17' )
s18 = self.addSwitch( 's18' )
s19 = self.addSwitch( 's19' )
s8 = self.addSwitch( 's8' )
# switch nodo2
s24 = self.addSwitch( 's24' )
s25 = self.addSwitch( 's25' )
s26 = self.addSwitch( 's26' )
s9 = self.addSwitch( 's9' )
# switch nodo3
s27 = self.addSwitch( 's27' )
s28 = self.addSwitch( 's28' )
s29 = self.addSwitch( 's29' )
s10 = self.addSwitch( 's10' )
# switch nodo4
s30 = self.addSwitch( 's30' )
s31 = self.addSwitch( 's31' )
s32 = self.addSwitch( 's32' )
s33 = self.addSwitch( 's33' )
s11 = self.addSwitch( 's11' )
# switch nodo5
s12 = self.addSwitch( 's12' )
# switch nodo6
s13 = self.addSwitch( 's13' )
# switch nodo7
s14 = self.addSwitch( 's14' )
# switch nodo8
s34 = self.addSwitch( 's34' )
s35 = self.addSwitch( 's35' )
s36 = self.addSwitch( 's36' )
s37 = self.addSwitch( 's37' )
s15 = self.addSwitch( 's15' )
# switch nodo9
s38 = self.addSwitch( 's38' )
s39 = self.addSwitch( 's39' )
118
# link acceso
# link nodo1
self.addLink( s17, s3)
self.addLink( s18, s3)
self.addLink( s19, s3)
self.addLink( s8, s3)
# link nodo2
self.addLink( s24, s4)
self.addLink( s25, s4)
self.addLink( s26, s4)
self.addLink( s9, s4)
# link nodo3
self.addLink( s27, s5)
self.addLink( s28, s5)
self.addLink( s29, s5)
self.addLink( s10, s5)
# link nodo4
self.addLink( s30, s6)
self.addLink( s31, s6)
self.addLink( s32, s6)
self.addLink( s33, s6)
self.addLink( s11, s6)
# link nodo5
self.addLink( s12, s7)
# link nodo6
self.addLink( s13, s41)
119
# link nodo7
self.addLink( s14, s42)
# link nodo8
self.addLink( s34, s43)
self.addLink( s35, s43)
self.addLink( s36, s43)
self.addLink( s37, s43)
self.addLink( s15, s43)
# link nodo9
self.addLink( s38, s44)
self.addLink( s39, s44)
self.addLink( s40, s44)
self.addLink( s16, s44)
El controlador Opendaylight tiene una base de datos de todos los switch y host de la red
SDN. Se obtuvo las tablas de flujo instaladas en el switch en el controlador Opendaylight
a través del API RESTCONF en código XML:
120
URL:
http://192.168.122.11:8181/restconf/operational/opendaylight-
inventory:nodes/node/openflow:22/table/0/
<table xmlns="urn:opendaylight:flow:inventory">
<id>0</id>
<flow>
<id>L2switch-1</id>
<cookie_mask>0</cookie_mask>
<priority>10</priority>
<table_id>0</table_id>
<flow-statistics
xmlns="urn:opendaylight:flow:statistics">
<packet-count>21</packet-count>
<byte-count>1666</byte-count>
<duration>
<second>209</second>
<nanosecond>942000000</nanosecond>
</duration>
</flow-statistics>
<match>
<ethernet-match>
<ethernet-destination>
<address>00:00:00:00:00:0c</address>
</ethernet-destination>
<ethernet-source>
<address>00:00:00:00:00:02</address>
</ethernet-source>
</ethernet-match>
</match>
<flags></flags>
<idle-timeout>600</idle-timeout>
<hard-timeout>300</hard-timeout>
<cookie>3026418949592973313</cookie>
<instructions>
<instruction>
<order>0</order>
<apply-actions>
<action>
<order>0</order>
<output-action>
<output-node-connector>3</output-
node-connector>
<max-length>65535</max-length>
</output-action>
</action>
</apply-actions>
</instruction>
</instructions>
</flow>
<flow>
<id>L2switch-11</id>
<cookie_mask>0</cookie_mask>
<priority>10</priority>
121
<table_id>0</table_id>
<flow-statistics
xmlns="urn:opendaylight:flow:statistics">
<packet-count>20</packet-count>
<byte-count>1624</byte-count>
<duration>
<second>209</second>
<nanosecond>695000000</nanosecond>
</duration>
</flow-statistics>
<match>
<ethernet-match>
<ethernet-destination>
<address>00:00:00:00:00:0c</address>
</ethernet-destination>
<ethernet-source>
<address>00:00:00:00:00:09</address>
</ethernet-source>
</ethernet-match>
</match>
<flags></flags>
<idle-timeout>600</idle-timeout>
<hard-timeout>300</hard-timeout>
<cookie>3026418949592973323</cookie>
<instructions>
<instruction>
<order>0</order>
<apply-actions>
<action>
<order>0</order>
<output-action>
<output-node-connector>3</output-
node-connector>
<max-length>65535</max-length>
</output-action>
</action>
</apply-actions>
</instruction>
</instructions>
</flow>
<flow>
<id>L2switch-8</id>
<cookie_mask>0</cookie_mask>
<priority>10</priority>
<table_id>0</table_id>
<flow-statistics
xmlns="urn:opendaylight:flow:statistics">
<packet-count>20</packet-count>
<byte-count>1624</byte-count>
<duration>
<second>209</second>
<nanosecond>782000000</nanosecond>
</duration>
</flow-statistics>
<match>
122
<ethernet-match>
<ethernet-destination>
<address>00:00:00:00:00:08</address>
</ethernet-destination>
<ethernet-source>
<address>00:00:00:00:00:0c</address>
</ethernet-source>
</ethernet-match>
</match>
<flags></flags>
<idle-timeout>600</idle-timeout>
<hard-timeout>300</hard-timeout>
<cookie>3026418949592973320</cookie>
<instructions>
<instruction>
<order>0</order>
<apply-actions>
<action>
<order>0</order>
<output-action>
<output-node-connector>1</output-
node-connector>
<max-length>65535</max-length>
</output-action>
</action>
</apply-actions>
</instruction>
</instructions>
</flow>
<flow-table-statistics
xmlns="urn:opendaylight:flow:table:statistics">
<active-flows>24</active-flows>
<packets-matched>451476</packets-matched>
<packets-looked-up>454419</packets-looked-up>
</flow-table-statistics>
</table>
URL: /restconf/config/openconfig-network-instance:network-
instances/network-instance/global-bgp/openconfig-network-
instance:protocols
<protocol xmlns="http://openconfig.net/yang/network-instance">
<name>bgp-example</name>
<identifier xmlns:x="http://openconfig.net/yang/policy-
types">x:BGP</identifier>
<bgp
xmlns="urn:opendaylight:params:xml:ns:yang:bgp:openconfig-
extensions">
123
<global>
<config>
<router-id>192.168.122.11</router-id>
<as>65100</as>
</config>
</global>
</bgp>
</protocol>
URL: http://192.168.122.11:8181/restconf/config/openconfig-
network-instance:network-instances/network-instance/global-
bgp/openconfig-network-instance:protocols/protocol/openconfig-
policy-types:BGP/bgp-example/bgp/neighbors
<neighbor
xmlns="urn:opendaylight:params:xml:ns:yang:bgp:openconfig-
extensions">
<neighbor-address>192.168.122.250</neighbor-address>
<config>
<route-flap-damping>false</route-flap-damping>
<peer-as>65100</peer-as>
<peer-type>INTERNAL</peer-type>
<send-community>NONE</send-community>
</config>
<route-reflector>
<config>
<route-reflector-client>false</route-reflector-
client>
</config>
</route-reflector>
<timers>
<config>
<keepalive-interval>60</keepalive-interval>
<hold-time>180</hold-time>
<connect-retry>10</connect-retry>
</config>
</timers>
<transport>
<config>
<mtu-discovery>false</mtu-discovery>
<remote-port>179</remote-port>
<passive-mode>false</passive-mode>
</config>
</transport>
<afi-safis>
<afi-safi>
<afi-safi-name
xmlns:x="http://openconfig.net/yang/bgp-types">x:IPV4-
UNICAST</afi-safi-name>
</afi-safi>
</afi-safis>
</neighbor>
124
URL: http://192.168.122.11:8181/restconf/config/odl-bgp-peer-
acceptor-config:bgp-peer-acceptor-config/default
<bgp-peer-acceptor-config
xmlns="urn:opendaylight:params:xml:ns:yang:odl-bgp-peer-
acceptor-config">
<config-name>default</config-name>
<binding-address>0.0.0.0</binding-address>
<binding-port>179</binding-port>
</bgp-peer-acceptor-config>
URL: http://192.168.122.11:8181/restconf/config/openconfig-
network-instance:network-instances/network-instance/global-
bgp/openconfig-network-instance:protocols/protocol/openconfig-
policy-types:BGP/bgp-example/bgp/neighbors
<neighbor
xmlns="urn:opendaylight:params:xml:ns:yang:bgp:openconfig-
extensions">
<neighbor-address>10.25.25.10</neighbor-address>
<config>
<peer-group>application-peers</peer-group>
</config>
</neighbor>
URL: http://192.168.122.11:8181/restconf/config/bgp-
rib:application-rib/10.25.25.10/tables/bgp-types:ipv4-address-
family/bgp-types:unicast-subsequent-address-family/bgp-
inet:ipv4-routes
<ipv4-route xmlns="urn:opendaylight:params:xml:ns:yang:bgp-
inet">
<path-id>0</path-id>
<prefix>10.0.0.11/32</prefix>
<attributes>
<as-path></as-path>
<origin>
<value>igp</value>
</origin>
<local-pref>
<pref>100</pref>
</local-pref>
<ipv4-next-hop>
<global>10.11.1.1</global>
</ipv4-next-hop>
</attributes>
</ipv4-route>