Software">
Déploiement D'une Architecture Openstack Pour Une Infrastructure NFV - Service Orchestration - Au Sein d'ATM Mobilis
Déploiement D'une Architecture Openstack Pour Une Infrastructure NFV - Service Orchestration - Au Sein d'ATM Mobilis
Déploiement D'une Architecture Openstack Pour Une Infrastructure NFV - Service Orchestration - Au Sein d'ATM Mobilis
Thème
-Nesrine-
Remerciement
Tout d’abord, nous tenons à remercier le Bon Dieu tout
puissant pour nous avoir donné patience, courage, volonté et
l’intelligence nécessaire pour accomplir ce modeste travail et
nous avoir permis de le mener à bien.
Dédicaces
Remerciement
Sommaire ......................................................................................................... I
Liste des abreviations ..................................................................................... II
Liste des figures.............................................................................................. III
Introduction générale ...................................................................................... 1
III.1. Introduction............................................................................................. 32
III.2. NFV MANO Management and Orchestration ......................................... 32
III.2.1. Définition du NFV MANO ............................................................... 32
III.2.2. Les blocs fonctionnels du cadre architectural NFV-MANO .............. 32
III.2.2.1. Virtualized Infrastructure Manager (VIM) .................................. 34
III.2.2.2. Gestionnaire de fonction de réseau virtuel (VNFM) .................... 34
III.2.2.3. Orchestrateur NFV (NFVO) ........................................................ 35
III.2.2.4. Groupe de référentiels ................................................................. 36
I.2.2.5.Autres blocs fonctionnels ................................................................ 37
III.3. Tacker ..................................................................................................... 39
III.3.1. Historique de Tacker ........................................................................ 39
III.3.2. Définition de Tacker ......................................................................... 40
III.3.3. Tacker Architecture........................................................................... 41
III.3.3.1. Les composants de Tacker .......................................................... 42
III.3.4. Cas d'utilisation de Tacker ............................................................... 45
III.4. Conclusion : ............................................................................................ 45
A
API Application Programming ETSI ISG NFV European
Interface Telecommunications Standards Institute
Industry Specification Group
B
ESXI Elastic Sky X Integrated
BSS Business Support System
F
C
A FCAPS Fault, Configuration,
CMS Conversational Monitor Accounting, Performance, Security
System
I
COTS Commercial Off The
Sheld IaaS Infrastructure as a Service
CP Connexion Point IBM International Business Machines
CRM Customer Relationship K
Management
KVM Keyboard -Video – Mouse
D
M
DHCP Dynamic Host
MANO Management and
Configuration Protocol Orchestration
DNS Domain Name System M2M Machine to Machine
E N
EC2 Elastic Compute Cloud NAS Network Attached Storage
O V
OSS Operations Support System VcE Virtual Customer Edge
OPNFV Open Platform for Network vCPE Virtual Customer Premises
Function Virtualization
VDI Virtual Device Interface
P
VDU Virtual Deployment Unit
PaaS Platform as a Service
VIM Virtualized Infrastructure
PC Personal Computer Manager
Introduction générale
Nous sommes dans un monde de plus en plus connecté, de plus en plus
relié aux outils informatiques. L'infrastructure réseau doit prendre en charge tous
ces nouveaux périphériques en fournissant une connectivité adéquate et des
services basés sur les applications. Les fournisseurs de services doivent investir
davantage dans l'infrastructure réseau pour répondre aux besoins croissants des
clients. Pour cela, un nouveau concept de partage d’infrastructure entre les
fournisseurs de services a vu le jour pour réduire les coûts d’investissement
excessifs liés au déploiement de l’infrastructure.
De nouvelles architectures basées sur la virtualisation du réseau émergent pour
permettre le partage de réseau, gérer l'explosion du Big Data à partir des
différents périphériques et simplifier les tâches de gestion
Notre projet de fin d’étude est réalisé dans le cadre du mémoire de Master en
Réseaux Mobilités et Systèmes Embarqués « RMSE » ayant comme objectif
principal : Déploiement d’une architecture Openstack pour infrastructure NFV –
Service Orchestration au profit d’ATM Mobilis. Principalement, mettre en place
une solution de gestion et d'orchestration de NFV.
Notre mémoire est organisé en quatre chapitres répartis comme suit :
Après une brève introduction, dans laquelle nous cernons la thématique, de
manière globale, le but du projet et les solutions envisageables, nous entamons
notre mémoire par le premier chapitre qui est consacré à la présentation des
notions générales sur la virtualisation et le Cloud Computing.
Nous enchainons notre mémoire par le deuxième chapitre qui donne un aperçu
sur les technologies SDN « Software Defined Networking », NFV « Network
Functions Virtualization » ainsi que OpenStack, la solution sur laquelle nous
avons déployé notre projet.
Le troisième chapitre est dédié à la présentation de NFV-MANO et le projet
Tacker d’Openstack, leurs architectures et leurs différents composants
Enfin, le quatrième chapitre est consacré à la partie pratique de notre travail. Il
présente l’installation et la configuration de notre application, ainsi que les tests
et les résultats obtenus.
1
Chapitre I
I.1. Introduction
2
Chapitre I Virtualisation et Cloud Computing
I.2. La virtualisation :
I.2.1. Historique [1] :
La virtualisation remonte aux années 1960. A l’époque, c’est la firme IBM qui
créé le premier système de virtualisation de serveur. Dans ce contexte,
l’informatique est peu présente et les rares sociétés qui possèdent des systèmes
informatiques sont équipées de gros calculateurs, les Mainframe.
Déjà à cette époque, les soucis d’optimisation des ressources matérielles d’une
machine se posaient. En effet, les supers calculateurs sont souvent sous utilisés.
IBM développe alors un produit VM/CMS (Virtual Machine / Conversational
Monitor System), un système de virtualisation de serveurs.
Au cours des années 80-90 apparaît l’architecture x86 et les PC se déploient
auprès d’un grand nombre d’utilisateurs. Le besoin de virtualiser pour optimiser
les machines se faisait moins sentir.
Mais, dans les années 90-2000, VMware réussi à virtualiser un poste x86. Ceci
ouvre la porte à plus de possibilité et relance l’envie pour les sociétés
informatiques de développer de nouvelles fonctionnalités pour optimiser et offrir
plus de flexibilité.
A l’heure actuelle, la virtualisation est très connue. On entend parler de
virtualisation de serveur, de Virtual box, de baremetal, mais aussi de
virtualisation de poste de travail, de VDI, et de virtualisation dans les jeux-vidéos
avec les émulateurs.
En 2012, trois grandes sociétés se partagent le marché de la virtualisation en
entreprise :
VMware qui est le leader
Citrix, très fort dans la virtualisation de poste de travail
Microsoft, qui s’aligne sur la concurrence
3
Chapitre I Virtualisation et Cloud Computing
Sans virtualisation, un seul système peut être opérationnel sur une machine
physique alors qu’avec la virtualisation, il est possible d’en faire fonctionner
plusieurs.
La couche de virtualisation appelée hyperviseur masque les ressources physiques
d’un équipement matériel pour proposer à un système d’exploitation des
ressources différentes de ce qu’elles sont en réalité. Elle permet en outre de rendre
totalement indépendant un système d’exploitation du matériel sur lequel il est
installé, ce qui ouvre de grandes possibilités.
4
Chapitre I Virtualisation et Cloud Computing
5
Chapitre I Virtualisation et Cloud Computing
6
Chapitre I Virtualisation et Cloud Computing
7
Chapitre I Virtualisation et Cloud Computing
I.2.5.2. Inconvénients
Couts important : pour faire fonctionner convenablement une architecture
virtualisée, l’entreprise doit investir dans un serveur physique disposant de
plusieurs processeurs et de beaucoup de mémoire.
Pannes généralisées : si le serveur physique tombe en panne, les machines
virtuelles tombent également en panne.
Vulnérabilité généralisée : si l’hyperviseur est bogué ou exposé à une faille
de sécurité, les machines virtuelles peuvent l’être également et ne sont plus
protégées. En augmentant les couches logicielles, la virtualisation a pour
conséquence d’augmenter la surface d’attaque de l’entreprise.
8
Chapitre I Virtualisation et Cloud Computing
9
Chapitre I Virtualisation et Cloud Computing
Les premiers services de cloud computing ont à peine dix ans, mais déjà une
variété d'organisation : des petites start-up aux multinationales, des agences
gouvernementales aux organismes sans but lucratif adoptent la technologie pour
toutes sortes de raisons. Voici quelques-unes des choses que nous pouvons faire
avec le nuage :
10
Chapitre I Virtualisation et Cloud Computing
(Propriété de A)
12
Chapitre I Virtualisation et Cloud Computing
Coût :
Le cloud computing élimine les dépenses liées à l'achat de matériel et de logiciels
et à la mise en place de centres de données sur site.
Vitesse :
La plupart des services de cloud computing sont fournis en libre-service et à la
demande, de sorte que même de grandes quantités de ressources informatiques
peuvent être provisionnées en quelques minutes, généralement en quelques clics
de souris.
13
Chapitre I Virtualisation et Cloud Computing
Échelle mondiale :
Les avantages des services d'informatique en nuage comprennent la possibilité
d'évoluer de manière élastique. Dans le cloud, cela signifie fournir la quantité
nécéssaire de ressources informatiques.
Par exemple, plus ou moins de puissance de calcul, de stockage, de bande
passante au moment voulu et à partir du bon emplacement géographique.
Performance :
Les plus grands services de cloud computing fonctionnent sur un réseau mondial
de Datacenter sécurisés, régulièrement mis à niveau vers la dernière génération
de matériel informatique rapide et efficace. Cela offre plusieurs avantages par
rapport à un seul centre de données d'entreprise, notamment une latence réseau
réduite pour les applications et de plus grandes économies d'échelle.
Fiabilité :
Le cloud rend la sauvegarde des données, la reprise après sinistre et la continuité
des activités plus facile et moins coûteuse, car les données peuvent être mises en
miroir sur plusieurs sites redondants sur le réseau du fournisseur de cloud.
Temps d'arrêt
Les fournisseurs de services de cloud computing prenant en charge un certain
nombre de clients chaque jour, ils peuvent être dépassés et se heurter à des pannes
techniques. Cela peut entraîner la suspension temporaire de vos processus
métier. De plus, si la connexion Internet est hors ligne, l’accès aux applications,
serveurs ou données du cloud devient impossible.
Sécurité
Bien que les fournisseurs de services cloud mettent en œuvre les meilleures
normes de sécurité et certifications industrielles, le stockage de données et de
fichiers importants sur des fournisseurs de services externes ouvre toujours des
risques. L'utilisation de technologies basées sur le cloud signifie que vous devez
fournir à votre fournisseur de services un accès aux données professionnelles
importantes. Dans le même temps, être un service public ouvre les fournisseurs
de services cloud à des problèmes de sécurité de manière routinière. La facilité
d’acquisition et d’accès aux services cloud peut également permettre aux
utilisateurs malveillants d’analyser, d’identifier et d’exploiter les failles et les
14
Chapitre I Virtualisation et Cloud Computing
vulnérabilités d’un système. Par exemple, dans une architecture de cloud multi-
locataire où plusieurs utilisateurs sont hébergés sur le même serveur, un pirate
informatique peut tenter de pirater les données d'autres utilisateurs hébergés et
stockés sur le même serveur. Cependant, de tels exploits et échappatoires ne sont
pas susceptibles de faire surface.
Verrouillage du fournisseur
Bien que les fournisseurs de services de cloud computing promettent que le cloud
sera flexible à utiliser et à intégrer, le changement des services de cloud
computing est quelque chose qui n'a pas encore complètement évolué. Les
organisations peuvent trouver difficile de migrer leurs services d'un fournisseur à
un autre. L'hébergement et l'intégration d'applications cloud actuelles sur une
autre plate-forme peuvent engendrer des problèmes d'interopérabilité (capacité
du système) et de support. Par exemple, les applications développées sur
Microsoft Development Framework (.Net) peuvent ne pas fonctionner
correctement sur la plate-forme Linux.
Contrôle limité
Étant donné que l'infrastructure cloud est entièrement détenue, gérée et surveillée
par le fournisseur de services, elle transfère un contrôle minimal au client. Le
client ne peut que contrôler et gérer les applications, les données et les services
exploités en plus de l’infrastructure principale. Les principales tâches
administratives telles que l'accès au shell du serveur, la mise à jour et la gestion
du microprogramme peuvent ne pas être transmises au client ou à l'utilisateur
final.
Il est facile de voir comment les avantages du cloud computing compensent
largement les inconvénients. La réduction des coûts, la réduction des temps
d'arrêt et la réduction des efforts de gestion sont des avantages qui parlent d'eux-
mêmes.
15
Chapitre I Virtualisation et Cloud Computing
I.4. Conclusion
À travers ce chapitre nous avons pu développer le vaste sujet sur la généralité en
rapport avec le cloud computing et la virtualisation.
Le cloud computing est donc un moyen de délivrer un service informatique ciblé
et quantifié à une clientèle précise sans que cette dernière n’ait à investir dans un
système d'information dédié à ce service. Selon cette définition, nous avons vu
les modèles tels que le PaaS, SaaS, IaaS.
Ces modèles reposent sur des technologies de virtualisation qui permet d'atteindre
la flexibilité requise à la réalisation de ces modèles. La virtualisation est une
technologie clé du Cloud Computing.
La virtualisation permet d'assurer une très grande souplesse au niveau de
ressources annuelles à une solution ou à un client. L’indépendance des solutions
matérielles et logiciels permet de donner toute la puissance requise à la bonne
exécution du service.
Le Cloud est une technologie jeune et innovante dont l'attractivité est en hausse.
Ce procédé peut changer les méthodes de travail, réduire les coûts, modifier des
interactions client-fournisseur ainsi que changer le modèle économique.
16
Chapitre II
II.1 Introduction
Alors que le déploiement d’applications est toujours plus aisé et dynamique,
notamment grâce au Cloud, le réseau reste parfois perçu comme un frein. Ce
dernier ne semble pas avoir évolué à cause de l’enfermement des utilisateurs dans
des solutions propriétaires. En plus chaque modification nécessite des
interventions manuelles sans orchestration dans la plupart des organisations et
c’est la raison pour laquelle le SDN « Software Difined Netwrok » et NFV «
Network Function Virtualization » sont pris au sérieux aujourd’hui.
Dans ce chapitre, nous présenterons les technologies SDN et NFV ainsi que la
solution « Openstack » sur laquelle nous allons déployer notre projet.
17
Chapitre II Technologies SDN, NFV et Solution Openstack
Couche application
North-bound API
South-bound API
Router Switch
Couche infrastructure
Périph.réseau Périph.réseau Périph.réseau
18
Chapitre II Technologies SDN, NFV et Solution Openstack
19
Chapitre II Technologies SDN, NFV et Solution Openstack
20
Chapitre II Technologies SDN, NFV et Solution Openstack
21
Chapitre II Technologies SDN, NFV et Solution Openstack
OSS fournit des tâches de gestion de réseau aux opérateurs. En retour, BSS est
orienté métier car il est responsable de la facturation et de la gestion de la relation
client (CRM).
22
Chapitre II Technologies SDN, NFV et Solution Openstack
Flexibilité du matériel :
Parce que NFV utilise du matériel standard, les opérateurs de réseau ont la liberté
de choisir et de construire le matériel de la manière la plus efficace pour répondre
à leurs besoins et exigences.
Le matériel offert par les fournisseurs de réseaux traditionnels a des options très
Limitées pour ses capacités de calcul, de mémoire, de stockage et de mise en
réseau, et toute modification entraîne une mise à niveau matérielle qui coûte du
temps et de l'argent aux opérateurs. Avec NFV, les fournisseurs peuvent
désormais choisir entre plusieurs fournisseurs différents et avoir la possibilité de
sélectionner les capacités matérielles optimales pour leur architecture et leur
planification réseau. Par exemple, si la passerelle Internet utilisée manque de
capacité pour stocker la table de routage complète et nécessite une mise à niveau
de la mémoire, dans la plupart des implémentations actuelles, elle ne peut y
parvenir que via une mise à niveau du contrôleur ou une mise à niveau complète.
En NFV, le fournisseur peut allouer plus de mémoire à la VM hébergeant ce VNF.
Cycle de vie du service plus rapide
Les nouveaux services ou fonctionnalités réseau peuvent désormais être déployés
plus rapidement, sur demande et en fonction des besoins, ce qui présente des
avantages pour les utilisateurs finaux et les fournisseurs de réseau.
Contrairement au matériel physique, les VNF peuvent être créés et supprimés à la
volée. Le cycle de vie des VNF peut être beaucoup plus court et dynamique que
celui des périphériques physiques, puisque ces fonctions peuvent être ajoutées en
cas de besoin, provisionnées facilement à l'aide d'outils logiciels automatisés
n'exigeant aucune activité sur site, puis détruites pour libérer des ressources.
Comme le besoin est fini. Cela contraste avec l'effort de déploiement nécessaire
lorsqu'une nouvelle fonction doit être ajoutée à un réseau existant, ce qui aurait
nécessité une installation physique sur site, ce qui peut prendre du temps et être
coûteux. La capacité à ajouter rapidement de nouvelles fonctions réseau (agilité
de déploiement) est l'un des plus grands avantages de NFV. Les services peuvent
maintenant être mis en service ou désaffectés en appuyant sur un bouton sans
avoir besoin d'un camion de livraison.
23
Chapitre II Technologies SDN, NFV et Solution Openstack
Agilité
La possibilité de déployer, de terminer, de reconfigurer ou de modifier rapidement
l'emplacement topologique d'une VNF est communément appelée agilité de
déploiement.
Évolutivité et élasticité
De nouveaux services et des applications gourmandes en capacité dans les réseaux
actuels maintiennent les opérateurs de réseau, en particulier les fournisseurs de
Cloud, à l'affût des demandes croissantes des consommateurs. Les fournisseurs
de services ont rattrapé ces exigences, car l'augmentation de la capacité de
l'équipement de réseau traditionnel demande du temps, de la planification et de
l'argent. Ce problème est résolu par NFV, qui permet des changements de capacité
en offrant un moyen d'étendre et de réduire les ressources utilisées par les VNF.
Par exemple, si l'un des VNF requiert un processeur, un stockage ou une bande
passante supplémentaire, il peut être demandé au VIM et attribué au VNF à partir
du pool de matériel. Dans un dispositif réseau traditionnel, il faudrait soit un
remplacement complet de l'équipement, soit une mise à niveau matérielle pour
modifier l'un de ces paramètres. Mais puisque les VNF ne sont pas limités par les
limitations du matériel physique personnalisé, ils peuvent offrir cette élasticité.
Par conséquent, les réseaux n'ont pas besoin d'être substantiellement
surprovisionnés pour s'adapter aux changements de capacité.
Une autre façon pour le NFV de mettre en œuvre l'élasticité est de décharger la
charge de travail d'un VNF et de faire tourner une nouvelle instance pour
implémenter la même fonction réseau et diviser la charge avec un VNF existant.
Cela n'est pas non plus possible avec un équipement de réseau traditionnel.
L'élasticité est un mot très couramment utilisé dans le contexte NFV pour se
référer à la capacité d'un VNF à étendre et étirer les ressources ou à se dérober et
à les réduire, en fonction des besoins. En outre, ce terme est utilisé pour faire
référence au scénario lorsque nous créons ou supprimons des VNF
supplémentaires pour partager la charge de travail d'un VNF existant.
24
Chapitre II Technologies SDN, NFV et Solution Openstack
25
Chapitre II Technologies SDN, NFV et Solution Openstack
26
Chapitre II Technologies SDN, NFV et Solution Openstack
Cible initiale de
l’application
27
Chapitre II Technologies SDN, NFV et Solution Openstack
II.5. Openstack
II.5.1. Définition d’Openstack
Openstack est un logiciel open source qui permet la construction de Cloud privé
et public de type Infrastructure-as-a-Service (IaaS).Il contient de vastes pools de
ressources de calcul, de stockage et de réseaux dans un centre de données, tous
gérés via un Dashboard permettant aux administrateurs de contrôler leurs
ressources via une interface web.[23]
Il s'installe sur un système d'exploitation libre comme Ubuntu ou Debian et se
configure entièrement en ligne de commande.
Openstack joue le rôle d’une couche de management de Cloud qui assure la
communication entre la couche physique ou se trouve des serveurs physiques
occupés par des hyperviseurs différents (Vmware ESX, Citrix Xen, KVM,
qemu...) et la couche applicative (Applications, utilisateurs, administrateurs…)[9]
II.5.2. Architecture d’openstack
Openstack est composé d'une série de logiciels et de projets au code source libre
qui communiquent via des APIs et qui sont maintenus par la communauté.
28
Chapitre II Technologies SDN, NFV et Solution Openstack
29
Chapitre II Technologies SDN, NFV et Solution Openstack
30
Chapitre II Technologies SDN, NFV et Solution Openstack
II.6. OPNFV
OPNFV (Open Platform for Network Function Virtualization) est un projet lancé
en septembre 2014 par la Linux Foundation. Elle facilite le développement et
l'évolution des composantes NFV à travers différents écosystèmes open source.
Grâce à l'intégration au niveau du système, le déploiement et les tests, OPNFV
crée une plate-forme NFV de référence pour accélérer la transformation des
réseaux de fournisseurs d'entreprise et de services. En tant que projet open source,
OPNFV est particulièrement bien placée pour réunir le travail des organismes de
normalisation, les communautés open source et les fournisseurs commerciaux
pour offrir une plate-forme de facto de NFV open source standard pour
l'industrie.[31]
II.7. Conclusion
Dans ce chapitre, nous avons abordé les réseaux définis par les logiciels SDN et
la virtualisation des fonctions réseau NFV qui sont de nouvelles façons de
concevoir, construire et exploiter les réseaux tout en détaillant leurs architectures,
ainsi que la solution OpenStack et les éléments qui la composent.
Dans le prochain chapitre, nous allons mettre l’accent sur NFV-MANO et le projet
Tacker d’Openstack.
31
Chapitre III
NFV-MANO et Tacker
Chapitre III NFV-MANO et Tacker
III.1. Introduction :
Comme nous l'avons mentionné dans les avantages de NFV, nous pouvons
facilement augmenter et réduire les VNF, pour cela il doit y avoir une entité qui
lance et gère ces VNF. À cette fin, le groupe de spécification de l'industrie de
l'Institut européen des normes de télécommunications (ETSI ISG NFV) a défini
un cadre pour la gestion et l'orchestration de la NFV « NFV-MANO ».
Dans ce chapitre, nous allons présenter NFV-MANO, son architecture et ses
différents blocs fonctionnels, par la suite nous allons mettre un point sur le projet
Tacker d’OpenStack, ses composants et ses différents cas d’utilisation.
32
Chapitre III NFV-MANO et Tacker
Ci-dessous, nous avons décrit une description de chacun de ces six blocs en
commençant par Virtualized Infrastructure Manager (VIM).
33
Chapitre III NFV-MANO et Tacker
Un VIM peut se spécialiser dans la gestion d'un certain type de ressource NFVI
(par exemple, calcul uniquement, stockage uniquement ou mise en réseau
uniquement) ou capable de gérer plusieurs types de ressources NFVI
simultanément, exposant une interface en direction nord aux autres fonctions
pour les gérer les tâches typiques livrées par le VIM sont mentionnées ci-
dessous :
34
Chapitre III NFV-MANO et Tacker
• VNFM gère le cycle de vie des VNF. Cela signifie qu'il crée, maintient
et termine les instances VNF. (Qui sont installés sur les machines
virtuelles (VM) que le VIM crée et gère)
• Il est responsable de la gestion des défauts, de la configuration, de la
comptabilité, des performances et de la sécurité des VNFs.
• Il augmente ou réduit les VNF, ce qui se traduit par une augmentation et
une réduction de l'utilisation du processeur.
Il peut y avoir plusieurs VNFM gérant des VNF distincts ou un seul VNFM
gérant plusieurs VNF.
35
Chapitre III NFV-MANO et Tacker
VNF Catalog :
Le catalogue VNF représente le référentiel de tous les packages VNF intégrés,
prenant en charge la création et la gestion du package VNF (VNF Descriptor
(VNFD), images logicielles, fichiers de manifeste, etc.) via des opérations
d'interface exposées par le NFVO. Le NFVO et le VNFM peuvent interroger le
catalogue VNF pour trouver et récupérer un VNFD, pour prendre en charge
différentes opérations (par exemple, validation, vérification de la faisabilité de
l'instanciation).
36
Chapitre III NFV-MANO et Tacker
37
Chapitre III NFV-MANO et Tacker
1
FCAPS : est un mode réseau de gestion des télécommunications ISO et est
l'abréviation des cinq principaux paramètres de gestion : défaut, configuration,
performance, comptabilité et sécurité.
38
Chapitre III NFV-MANO et Tacker
III.3. Tacker
III.3.1. Historique de Tacker
OpenStack Tacker existe depuis quelques années maintenant. Initialement appelé
ServiceVM, il a été rebaptisé Tacker et promu au OpenStack Summit de
Vancouver en 2015. Initialement défini par une poignée de personnes, il était
assez silencieux jusqu'à ce qu’OPNFV et d'autres projets commencent à
39
Chapitre III NFV-MANO et Tacker
Tacker est géré sous le parapluie OpenStack, donc il suit les directives de projet
de la communauté OpenStack et le modèle de gouvernance. Pas à pas Tacker est
passé d'un projet indépendant dans OpenStack à la grande tente et fait maintenant
partie de la version Mitaka.
40
Chapitre III NFV-MANO et Tacker
Pour fournir un moyen visuel pour gérer les VNFs, le projet Tacker modifie le
service Horizon d'Openstack de sorte à ce que les interactions avec les VNFs
soient effectuées facilement via le tableau de bord.
41
Chapitre III NFV-MANO et Tacker
TOSCA est une norme ouverte OASIS qui définit la description interopérable des services et applications
hébergés sur le cloud et ailleurs; y compris leurs composants, relations, dépendances, exigences et capacités,
permettant ainsi la portabilité et la gestion automatisée à travers les fournisseurs de cloud sans tenir compte
de la plate-forme ou de l'infrastructure sous-jacente; élargissant ainsi le choix des clients, améliorant la
fiabilité et réduisant les coûts et les délais de mise en valeur.
42
Chapitre III NFV-MANO et Tacker
2) VNF Manager :
Un gestionnaire (VNFM) s'en charge du cycle de vie des instances VNFs en
fonction des données contenues dans le descripteur. Il démarre les instances VNF,
les gère, les adapte et récupère des indicateurs de supervision. Le gestionnaire
VNFM utilise donc le descripteur VNFD durant la procédure d’instanciation de
la fonction réseau virtualisée VNF et pendant toute la durée de vie de la VNF.
43
Chapitre III NFV-MANO et Tacker
3) NFV Orchestration :
NFVO aide à fournir un placement efficace de VNF. NFVO permet de connecter
des VNF individuels en utilisant le chainage de fonction de service à l'aide d'un
descripteur de graphe VNF. Dans un modèle de changement de fonction de
service, les VNF décomposées sont réunies pour fournir une solution de réseau de
bout en bout
44
Chapitre III NFV-MANO et Tacker
III.4. Conclusion :
Dans ce chapitre, nous avons abordé NFV-MANO et le projet tacker
d’Openstack qui se base sur l'architecture ETSI MANO Architectural
Framework afin de traiter des cas d’utilisation de l'orchestration NFV et du
gestionnaire VNF.
Toutes ces notions théoriques seront mises en pratique dans le prochain chapitre.
45
Chapitre IV
IV.1. Introduction
Après avoir étudié les notions théoriques dans les chapitres précédents, nous
allons mettre en pratique toutes ces notions et retourner les résultats des tests
implémentés. Pour cela nous avons devisé notre travail en trois principales
parties :
Installation et configuration de VIM en tant qu'infrastructure NFV
(OpenStack) et l’intégration de MANO(Tacker) via Devstack.
Installation et configuration de quelques fonctions NFV (Firewall, DHCP,
et DNS).
Orchestration des fonctions NFV (création et déploiement).
47
Chapitre IV Implémentation et mise en œuvre
48
Chapitre IV Implémentation et mise en œuvre
49
Chapitre IV Implémentation et mise en œuvre
1. Fichier functions-common
Afin d’éviter un arrêt brusque de l’installation d’openstack à cause d’une lente
connexion, nous devons modifiez le délai d’attente (time out) 300 pour 1000
Paramètre par défaut dans le fichier functions-common :
Paramètre modifié :
50
Chapitre IV Implémentation et mise en œuvre
Par la suite nous avons définis les mots de passe des différents modules de
DevStack.
51
Chapitre IV Implémentation et mise en œuvre
52
Chapitre IV Implémentation et mise en œuvre
53
Chapitre IV Implémentation et mise en œuvre
54
Chapitre IV Implémentation et mise en œuvre
IV.6 Orchestration
IV.6.1. Création d’un VIM Management
Dans cette partie nous allons créer le VIM Management.
55
Chapitre IV Implémentation et mise en œuvre
56
Chapitre IV Implémentation et mise en œuvre
1 2
57
Chapitre IV Implémentation et mise en œuvre
1 2
59
Chapitre IV Implémentation et mise en œuvre
Le VNFD a 3 sections :
Unité de déploiement virtuelle (VDU, Virtual Deployment Unit)
Met en évidence l’instance de calcul, image à utiliser, flavor à déployer.
La configuration de l'expérience comprenait la configuration d'un OpenNRT
VNF.
Les propriétés de VDU pour VNF étaient 1 GO de mémoire et 5 Go de
stockage. Le nom de l'image est spécifié en tant que OpenWRT. D'autres
propriétés de configuration VDU peuvent être vues dans le Figure ci-dessous.
60
Chapitre IV Implémentation et mise en œuvre
61
Chapitre IV Implémentation et mise en œuvre
62
Chapitre IV Implémentation et mise en œuvre
Création de VNFD :
Nous fournissons le VNFD suivant pour configurer le VNF. Et ce en
téléchargeant le fichier tosca-vnfd-openwrt écrit en YAML1 (Voir
annexe2) comme le montre la figure ci-dessous.
63
Chapitre IV Implémentation et mise en œuvre
Création du VNFDDNS :
Déploiement de VNF :
La prochaine partie consiste à déployer le VNF sur la base du modèle VNF
intégré présenté ci-dessus. Lors du déploiement d'un VNF, nous devons fournir
Virtual Infrastructure Manager (VIM), le Virtual Network Function Descriptor
ainsi que le fichier de configuration (TOSCA) spécifique de la VNF à déployer
La figure ci-dessous décrit l'étape de déploiement de VNF.
64
Chapitre IV Implémentation et mise en œuvre
Déploiement du VNFFirewall :
65
Chapitre IV Implémentation et mise en œuvre
Déploiement du VNFDhcp :
66
Chapitre IV Implémentation et mise en œuvre
67
Chapitre IV Implémentation et mise en œuvre
Lancement de VNF
Maintenant, notre VNF est lancé comme le montre la figure suivante :
Après le déploiement du réseau, nous pouvons voir dans la figure suivante, des
nouvelles instances qui ont été créée avec les spécifications définies dans le
fichier VNFD.
68
Chapitre IV Implémentation et mise en œuvre
Instance 1
Instance 3
Instance 2
Réseau net1
IV.7.Conclusion :
Dans ce chapitre, nous avons présenté la maquette expérimentale, la phase de
réalisation de notre projet en exposant les solutions mises en place, la démarche
de travail, le principe de fonctionnement de chaque solution, ainsi que les tests
effectués.
69
Conclusion générale
Conclusion générale
Conclusion générale
70
Références bibliographiques
[1] https://123virtualization.files.wordpress.com/2013/04/1-0-objectif-
virtualisation-point-sur-la-virtualisation.pdf
[2] https://dumas.ccsd.cnrs.fr/dumas-00587661/document
[3] http://www.alcantis.fr/index_fichiers/virtualisation_systeme_information.pdf
[4] mémoire allocation de ressources dans le cloud computing. Ammour liza,
chouggar chanez. Mast 2017 262
[5] Etude et Mise en Place d’une Solution Cloud Computing Privé au sein de
Tunisie Télécom, Hannachi Slim 2014/2015
[6] https://itandsi.files.wordpress.com/2014/09/les-fondamentaux-du-cloud-
computing.pdf
[7] mémoire Implémentation d’un service Cloud Privé pour ATM Mobilis,
Lynda CHERMAK, Katia NAILI le 14/07/2016
[8] https://azure.microsoft.com/fr-fr/overview/what-is-cloud-computing/
[9] Mise en place d'une solution Cloud de type « Security as a Service » et «
Storage as a Service» sur OpenStack au sein d’ATM Mobilis, TAHAR
DJEBBAR Abdellah Seddik, ZENOUNE Safa
[10] https://www.levelcloud.net/why-levelcloud/cloud-education-
center/advantages-and-disadvantages-of-cloud-computing/
[14] http://blog.webwerks.in/data-centers-blog/southbound-vs-northbound-sdn-
what-are-the-differences
[15] https://searchsdn.techtarget.com/answer/The-role-of-northbound-APIs-in-an-
SDN-environment
[16] Mohamed Said Seddiki, Allocation dynamique des ressources et gestion de
la qualit_e de service dans la virtualisation des reseaux, le 14 Avril 2015
[17] https://www.ciena.fr/insights/articles/What-is-NFV-prx_fr_FR.html
Références bibliographiques
[18] https://wiki.sdn.ieee.org/pages/viewpage.action?pageId=65780
[19] http://blogs.univ-poitiers.fr/f-launay/tag/nfvi/
[20] https://www.slideshare.net/anandbajaj/nfv-foundationnfv-for-dummies
[21] https://www.ixiacom.com/resources/network-function-virtualization-nfv-5-
major-risks
[22] http://www.ingrammicroadvisor.com/data-center/5-differences-between-sdn-
and-network-functions-virtualization
[23] https://www.openstack.org/software/
[24] https://access.redhat.com/documentation/en-US/Red_Hat_Storage/2.1/html-
single/Configuring_Red_Hat_OpenStack_with_Red_Hat_Storage/index.html
[25] Etude_et_mise_en_place_dune_solution_cloudcomputing_privee_pour_
une_entreprise.pdf, Laribi Imen, 26-mai-2014
[26] https://www.memoireonline.com/07/15/9194/m_Etude-sur-la-securite-du-
cloud-computing25.html
[27] https://www.supinfo.com/articles/single/5046-decouverte-openstack
[28] https://docs.openstack.org/mistral/latest/
[29] https://wiki.openstack.org/wiki/Barbican
[30] https://nguyentrihai.com/?p=130
[31] https://www.linuxfoundation.org/wp
content/uploads/2017/06/LF_CaseStudy_OPNFV_20170613.pdf
[32] https://www.telcocloudbridge.com/blog/a-beginners-guide-to-
nfvmanagement-orchestration-mano/
[33] https://www.etsi.org/deliver/etsi_gs/NFV-
MAN/001_099/001/01.01.01_60/gs_NFV-MAN001v010101p.pdf
[34] http://www.informit.com/articles/article.aspx?p=2755705&seqNum=2
[35] https://dspace.library.uvic.ca/bitstream/handle/1828/846/Arora_Simar_MSc_
2017.pdf?sequence=3&isAllowed=y
[36] https://wiki.openstack.org/wiki/Tacker
Annexe A
TOSCA-VNFD-DNS-DHCP
Annexe C
TOSCA-VNFD-Firewall
Annexe C
tosca-config-openwrt-firewall
Annexe C
tosca-config-openwrt-dhcp-dns