Nothing Special   »   [go: up one dir, main page]

Moslem These

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 270

Extraction des structures linéaires à partir des images satellitaires

à très haute résolution pour l’aide à la gestion des catastrophes


majeures

par

Moslem OULED SGHAIER

THÈSE PRÉSENTÉE À L’ÉCOLE DE TECHNOLOGIE SUPÉRIEURE


COMME EXIGENCE PARTIELLE À L’OBTENTION
DU DOCTORAT EN GÉNIE
Ph. D.

MONTRÉAL, LE 28 AVRIL 2017

ÉCOLE DE TECHNOLOGIE SUPÉRIEURE


UNIVERSITÉ DU QUÉBEC

Moslem Ouled Sghaier, 2017


Cette licence Creative Commons signifie qu’il est permis de diffuser, d’imprimer ou de sauvegarder sur un autre
support une partie ou la totalité de cette oeuvre à condition de mentionner l’auteur, que ces utilisations soient
faites à des fins non commerciales et que le contenu de l’oeuvre n’ait pas été modifié.
PRÉSENTATION DU JURY

CETTE THÈSE A ÉTÉ ÉVALUÉE

PAR UN JURY COMPOSÉ DE:

M. Richard Lepage, Directeur de Thèse


Génie de la production automatisée, École de technologie supérieure

M. François Brissette, Président du Jury


Génie de la construction, École de technologie supérieure

M. Jacques-André Landry, membre du jury


Génie de la production automatisée, École de technologie supérieure

M. Yacine Bouroubi, Examinateur Externe


Scientifique en chef en observation de la Terre, Effigis Géo-Solutions Inc

M. Karem Chokmani, Examinateur Externe Indépendant


Centre eau terre et environnement, Institut national de la recherche scientifique

ELLE A FAIT L’OBJET D’UNE SOUTENANCE DEVANT JURY ET PUBLIC

LE “6 AVRIL 2017”

À L’ÉCOLE DE TECHNOLOGIE SUPÉRIEURE


AVANT-PROPOS

Le tout a commencé à la fin de 2012 avec l’initiation d’un projet de recherche intitulé “télédé-
tection pour les catastrophes majeures” qui avait comme objectif de développer des algorithmes
efficaces et rapides pour l’analyse d’images satellitaires à très haute résolution spatiale captées
lors de catastrophes majeures. Il a été financé en partie par une subvention de recherche et dé-
veloppement coopérative accordée par le conseil de recherche en sciences naturelles et en génie
du Canada (CRSNG) en partenariat avec la compagnie montréalaise Effigis Géo-solutions inc
qui a financé l’autre partie du projet. C’est dans ce cadre que s’inscrit cette thèse qui vise à
résoudre le problème de détection des routes endommagées suite à un désastre. Les trois pre-
mières années passées au sein du laboratoire d’imagerie, de vision et d’intelligence artificielle
(LIVIA) de l’École de technologie supérieure (ÉTS) ont été consacrées à développer la métho-
dologie conçue pour résoudre le problème d’extraction des routes à partir des images optiques
à très haute résolution et à évaluer leurs dommages.

Il était clair depuis le début du projet qu’il n’y aurait pas assez de temps pour s’attarder à
l’intégration des images radar dans le processus de gestion des catastrophes et qu’il fallait se
concentrer sur une problématique précise pour pouvoir apporter une contribution à ce qui exis-
tait déjà dans la littérature. Pourtant, après avoir terminé la première partie de ce travail, l’aspect
radar est réapparu à la surface avec une opportunité de stage au sein de l’équipe de Vision et
imagerie affiliée au centre de recherche informatique de Montréal. Le stage a commencé en
septembre 2015 et portait sur l’extraction des rivières en utilisant des images RADARSAT-2
afin de mettre à jour la base de données hydrologiques du Canada, puis, en raison des résultats
prometteurs obtenus, il s’est étendu pour couvrir l’extraction des zones inondées en se basant
sur des données radar. Durant cette période, les concepts de base de l’acquisition des images
radar et les caractéristiques de ces images ont été explorés en profondeur. Ceci a donné lieu à
plusieurs publications scientifiques et a poussé vers l’intégration de l’aspect radar dans un cha-
pitre à part de la thèse. Plusieurs approches pour la gestion des catastrophes en se basant sur les
données satellitaires ont été élaborées dans ce doctorat, mais il faut être conscient qu’il reste
d’autres aspects non encore exploités et qui nécessitent plus de recherche dans cette optique.
À la mémoire de ma mère
REMERCIEMENTS

Merci à toutes les personnes qui ont contribué à l’aboutissement de cette thèse.

Je tiens à exprimer ma profonde gratitude à Monsieur Richard Lepage, professeur titulaire à


l’École de technologie supérieure de Montréal (ÉTS), pour avoir encadré et dirigé mes re-
cherches. J’aimerais également lui dire à quel point j’ai apprécié sa grande disponibilité et son
respect sans faille des délais serrés de relecture des documents que je lui ai soumis. Enfin, j’ai
été extrêmement sensible à ses qualités humaines d’écoute et de compréhension tout au long de
ce travail doctoral. Merci aux membres du jury, Monsieurs François Brissette, Jacques-André
Landry, Yacine Bouroubi et Karem Chokmani, pour avoir accepté de juger ce travail. Vos re-
marques et appréciations ont contribué à améliorer la qualité du document.

Je remercie chaleureusement Monsieur Samuel Foucher, chercheur senior et directeur de l’équipe


Vision et imagerie, ainsi que les autres membres de l’équipe VISI du centre de recherche in-
formatique de Montréal (CRIM) pour m’avoir accueilli au sein de leur équipe. Je leur suis
également reconnaissant pour le temps conséquent qu’ils m’ont accordé, leurs qualités péda-
gogiques et scientifiques, leur franchise et leur sympathie. J’ai beaucoup appris à leur côté.

Merci à ma famille pour le soutien de toute nature dont j’ai toujours pu bénéficier qui m’a aidé
durant cette thèse à voir le bout du tunnel. Merci à ma chère épouse Imen pour son soutien quo-
tidien indéfectible et son enthousiasme à l’égard de mes travaux comme de la vie en général.
Merci à mes deux frères Islem et Salim et à mon père Ali, qui m’ont beaucoup soutenu durant
ces moments de dur laveur, merci de tout mon coeur pour leurs multiples encouragements à
persévérer dans l’effort. Je dédie ce travail aussi à la mémoire de ma mère Orida qui a souhaité
me voir docteur, mais qui n’a pas eu assez de temps pour nous partager cette joie.

En terminant, je souhaite remercier mes amis ; Hichem, Idrissa, Isabelle, Anouer, Mohammed,
Oussama, Zied, Amine, Wissem, Rached, Fathi, Lucie, pour leur support, leur compréhension
et leurs encouragements.
EXTRACTION DES STRUCTURES LINÉAIRES À PARTIR DES IMAGES
SATELLITAIRES À TRÈS HAUTE RÉSOLUTION POUR L’AIDE À LA GESTION
DES CATASTROPHES MAJEURES

Moslem OULED SGHAIER

RÉSUMÉ

Durant les dernières décennies, le domaine de la télédétection et de l’imagerie satellitaire a


connu un intérêt accru auprès de plusieurs gouvernements et organisations nationales et in-
ternationales. Cet intérêt apparaît dans le nombre énorme de satellites de télédétection qui
gravitent autour de la Terre. Les capteurs installés sur ces satellites offrent chaque jour des
images de plus en plus précises de différentes régions de la Terre pour combler divers besoins :
cartographie, mise à jour des bases de données géographiques et détection des changements.
Parmi ces différents champs d’application, nous nous intéressons à la gestion des catastrophes
dans lesquelles la télédétection contribue à l’amélioration de la réponse des équipes de secours
et à l’organisation des efforts de recherche. Quand une catastrophe se produit, la télédétection
est souvent le seul moyen de voir ce qui se passe sur le terrain. Il est très utile de savoir si les
routes sont praticables afin de diriger les équipes de secours sur le terrain et gagner du temps
qui compte pour sauver des vies et limiter les dégâts. C’est dans ce contexte que s’inscrit cette
thèse qui vise à élaborer une méthode efficace et opérationnelle pour l’extraction des structures
linéaires et l’évaluation de leurs dommages suite à une catastrophe majeure. Selon la nature des
données utilisées en entrée, deux différentes approches sont proposées pour résoudre les pro-
blèmes d’extraction des dommages des routes à partir des images optiques et l’identification
des zones inondées à partir des images radar, respectivement. La première approche se base
principalement sur l’analyse multiéchelle en beamlets pour extraire les segments candidats à
partir de la liste des contours de l’image dans un premier temps, puis la relation spatiale entre
les segments extraits à partir des différentes échelles est utilisée pour reconstruire le réseau
routier. Finalement, la théorie des fonctions de croyance est appliquée pour identifier la nature
des changements en utilisant le raisonnement evidentiel multidimensionnel. La deuxième ap-
proche présente une nouvelle technique pour extraire les zones inondées à partir des images
radar basée sur la combinaison des mesures de texture locales calculées en chaque pixel de
l’image et sur des connaissances globales associées à la forme de l’objet d’intérêt. Puis une
étape de détection de changement basée sur la logique floue est appliquée afin d’identifier les
régions inondées. Les deux approches proposées ont été testées sur des images optiques du
satellite GeoEye-1 du tremblement de terre qui a eu lieu en Haïti en 2010 et des images radar
des inondations de la rivière Richelieu en 2011, acquises par le satellite RADARSAT-2. Les
résultats des études expérimentales démontrent la robustesse et l’efficacité des deux approches
décrites.

Mots clés: Détection des structures linéaires, gestion des catastrophes majeures, analyse mul-
tiéchelle, identification des dommages
LINEAR STRUCTURES EXTRACTION FROM VERY HIGH RESOLUTION
SATELLITE IMAGES TO SUPPORT MAJOR DISASTERS MANAGEMENT

Moslem OULED SGHAIER

ABSTRACT

In recent decades, the field of remote sensing and satellite imaging has experienced growing
interest among many national and international governments and organizations. This interest
appears in the huge number of remote sensing satellites orbiting the earth. The sensors on
these satellites provide daily increasingly accurate images of different regions of the Earth to
fulfill various needs : mapping, updating geographic databases and change detection. Among
these different fields of applications, we are interested in disaster management in which remote
sensing contributes to improving the response of rescue teams and the organization of search
efforts. When disaster strikes, remote sensing is often the only way to see what is happening
on the ground. It is very useful to know if roads are accessible to guide rescue teams on the
ground and save time that counts in saving lives and limiting damages. This thesis aims at
developing an efficient and operational method for extracting linear structures and assessing
their damage following a major disaster. Depending on the kind of the data used as inputs,
two different approaches are presented to solve the problems of extracting road damage from
optical images and identifying flooded areas from radar images, respectively. The first approach
is mainly based on the beamlets multiscale analysis to first extract segments candidates from the
list of image edges, and then the extraction, at different scales, of spatial relationship between
segments is used to rebuild the road network. Finally, the theory of belief functions is applied to
identify the nature of the changes using the multidimensional evidential reasoning. The second
approach introduces a new technique to extract the flooded areas from radar images based on
the combination of local texture measurements computed in each pixel of the image and on
the global knowledge associated to the shape of the object of interest. Lastly, change detection
based on fuzzy logic is applied to identify flooded areas. The two proposed approaches were
tested on optical satellite imagery GeoEye-1 of the earthquake that hit Haiti in 2010 and on
radar images of the Richelieu river flood in 2011, acquired by the RADARSAT-2 satellite.
The results of experimental studies demonstrate the robustness and effectiveness of the two
described approaches.

Keywords: Linear structures detection, major disasters management, multiscale analysis, da-
mages identification
TABLE DES MATIÈRES

Page

INTRDUCTION . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
Problématique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
Objectif principal de la thèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
Objectifs spécifiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
Hypothèses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
Plan de la thèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
Contributions de la thèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

CHAPITRE 1 CHARTE INTERNATIONALE ESPACE ET CATASTROPHES


MAJEURES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2 Vue d’ensemble de la Charte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.1 Historique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.2 Processus d’activation de la Charte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2.3 Organisations et organismes membres de la Charte et ressources
satellitaires disponibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.2.4 Collaboration entre les différents membres de la Charte . . . . . . . . . . . . . . . . . . . . 16
1.3 Statistiques et exemples d’activations récentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.3.1 Statistiques de la Charte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.3.2 Exemples d’activations récentes de la Charte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
Les inondations de Louisiane aux États-Unis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
Les inondations au Soudan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.3.3 Exemples d’activations liées à des catastrophes majeures . . . . . . . . . . . . . . . . . . 22
Le tremblement de terre d’Haïti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
Le tsunami de l’océan Indien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
Le séisme au Chili . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.4 Rôle du Canada dans la Charte internationale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.5 Types de cartes produites et les méthodes utilisées dans la détection et
l’évaluation des dommages . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.5.1 Types de cartes produites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
Carte de dommages basée sur une évaluation grossière des dégâts . . . . . . . . 28
Carte de dommages basée sur une évaluation détaillée des dégâts . . . . . . . . . 29
1.5.2 Les méthodes utilisées dans la détection et l’évaluation des
dommages . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
L’interprétation visuelle des images satellitaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
L’extraction des dommages en se basant sur les approches semi-
automatique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
1.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
XVI

CHAPITRE 2 EXTRACTION DES STRUCTURES LINÉAIRES ET IDENTIFICATION


DE LEURS DOMMAGES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.2 Prétraitement et correction des distorsions radiométriques et géométriques . . . . . . . . . 34
2.2.1 Sources de distorsions radiométriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
Les erreurs d’instrumentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
Les effets de l’atmosphère . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
Les effets de la courbe du rayonnement solaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.2.2 Sources de distorsions géométriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
L’effet de la rotation de la Terre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
Les effets de la variation dans la vitesse et l’altitude du satellite . . . . . . . . . . . 40
2.2.3 Recalage et élimination du bruit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.2.4 Correction des distorsions radiométriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
Correction des erreurs d’instrumentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
Correction des effets de l’atmosphère . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
Correction des effets de la courbe du rayonnement solaire . . . . . . . . . . . . . . . . . 44
2.2.5 Correction des distorsions géométriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
Correction de l’effet de la rotation de la Terre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
Correction de l’effet de la variation dans la vitesse et l’altitude du
satellite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.3 Propriétés des structures linéaires dans les images satellitaires . . . . . . . . . . . . . . . . . . . . . . . 47
2.4 Classification des méthodes d’extraction des structures linéaires à partir des
images satellites à très haute résolution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.5 État de l’art des méthodes d’extraction des structures linéaires . . . . . . . . . . . . . . . . . . . . . . . 49
2.5.1 Les méthodes locales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
Les approches basées sur la morphologie mathématique . . . . . . . . . . . . . . . . . . . 50
Les approches basées sur la détection des contours . . . . . . . . . . . . . . . . . . . . . . . . . 53
Les approches basées sur l’analyse de la texture . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
Les approches basées sur la classification pixellique . . . . . . . . . . . . . . . . . . . . . . . 57
2.5.2 Les méthodes globales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
Les approches basées sur la transformée de Hough . . . . . . . . . . . . . . . . . . . . . . . . . 60
Les approches basées sur la classification orientée objet . . . . . . . . . . . . . . . . . . . 62
2.5.3 Les approches hybrides : l’analyse multiéchelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
2.5.4 Résumé des approches existantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
2.6 Une revue de littérature relative à l’identification et l’évaluation des
dommages des structures linéaires à l’aide des images satellitaires . . . . . . . . . . . . . . . . . . 67
2.6.1 Mise en contexte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
Défintion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
2.6.2 La détection de changement dans le cadre des images satellitaires . . . . . . . . 68
Méthode basée pixel et noyau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
Méthodes basées texture . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
Méthodes basées structure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
XVII

2.7 Une revue de littérature relative à l’identification et l’évaluation des


dommages des structures linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
2.7.1 Identification des dommages . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
2.7.2 Évaluation des dommages . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
2.8 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82

CHAPITRE 3 EXTRACTION DES ROUTES ET ÉVALUATION DE LEURS


DOMMAGES LORS D’UN TREMBLEMENT DE TERRE . . . . . . . . . . . . . . 83
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
3.2 La transformée en beamlets pour la détection des routes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
3.2.1 Terminologie et notations de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
Le quadrillage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
L’échelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
Les sommets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
3.2.2 La transformée en beamlets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
Cas d’une fonction continue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
Cas d’une fonction discrète . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
3.2.3 Exploitation de la transformée en beamlets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
La pyramide de beamlets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
Le graphe de beamlets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
3.2.4 La méthode proposée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
Prétraitement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
Application de la transformée en beamlets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
Élagage de la pyramide en beamlets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
L’identification des axes de la route . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
La reconstruction du réseau routier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
3.3 Appariement entre images satellitaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
3.4 L’évaluation des dommages des routes basées sur l’analyse de la texture . . . . . . . . . .101
3.4.1 La transformée en ondelettes et l’analyse de la texture . . . . . . . . . . . . . . . . . . . .103
La transformée en ondelettes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .103
La transformée en ondelettes pour l’analyse multiéchelle de la
texture . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .106
3.4.2 La méthodologie proposée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .107
Segmentation multiéchelle combinant la technique de la ligne de
partage des eaux et la transformée en ondelettes . . . . . . . . . . . . . . .109
L’identification des changements en utilisant la divergence de
Kullback-Leibler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .111
Le calcul du vecteur caractéristique et l’identification de
l’orientation dominante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .112
Application de la théorie des fonctions de croyance pour la
classification . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .114
Identification de la nature du changement à travers la fusion
multitemporelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .117
XVIII

3.5 Expérimentation et résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .118


3.5.1 Données utilisées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .119
3.5.2 Extraction des routes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .120
Présentation des résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .120
Évaluation des résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .124
Comparaison avec des travaux existants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .129
3.5.3 Identification des dommages . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .131
Présentation des résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .131
Évaluation des résultats obtenus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .134
Comparaison avec des approches existantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .136
3.5.4 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .140
3.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .142

CHAPITRE 4 IDENTIFICATION DES RIVIÈRES À PARTIR DES IMAGES


RADAR POUR L’AIDE À LA GESTION DES INONDATIONS . . . . . . .143
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .143
4.2 Les images RSO : concepts de base et caractéristiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .144
4.2.1 Fondement physique des images RSO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .144
La polarisation d’une onde . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .144
Rétrodiffusion et rugosité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .146
4.2.2 Caractéristiques des images RSO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .147
Caractéristiques radiométriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .147
Caractéristiques géométriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .148
4.2.3 Différents types de données RSO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .149
4.3 Analyse de la texture dans les images RSO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .151
4.3.1 Les statistiques du premier ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .151
4.3.2 Les statistiques du second ordre et matrice de cooccurrence . . . . . . . . . . . . . .152
4.3.3 Le spectre de puissance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .153
4.3.4 Analyse multiéchelle de la texture . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .155
Filtre de Gabor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .155
Les ondelettes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .156
4.4 Extraction des rivières à partir des images radar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .157
4.4.1 La méthode proposée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .157
Vue d’ensemble . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .157
Identification des objets homogènes basée sur l’analyse de la
texture . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .159
Élimination du bruit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .163
Suivi de la structure de la rivière . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .166
Filtrage des lacs et extraction des rivières . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .167
4.5 Détection des zones inondées à partir des images radar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .168
4.5.1 La méthodologie proposée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .168
XIX

Adaptation de la technique d’extraction des rivières pour


la résolution de la problématique d’extraction des
inondations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .171
Fusion floue des descripteurs de texture pour l’identification des
zones inondées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .172
4.6 Expérimentation et résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .175
4.6.1 Données utilisées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .175
4.6.2 Extraction des rivières . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .176
Présentation des résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .176
Évaluation des résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .179
La première métrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .179
La seconde métrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .181
La complexité de notre algorithme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .183
Comparison avec la technique des contours actifs et le seuil
d’Otsu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .185
Comparaison avec la méthode décrite dans Klemenjak et al.
(2012) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .188
4.6.3 Identification des zones inondées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .192
Présentation des résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .192
Évaluation des résultats obtenus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .194
4.6.4 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .197
4.7 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .200

CONCLUSION GÉNÉRALE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .201

RECOMMANDATIONS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .207

ANNEXE 1 : INTRODUCTION À LA BIBLIOTHÈQUE DE TRAITEMENT


D’IMAGES SATELLITAIRES ORFEO TOOLBOX (OTB) :
INSTALLATION ET CRÉATION DES APPLICATIONS SUR
Quantum GIS (QGIS) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .213

BIBLIOGRAPHIE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .229
LISTE DES TABLEAUX

Page

Tableau 0.1 Contributions de cette thèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

Tableau 1.1 Tableau récapitulatif des membres de la Charte et des ressources


satellitaires disponibles. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

Tableau 2.1 Tableau récapitulatif des différents travaux et approches


d’extraction des structures linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66

Tableau 2.2 Tableau contenant les critères de classification des dégâts des
routes tiré de Li et al. (2010). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79

Tableau 3.1 Les spécifications du satellite GeoEye-1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .120

Tableau 3.2 Résultats obtenus par application de nos mesures de qualité . . . . . . . . . . . . . . .126

Tableau 3.3 La performance des deux méthodes d’extraction de routes . . . . . . . . . . . . . . . .131

Tableau 3.4 Résultats obtenus par application de nos mesures de qualité . . . . . . . . . . . . . . .134

Tableau 3.5 Comparaison de notre méthode avec les approches existantes . . . . . . . . . . . . .139

Tableau 4.1 Les spécifications du satellite RADARSAT-2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .176

Tableau 4.2 Les résultats de l’évaluation des performances de notre approche


dédiée pour l’extraction des rivières en utilisant la première
métrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .180

Tableau 4.3 Les résultats de l’évaluation des performances de notre approche


dédiée pour l’extraction des rivières en utilisant la deuxième
métrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .183

Tableau 4.4 Les résultats de la comparaison des performances de notre


algorithme pour l’extraction des rivières avec le seuil d’Otsu et
les contours actifs en utilisant la première métrique . . . . . . . . . . . . . . . . . . . . . . . .187

Tableau 4.5 Les résultats de la comparaison des performances de notre


algorithme pour l’extraction des rivières avec l’approche de
Klemenjak et al. (2012) en utilisant la première métrique . . . . . . . . . . . . . . . . .190

Tableau 4.6 La matrice de confusion calculée à partir de la première zone


d’étude . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .195
XXII

Tableau 4.7 La matrice de confusion calculée à partir de la deuxième zone


d’étude . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .197

Tableau 4.8 La matrice de confusion calculée à partir de la troisième zone


d’étude . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .197
LISTE DES FIGURES

Page

Figure 1.1 Le logo de la Charte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

Figure 1.2 Processus d’activation de la Charte, tirée du site de la Charte


(Étapes du processus d’activation) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

Figure 1.3 Taux d’activations par catastrophe (Novembre 2010 à janvier


2015), tirée du site de la Charte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

Figure 1.4 Nombre d’activations par année, tirée du site de la Charte . . . . . . . . . . . . . . . . . . . 18

Figure 1.5 Distribution des activations, tirée d’une présentation de Yana


Gevorgyan et Stephen Briggs disponible sur le site de la Secure
Word Fundation (SWF) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

Figure 1.6 Images acquises avant et après les inondations de Louisiane, tirée
d’un article sur le site nytimes qui porte sur les inondations de
Louisiane . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

Figure 1.7 Carte représentant les dommages causés par les inondations au
Soudan, tirée du site de la Charte (inondations au Soudan) . . . . . . . . . . . . . . . . . . 21

Figure 1.8 Quelques bâtiments endommagés dans la ville de Port-au-Prince,


tirée d’un article sur le site planete gaia (sismologie) . . . . . . . . . . . . . . . . . . . . . . . . . 22

Figure 1.9 Exemple de carte de dommages générée lors du tremblement de


terre d’Haïti, tirée du site de la Charte (tremblement de terre
d’Haïti) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

Figure 1.10 La zone affectée par le tsunami est délimitée par le cercle jaune,
tirée de la présentation de Dan G.Blumberg intitulée Processing
remote sensing data for solving environmental problems . . . . . . . . . . . . . . . . . . . . 24

Figure 1.11 Récupération des franges d’interférence générées en se basant sur


des images SENTINEL-1A du séisme au Chili, tirée du site du
projet INSARAP (les données sont disponibles dans les formats
KMZ et GeoTiff ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

Figure 2.1 Exemple de ligne manquante, tirée du site de ressources naturelles


Canada (ressources éducatives sur la géomatique) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36

Figure 2.2 Effet de la l’atmosphère sur le spectre solaire, tirée de Richards


(2013) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
XXIV

Figure 2.3 Les deux types de diffusions résultantes du passage du


rayonnement solaire par l’atmosphère, tirée de Richards (2013) . . . . . . . . . . . . . 37

Figure 2.4 Effet de la courbe du rayonnement solaire et de l’atmosphère, tirée


de Richards (2013) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38

Figure 2.5 Les effets de la variation dans la vitesse et l’altitude du satellite,


tirée de Richards (2013). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

Figure 2.6 Spectre du rayonnement solaire, tirée de Wikipédia . . . . . . . . . . . . . . . . . . . . . . . . . . 45

Figure 2.7 Les opérateurs morphologiques de base, tirée de Rolf Ingold,


university of Fribourg 2006 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

Figure 2.8 Les résultats de la détection des routes, tirée de Mohammadzadeh


et al. (2006) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52

Figure 2.9 Approche proposée par Jinxin et al. (2006) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54

Figure 2.10 Résultat de l’application de la méthode de Sun & Mao (2011) sur
une image RSO. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55

Figure 2.11 Résultat de l’approche décrite dans Mena & Malpica (2005) . . . . . . . . . . . . . . . . 56

Figure 2.12 Résultats de l’extraction des routes pour les sites 1 et 2 . . . . . . . . . . . . . . . . . . . . . . 58

Figure 2.13 Les résultats de la détection des routes, tirés du travail de


Herumurti et al. (2013). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61

Figure 2.14 Utilisation des périmètres comme des germes pour la croissance de
région. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62

Figure 2.15 Résultats de l’extraction des routes par application de la méthode


proposée dans Shackelford & Davis (2003) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63

Figure 2.16 Une route perçue à différentes échelles. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64

Figure 2.17 Résultat de la simulation obtenue par Salari dans Salari & Zhu
(2012) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65

Figure 2.18 Deux images en niveaux de gris caractérisées par deux textures
distinctes et deux histogrammes identiques, tirées de la thèse
Germain (1997) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70

Figure 2.19 (a) L’image de test (b) Résultat de la segmentation de l’image . . . . . . . . . . . . . . 75


XXV

Figure 2.20 Identification des dommages : (a) des bâtiments et (b) des routes (à
partir d’une deuxième zone de l’image d’entrée) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75

Figure 2.21 Le résultat de l’application de la technique décrite dans Sohn et al.


(2005) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76

Figure 2.22 Résultat de la technique proposée dans Haghighattalab et al.


(2010) : la couleur rouge décrit les routes non praticables et la
couleur bleue désigne celles praticables. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77

Figure 2.23 (a) Région des dommages (b) Affectation des dommages à des
classes d’évaluation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79

Figure 2.24 Les étapes de l’algorithme proposé par Skakun et al. (2014) pour
estimer la fréquence relative des inondations. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80

Figure 2.25 Approche proposée par Rastiveis et al. (2015) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81

Figure 3.1 les divisions récursives de l’image et la notion de blocs dyadiques . . . . . . . . . . 84

Figure 3.2 La notion de multiéchelle dans la transformée en beamlets . . . . . . . . . . . . . . . . . . 85

Figure 3.3 Les sommets dans les 4 premières échelles. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86

Figure 3.4 L’interpolation d’un beamlet par application de l’algorithme de


Bresenham . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88

Figure 3.5 Décomposition en pyramide de beamlets de la carte des contours,


tirée de Yudin et al. (2007) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90

Figure 3.6 Les étapes de l’algorithme d’extraction des routes . . . . . . . . . . . . . . . . . . . . . . . . . . . 92

Figure 3.7 Application de la transformée en beamlets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96

Figure 3.8 La reconstruction du réseau routier en se basant sur la cinquième


étape de notre algorithme : (a) Cas de beamlets connectés (b) Cas
de beamlets non connectés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99

Figure 3.9 La différence entre la distance euclidienne et la mesure de


similarité de Hausdorff, tirée de la thèse de Manolova (2011) . . . . . . . . . . . . . .101

Figure 3.10 La décomposition en ondelettes d’un signal continu . . . . . . . . . . . . . . . . . . . . . . . . .104

Figure 3.11 La décomposition en ondelettes d’une image à l’échelle j, HL,


LH, HH, représentent les trois images de détails à chaque échelle
XXVI

caractérisées par les directions horizontale, verticale et diagonale,


LL décrit les coefficients de basse fréquence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .105

Figure 3.12 Les étapes de l’algorithme de détection et d’évaluation des


dommages des routes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .108

Figure 3.13 Les étapes de la segmentation multiéchelle de l’image . . . . . . . . . . . . . . . . . . . . . .110

Figure 3.14 Les étapes de l’algorithme de détection et d’évaluation des


dommages des routes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .117

Figure 3.15 L’épicentre du séisme est situé tout près de Port-au-Prince, tirée
d’un article publié sur le site web academic . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .119

Figure 3.16 Les résultats de l’application de la méthodologie proposée sur les


images de test. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .122

Figure 3.17 Les résultats obtenus par application de la transformée en beamlets


sur une zone rurale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .123

Figure 3.18 Le principe de la méthode d’évaluation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .124

Figure 3.19 Le temps d’exécution de l’algorithme proposé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .127

Figure 3.20 L’évolution du nombre de beamlets en fonction de la taille de


l’image . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .128

Figure 3.21 Comparaison entre les résultats de la méthode proposée et la


méthode de Coulibaly et al. (2014) : (a,b,c) représentent la zone
d’étude 1 : région urbaine, la zone d’étude 2 : région rurale, et
la zone d’étude 3 : région périurbaine, respectivement, et leurs
vecteurs routes associés (d,e,f). Le résultat de l’application de la
méthode de Coulibaly et al. (2014) sur les trois zones de test
est montré dans (g,h,i), et (j,k,l) décrivent les résultats de notre
méthode proposée. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .130

Figure 3.22 Résultats de l’application des différentes étapes de notre approche . . . . . . . . .132

Figure 3.23 Comparaison de notre technique avec des approches existantes . . . . . . . . . . . .135

Figure 4.1 Cas d’une polarisation elliptique, tirée de la thèse de Comblet


(2005) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .144

Figure 4.2 Les quatre mécanismes de rétrodiffusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .147

Figure 4.3 Mode d’acquisition latérale du capteur RSO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .149


XXVII

Figure 4.4 Les différentes directions possibles pour l’analyse de texture . . . . . . . . . . . . . . .152

Figure 4.5 Résultat de l’application de la transformée en ondelettes sur une


image radar, tiré de Gupta & Gupta (2007). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .156

Figure 4.6 Schéma général de l’approche proposée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .158

Figure 4.7 L’image RSO de la rivière Jacques-Cartier utilisée en entrée


(L’échelle approximative de la figure est 1 : 40 000 et la taille de la
région d’intérêt est 7.5 × 5.5 km2 ). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .159

Figure 4.8 Illustration du concept des lignes de direction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .160

Figure 4.9 Application de la mesure de texture SFS-SD sur l’image d’entrée . . . . . . . . . .162

Figure 4.10 Le résultat de l’application de l’opérateur morphologique


d’ouverture par des chemins . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .165

Figure 4.11 Le schéma général de l’étape de suivi de la structure de la rivière . . . . . . . . . .166

Figure 4.12 Le résultat de la phase de filtrage des lacs obtenu par application
de l’algorithme de Rotating Calipers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .167

Figure 4.13 Schéma général de la méthode proposée pour identifier les zones
inondées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .169

Figure 4.14 Images RADARSAT-2 acquises avant et après les inondations de


la rivière Richelieu et obtenues dans le cadre de l’initiative de
recherche sur les applications scientifiques et opérationnelles -
Éducation (SOAR-E) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .170

Figure 4.15 Résultat de l’application de la mesure de texture SFS-SD . . . . . . . . . . . . . . . . . . .171

Figure 4.16 Le résultat de l’application de l’opérateur morphologique


d’ouverture par des chemins . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .172

Figure 4.17 Les trois fonctions d’appartenance floue associées aux trois classes
de l’image . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .174

Figure 4.18 La couleur jaune désigne le bassin du lac Champlain et de la rivière


Richelieu tirée de Wikipédia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .175

Figure 4.19 Le résultat de la méthode proposée pour l’extraction des rivières . . . . . . . . . . .177

Figure 4.20 Une illustration de la deuxième métrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .182


XXVIII

Figure 4.21 Le temps d’exécution en fonction de la taille de l’image . . . . . . . . . . . . . . . . . . . .184

Figure 4.22 Les résultats obtenus par application du seuil d’Otsu et les contours
actifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .186

Figure 4.23 Le résultat de la méthode proposée par Klemenjak et al. (2012) . . . . . . . . . . . .189

Figure 4.24 Les résultats obtenus par application de notre approche pour
l’extraction des zones inondées (la zone en bleu clair qui désigne
la surface de la rivière et la zone en bleu foncé désigne l’étendue
de l’inondation) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .193

Figure 4.25 Les images du satellite EO-1/ALI utilisées dans l’expérimentation . . . . . . . . .195
LISTE DES ABRÉVIATIONS, SIGLES ET ACRONYMES

ASC Agence spatiale canadienne

ASE Agence spatiale européenne

Charte Charte internationale Espace et catastrophe majeure

CNES Centre national d’études spatiales (France)

DKL Divergence de Kullback-Leibler

DLR Agence spatiale allemande

DMC Disaster monitoring constellation : Constellation de gestion des catastrophes

ÉTS École de Technologie Supérieure

GDAL Geospatial Data Abstraction Library

GIO EMS GIO Emergency Management Service : Service de Cartographie d’Urgence


Copernicus GIO

JERS Japan Earth Resources Satellite

LIDAR Light detection and ranging : Télédétection par laser

LIVIA Laboratoire d’imagerie, de vision et d’intelligence artificielle

NASA National Aeronautics and Space Administration : L’Administration nationale


de l’aéronautique et de l’espace (États-Unis)

ONU L’organisation des Nations unies

ORFEO optical and radar federated earth observation

OTB Boîte à outils Orfeo

PDF Probability density function : Fonction de densité de probabilité

QGIS Système d’information géographique libre et open source

REM Raisonnement evidentiel multidimensionel

ROC Receiver operating caracteristic : Caractéristique de fonctionnement du ré-


cepteur
XXX

RSO Radar à synthèse d’ouverture

SFS-SD Structural feature set - Standard Deviation

SIG Système d’information géographique

SIFT Scale-invariant feature transform : Transformation de caractéristiques vi-


suelles invariante à l’échelle

SLC Single Look Complex : Complexe à visée simple

SVM Séparateur à vaste marge

SPOT Système probatoire d’observation de la Terre (CNES - France)

TOC Transformée en ondelettes continue

TOD Transformée en ondelettes discret

THR Très haute résolution (spatiale)

TF Transformée de Fourier

TFI Transformée de Fourier Inverse

UNISPACE United Nations Conference on the Exploration and Peaceful Uses of Outer
Space

UNOSAT Programme opérationnel pour les applications satellitaires de l’institut des


Nations unies pour la formation et la recherche

ZKI Zentrum für Satellitengestützte Kriseninformation : Centre d’information de


crise basée sur l’imagerie satellitaire (Allemagne)
LISTE DES SYMBOLES ET UNITÉS DE MESURE

BetP Le maximum de la probabilité pignistique

χ L’angle d’ellipticité

λ La longueur d’onde

θ Les hypothèses définies par la théorie des fonctions de croyances

Θ Le cadre de discernement de la théorie des fonctions de croyances

O La complexité algorithmique

ψ La fonction mère de la transformée en ondelettes

Ψ L’onde polarisée

Tf (b) La transformée en Beamlets d’une fonction continue


~E Le vecteur champ électrique

0/ L’ensemble vide

⊕ La règle conjonctive de combinaison de Dempster

∧ Le ET logique

RVB Rouge, Vert, Bleu

TSL Teinte, Saturation, Luminance


INTRODUCTION

Durant les trente dernières années, le nombre de catastrophes n’a pas cessé d’augmenter allant
de 300 catastrophes/an en 1980 à 1000 catastrophes/an de nos jours. De ce fait, plusieurs pays
et organisations nationales et internationales ont été impliqués dans l’effort international qui
vise à : fournir l’information nécessaire sur l’ampleur des désastres, faciliter l’intervention des
équipes de secours lors d’une catastrophe majeure et synchroniser l’effort international afin
d’apporter l’aide nécessaire aux régions sinistrées. En réalité, lors d’une catastrophe majeure,
il est très difficile pour un humain d’évaluer la situation sur le terrain et d’y avoir accès, d’où
l’utilité de l’information fournie par les images satellitaires dans l’organisation d’une réponse
rapide et efficace, afin d’orienter les équipes de secours à l’aide des cartes de dégâts et d’iden-
tifier les voies de communication encore opérationnelles pour apporter l’aide nécessaire.

La télédétection occupe souvent une place primordiale dans l’élaboration d’une chaîne de
risque rapide et efficace vu qu’elle permet aux autorités d’identifier les zones d’intérêts et
d’évaluer la situation en peu de temps après la catastrophe Gitas et al. (2008), Thomas et al.
(2007). Cela a poussé plusieurs pays à lancer leurs propres satellites et améliorer la résolution
spatiale des capteurs embarqués à bord des satellites. Une telle amélioration a été accompa-
gnée d’une augmentation exponentielle de la taille des images satellitaires qui est passée de
quelques kilooctets à des gigaoctets, ce qui rend la tâche du photo-interprète de plus en plus
difficile. Ceci nécessite l’automatisation de l’opération d’évaluation des dégâts des structures
linéaires et de l’identification des routes praticables, pour permettre de gagner du temps pré-
cieux dans ces situations.

C’est dans ce cadre que s’inscrit cette thèse qui vise à élaborer une chaîne de traitements effi-
caces et opérationnels pour l’extraction des structures linéaires et l’évaluation des dégâts subis
par les voies de communication suite à une catastrophe majeure. Il est décisif après un désastre
d’avoir une idée préliminaire sur les zones les plus touchées et d’évaluer la sévérité de la si-
tuation afin de fournir l’aide nécessaire et de faire une estimation sommaires des pertes. Nous
nous intéressons en particulier à deux catastrophes majeures : 1- le tremblement de terre qui eu
a lieu à Haïti le 12 janvier 2010. Avec une magnitude de 7,0 sur l’échelle de Richter, cette ca-
2

tastrophe a eu lieu dans l’un des pays les plus pauvres du monde et a causé la mort de 300.000
personnes et plus d’un million de personnes déplacées ; 2- les inondations du lac Champlain
et de la rivière Richelieu qui ont frappé le Québec en 2011. Ces inondations sont considérées
comme l’un des phénomènes météorologiques les plus dévastateurs qui ont frappé le Canada
en 2011 vu qu’elles ont causé des dommages importants à 6.000 hectares de terres agricoles et
ont touché près de 3000 maisons et chalets. Ces événements peuvent être considérés comme
étant des cas de catastrophes extrêmes pour les dommages générés et pour la grande quantité
d’observations satellitaires faites durant ces désastres. Plusieurs images acquises par le satellite
radar RADARSAT-2 et le satellite optique GeoEye-1 avant et après ces catastrophes sont utili-
sées pour extraire les dommages causés par l’impact de ces deux désastres en se basant sur les
techniques décrites dans cette thèse. Les résultats obtenus montrent la robustesse des méthodes
proposées face au bruit et leur efficacité comparé aux approches existantes.

Problématique

Le problème d’extraction des structures linéaires à partir des images satellitaires à très haute
résolution est un problème très discuté Mohammadzadeh et al. (2006), Chaudhuri et al. (2012),
Jinxin et al. (2006), Sun & Mao (2011), Mena & Malpica (2005), Zhang & Lin (2010), Zhu
et al. (2015), Herumurti et al. (2013), Wei & Feng (2016), Shackelford & Davis (2003), Naouai
et al. (2011) et Salari & Zhu (2012) vu la variété radiométrique et structurelle de ces objets
recherchés dans l’image. En effet, les structures linéaires sont caractérisées par une réponse
radiométrique qui varie d’une ville à une autre et d’une région à une autre, dépendamment du
couvert bitumineux utilisé dans la construction, ce qui rend la caractérisation radiométrique
des ces structures une tâche très compliquée. Dans le cas des images radar, il existe plusieurs
objets de réponse radiométrique similaire et la présence du bruit radar appelé chatoiement rend
impossible la caractérisation radiométrique des structures linéaires. Du point de vue forme, les
structures linéaires dans les images satellitaires ne gardent pas une forme droite, mais plutôt une
forme non régulière, caractérisée parfois par des courbures locales. En plus de ces contraintes
en relation avec les caractéristiques propres à ces objets, la présence d’occlusions sur les bords
3

de la route ou de la rivière comme les ponts, les arbres ou l’ombre des bâtiments provoquent
des discontinuités dans la structure de l’objet d’intérêt et empêche l’interprétation de la forme
globale détectée.

Avant de pouvoir détecter les changements entre les images de l’avant et de l’après-catastrophe,
il est nécessaire d’effectuer plusieurs traitements afin de corriger les erreurs liées aux diffé-
rentes prises de vue, différences entre les capteurs utilisés, conditions d’observations et d’éclai-
rages et s’assurer que les images traitées correspondent à la même scène d’intérêt. Lors d’une
catastrophe majeure, le temps est très précieux, les algorithmes existants et conçus pour la dé-
tection des voies de communication ou l’identification des décombres des édifices se trouvent
en face d’images non traitées, bruitées et difficiles à traiter. Cela produit des erreurs dans la
détection des dommages subis par l’infrastructure et génère un ratio de fausses alarmes élevé.
Ceci pousse les photo-interprètes dans certaines situations à revenir à la méthode traditionnelle
et à utiliser l’interprétation visuelle qui coûte un temps précieux.

Un autre problème que nous devrons envisager dans cette thèse est la détection de change-
ment qui représente un problème très courant en traitement d’images en général et en imagerie
satellitaire en particulier. Elle est définie comme étant le processus d’analyse des images sa-
tellitaires multitemporelles acquises à partir de la même région géographique pour identifier
le changement. Cette définition très vague inclut les changements causés par la modification
de l’occupation du sol et les changements originant d’une catastrophe. Malheureusement, il
n’existe pas une technique capable de détecter directement les changements causés par la ca-
tastrophe et de les caractériser, il est donc important de passer par une détection de l’ensemble
des changements issus de la comparaison des deux images, puis de distinguer les changements
causés par l’impact de la catastrophe, ce qui n’est pas une tâche évidente.

Diverses contraintes sont aussi imposées par le cadre de cette thèse et qui concernent le temps
d’exécution de l’algorithme, qui devrait être raisonnable afin qu’il garantisse une réponse ef-
ficace et rapide. La précision des résultats et les performances élevées des algorithmes déve-
loppés sont aussi importantes, car des expériences passées ont montré que dans le cadre d’une
4

catastrophe, l’ajout sur la carte des dommages d’une information incertaine peut causer une
perte énorme en temps précieux et donne une fausse estimation de l’ampleur de l’événement.

Objectif principal de la thèse

L’objectif principal de cette thèse est d’évaluer les dommages aux structures linéaires suite à
une catastrophe majeure afin d’aider les photointerprètes dans le processus de génération des
cartes de dégâts acheminées vers les autorités et les équipes de secours et utilisées dans l’or-
ganisation des opérations de sauvetage. Lors d’un désastre, l’infrastructure de la zone sinistrée
subit des dommages de degrés variés. Notre but consiste à définir une évaluation précise et
rapide de la situation des structures linéaires qui permette d’atteindre les victimes et d’apporter
les premiers secours dans le cas des tremblements de terre et de déterminer les limites de l’éten-
due de l’eau dans le cas des inondations. Afin de réaliser cet objectif, nous nous trouvons dans
l’obligation de passer par certains objectifs spécifiques qui permettront à leur tour d’atteindre
l’objectif principal de cette thèse.

Objectifs spécifiques

Les différents objectifs secondaires que nous visons dans ce travail de thèse sont :

— Développer une méthode robuste pour extraire les routes en minimisant les fausses alarmes.
Il est en effet plus facile pour un photo-interprète lors du traitement d’une image issue
d’une catastrophe d’ajouter des routes non détectées par l’algorithme que de supprimer
des objets qui n’appatiennent pas à la classe route, mais détectés comme telle ;

— Proposer un algorithme dédié pour l’identification des rivières à partir des images radar
à synthèse d’ouverture caractérisé par une faible sensibilité au chatoiement et capable de
distinguer les rivières à partir d’autres objets de formes similaires comme les routes et de
dimensions similaires comme les lacs ;

— Détecter les changements subis par le réseau routier et identifier les routes non praticables.
En effet, les équipes de secours n’ont pas seulement besoin d’indications sur les routes
5

touchées par le désastre, mais d’une information claire sur l’état de chaque route et de son
accessibilité ;

— Délimiter précisément l’étendue des inondations en se basant sur une comparaison entre
les zones d’eau identifiées à partir des images de l’avant et de l’après-catastrophe et géné-
rer une carte détaillée indiquant les zones inondées ;

— Fournir un outil de traitement d’images permettant à notre partenaire industriel (Effigis


Géo Solutions) de fournir une réponse rapide et efficace quand ses services sont mandatés
par le gouvernement ou les organismes responsables ;

— Contribuer à l’enrichissement de la plateforme de traitement d’images satellitaires Optical


and Radar Federated Earth Observation toolbox (OTB) Christophe & Inglada (2009) par
intégration d’un module dédié pour l’évaluation des dégâts des structures linéaires : la
plateforme OTB est une collection de fonctions de télédétection en logiciel libre. Nous
voudrons ajouter des fonctionnalités à OTB afin de lui donner la possibilité d’identifier
le réseau routier et les rivières suite à une catastrophe de type tremblement de terre ou
inondation et évaluer les dégâts. Le produit final sera capable de distinguer les routes
praticables indépendamment de la zone d’étude ou de la nature des routes que présente la
région sinistrée et d’identifier avec précision les plans d’eau et l’étendue des inondations.

Hypothèses

La réalisation des objectifs mentionnés dépend de la validité des hypothèses suivantes :

— Première hypothèse : nous supposons que les images utilisées dans le cadre de cette thèse
ont déjà été prétraitées et recalées, et que les distorsions radiométriques, géométriques et
atmosphériques ont été corrigées. Nous voudrions souligner que malgré le fait que la plu-
part des approches développées dans ce travail sont robustes par rapport à la plupart de
ces distorsions mentionnées, cette étape reste importante et inévitable. Les techniques em-
ployées pour éliminer ces distorsions sont discutées en détail dans le deuxième chapitre,
mais nous ne traitons pas ce problème dans la partie méthodologie puisqu’il fait partie des
tâches accomplies par notre partenaire industriel Effigis.
6

— Deuxième hypothèse : cette thèse s’inscrit dans le cadre de la Charte internationale :


Espace et catastrophes majeures Bessis et al. (2004), ce qui implique que nous nous inté-
ressons aux catastrophes supportées par la Charte comme les tremblements de terre et les
inondations. Cela implique aussi que nous devrions respecter une contrainte sur le temps
d’exécution des algorithmes qui ne devrait pas excéder six heures (la durée moyenne né-
cessaire pour générer une carte de dommage manuellement par un photointerprète).

— Troisième hypothèse : les images radar et optiques utilisées pour l’évaluation des dom-
mages ont été acquises peu de temps après la catastrophe, puisque nous nous intéressons
particulièrement à la phase de réponse dans le cycle de gestion des catastrophes et non pas
aux phases de mitigation ou de préparation. Aussi les données d’archives ne datent pas
de plus d’un ou deux ans pour avoir une bonne idée sur l’occupation du sol peu de temps
avant la catastrophe.

Plan de la thèse

La présente thèse s’organise en quatre chapitres : le premier chapitre est consacré à la présenta-
tion de la Charte internationale espace et catastrophes majeures qui constitue le cadre applicatif
de cette thèse. Le processus d’activation de la Charte, ainsi que le rôle des différents interve-
nants sont décrits en détail. Ce chapitre aborde aussi les statistiques d’activation de la Charte
durant ces quinze dernières années et cite quelques exemples d’activations majeures.

Le deuxième chapitre dresse une synthèse bibliographique des différentes méthodes d’extrac-
tion des structures linéaires à partir des images satellitaires optiques à très haute résolution
en précisant les avantages et les inconvénients de chaque famille d’approches dans le but de
situer ce travail de thèse par rapport aux approches existantes et justifier le choix de la mé-
thodologie adoptée. La deuxième partie de cette revue de littérature s’intéresse à la mise en
contexte du problème d’évaluation des dommages par rapport à la problématique de détection
de changements. Les différentes distorsions radiométriques, géométriques et atmosphériques
qui touchent les images satellitaires sont aussi présentées dans ce chapitre et les techniques
généralement utilisées pour corriger ces problèmes sont exposées et expliquées en détail.
7

La méthodologie adoptée pour résoudre le problème d’extraction du réseau routier et l’éva-


luation de ses dommages suite à un tremblement de terre est décrite dans le troisième cha-
pitre. Basée sur la transformée multiéchelle en beamlets, l’approche introduite dans ce chapitre
réalise une décomposition multiéchelle de la carte des contours extraite à partir de l’image
d’entrée pour identifier les candidats routes dans un premier temps, puis reconstruit le réseau
routier par agrégation des beamlets identifiés à des échelles inférieures. La deuxième étape
d’évaluation des dommages vise à identifier les dégâts sur la surface de la route par applica-
tion d’une segmentation basée sur la transformée en ondelettes et la segmentation par ligne
de partage des eaux. Une liste des objets qui ont subi un changement est générée en utilisant
la divergence de Kullback-Leibler et la théorie des fonctions de croyance est appliquée pour
distinguer les changements dus à la catastrophe. Une étude expérimentale complète est réalisée
sur des images acquises avant et après le tremblement de terre d’Haïti.

Le quatrième chapitre expose la technique mise en oeuvre pour extraire des zones d’eau en cas
d’inondation. Une méthode basée sur la combinaison d’un descripteur local de texture et des
connaissances globales sur la forme de l’objet d’intérêt est introduite pour résoudre le problème
d’extraction des rivières à partir des images radar à synthèse d’ouverture. La logique floue est
aussi employée dans le but d’identifier le changement qui caractérise l’étendue d’eau causée
par les inondations. Une analyse quantitative et qualitative menée sur des données satellitaires
acquises lors des inondations de la rivière Richelieu est par la suite exposée.

Le dernier chapitre est consacré à la conclusion générale qui rappelle brièvement les différentes
approches proposées dans cette thèse et présente les perspectives visées dans nos travaux futurs.
Une liste des recommandations issues de cette thèse est dressée, par la suite, dans le but de tirer
des conclusions à partir de ce travail et supporter par conséquent l’usage de la télédétection en
tant qu’outil incontournable pour l’aide à la gestion des catastrophes.

Contributions de la thèse

Le tableau 0.1 résume les contributions principales de cette thèse.


8

Tableau 0.1 Contributions de cette thèse

Titre Conférence ou journal Référence Sections

Road Extraction From Very IEEE Journal of Selected To- Sghaier & Le- 2.3, 2.4,
High Resolution Remote Sen- pics in Applied Earth Obser- page (2016) 2.5, 3.2,
sing Optical Images Based on vations and Remote Sensing 3.5
Texture Analysis and Beam- (JSTARS), 2016
let Transform

A novel approach toward ra- IEEE International Geos- Sghaier et al. 2.3, 2.4,
pid road mapping based on cience and Remote Sensing (2014) 2.5, 3.2,
beamlet transform Symposium (IGARSS), 2014 3.5

Road extraction from high IEEE International Geos- Coulibaly 2.3, 2.4,
resolution remote sensing cience and Remote Sensing et al. (2014) 2.5, 3.2,
image using multiresolution Symposium (IGARSS), 2014 3.5
in case of major disaster

Change detection using 8th International Workshop Sghaier & Le- 2.7, 2.8,
multiscale segmentation and on the Analysis of Multitem- page (2015b) 3.4, 3.5
Kullback-Leibler divergence: poral Remote Sensing Images
Application on road damage (Multi-Temp), 2015
extraction

Road damage detection from IEEE International Geos- Sghaier & Le- 2.7, 2.8,
VHR remote sensing images cience and Remote Sensing page (2015a) 3.4, 3.5
based on multiscale texture Symposium (IGARSS), 2015
analysis and dempster shafer
theory

River extraction from high- IEEE Journal of Selected To- Sghaier et al. 2.3, 2.4,
resolution SAR images com- pics in Applied Earth Obser- (2016a) 2.5, 4.4,
bining a structural feature vations and Remote Sensing 4.6
set and mathematical mor- (JSTARS), 2016
phology

Combination of texture and IEEE International Geos- Sghaier et al. 2.3, 2.4,
shape analysis for a rapid ri- cience and Remote Sensing (2016b) 2.5, 4.4,
vers extraction from high re- Symposium (IGARSS), 2016 4.6
solution SAR images
CHAPITRE 1

CHARTE INTERNATIONALE ESPACE ET CATASTROPHES MAJEURES

1.1 Introduction

Peu importe leur origine naturelle ou humaine, les catastrophes majeures partagent en commun
leur impact dévastateur et dramatique sur les vies humaines, l’environnement et les infrastruc-
tures. Des désastres de grande ampleur comme les inondations, les tremblements de terre ou
encore les feux de forêt constituent une vraie catastrophe humanitaire nécessitant l’interven-
tion non seulement des autorités locales, mais aussi des organismes et des organisations na-
tionales vu leur ampleur et leur étendue. Plusieurs initiatives ont été lancées en faveur de la
collaboration mondiale visant à unir les efforts et à renforcer la capacité de réponse aux ca-
tastrophes majeures. Parmi elles, la Charte internationale espace et catastrophes majeures qui
offre un cadre opérationnel pour la réponse aux catastrophes majeures. La Charte se distingue
des autres mécanismes mis à la disposition des pays sinistrés en favorisant l’utilisation de don-
nées satellitaires. En réalité, lors d’une catastrophe majeure, il est très difficile pour un humain
d’évaluer la situation sur le terrain et d’y avoir accès, d’où l’utilité de l’information fournie par
les images satellitaires dans l’organisation d’une réponse rapide et efficace pour orienter les
équipes de secours à l’aide des cartes de dégâts et identifier les voies de communication encore
opérationnelles pour apporter l’aide nécessaire. La première partie de ce chapitre sera consa-
crée à la présentation d’une vue d’ensemble de la Charte en spécifiant le processus d’activation,
ses différents membres et les ressources satellitaires mis à la disposition. La deuxième partie
exposera quelques statistiques de la Charte ainsi que des exemples d’activations récentes. Nous
clôturons ce chapitre par une description des différentes cartes de dommages produites et les
méthodes employées dans le processus de génération de ces dernières.
10

1.2 Vue d’ensemble de la Charte

1.2.1 Historique

Figure 1.1 Le logo de la Charte

L’idée d’initier la Charte internationale espace et catastrophe majeure 1.1 remonte à la confé-
rence UNISPACE III qui a eu lieu à Vienne (Autriche) en juillet 1999 Bessis et al. (2004) et
Ito (2005). Durant cette conférence, l’intérêt de l’utilisation de la technologie spatiale dans la
résolution des problèmes à l’échelle mondiale a été discuté par les participants et des appels à
l’établissement d’un cadre officiel de collaboration dans ce domaine ont été lancés. Ces appels
ont été concrétisés par l’Agence Spatiale Européenne (ASE) et le Centre Nationale d’Étude
Spatiale français (CNES) en juin 2000, en signant la Charte et en offrant la possibilité à d’autres
agences spatiales de s’y inscrire. La réponse de l’Agence Spatiale Canadienne (ASC) à cette
initiative n’a pas tardé et en octobre 2000, elle s’est jointe à l’ASE et le CNES pour former
les trois membres fondateurs. Le but principal était de fournir un mécanisme efficace pour la
gestion des catastrophes majeures en fournissant gratuitement des données satellitaires issues
des satellites appartenant aux différents membres de la Charte et l’expertise nécessaire pour le
traitement de ces images afin d’en tirer profit en cas de catastrophe.

Depuis sa création en 2000, la Charte a continué à accueillir de nouveaux membres pour


atteindre, en 2015, 15 membres partagés entre agences spatiales et fournisseurs de données
géospatiales. Cette expansion lui a donné accès à de nouvelles ressources satellitaires adé-
quates pour divers types de catastrophes, comme les capteurs radars utilisés généralement en
11

cas d’inondation vu leur capacité à pénétrer les nuages et les capteurs optiques efficaces en
cas de tremblement de terre. La Charte supporte plusieurs types de catastrophes d’origine na-
turelle comme les tremblements de terre, les feux de forêt, les inondations, les glissements
de terrain, les tsunamis et les éruptions volcaniques et quelques catastrophes d’origine hu-
maine comme les déversements d’hydrocarbures et les accidents industriels. Cependant, les
catastrophes à évolution temporelle lente comme la sécheresse ne sont pas supportées parce
qu’elles ne sont pas soudaines et elles ne représentent pas un danger sur les vies humaines à
court terme. En 2003, l’ONU a eu, à son tour, l’autorisation de déclencher la Charte au nom
de ses pays membres et était autorisée à produire elle-même les cartes de dommages si désiré.
L’ONU devenait ainsi un partenaire privilégié et important de la Charte. Dans les faits, l’ONU
n’est pas un membre officiel du mécanisme, mais elle est autorisée à demander l’activation de
la Charte au nom des agences des Nations Unies dans les pays affectés par les catastrophes.
D’autres accords avec l’Asie/Pacifique et l’Afrique ont par la suite été signés. C’est depuis
2012 que l’accès universel a été mis en place qui permet à tout pays accrédité d’accéder aux
ressources de la Charte.

1.2.2 Processus d’activation de la Charte

La Charte met à la disposition de ses membres un mécanisme d’activation simple et efficace,


permettant un accès rapide à ses différents services offerts en tout temps. L’accès à la Charte
débute par un appel à un opérateur téléphonique disponible jour et nuit pour répondre aux
urgences liées aux catastrophes dans le cadre de la Charte. Seuls les utilisateurs autorisés ont ce
privilège et peuvent en tout temps composer ce numéro unique afin de demander la mobilisation
des ressources satellitaires associées à la Charte. L’opérateur de la Charte transmet, par la suite,
la demande à l’ingénieur d’astreinte qui communique avec les agences spatiales et affecte les
ressources spatiales appropriées en fonction de la nature de la catastrophe et la disponibilité
des satellites à proximité Saint-Jean (2005). Entre temps, un chef de projet est désigné par
le secrétariat exécutif de la Charte ayant comme rôle de poursuivre le travail de l’ingénieur
d’astreinte en planifiant l’acquisition d’autres images satellitaires si nécessaire, la coordination
12

Figure 1.2 Processus d’activation de la Charte, tirée du site de la Charte (Étapes du


processus d’activation)

entre les agences spatiales, l’utilisateur final et l’organisme à valeur ajoutée. Il s’assure aussi
de la livraison des données appropriées à l’utilisateur final. Des cartes des zones touchées sont
finalement produites et sont fournies à l’utilisateur final servant de référence pour les autorités
locales dans l’organisation des opérations de secours. La figure 1.2 illustre les différentes étapes
du processus d’activation de Charte, nous allons dans ce qui suit décrire avec plus de détails le
rôle de chaque intervenant dans ce processus :

— Rôle des utilisateurs autorisés : composés généralement des organismes de protection ci-
vile, de sauvetage ou de défense, les utilisateurs autorisés, en tant qu’organismes associés
à la Charte, ont le droit de la déclencher en tout temps. En cas de catastrophe majeure, ils
peuvent demander des images satellitaires des zones sinistrées afin de faciliter leur inter-
vention sur le terrain. Pour activer la Charte, les utilisateurs autorisés disposent du numéro
de téléphone confidentiel de l’opérateur de la Charte.

— Rôle de l’opérateur de la Charte : ayant comme rôle principal de recevoir les appels en
provenance des utilisateurs autorisés, l’opérateur de la Charte s’assure aussi de l’identité
13

du demandeur et transmet la demande contenant les informations nécessaires à l’ingénieur


d’astreinte. Comme il représente l’unique moyen de déclencher la Charte, l’opérateur de
la Charte reste à la disposition des utilisateurs autorisés 24 heures sur 24 durant tous les
jours de la semaine.

— Rôle de l’ingénieur d’astreinte : à la réception de l’information nécessaire sur la catas-


trophe de la part de l’opérateur de la Charte, l’ingénieur d’astreinte se charge de l’allo-
cation des ressources satellitaires appropriées et de l’élaboration d’un plan d’acquisition
préliminaire. C’est à lui aussi de communiquer avec les agences spatiales afin d’obtenir
des images d’archives ou planifier des nouvelles acquisitions si nécessaire. La tâche de
l’ingénieur d’astreinte nécessite sa disponibilité 24 heures sur 24 durant tous les jours de
la semaine pour pouvoir répondre à temps à des situations d’urgence.

— Rôle des membres de la Charte (les agences spatiales) : disposant des ressources satelli-
taires nécessaires pour la gestion des catastrophes, les agences spatiales planifient l’acqui-
sition des images de la zone sinistrée suivant la demande de l’ingénieur d’astreinte. Elles
peuvent aussi suggérer l’acquisition d’autres images suivant la nature de la catastrophe et
la disponibilité de leurs ressources satellitaires lors de l’événement.

— Rôle des organismes à valeur ajoutée : lors de leurs acquisitions, les images satellitaires
peuvent subir plusieurs distorsions dues à leur processus de formation. Les organismes
à valeur ajoutée jouent un rôle très important dans la formation de ces images à partir
des données brutes. Ils disposent de l’expertise nécessaire pour interpréter les images
satellitaires et extraire l’information nécessaire sur l’amplitude du désastre et sur les zones
les plus touchées. Ces données sont par la suite acheminées à l’utilisateur final afin de
l’orienter dans le processus de réponse à la catastrophe.

— Rôle du chef de projet : désigné par le secrétariat exclusif de la Charte, le chef de projet
complète le rôle de l’ingénieur d’astreinte en recommandant l’acquisition de nouvelles
images satellitaires si nécessaire et en confirmant la livraison des données satellitaires à
l’utilisateur final. Il choisit l’organisme à valeur ajoutée qui construira les diverses cartes
de dommage et se charge aussi de fournir un rapport final décrivant les différentes étapes
de l’activation de la Charte au secrétariat exécutif.
14

1.2.3 Organisations et organismes membres de la Charte et ressources satellitaires dis-


ponibles

Tableau 1.1 Tableau récapitulatif des membres de la Charte et des ressources


satellitaires disponibles
Membre Ressources Memb. Type Résolut. Tem. de Type de
satellitaires depuis d’image revisite catastrophe
Agence Spatiale ERS 2000 Radar 30 m 35 jours Inondation, tsunamis
Européenne (ESA) ENVISAT Mult./Rad. 3km/30m 3 jours Séismes, tempêtes, Ouragans
Sentinel-1A Radar 5m - 25m 12 jours Inondation, tsunamis
Centre national d’études SPOT(7) 2000 Pan./Mult. 1,5m/6m 1 jour Séismes, tempêtes, Ouragans
spatiales (CNES) Pléiades Pan./Mult. 0,5m/2m 26 jours Séismes, tempêtes, Ouragans
Formosat-2 Pan./Mult. 2m/8m 1 jour Séismes, tempêtes, Ouragans
Agence Spatiale RADARSAT-2 2000 Radar 3m- 3 jours Inondation, tsunamis
100m
Canadienne (ASC)
Agence Spatiale IRS 2001 Pan./Mult. 36m/72m 22 jours Séismes, tempêtes, Ouragans
de l’Inde (ISRO)
l’Agence d’observation POES 2001 Mult./Rad. 1km/20km 12 Séismes, tempêtes, Ouragans
océanique et atmosphérique heures
des États-Unis
GOES Multispec. 1km- - Séismes, tempêtes, Ouragans
10km
Commission Nat. Argentine SAC-C 2003 Pan./Mult. 35m/300m 16 jours Séismes, tempêtes, Ouragans
des Activités Spatiales
Agence d’exploration ALOS 2005 Mult./Rad. 2,5m/ 46 jours Séismes, tempêtes, Ouragans
aérospatiale japonaise 70km
Institut d’études Landsat 8 2005 Multispec. 15m- 16 jours Feux de forêt, éruption volca.
30m
géologiques des Quickbird Pan./Mult. 0,6m/2,4m 1-3 jours Séismes, tempêtes, Ouragans
États-Unis (USGS) GeoEye-1 Pan./Mult. 0,4m/1,8m 3 jours Séismes, tempêtes, Ouragans
DMC International UK-DMC 2005 Multispec. 30m- 14 jours Séismes, tempêtes, Ouragans
40m
Imaging (DMCii) ALSAT-1 Pan./Mult. 32m 4 jours Séismes, tempêtes, Ouragans
NigeriaSat-2 Pan./Mult. 30m/2,5m 2 jours Séismes, tempêtes, Ouragans
Administration nationale FY, SJ, ZY 2007 Multispec. 1,1km 12 jours Séismes, tempêtes, Ouragans
spatiale chinoise (CNSA) satellite series
Agence spatiale TerraSAR-X 2012 Radar 1m- 11 jours Inondation, tsunamis
800km
allemande (DLR) TanDEM-X Radar 12m 11 jours Inondation, tsunamis
Institut coréen de KOMPSAT-2 2012 Pan./Mult. 1m/4m 3 jours Séismes, tempêtes, Ouragans
recherche aérospatiale
Institut national de rech- CBERS-3 2012 Pan./Mult. 5m/10m 52 jours Séismes, tempêtes, Ouragans
erche spatiale (Brésil) &4
Organisation européenne Meteosat 2012 Multispec. 2,5km 30 min Séismes, tempêtes, Ouragans
pour l’exploitation de and Metop
satellites météorologiques satellite series
Agence fédérale spatiale RESURS-DK1 2013 Multispec. 1m 6 jours Séismes, tempêtes, Ouragans
russe (Roscosmos) KANOPUS-V
15

Comme le montre le tableau 1.1, depuis sa création en 2000, plusieurs agences spatiales se sont
rapidement jointes aux trois membres fondateurs de la Charte. D’abord, l’agence spatiale de
l’Inde et l’agence américaine d’observation océanique et atmosphérique ont joint la Charte en
2001, suivi de la commission nationale des activités spatiales de l’Argentine en 2003. En 2005,
trois autres agences spatiales sont devenues membre de la Charte, à savoir l’agence d’explo-
ration aérospatiale japonaise, l’institut d’études géologiques des États-Unis et la constellation
de gestion des catastrophes. L’agence spatiale chinoise a joint à son tour la Charte en 2007. Ce
n’est qu’en 2012 que l’agence spatiale allemande, l’institut coréen de recherche spatiale, l’ins-
titut national de recherche spatiale (Brésil) et l’organisation européenne pour l’exploitation de
satellites météorologiques ont rejoint aussi la Charte. Et depuis 2013, l’agence fédérale spatiale
russe fait partie de ce mécanisme. Étant donné que le but principal de la Charte est la mise à
la disposition des données satellitaires afin de faciliter la gestion des catastrophes majeures,
seules les agences spatiales qui possèdent des ressources satellitaires peuvent faire partie de
la Charte. Leurs contributions consistent à fournir, sur une base volontaire, des données satel-
litaires sous forme d’images récemment acquises de la catastrophe, des images d’archives et
l’expertise nécessaire pour traiter ces images et en extraire l’information utile.

Ces agences spatiales membres mettent à la disposition de la Charte une multitude de res-
sources satellitaires permettant l’acquisition des images satellitaires dans toutes les conditions
météorologiques, pendant le jour ou la nuit. Les satellites radar comme Radarsat-2, TerraSAR-
X et Sentinel-1 sont généralement utilisés dans l’acquisition des images lors d’une inondation
ou d’un tsunami, à cause de leur capacité de pénétration à travers le couvert nuageux et la pos-
sibilité d’obtenir des images en tout moment de la journée y compris la nuit. Par contre, les
capteurs optiques comme Spot-7, GeoEyes-1 et Quickbird sont généralement très utiles en cas
de séismes, de tempêtes ou d’ouragans, vu la facilité de l’interprétation des images optiques
comparée aux images radar et aussi leur haute résolution spatiale permettant une identification
et une évaluation précise des dommages. La Charte bénéficie aussi, depuis 2005, des capacités
du capteur infrarouge thermique intégré dans le satellite Landsat. Ce capteur est parfaitement
adapté pour fournir des cartes détaillées de zones brûlées par des feux de forêt ou des incen-
16

dies. La résolution spatiale de ces satellites constitue à son tour une information cruciale dans
la gestion des catastrophes majeures. En effet, dépendamment de la nature et de l’amplitude
de la catastrophe, une vue d’ensemble de la situation sur le terrain moyennant des satellites à
moyenne et à faible résolution est parfois requise. Dans d’autres cas où une information précise
sur l’état des infrastructures est demandée, les satellites à très haute résolution sont employés.
La variabilité des ressources satellitaires qui font partie de la Charte constitue un avantage per-
mettant l’acquisition des images adéquates pour chaque événement et offrant une meilleure
vue de la situation sur le terrain. Le temps de revisite de la même zone géographique est un
des aspects les plus importants dans le choix des satellites lors d’une catastrophe majeure. Un
satellite comme Radarsat-2, par exemple, est caractérisé par un temps de revisite de 3 jours,
une durée très raisonnable comparée à d’autres capteurs radar comme Alos qui offre un temps
de revisite de 46 jours. Ces délais de disponibilité des images satellitaires constituent géné-
ralement un facteur important dans le choix des ressources satellitaires les plus adéquates en
cas de désastre. Ces facteurs justifient l’utilisation de certains satellites pour la gestion des ca-
tastrophes, tandis que d’autres sont employés dans d’autres étapes de la gestion des désastres
comme la réhabilitation suite à une catastrophe majeure.

1.2.4 Collaboration entre les différents membres de la Charte

La Charte internationale est principalement basée sur la collaboration et la coordination entre


les différentes agences spatiales membres en termes de données satellitaires et de services spa-
tiaux. Cette coordination se manifeste premièrement dans le choix de l’ingénieur d’astreinte.
En effet, les agences spatiales assurent en permanence ce poste à tour de rôle. Pendant la pé-
riode de son engagement, l’ingénieur d’astreinte désigné reste à la disposition de la Charte 24
heures sur 24 afin de répondre aux appels des utilisateurs autorisés lors des situations d’ur-
gence. L’autre volet de cette coopération réside dans la mise à la disposition des données satel-
litaires gratuitement dans le cadre de la Charte dans le but de fournir l’information utile grâce
à la création des cartes de dommages. La disponibilité de ces données sous une base volontaire
lors d’un désastre permet à l’ingénieur d’astreinte, et par la suite au chef de projet de dispo-
17

ser d’une base de données assez complète sous forme d’images d’archive et images actuelles
employées dans la génération des cartes de dommages. Les agences spatiales mettent à la dis-
position de l’ingénieur d’astreinte un logiciel qui lui permet de localiser tous les satellites dont
dispose la Charte. Cet outil a été développé dans le cadre des travaux de la Charte et fournit les
informations nécessaires concernant la disponibilité des ressources satellitaires à proximité de
la région sinistrée.

Généralement, les données satellitaires brutes transmises par les satellites aux stations de récep-
tion sont difficiles à interpréter et nécessitent une étape de prétraitement. Les agences spatiales
offrent par le billet des organismes à valeur ajoutée un paquet de services spatiaux incluant
l’élimination du bruit, la coregistration des images et la création des cartes de dommages. En
cas de catastrophe majeure, plusieurs agences spatiales peuvent intervenir pour fournir plu-
sieurs cartes de dommages basées sur leurs différentes ressources satellitaires comme dans le
cas du tremblement de terre qui a frappé Haïti en 2010.

1.3 Statistiques et exemples d’activations récentes

1.3.1 Statistiques de la Charte

En date du 1er janvier 2016, la Charte a été activée 484 fois pour répondre à diverses situations
d’urgence principalement d’origine naturelle. Comme le montre la figure 1.3, les inondations,
les ouragans et les tremblements de terre représentent à elles seules 78% du nombre total d’ac-
tivations et constituent par conséquent les causes principales du déclenchement de la Charte.
D’autres désastres comme les feux de forêt, les éruptions volcaniques et les glissements de
terrain occupent la deuxième place avec 16% du nombre total d’activations. Et finalement, les
risques liés à la glace et à la neige ne constituent, avec les catastrophes d’origine humaine
comme le déversement d’huile, que 6% du nombre total d’activations de la Charte. Les évé-
nements météorologiques comme les inondations, les tornades et les ouragans sont à l’origine
de plus de 80% des cas d’activations de la Charte durant ces quatre dernières années : 85% en
2012, 84% en 2013, 84% en 2014 et 58% en 2015. Ceci est principalement dû aux mauvaises
18

Figure 1.3 Taux d’activations par catastrophe (Novembre 2010


à janvier 2015), tirée du site de la Charte

conditions météorologiques causées par les changements climatiques et aussi à l’intérêt d’uti-
liser des images satellitaires dans ce genre d’événement vu la difficulté d’évaluer la situation
sur le terrain à cause de la présence d’eau. Les inondations sont à l’origine d’un peu plus de
50% des cas d’activations de la Charte et ce sont les pays de l’Amérique du Sud qui sont à la
tête de la liste avec 35% en 2015 des activations suite à des catastrophes de type inondation.

Figure 1.4 Nombre d’activations par année, tirée du site de la Charte


19

La figure 1.4 représente le nombre d’activations de la Charte par année. Entre les années 2000
et 2006, le nombre d’activations de la Charte a monté de 1 en 2000 pour se stabiliser à 25 en
2005 et 2006. Depuis 2007, ce chiffre a doublé pour atteindre 51 en 2010 tout en gardant un
taux moyen de 40 activations par année entre les années 2007 et 2015, malgré la multiplication
des événements climatiques extrêmes durant cette période. Ceci est dû à l’apparition de nou-
veaux organismes en parallèle avec la Charte comme “Sentinel Asie” en Asie et le service de
cartographie d’urgence Copernicus GIO (GIO EMS) en Europe. Leur objectif principal est de
répondre à des catastrophes de petite ampleur moyennant leurs propres ressources satellitaires.
Un accord signé entre ces organismes et la Charte leurs permet de solliciter plus de ressources
satellitaires si l’ampleur de la catastrophe nécessite une intervention à l’échelle mondiale.

La Charte a maintes fois montré son utilité dans la gestion des désastres, ceci apparaît dans le
nombre accru d’activations durant les dix dernières années. D’ailleurs entre les années 2009 et
2014, la Charte a couvert 14 des 15 catastrophes les plus dévastatrices dans le but d’aider les
équipes de secours sur le terrain.

Figure 1.5 Distribution des activations, tirée d’une présentation de Yana Gevorgyan et
Stephen Briggs disponible sur le site de la Secure Word Fundation (SWF)
20

Constituée de 15 pays membres, la Charte couvre les cinq continents : l’Amérique, l’Afrique,
l’Europe, l’Asie et l’Océanie. La figure 1.5 montre sur une carte des cinq continents, l’empla-
cement et la nature de chaque activation de la Charte entre les années 2000 et 2015. La couleur
jaune désigne les catastrophes d’origine tremblement de terre. C’est l’énergie dégagée le long
des failles qui séparent les plaques tectoniques qui causent les séismes et les tremblements
de terre localisés généralement sur la côte Est de l’Amérique du Sud, l’Europe de l’Est et le
Moyen-Orient et l’Asie orientale. Les inondations représentées par la couleur bleue sont cau-
sées par les fortes précipitations en hiver ou la fonte de la neige au printemps. La Chine, l’Inde,
les États-Unis et l’Amérique latine sont les pays les plus touchés par les inondations causées
par les fortes précipitations, tandis que la Sibérie, le Canada et les États-Unis sont les pays les
plus touchés par les inondations causées par la fonte de la neige combinée aux précipitations
extrêmes au printemps. Le reste des catastrophes est éparpillé aux quatre coins du monde, mais
ce sont les pays de l’Amérique du Sud et de l’Asie qui restent en tête de la liste.

1.3.2 Exemples d’activations récentes de la Charte

Les inondations de Louisiane aux États-Unis

Figure 1.6 Images acquises avant et après les inondations de Louisiane,


tirée d’un article sur le site nytimes qui porte sur les inondations de Louisiane
21

La dernière activation de la Charte, au moment de la rédaction de cette thèse, date du 13 août


2016 suite aux inondations qui ont frappé l’État de Louisiane situé au sud des États-Unis. C’est
l’organisation de la Surveillance Géologique des États-Unis (USGS) qui a activé la Charte au
nom de l’état de Louisiane, puis le centre de recherche spatiale à l’université de Texas a été
chargé de la gestion du projet. Ces inondations ont été principalement causées par des préci-
pitations qui ont provoqué à leur tour la montée du niveau de l’eau (voir figure 1.6). Plus de
20000 personnes ont eu besoin d’être secourues, au moins 13 personnes ont trouvé la mort et
600 000 maisons ont été endommagées. Suite aux débordements de nombreux cours d’eau, la
plupart des routes principales et secondaires (100 routes) étaient totalement impraticables. Plu-
sieurs agences spatiales ont mobilisé leurs satellites pour réduire les effets de cette catastrophe,
incluant l’agence spatiale canadienne qui par le biais de son satellite radar RADARSAT-2 a
fourni des images radar de la zone sinistrée.

Les inondations au Soudan

Figure 1.7 Carte représentant les dommages


causés par les inondations au Soudan, tirée du
site de la Charte (inondations au Soudan)
22

Le 5 août 2016, de fortes pluies ont ravagé le Soudan et en particulier l’État de Khartoum
provoquant la mort d’une centaine de personnes à travers le pays, 77 autres blessées dans des
accidents liés à de fortes pluies et la destruction de près de 13.000 maisons dans cinq provinces
du pays. Ces inondations ont causé la montée du niveau du Nil pour atteindre 17,4 mètres et la
fermeture de la plupart des routes principales. Les véhicules chargés de matériel de construc-
tion et d’aide humanitaire étaient coincés dans l’État de Kassalam faute de routes praticables.
Cette situation catastrophique a poussé les responsables du Programme Opérationnel pour les
Applications Satellitaires de l’UNITAR (UNOSAT) à activer la Charte au nom du bureau de la
coordination des affaires humanitaires de l’ONU (UNOCHA). Plusieurs cartes de dommages
ont été générées en réponse à cet événement en se basant sur les images acquises en utilisant
diverses ressources satellitaires : RADARSAT-2, SPOT-6, Sentinel-1, TerraSAR-X, SPOT-7 et
Landsat 8. La figure 1.7 montre la carte de dommages produite à partir des images de l’événe-
ment acquises par les satellites TerraSAR-X et SPOT-7.

1.3.3 Exemples d’activations liées à des catastrophes majeures

Le tremblement de terre d’Haïti

Figure 1.8 Quelques bâtiments endommagés dans


la ville de Port-au-Prince, tirée d’un article sur le
site planete gaia (sismologie)
23

Le tremblement de terre qui a frappé Haïti le 12 janvier 2010 était l’une des catastrophes
naturelles qui touchent régulièrement Haïti (fortes pluies en 2006 et 2009, tempête tropicale en
2008). Mais, le désastre qu’a vécu le pays en janvier 2010 était particulier à tous les niveaux,
vu les pertes en vies humaines : 222 570 personnes mortes, 300 000 personnes blessées et 1,3
million personnes déplacées. Quant aux pertes au niveau de l’infrastructure : 97 294 maisons
détruites à Port-au-Prince, sans oublier le nombre immense de données satellitaires fournies
par les organisations membres de la charte internationale des catastrophes majeures quelques
jours après l’événement d’Haïti. Plusieurs organismes de secours ont réagi afin de donner l’aide
au peuple haïtien. Parmi ces derniers, nous pouvons citer : l’équipe de sauvetage et recherche
internationale chinoise CISAR, l’équipe de coordination et évaluation des catastrophes établies
par les Nations unies UNDAC, l’équipe des affaires humanitaires et coordinations attachée aux
Nations unies et plusieurs autres organismes ont aidé les autorités haïtiennes à organiser les
efforts de secours et ont fourni de l’aide sociale aux familles sans abri. La contribution d’autres
organismes était au niveau de la coordination des activités de télédétection.

Figure 1.9 Exemple de carte de dommages générée lors du tremblement


de terre d’Haïti, tirée du site de la Charte (tremblement de terre d’Haïti)
24

Comme l’évaluation des dégâts sur le terrain était impossible dans le cas d’Haïti, la télédétec-
tion a joué un rôle très important dans l’évaluation des dommages et l’organisation des efforts
de secours. L’institut d’étude géologique des États-Unis constitue l’un des organismes qui ont
fourni des informations importantes dans le cas du tremblement de terre d’Haïti. Les experts de
l’USGS ont pu fournir une vaste archive d’images, un haut volume de données et ils ont établi
des liens de communication avec d’autres organismes et pays membres de la charte internatio-
nale. L’expérience acquise au cours de l’événement d’Haïti a montré clairement l’intérêt des
images satellites dans l’établissement d’une réponse immédiate et efficace lors d’une situation
de crise. La figure 1.9 décrit une carte de dommages qui montre les zones les plus touchées par
le tremblement de terre dans la ville de Port-au-Prince.

Le tsunami de l’océan Indien

Figure 1.10 La zone affectée par le tsunami est délimitée par le cercle jaune,
tirée de la présentation de Dan G.Blumberg intitulée Processing remote sensing
data for solving environmental problems

Un autre événement aussi dévastateur que le tremblement de terre d’Haïti s’est produit le 26
décembre 2004. Un très fort séisme, de 9,0 magnitude sur l’échelle de Richter, a frappé l’Asie
du Sud. L’épicentre a été localisé à 320 km à l’ouest de la ville de Medan, juste au large de la
25

côte ouest de l’île indonésienne de Sumatra. Peu de temps après le séisme, un tsunami allant
jusqu’à plus de 30 mètres de hauteur a frappé l’Indonésie, les côtes du Sri Lanka et du sud
de l’Inde, ainsi que l’ouest de la Thaïlande. Plus de 250.000 personnes ont été tuées dont près
de 170 000 en Indonésie, 31 000 au Sri Lanka, 16 400 en Inde et 5 400 en Thaïlande. Ce
séisme a causé aussi plusieurs répliques qui ont été enregistrées pendant les mois qui ont suivi,
parmi elles, deux séismes de magnitude supérieure à 7 sur l’échelle de Richter. La Charte a
été activée par l’organisation de la recherche spatiale indienne (ISRO), et peu de temps après
la catastrophe des images acquises par les satellites Envisat SAR, IRS-P6 AWiFS, Radarsat
SAR, Landsat ETM, SPOT 5 et IRS-1D LISS sont rendues disponibles à travers la Charte aux
autorités et aux équipes de secours. La figure 1.10 montre des images acquises par les satellites
IRS-P6 AWiFS, et Radarsat SAR.

Le séisme au Chili

Figure 1.11 Récupération des franges d’interférence générées en se


basant sur des images SENTINEL-1A du séisme au Chili, tirée du site du
projet INSARAP (les données sont disponibles dans les formats KMZ et
GeoTiff )

Le 6 septembre 2015, un séisme de magnitude 8,3 a frappé le centre du Chili, avec un épicentre
situé à environ 46 kilomètres au large de la localité côtière d’Illapel. Au moins trente-huit ré-
26

pliques de magnitude supérieure à 5 sur l’échelle de Richter ont été enregistrées, ce qui a
provoqué des tsunamis de 4,5 mètres de hauteur. Le bilan humain et matériel de la catastrophe
est : 15 morts, un million de personnes évacuées et 500 maisons ont été endommagées. Le
séisme a également été ressenti dans plusieurs régions de l’Argentine, comme Catamarca et
Tucuman (nord), Mendoza (ouest) et Cordoba (centre), ce qui a rendu indispensable une éva-
cuation préventive sur toute la côte du pays. La Charte a été activée par l’office national des
urgences du Chili (ONEMI) et plusieurs cartes de dommages ont été rapidement produites en
se basant principalement sur le satellite radar SENTINEL-1A (voir figure 1.11).

1.4 Rôle du Canada dans la Charte internationale

En tant que membre fondateur de la Charte internationale, le Canada est aux premiers rangs
de la gestion des catastrophes avec son satellite RADARSAT-2 et les produits cartographiques
dérivés d’observation de la Terre. Elle met à la disposition de la Charte ses ressources satelli-
taires afin de contribuer dans l’effort international qui vise à fournir, sur une base volontaire,
des images satellitaires dans le but d’alléger les effets des désastres. Pratiquement, les données
RADARSAT-2 sont utilisées dans la plupart des activations de la Charte pour produire des
cartes de dommages, ce qui montre clairement l’implication et le support du Canada pour cette
initiative.

La Charte a été activée 13 fois durant ces 16 dernières années par le Canada, avec en moyenne
une activation par an pour répondre à des catastrophes de type inondation ou feu de forêt. Ce
taux d’activation est relativement faible comparé à des pays comme la Chine (23 activations),
les États-Unis (19 activations) et l’Inde (17 activations). Mais, ce taux d’activation reste élevé
comparé à des pays comme la France avec (9 activations) seulement et l’Australie avec (3 ac-
tivations), pourtant certains pays comme la France sont les plus actifs dans ce domaine et ont
contribué le plus à l’élaboration de la Charte et comptent des organismes à valeur ajoutée les
plus performants au monde. Cela est dû au fait que des pays comme le Canada ou la France
ont développé leur propre système dédié pour la gestion des catastrophes à moyenne et à faible
étendue. Ces systèmes impliquent principalement des intervenants locaux et des organismes
27

nationaux comme le ministère des ressources naturelles Canada, sécurité publique Canada et
l’agence spatiale canadienne et prennent en considération l’ampleur du désastre, le nombre
de victimes et les dégâts engendrés. La procédure de réponse aux catastrophes dans ces pays
commence par l’utilisation des ressources locales, puis fait appel aux ressources internationales
comme la Charte au besoin. Le gouvernement canadien constitue un bon exemple de gouver-
nement qui fournit constamment de l’appui à la recherche pour développer l’aspect gestion
des catastrophes, cela apparaît dans le nombre accru d’investissements provinciaux et fédéraux
dans ce domaine visant à améliorer la sûreté et la sécurité des Canadiens.

Un bon exemple de l’utilisation sur le terrain des données satellitaires par le gouvernement ca-
nadien apparaît dans la gestion des inondations du lac Champlain et de la rivière Richelieu qui
ont duré du mois d’avril au mois de juin 2011, et qui ont causé des dégâts importants aux infra-
structures. Lors de cet événement, le secteur de la gestion des mesures d’urgence et opérations
régionales de Sécurité publique Canada (SP) s’est joint à l’agence spatiale canadienne pour
acquérir des images satellitaires de l’événement et pour produire des données cartographiques
facilitant l’intervention et la gestion de cette catastrophe. Cette collaboration a pris la forme
d’une nouvelle initiative pour la gestion des désastres de l’agence spatiale canadienne (ASC)
intitulée “PSIR” (Prestation de produits et services d’information rapides), la division des ap-
plications et utilisations en observation de la Terre de l’ASC a travaillé en collaboration avec
sécurité publique Canada et la société montréalaise Effigis afin de mieux caractériser ce dé-
sastre à l’aide des données RADARSAT-2. Un autre mécanisme intitulé “Comité sur les satel-
lites d’observation de la Terre” (CEOS) a été aussi activé lors de cet événement pour permettre
la collaboration entre l’agence spatiale canadienne et l’administration nationale de l’aéronau-
tique et de l’espace des États-Unis (NASA) afin de faciliter le partage des données satellitaires
acquises par le satellite canadien RADARSAT-2 qui a fourni une série temporelle d’images ra-
dar de la zone sinistrée et le satellite des États-Unis EO-1/ALI (Earth Observation-1/Advanced
Land Imager) qui a fourni des images panchromatiques et multispectrales de l’étendue de l’eau.

Le feu de forêt en Alberta, au Canada, représente un autre cas de catastrophe majeure qui a
nécessité l’activation de la Charte le 4 mai 2016 par la sûreté publique du Canada. Une carte de
28

dommages a été produite par le centre canadien de cartographie et d’observation de la Terre et


ressources naturelles Canada montrant les zones brûlées sur les images SPOT-7 de résolution
de 1,5 mètre. L’activation de la Charte a permis au Canada de profiter des ressources optiques
très utiles en cas de feux de forêt et rendues disponibles par la Charte pour cartographier la
ville de Fort McMurray dans le but de fournir l’aide nécessaire pour gérer la catastrophe.

1.5 Types de cartes produites et les méthodes utilisées dans la détection et l’évaluation
des dommages

1.5.1 Types de cartes produites

Carte de dommages basée sur une évaluation grossière des dégâts

En cas de catastrophes, localiser et estimer rapidement les zones de dommage et les dégâts
infligés aux infrastructures à une échelle fine constituent une information cruciale pour les au-
torités et les organismes de secours. Malheureusement, ce niveau élevé de détails n’est jamais
disponible à temps à cause de la complexité des images satellitaires à très haute résolution
et leur taille énorme, le temps nécessaire pour activer la Charte, planifier des acquisitions et
préparer les images brutes pour l’extraction de l’information et aussi la difficulté d’interpréter
visuellement les images satellitaires sans disposer d’une vérité terrain. C’est pour ces raisons
qu’en pratique ce ne sont que des cartes basées sur une évaluation grossière des dommages
qui sont générées peu de temps après la catastrophe. Ces cartes sont en mesure de fournir une
information précise et rapide sur l’emplacement des quartiers les plus touchés par le désastre,
l’étendue globale de la catastrophe et un ordre de priorité d’intervention par quantification des
dommages en trois niveaux : 1- zone intacte, 2- zone partiellement touchée et 3- zone forte-
ment touchée. Elles ont l’avantage par rapport aux autres produits cartographiques générés lors
d’une catastrophe d’être relativement faciles à produire, capables de fournir une idée grossière
sur l’ampleur de l’événement et les procédures à suivre pour mener une intervention d’urgence
efficace. Des images satellitaires à faible et moyenne résolution sont utilisées pour générer cette
famille de produits, vu qu’elles fournissent assez de détails pour localiser globalement les zones
29

les plus touchées. Des expériences tirées des différentes activations de la Charte montrent que
ces cartes de dommages sont très pratiques en cas de catastrophes à grande ampleur et consti-
tuent, par conséquent, une information pertinente pour les équipes de secours sur le terrain. Par
contre, l’utilisation des images à faible résolution cause aussi la génération de plusieurs erreurs
dans l’extraction de l’information dû au manque de détails, plusieurs fausses alarmes peuvent
apparaître sur ces cartes ce qui complique l’interprétation des résultats fournis.

Carte de dommages basée sur une évaluation détaillée des dégâts

Contrairement aux cartes de dommages basées sur une évaluation grossière des dégâts, les
cartes de dommages détaillées sont générées à partir des images à haute et très haute résolu-
tion spatiale. Elles permettent de déterminer avec une grande précision les bâtiments fortement
endommagés, les routes praticables et l’étendue exacte de l’eau en cas d’inondations. Ces pro-
duits cartographiques peuvent atteindre une précision inférieure à un mètre et permettent de
fournir plusieurs détails sur la situation sur le terrain. Généralement, les dommages subis par
l’infrastructure sont séparés en trois classes : 1- dommages substantiels à lourds, 2- dommages
très lourds et 3- destruction, et des techniques d’évaluation basées sur une analyse objet de
l’image sont utilisées pour générer ces cartes de dommages puisqu’elles permettent d’extraire
les objets d’intérêt à partir des images satellitaires, tout en éliminant le bruit accompagnant ce
niveau élevé de détails. Les cartes de dommages détaillées sont générées après un à plusieurs
jours de l’activation de la Charte et fournissent une information complémentaire à celle ex-
traite à partir des cartes de dommages grossières, d’où leurs intérêt dans la bonne gestion des
catastrophes majeures.

1.5.2 Les méthodes utilisées dans la détection et l’évaluation des dommages

L’interprétation visuelle des images satellitaires

Considérée comme le moyen le plus rapide et précis pour interpréter les images satellitaires,
l’interprétation visuelle consiste à inspecter l’image satellitaire afin d’extraire toutes informa-
30

tions utiles sur la présence de débris ou l’état de l’infrastructure. Cette tâche est souvent effec-
tuée par un photo-interprète qui est un expert du domaine, ayant des connaissances en inter-
prétation et en extraction des informations pertinentes et capable en même temps de traduire
l’information contenue dans l’image en des données utiles et des cartes de dommages. Il se
base principalement dans la génération des cartes de dommages sur la signature spectrale et
texturale qui caractérise les débris dans les images satellitaires pour les identifier et les dis-
tinguer de la liste des objets présents dans l’image. L’avantage de cette technique est qu’elle
permet d’obtenir de très bons résultats vu qu’il y’a un expert humain derrière le choix des
zones sinistrées. Mais, avec l’arrivée des images satellitaires à très haute résolution, la tâche
du photo-interprète n’a pas cessé de se compliquer et actuellement elle a atteint un stade où il
est très difficile de traiter manuellement une image satellitaire acquise lors d’une catastrophe
majeure et couvrant une large zone géographique.

L’extraction des dommages en se basant sur les approches semi-automatique

Au même titre que les techniques basées sur l’interprétation visuelle des images pour la gé-
nération des cartes de dommages, les approches semi-automatiques se basent en partie sur les
connaissances de l’expert pour déterminer les paramètres optimaux pour l’algorithme utilisé,
initier la recherche d’un objet donné ou délimiter la zone d’intérêt. Par la suite, et en se ba-
sant sur cette information, un algorithme de reconnaissance de formes, de classification ou
encore de segmentation est exécuté afin de chercher les régions de l’image qui ressemblent à
la zone délimitée par le photo-interprète et qui ont, généralement, des caractéristiques radio-
métriques et/ou texturales similaires. Ces approches semi-automatique sont les plus utilisées
dans la génération des cartes de dommages considérant leur performance élevée et leur faible
taux de fausses alarmes. Pour une image satellitaire acquise lors d’une catastrophe donnée, il
suffit de délimiter par un polygone les débris pour que l’algorithme se charge de l’extraction
des descripteurs pertinents et détermine automatiquement les objets qui présentent une forme
ou une réponse radiométrique proche. Ces techniques permettent de gagner du temps précieux
nécessaire pour la génération des cartes de dommages, mais elles restent très dépendantes de
31

la valeur des paramètres utilisés. Par exemple, un paramètre associé à l’échelle d’observation
prédéfinie par l’utilisateur sera appliqué sur l’image au complet sans tenir compte des diffé-
rentes échelles caractérisant les objets formant la scène. Certains objets, par exemple, comme
les routes peuvent appartenir à plusieurs échelles à la fois dans la même image, donc fixer
une seule échelle pour les analyser n’est pas faisable. Heureusement, plusieurs algorithmes de
traitement d’images sont en mesure de résoudre ces problèmes en utilisant des approches mul-
tiéchelle ou des méthodes d’optimisation. D’ailleurs, les techniques de génération des cartes
de dommages s’orientent vers la réduction du rôle du photo-interprète en appliquant un algo-
rithme de l’intelligence artificielle capable de fournir des résultats de plus en plus précis, dans
un temps raisonnable. Tout en préservant le rôle du photo-interprète qui se restreint à fournir
l’ordonnancement des meilleurs algorithmes à exécuter, par exemple.

1.6 Conclusion

Depuis le lancement du premier satellite d’observation de la Terre le 1er avril 1960, l’homme
n’a pas cessé d’explorer le potentiel de l’imagerie satellitaire et ses applications. Mais, ce
n’est qu’à partir de l’année 2000 que ces efforts se sont concrétisés pour donner naissance à
la Charte internationale espace et catastrophes majeures. Cette Charte a comme objectif de
profiter de l’information issue des images satellitaires pour générer des cartes de dommages et
pour aider à la gestion des catastrophes majeures. Dans ce chapitre, le processus d’activation
de la Charte a été décrit avec détails, puis les différentes organisations membres, ainsi que les
ressources satellitaires disponibles ont été énumérées. Plusieurs statistiques sur la Charte ont
été aussi exposées et discutées, en mettant l’accent sur le succès de cette initiative. Plusieurs
cas d’activations ont été décrits afin de souligner la contribution de la Charte dans la gestion de
ces événements et les différents produits générés à partir des images satellitaires. Finalement,
les différentes techniques utilisées pour la production des cartes de dommages sont présentées,
les limitations des approches existantes, ainsi que l’intérêt de cette thèse dans l’amélioration
des performances et l’optimisation du processus de la gestion des catastrophes sont examinées.
CHAPITRE 2

EXTRACTION DES STRUCTURES LINÉAIRES ET IDENTIFICATION DE LEURS


DOMMAGES

2.1 Introduction

Durant ces dernières années, plusieurs travaux de recherche ont été menés dans le domaine
d’extraction des structures linéaires à partir des images satellitaires optiques et radar. Ces tra-
vaux ont été motivés par la diversité et la pertinence des applications dans le monde réel qui
ne cessent de croître et qui trouvent leur intérêt dans plusieurs disciplines dont nous pouvons
citer la mise à jour des bases de données géographiques, l’évaluation des dégâts subis par des
structures linéaires et des voies de communication suite à une catastrophe et la mise en oeuvre
des systèmes de navigation automobile. En réalité, le domaine de la reconnaissance des formes
en général et celui de l’extraction des structures linéaires en particulier constitue un axe de
recherche très dynamique. Malgré la variété des approches proposées dans la littérature et des
méthodes de fusion et de classification mises en oeuvre, l’extraction des structures linéaires
demeure un problème complexe vu la diversité radiométrique et structurelle que présentent ces
structures. Cela a été influencé aussi par l’amélioration rapide de la résolution des capteurs
satellitaires qui impose à son tour des défis au niveau de l’apparition de nouvelles classes dans
l’objet détecté et la présence de bruit, surtout dans les images radar. De même, l’augmentation
du nombre de bandes permet d’obtenir plus d’informations sur la composition de chaque objet
dans la scène étudiée, mais introduit également des problèmes de redondance dans la fusion
de l’information. Tous ces obstacles font de la tâche d’extraction des structures linéaires et
d’évaluation de leurs dommages une opération très difficile à réaliser et nécessite une bonne
connaissance des caractéristiques de ces structures et de la signature des dommages.

Dans cette thèse, nous nous intéressons à l’extraction des structures linéaires dans le cas d’une
catastrophe afin d’évaluer leurs dommages. Pour résoudre cette problématique, nous allons
consacrer la première partie de ce chapitre à dresser un état de l’art des approches existantes
proposées pour extraire des structures linéaires. Aussi, nous allons essayer de classer ces der-
34

nières en familles d’approches afin de souligner les faiblesses et les avantages de chaque tech-
nique et de justifier la méthodologie employée. La deuxième partie de ce chapitre sera consa-
crée à l’évaluation des dommages : d’abord nous allons discuter les approches de détection et
d’évaluation des dommages existantes, par la suite, nous préciserons les limites des méthodes
basées uniquement sur l’information radiométrique et l’utilité de l’utilisation de la texture dans
la détection robuste des changements. Une étude comparative sera aussi présentée dans le but
de justifier le choix des approches basées sur l’analyse multiéchelle de l’image, l’extraction
de la texture et les atouts qu’elles présentent par rapport aux autres méthodes employées pour
la mise en évidence des changements et des dommages présents dans les images satellitaires.
Une toute première section sera d’abord dédiée pour la description des distorsions qui peuvent
toucher les images satellitaires et les techniques de correction utilisées pour les atténuer.

2.2 Prétraitement et correction des distorsions radiométriques et géométriques

La production des images satellitaires acquises à partir d’une région donnée de la Terre est une
tâche complexe et difficile. En effet, les données enregistrées par les capteurs des satellites sont
exposées à différentes sortes de distorsions d’origine radiométrique, géométrique et atmosphé-
rique. Ces erreurs générées lors de la phase de formation de ces images altèrent leur contenu
et empêchent la bonne interprétation de l’information encapsulée. Que ce soit originaire des
défauts des capteurs, des distorsions du signal émis par le capteur lors de son passage par l’at-
mosphère terrestre ou de la variabilité des conditions d’acquisition, ces distorsions devraient
être corrigées afin d’améliorer l’interprétabilité des images satellitaires et faciliter l’automati-
sation de la tâche d’extraction de l’information utile à partir de ces images.

Les images satellitaires sont exposées à diverses sources de distorsion vu la complexité du


processus d’acquisition. Les sources de distorsions peuvent être classées en deux catégories :
les sources de distorsion radiométrique et les sources de distorsion géométrique. Les sources
de distorsion radiométrique regroupent les erreurs instrumentales dues aux calibrages entre les
différentes bandes ou au niveau de la même bande à cause de la fusion de l’information issue
de plusieurs détecteurs du même capteur. L’atmosphère terrestre représente à son tour un obs-
35

tacle pour les images satellitaires vu la difficulté qu’éprouvent certaines bandes étroites comme
le bleu (0,45 µm - 0,52 µm) dans leur dispersion à travers les larges particules dans l’atmo-
sphère comme la fumée, les nuages ou la vapeur d’eau Richards (2013). La deuxième famille
comprend les distorsions de source géométrique, leurs causes sont beaucoup plus nombreuses
et elles peuvent résulter de la rotation de la Terre durant l’acquisition de l’image, de la varia-
tion de l’altitude, de la vitesse et la position du capteur, de la courbure de la Terre ou de la
non-idéalité des capteurs.

Afin de surpasser ces problèmes et fournir une image traitée prête pour l’application d’un al-
gorithme de détection de changements ou de dommages, il est nécessaire de spécifier dans un
premier temps la nature du capteur : radar ou optique. L’application d’une correction radio-
métrique ou géométrique varie aussi suivant le climat de la région d’intérêt, aussi certaines
corrections sont faciles à réaliser comme la correction des effets panoramiques et la réorienta-
tion des images dans l’axe nord-sud qui nécessite seulement la multiplication de l’image par
une matrice. D’autres effets comme ceux causés par l’atmosphère nécessitent une simulation
des caractéristiques de l’atmosphère par un code atmosphérique et un traitement particulier des
effets de certaines molécules (la vapeur d’eau par exemple).

2.2.1 Sources de distorsions radiométriques

Les erreurs d’instrumentation

Un capteur satellite est principalement constitué de plusieurs photodiodes juxtaposées conçus


pour recevoir une ou plusieurs bandes de fréquences. En d’autres termes, pour créer une image
dans une bande donnée, le signal mesuré à partir de plusieurs capteurs est fusionné. Cette
opération nécessite un bon calibrage des capteurs de façon à éviter d’ajouter ou de supprimer
une partie de la radiation détectée. Pour certains satellites, comme Landsat ETM+, cette tâche
est relativement simple puisqu’il embarque un nombre raisonnable de capteurs (16 photodio-
des/bande), comparé au nombre élevé de capteurs par bande qui caractérise d’autres satellites
comme le satellite SPOT qui atteint 12.000 photodiodes pour le mode d’acquisition panchro-
36

matique. Le nombre élevé de capteurs permet d’obtenir des images à très haute résolution
spatiale, mais la juxtaposition de ces capteurs pose aussi un défi au niveau de la gestion de la
fusion de l’information issue de cette multitude de capteurs. D’autres problèmes au niveau

Figure 2.1 Exemple de ligne manquante,


tirée du site de ressources naturelles Canada
(ressources éducatives sur la géomatique)

des capteurs des satellites peuvent résulter de la coupure du signal lors de la transmission ou
lors de l’écriture de l’image. Cela génère des pixels ou des lignes manquantes dans l’image
(figure 2.1) et nécessite une étude exhaustive des statistiques radiométriques afin de détecter
les variations locales.

Les effets de l’atmosphère

Le signal électromagnétique mesuré au niveau du capteur d’un satellite traverse deux fois l’at-
mosphère terrestre, ce qui génère des distorsions dans le signal capté par le satellite. Deux
effets de ce passage à travers l’atmosphère devraient être pris en considération lors de l’enre-
gistrement du signal sous forme d’image (figure 2.2) : la diffusion et l’absorption. L’absorption
signifie que certaines bandes de fréquences sont plus affectées que d’autres par les composants
de l’atmosphère terrestre comme l’eau, les molécules d’oxygène et le dioxyde de carbone. Ces
37

derniers atténuent considérablement la puissance à ces fréquences. L’autre effet qui caractérise
le passage du rayonnement solaire à travers l’atmosphère est la diffusion.

a) Signal détecté à partir d’une surface de b) Effet de l’atmosphère


réflectance parfaite

Figure 2.2 Effet de la l’atmosphère sur le spectre solaire, tirée de Richards (2013)

Deux types de diffusions sont à distinguer (voir figure 2.3) :

Figure 2.3 Les deux types de diffusions résultantes du


passage du rayonnement solaire par l’atmosphère, tirée
de Richards (2013)
38

1. la diffusion de Rayleigh : est un effet qui apparaît quand la longueur de l’onde incidente
est beaucoup plus grande que la taille des particules diffusantes. Elle est bien plus forte
dans le rouge à 650 nm, que dans le bleu, à 400 nm, ce qui explique la couleur bleue
du ciel observée durant la journée et sa couleur rouge au coucher (le soir, la lumière du
Soleil rase la Terre à l’horizon : elle traverse alors une couche d’air plus épaisse. Cet air
agit comme un filtre, plus il est épais, plus il arrête les couleurs. Mais le rouge passe, car
il est moins filtré). Cette diffusion est un cas limite de la diffusion de Mie décrite dans la
paragraphe suivante.

2. la diffusion de Mie : dans le cas contraire, si les particules diffusantes ont une taille
suffisamment grande comparée à la longueur d’onde incidente, c’est plutôt l’effet de
Mie qui est observé. Elle se produit plutôt dans les couches basses de l’atmosphère et
donne à la couleur du ciel un aspect bleu délavé voire jaunâtre.

Les effets de la courbe du rayonnement solaire

a) Signal détecté à partir d’une surface de b) Effet de la courbe du rayonnement solaire


réflectance parfaite + effet de l’atmosphère

Figure 2.4 Effet de la courbe du rayonnement solaire et de l’atmosphère, tirée de


Richards (2013)

Le rayonnement solaire est un champ électromagnétique qui se propage sous forme d’ondes
dans l’espace. Il est composé des bandes de rayonnement suivantes : 1- l’ultraviolet lointain
comme les rayons gamma, 2- la lumière visible, 3- les ondes radio. Il est caractérisé par une
39

puissance qui désigne la quantité d’énergie solaire que recevrait une surface à une distance de 1
unité atmosphérique (1 ua = 149 597 870 700 mètres) exprimée en W m−2 nm−1 . Cette énergie
est fonction de la longue d’onde (le terme nm−1 ) et par conséquent, elle se comporte d’une
façon différente en fonction du milieu dans lequel elle se propage. À son passage par l’atmo-
sphère, le rayonnement solaire interagit avec l’atmosphère : les grosses molécules de l’atmo-
sphère (ozone, dioxyde de carbone et vapeur d’eau) absorbent l’énergie de diverses longueurs
d’onde. Aussi, à son arrivée sur la Terre, le rayonnement solaire interagit avec les surfaces des
différents objets : certaines objets comme les bâtiments ou les routes réfléchissent une grande
partie des ondes incidentes, d’autres objets, comme la végétation, absorbent une partie de cette
énergie et les océans absorbent presque complètement les rayons solaires. Cette interaction,
décrite dans la figure 2.4, représente les effets de la courbe du rayonnement solaire. Ces dis-
torsions dans le signal mesurées au niveau des capteurs dépendent de la nature des objets et de
leur interaction avec le rayonnement solaire, des aspects à prendre en considération lors de la
production de l’image brute.

2.2.2 Sources de distorsions géométriques

L’effet de la rotation de la Terre

La taille des images satellitaires est tellement grande qu’il est impossible pour le satellite d’en-
registrer une scène complète à la fois. Pour cette raison, l’image est enregistrée ligne par ligne
afin de reproduire le contenu de la scène photographiée. Ce processus est directement influencé
par la rotation de Terre, qui entraîne un décalage dans la position des pixels de l’image suivant
leur ordre d’acquisition. Cette distorsion de l’image est de nature géométrique puisqu’elle mo-
difie la position des pixels dans l’image et non pas leur réponse radiométrique. Dans ce cas,
une étape de prétraitement est souvent nécessaire dans le but de compenser l’effet de la rotation
de la Terre.
40

Les effets de la variation dans la vitesse et l’altitude du satellite

Les variations dans l’altitude et la vitesse du satellite produisent, à leur tour, des distorsions
au niveau de l’image enregistrée par les capteurs. En effet, dépendamment de la vitesse du
satellite, certains pixels sont décalés lors de leur enregistrement, ce qui produit des erreurs dans
la formation de l’image (voir figure 2.5b). Les variations dans l’altitude du satellite entraînent
des distorsions lors de la formation de l’image satellitaire, puisqu’elles influencent sur la durée
d’exposition du signal aux effets de l’atmosphère terrestre. Par conséquent, un satellite qui
orbite autour de la Terre à une faible altitude subit moins de distorsions causées par les effets de
l’atmosphère comparé à un satellite qui orbite à une altitude élevée. Un autre effet de l’altitude
du satellite à prendre en considération lors de la correction géométrique est la déformation de
l’image (représentée par des pointillés dans la figure 2.5a) produite surtout au niveau des deux
extrémités les plus éloignées du satellite.

a) Effet de la variation dans b) Effet de la


l’altitude variation dans la
vitesse

Figure 2.5 Les effets de la variation dans la vitesse


et l’altitude du satellite, tirée de Richards (2013).

2.2.3 Recalage et élimination du bruit

Les étapes de prétraitement et de recalage des images satellitaires sont deux phases importantes
dans le processus de détection de changements. En réalité, il est plus convenable de parler d’une
relation d’inclusion entre le processus de détection de changements et le prétraitement et non
41

pas d’une étape, car il est impossible d’obtenir de bons résultats de détection de changements
sans passer par un recalage précis de l’image.

L’objectif est de pouvoir comparer deux images différentes de point de vue orientation et po-
sition des pixels. Pour y arriver, il faut définir des fonctions de correspondance qui permettent
d’associer à chaque pixel (x, y) dans la première image son homologue (u, v) dans la seconde
image « image esclave ». Généralement, nous utilisons une approximation polynomiale du
premier, du second ou du troisième ordre de la forme :

u = a0 + a1 x + a2 y + a3 xy + a4 x2 + a5 y2 (2.1)

v = b0 + b1 x + b2 y + b3 xy + b4 x2 + b5 y2 (2.2)

Pour pouvoir estimer les coefficients de ces polynômes, nous utilisons des points de contrôle
sur la première image « image maîtresse » dits les points amers qui permettent de déterminer
les coefficients par le biais de la méthode de moindre carré Wang et al. (2012). Puis, une fois les
points de contrôle définis, nous appliquons une étape de rééchantillonnage et d’interpolation
afin de projeter les pixels de la première image sur la deuxième. Les méthodes d’interpola-
tion couramment utilisées sont : le rééchantillonnage par la méthode du plus proche voisin,
l’interpolation bilinéaire ou cubique.

Le processus imparfait de production des images satellitaires et l’amélioration de la résolution


spatiale des capteurs provoquent l’émergence d’informations parasites qui s’ajoutent de façon
aléatoire aux détails contenus dans l’image. Le bruit est donc un signal indésirable qui vient
se superposer au signal utile et peut toucher à la fois les images optiques et radar. Générale-
ment, le bruit présent dans les images optiques est dû au niveau élevé de détails et peut être
éliminé en appliquant une opération de filtrage ou en se basant sur une analyse multiéchelle de
l’image pour extraire les objets d’intérêt indésirables. Par contre, les images radar sont aussi
caractérisées par la présence d’un bruit dit « de chatoiement » dont l’amplitude et la nature
multiplicative sont très différentes du bruit présent dans les images optiques. Le chatoiement
(speckle) est un bruit multiplicatif qui perturbe les caractéristiques radiométriques des images
42

radar. Il est principalement causé par l’interférence aléatoire des ondes cohérentes et est ca-
ractérisé par une texture poivre et sel sur ces images. Afin de pouvoir réduire les effets du
chatoiement et préserver la structure des images radar, plusieurs techniques de filtrage peuvent
être utilisées :

— Le filtre moyenneur : est l’un des filtres les plus basiques en traitement d’image et
consiste à calculer pour un pixel donné la valeur moyenne dans une fenêtre de taille N ×N,
centrée en ce pixel et tel que :

N N
1
Moy(t) = ∑ ∑ I(x, y) (2.3)
N × N x=1 y=1

— Le filtre médian : afin d’appliquer ce filtre, il suffit de remplacer l’intensité de chaque


pixel de l’image par l’intensité médiane prise parmi toutes les intensités des pixels voisins
dans une fenêtre de taille N × N.

— Le filtre de Lee : est l’un des filtres les plus utilisés dans le filtrage du bruit des images
radar (chatoiement) proposé par Lee (1980). Il permet d’estimer la moyenne et la variance
du signal R en se basant sur la moyenne locale observée I, et la variance locale observée
Var(I) calculées à partir d’une fenêtre d’analyse et tel que :

R=I
2 (2.4)
Var(I) − I σu2
Var(R) =
σu2 + 1

avec σu2 l’écart type au carré du signal bruit U.

— Le filtre de Frost : proposé par Frost et al. (1982), ce filtre se base sur une convolution
de l’image I(t) par une réponse impulsionnelle F(t) qui tient compte des caractéristiques
de l’image radar. Cette réponse impulsionnelle est choisie de façon à minimiser l’erreur
quadratique moyenne entre I(t) et I où I = (I ∗ F)(t) et tel que :

F(t) = exp(−KCu2 (t0 )|t|) (2.5)


43

avec K étant une constante fixée, Cu représente le coefficient de variation du chatoiement


et t0 est le pixel sur lequel l’opération de filtrage est appliquée.

— Le filtre de Kuan : proposé par Kuan et al. (1985), ce filtre transforme le modèle mul-
tiplicatif du bruit en un modèle additif sur lequel il applique le critère du minimum de
l’erreur quadratique moyenne. Sa fonction de pondération est donnée par la formule sui-
vante :
C2
1 − C2 (t)
u
I
K(t) = (2.6)
1 +Cu2

La forme de ce filtre est très semblable à celle proposée par Lee, sauf au niveau du choix
de la fonction de pondération K(t) et CI le coefficient de variation local du chatoiement.

— Le filtre de Henri : est un filtre adaptatif proposé par Arsenault (1987) et se base sur une
estimation locale de la variance de bruit σu2 , ainsi que la variance de l’intensité, Var(I).
Sa fonction de pondération est donnée par la formule suivante :

σu2
H(t) = 1 − (2.7)
Var(I)

avec Var(I) la variance calculée à partir de la fenêtre d’intérêt et σu2 la variance du bruit
U estimée localement sur une fenêtre plus petite que la fenêtre d’intérêt.

2.2.4 Correction des distorsions radiométriques

Correction des erreurs d’instrumentation

La correction des distorsions radiométriques causées par les erreurs d’instrumentation passe
par une analyse statistique de la radiométrie de l’image. L’idée consiste à supposer que les
capteurs utilisés pour l’acquisition des données dans chaque bande produisent des signaux
similaires, en d’autres termes, la valeur de la moyenne et de l’écart type calculée à partir de la
scène complète devrait être la même pour chaque capteur. Dans ce cas, si nous notons par x
la valeur de luminance initiale d’un pixel et par y sa valeur corrigée, nous obtenons l’équation
44

suivante :
y − md σd σd σd
= ⇐⇒ y = x + md − mi (2.8)
x − mi σi σi σi

avec (md , σd ) représentent la moyenne et l’écart type de la ligne de référence, respectivement,


et (mi , σi ) représentent la moyenne et l’écart type de la ligne altérée, respectivement. Ce calcul
peut être généralisé pour déterminer la valeur radiométrique des pixels de la ligne manquante
dans chaque image enregistrée par un capteur et pour les différents capteurs, ce qui permet
d’éliminer les distorsions radiométriques.

Correction des effets de l’atmosphère

La correction des effets de l’atmosphère nécessite une bonne modélisation des caractéristiques
d’absorption de chaque élément de l’atmosphère. Comme ces distorsions affectent plus les
ondes à bande étroite, ces ondes nécessitent un traitement particulier afin de pouvoir reproduire
leur valeur réelle. La procédure de correction passe par les étapes suivantes :

1. Convertir les données brutes en radiance pour pouvoir appliquer les corrections atmo-
sphériques.

2. Compenser les effets du rayonnent solaire décrits dans le paragraphe 2.2.1.3.

3. Compenser les effets des molécules et des gaz qui forment l’atmosphère terrestre.

4. Convertir les réflectances des surfaces en réflectances réelles en considérant les effets
topographiques.

Correction des effets de la courbe du rayonnement solaire

Afin de diminuer les effets de la courbe du rayonnement solaire, les données enregistrées par le
capteur sont reconstruites en se basant sur le modèle d’irradiance solaire montré dans la figure
2.6. Ce modèle décrit la variation de la puissance du rayonnement solaire en fonction des dif-
férentes longueurs d’onde qui le composent. Nous pouvons remarquer que les faibles valeurs
de la puissance caractérisent les rayonnements ultraviolets absorbés par la couche d’ozone et
45

Figure 2.6 Spectre du rayonnement solaire,


tirée de Wikipédia

les ondes infrarouges absorbées surtout au niveau de la mer. Les valeurs relativement élevées
de la puissance sont associées aux ondes visibles qui ne sont pas trop affectées par les effets de
l’atmosphère. En se basant sur ce modèle, l’image peut être corrigée en prenant en considéra-
tion la réponse de chaque objet (réflexion ou absorption) et le modèle décrivant le spectre du
rayonnement solaire en dehors de l’atmosphère terrestre.

2.2.5 Correction des distorsions géométriques

Correction de l’effet de la rotation de la Terre

Afin de corriger l’effet de la rotation de la Terre, il faut translater vers la gauche les pixels qui
ont subi un déplacement vers la droite lors de l’enregistrement de l’image. Cette correction est
faite de telle sorte que tous les pixels reprennent leur emplacement qui permet de les décrire
d’une façon fidèle la scène. Si nous posons [u, v] les coordonnées réelles du pixel et [x, y] les
coordonnées du pixel influencées par la rotation de la Terre, nous obtenons :
         
x 1 α u u 1 −α x
 =    ⇐⇒   =    (2.9)
y 0 1 v v 0 1 y
46

avec α une constante qui dépend de la position du satellite.

Correction de l’effet de la variation dans la vitesse et l’altitude du satellite

La correction des distorsions causées par les variations dans de l’altitude et la vitesse du sa-
tellite nécessite des connaissances sur les caractéristiques de chaque satellite afin de pouvoir
modéliser ces variations. Généralement, une représentation mathématique de la transformation
géométrique qui devrait être appliquée à chaque pixel de l’image suffit pour résoudre ce pro-
blème. Par exemple, pour appliquer une rotation à l’image d’un angle ϕ, il suffit de calculer le
produit matriciel suivant :

         
x cos ϕ sin ϕ u u cos ϕ − sin ϕ x
 =    ⇐⇒   =    (2.10)
y − sin ϕ cos ϕ v v sin ϕ cos ϕ y

Dans d’autres cas, un changement d’échelle est nécessaire pour pouvoir changer la résolution
des objets dans l’image et se focaliser sur un ensemble d’objets en particulier. Le changement
d’échelle peut être appliqué sur l’image en utilisant la formule suivante :

         
1
x a 0 u u 0 x
 =    ⇐⇒   =  a   (2.11)
1
y 0 b v v 0 b y

avec a et b sont deux paramètres de l’échelle. Nous pouvons aussi combiner plusieurs opéra-
tions de corrections géométriques pour appliquer par exemple une rotation et une translation
comme suit :
          
x cos ϕ sin ϕ a 0 u u b cos ϕ −a sin ϕ x
 =     ⇐⇒   = 1    (2.12)
y − sin ϕ cos ϕ 0 b v v ab b sin ϕ a cos ϕ y
47

2.3 Propriétés des structures linéaires dans les images satellitaires

Avant d’entrer dans les détails des techniques proposées dans la littérature pour résoudre le
problème d’extraction des structures linéaires et l’évaluation de leurs dommages, il est très utile
de fournir une description claire de ces structures. Une bonne description de l’objet cherché
dans l’image aidera à définir les meilleurs descripteurs caractéristiques de ces structures et
les algorithmes les plus adéquats pour les extraire. En réalité, l’identification des structures
linéaires à partir des images satellites est une tâche complexe en raison de :

— La variété des capteurs et des conditions d’acquisition des images satellitaires : la


résolution des images satellitaires diffère d’un capteur à un autre, elle peut varier de plu-
sieurs kilomètres à quelques centimètres. Cette variation entraîne une différence entre
la description des structures linéaires qui apparaissent sous forme de segments dans les
images à moyenne et faible résolution pour arriver à des surfaces homogènes dans les
images satellitaires à haute et à très haute résolution. Aussi, les conditions d’acquisition
des images jouent un rôle important dans la description des structures linéaires, puisque
le degré d’inclinaison du capteur capte l’ombre qui provient des bâtiments aux alentours
des routes, par exemple, qui est interprétée comme une occlusion lors de leur extraction.

— La variété des matériaux de fabrication et la géométrie des structures linéaires :


la radiométrie des structures linéaires est dépendante des matériaux utilisés dans leurs
constructions et des composantes qui les constituent. Le revêtement de la surface des
routes est généralement fait d’enrobé bitumineux ou d’asphalte, ce qui détermine leur
radiométrie et leur texture, tandis que dans les images radar, c’est la rugosité des surfaces
d’eau qui constitue la réponse radiométrique sombre qui caractérise les surfaces d’eau
en général et les rivières en particulier. En termes de géométrie, les routes sont linéaires
dans les grandes villes et présentent des courbures dans les petites villes. Les rivières, par
contre, sont caractérisées par des courbures importantes, mais gardent une linéarité locale.

— La variété du voisinage spatial des structures linéaires : le voisinage spatial des struc-
tures linéaires est varié dépendamment de la zone observée : nous trouvons dans les zones
urbaines des bâtiments et dans les zones rurales des champs, des arbres et des sols nus.
48

À partir de ces constatations, nous pouvons décrire les routes et les rivières comme étant des
structures linéaires ou localement linéaires avec une faible courbure au niveau de quelques
zones, qui présentent une radiométrie variée, mais quasi uniforme tout au long de la surface.
Le voisinage spatial de ces structures est très hétérogène, il peut contenir des bâtiments, des
sols nus et/ou de la végétation.

2.4 Classification des méthodes d’extraction des structures linéaires à partir des images
satellites à très haute résolution

L’extraction des structures linéaires à partir des images satellitaires est un axe de recherche
très actif en raison de ses différentes applications qui touchent à la fois la gestion des ca-
tastrophes et le suivi des changements de l’occupation du sol. Les méthodes proposées dans
la littérature varient l’une de l’autre en termes de données d’entrées (image mutispectrale,
image radar, modèle numérique de terrain et vérité terrain), en termes de résolution d’images
(images à moyenne résolution, images à haute résolution et images à très haute résolution) et
en termes de caractéristiques et de descripteurs jugés utiles dans le processus d’identification
des structures linéaires (les contours des bords, la radiométrie, la texture, la géométrie, etc). Le
travail de Mena (2003) présente une bibliographie de près de 250 références en relation avec
le sujet d’extraction des routes, mais ces techniques peuvent être facilement généralisées pour
couvrir le problème d’identification d’autres structures linéaires comme les rivières. Devant
cette variété, plusieurs auteurs ont essayé de classer les méthodes d’extraction des structures
linéaires : Soufiane Ibrahim dans son travail de thèse Idbraim (2009) a choisi de classer les ap-
proches d’extraction des routes en méthodes automatiques et semi-automatiques. La première
famille d’approches contient les méthodes de segmentation et de classification non supervi-
sée, les champs de Markov sur graphe et les systèmes d’interprétation. La deuxième famille
d’approches comporte les méthodes de suivi et de filtrage, les contours actifs et la program-
mation dynamique. La même stratégie de décomposition a été adoptée par Lacoste (2004), qui
cherchait dans son doctorat à résoudre le problème d’extraction des réseaux linéiques à partir
d’images satellitaires et aériennes en appliquant le processus ponctuel marqué. Hecher (2012)
se base sur le type des données d’entrées pour classer les techniques d’extraction des rivières
49

en : 1- méthodes basées sur les données optiques, 2- méthodes basées sur les données Lidar et
les produits dérivés (ex : modèle numérique de terrain) et 3- méthodes basées sur les données
radar. Ruskone & Stamon (1996) ont décomposé les approches utilisées pour la détection des
routes en trois classes : extraction globale (Road finding ), cette famille d’approches comporte
les méthodes de classification, les méthodes de filtrage et les méthodes d’analyse multiréso-
lution et multitemporelle, la deuxième famille d’approches inclut les méthodes de suivi de
route (Road Tracking) : plusieurs algorithmes ont été appliqués pour suivre les routes dont
nous pouvons citer le filtre de Kalman, les courbes NURBS, la corrélation des profils radiomé-
triques et la direction du bord générée par le filtre de Deriche. La dernière famille d’approches
contient les méthodes de reconstruction du réseau routier (Road linking) qui introduisent des
connaissances radiométriques, géométriques et topologiques des routes. Un autre travail que
nous jugeons intéressant est le celui de Hemiari (2004) qui a classé les approches d’extractions
des routes en méthodes locales et méthodes globales. Nous allons dans cette thèse adopter la
classification proposée par Hemiari qui nous semble la plus appropriée pour l’analyse des tech-
niques d’extraction des structures linéaires puisqu’elle suit une logique très prisée en traitement
d’image à savoir l’analyse de l’information au niveau des pixels et l’analyse de l’information
au niveau des objets. Nous ajoutons à cette décomposition une troisième famille d’approches
qui englobe les techniques multiéchelles Naouai et al. (2011) et Salari & Zhu (2012), qui font
le lien entre l’information locale et globale dans le but d’identifier la meilleure échelle pour
analyser l’objet d’intérêt.

2.5 État de l’art des méthodes d’extraction des structures linéaires

2.5.1 Les méthodes locales

Cette famille de méthodes regroupe les approches qui appliquent la morphologie mathématique
Mohammadzadeh et al. (2006) ; Chaudhuri et al. (2012) et Klemenjak et al. (2012), la classi-
fication pixellique de l’image Zhang & Lin (2010) ; Zhu et al. (2015) ; Matgen et al. (2011) et
Hong et al. (2015), l’analyse de la texture à partir d’un noyau Mena & Malpica (2005) et le
50

calcul du gradient Jinxin et al. (2006) et Sun & Mao (2011). Le fondement de ces approches
repose sur l’analyse de l’information spectrale contenue dans le pixel en cours et son voisinage
immédiat afin de distinguer ceux qui appartiennent aux structures linéaires. Les surfaces de ces
structures et leurs contours représentent de bonnes cibles et une information pertinente pour
cette famille d’approches.

Les approches basées sur la morphologie mathématique

La morphologie mathématique est une théorie de traitement d’images non linéaire ( f (ax +
by) 6= a f (x) + b f (y)). Elle représente un cadre riche pour l’analyse d’images binaires, niveaux
de gris ainsi que les images couleurs par généralisation des concepts de la morphologie mathé-
matique pour les images niveaux de gris Tao & Zhang (2013). Sa popularité est due principa-
lement à sa capacité à exploiter les relations spatiales et la base mathématique rigoureuse sur
laquelle s’appuie cette théorie. Introduite pour la première fois par les chercheurs français G.
Matheron & J. Serra de l’école des Mines de Paris, cette théorie diffère des méthodes linéaires
par le fait qu’elle ne s’appuie pas sur le traitement du signal, mais plutôt sur la théorie des
ensembles.

a) Opération de dilatation b) Opération d’érosion

Figure 2.7 Les opérateurs morphologiques de base, tirée de Rolf Ingold, university of
Fribourg 2006

L’application d’un opérateur morphologique sur une image se base sur la notion d’inclusion ou
non d’une forme particulière (élément structurant) dans une zone de l’image. Leurs formes de
base permettent d’adoucir les contours des régions ou de les agrandir, mais elles peuvent aussi
51

être appliquées sur l’image afin de boucher les trous, d’éliminer le bruit ou de supprimer les
isthmes. Les opérateurs morphologiques de base sont :

— La dilatation morphologique par application d’un élément structurant B. La dilatation de


X par B est l’ensemble obtenu en remplaçant chaque pixel p de X par sa fenêtre B p et tel
que :
DilB (X) = ∪{B p |p ∈ X} (2.13)

— L’érosion morphologique par application d’un élément structurant B. L’érosion de X par


B est l’ensemble des pixels p tels que la fenêtre B p est incluse dans X et tel que :

ErosB (X) = {p|B p ⊆ X} (2.14)

— L’ouverture morphologique est la composition de l’érosion par B suivie de la dilatation


par B et tel que :
OuvB (X) = DilB (ErosB (X)), (2.15)

— La fermeture morphologique est la composition de la dilatation par B suivie de l’érosion


par B et tel que :
FermB (X) = ErosB (DilB (X)), (2.16)

Parmi les travaux qui ont eu recours aux techniques de la morphologie mathématique dans le
processus d’extraction des structures linéaires, nous pouvons citer : Mohammadzadeh et al.
(2006), Chaudhuri et al. (2012) et Klemenjak et al. (2012).

Dans Mohammadzadeh et al. (2006), les auteurs présentent une méthode pour l’extraction des
routes basée sur la morphologie mathématique : d’abord l’image est classée en deux classes :
routes et non-routes par des règles de la logique floue, suivie d’une étape de raffinement des
résultats de l’extraction qui consiste à appliquer une ouverture de l’image pour l’élimination
du bruit, suivie d’une fermeture dans le but de supprimer les pixels mal classés. La figure 2.8a
représente l’image originale de test et la figure 2.8b montre les résultats de l’application de la
52

classification par la logique floue, tandis que les figures 2.8c et 2.8d exposent les résultats de
l’application de l’ouverture et de la fermeture morphologique.

a) Image de test b) Résultat de la


classification

c) Application de d) Application de la
l’ouverture fermeture

Figure 2.8 Les résultats de la détection des routes, tirée de Mohammadzadeh et al.
(2006)

Chaudhuri et al. (2012) appliquent les opérateurs morphologiques pour améliorer l’effet visuel
de l’image et faciliter son interprétation. La première étape de l’algorithme proposé comprend
l’application des opérateurs d’ouverture et de fermeture directionnelles afin d’éliminer le bruit
et rehausser les contours des objets. La deuxième étape consiste à segmenter l’image en iden-
tifiant la direction du contour qui minimise la distance entre des modèles prédéfinis et les
contours au voisinage du pixel courant. Une fois l’image segmentée, un filtrage basé sur la su-
perficie des régions et la longueur des segments est appliqué dans le but d’éliminer les régions
non significatives et les courts segments. L’algorithme a été appliqué sur une variété d’images
satellites et comparé avec des techniques présentées dans la littérature et les résultats sont très
53

acceptables. Néanmoins cette méthode souffre du problème du choix de la base d’apprentissage


vu qu’il n’existe pas une forme exacte relative à la structure des routes.

La morphologie mathématique a été aussi appliquée à des images RSO pour automatiser la
détection des rivières. Dans ce contexte, Klemenjak et al. (2012) proposent une technique
innovatrice pour extraire les rivières en se basant sur l’application d’un élément structurant de la
forme d’un filament dit « chemin » afin de favoriser l’identification des structures linéaires. Par
la suite, le profil morphologique associé à chaque pixel de l’image est construit en appliquant
une série d’ouvertures par des chemins dans le but de sélectionner la meilleure échelle pour
identifier les rivières. Finalement un classifieur à base de séparateur à vaste marge est appliqué
pour séparer les deux classes eau et non-eau.

Les approches basées sur la détection des contours

L’extraction des arêtes et des contours représente une étape importante dans le processus
d’identification des objets d’intérêt. Les contours d’une image correspondent à une variation
brusque dans l’information radiométrique mesurée par le calcul de la dérivée première (le cal-
cul du gradient) ou de la dérivée seconde (le calcul du laplacien) de l’intensité de l’image. En
se basant sur la définition du gradient, plusieurs opérateurs ont été proposés : Sobel, Prewitt,
le détecteur de contour de Touzi et al. (1988) dédié pour les images RSO et le détecteur de
contour optimal de Canny (1986) et son amélioration proposée par Deriche (1987).

Nous pouvons constater clairement que les approches qui se basent sur les contours que pré-
sentent les bords des structures linéaires sont les méthodes les plus utilisées. Cela est dû à
la simplicité d’utilisation et d’application de ces filtres passe-haut et aussi au fait que leurs
bords parallèles les distinguent de plusieurs objets dans l’image. Dans Jinxin et al. (2006), une
nouvelle approche d’extraction des routes à partir des images provenant du satellite Quick-
bird est présentée : avant de se focaliser sur les réseaux routiers, une étape de prétraitement
est appliquée dans le but d’éliminer les distorsions que présente l’image et la préparer pour
la phase de traitement. Pour ce faire, un seuillage est employé afin de binariser l’image suivie
54

par une ouverture et une fermeture à l’aide d’un élément structurant dont le but est de boucher
les trous résultant de l’opération de seuillage. Les trois images 2.9a, 2.9b et 2.9c représentent
l’image de test et les résultats du seuillage et d’application des opérateurs morphologiques pour
le remplissage des trous. Ensuite, les arêtes de chaque région sont extraites en privilégiant les
contours fermés et finalement, les routes sont distinguées des édifices par l’application d’une
classification par l’algorithme K-moyennes et en se basant sur le calcul du ratio : périmètre du
rectangle englobant la région d’intérêt sur le périmètre de l’objet. Les résultats de l’extraction
des contours et de l’identification des routes sont présentés dans les figures : 2.9d et 2.9e.

a) Image de test b) Résultat de


l’opération du
seuillage

c) résultat de l’étape
d’élimination des
trous

d) Extraction des e) Identification


contours des routes

Figure 2.9 Approche proposée par Jinxin et al. (2006)


55

Dans certains cas, la particularité des images manipulées impose des contraintes qui com-
pliquent l’extraction des contours des objets. Les images RSO représentent un cas concret,
puisqu’elles diffèrent des images optiques par la présence du chatoiement qui rend les mé-
thodes dérivatives non applicables. Cette complexité s’explique par le fait qu’il n’existe pas un
résultat unique du calcul des fausses alarmes générés par application de ces méthodes, ce qui
favorise les opérateurs basés sur le calcul du ratio ou l’application de l’analyse multiéchelle
pour éliminer ce bruit. La transformée en ondellettes a été utilisée Sun & Mao (2011) pour
filtrer les arêtes non pertinentes et garder seulement celles appartenant aux rivières dans les
images RSO. Une étape de suivi est utilisée, par la suite, pour relier les segments générés à la
première étape. Le résultat obtenu est montré dans la figure 2.10b.

a) Site d’étude b) Résultat de l’extraction de


la rivière

Figure 2.10 Résultat de l’application de la méthode de Sun & Mao (2011) sur une
image RSO.

Les approches basées sur l’analyse de la texture

Une texture est une structure spatiale constituée par l’organisation de primitives de base, sa
description est reliée à l’état de la surface, lisse ou au contraire rugueuse. La texture permet de
décrire des surfaces trop difficiles à caractériser par des arêtes (exemple : pelouse, mer, forêt,
etc.). Il n’existe pas de définition formelle de la texture, mais nous pouvons la définir comme
étant l’étude de l’organisation des pixels entre eux. Elle est définie sur deux niveaux :
56

— La description des éléments de base qui forment la texture.

— La description de la relation spatiale qui organise ces éléments.

Les mesures de texture sont variées, mais elles peuvent être décomposées en deux familles :

— Analyse statistique de premier ordre qui comprend le calcul de la moyenne, la variance,


l’asymétrie, l’énergie, l’entropie à partir de l’histogramme, etc, l’analyse statistique du
second ordre qui se base sur l’étude des différentes matrices de cooccurrence ainsi que
l’analyse statistique d’ordre supérieure à l’aide des moments géométriques.

— Analyse fréquentielle de la texture fondée sur la transformée de Fourier, de Gabor ou en


ondelettes.

a) Image de test et base de données SIG

b) Résultat de la squelettisation et de la triangulation

Figure 2.11 Résultat de l’approche décrite dans Mena & Malpica (2005)

Dans le contexte de l’identification des structures linéaires, la texture a été utilisée maintes fois
dans la description de l’homogénéité de leur surface. Plusieurs auteurs considèrent les routes
et les rivières comme étant des structures allongées et homogènes. L’un de ces travaux de re-
cherche est celui de Mena & Malpica (2005) qui profite du cadre mathématique qu’offre la
théorie d’évidence pour la fusion des résultats issus de l’application de plusieurs mesures de
57

texture. La méthode proposée comprend quatre modules : une première phase qui consiste à
utiliser les routes déjà détectées dans une base de données géographique comme zone d’ap-
prentissage et l’application d’un filtre médian afin d’éliminer le bruit. La deuxième phase se
traduit par l’application des mesures de texture du premier et du second ordre pour segmenter
l’image. Les images résultantes de la segmentation sont ensuite fusionnées à l’aide de la théo-
rie d’évidence. La troisième étape vise à squelettiser les routes et à raffiner les résultats par
triangulation. Et finalement, une quatrième phase d’évaluation des résultats et de validation est
réalisée. Les différentes étapes décrites précédemment sont illustrées dans la figure 2.11.

Les approches basées sur la classification pixellique

Ces méthodes de classification utilisent l’information radiométrique contenue dans une ou plu-
sieurs bandes spectrales pour classer les pixels de l’image. L’objectif de cette approche est
de faire correspondre les classes spectrales aux classes d’information. Les classes spectrales
sont les groupes de pixels qui ont les mêmes caractéristiques spectrales tandis que les classes
d’informations sont les catégories d’intérêt que nous cherchons à identifier dans la scène. Les
approches de classification de l’image peuvent être décomposées en deux familles :

• La classification non supervisée : les classes sont créées automatiquement et sans connais-
sance à priori.

• La classification supervisée : consiste à générer à partir d’un ou de plusieurs échantillons


sélectionnés et validés par l’utilisateur des règles de classification permettant de classer un
nouvel élément.

Les méthodes à base de classification ont été largement utilisées dans la littérature pour l’ex-
traction des structures linéaires à partir des images satellites Zhang & Lin (2010), Zhu et al.
(2015) et Matgen et al. (2011). Généralement, l’utilisateur est appelé à fournir à partir d’une
interface graphique des zones appartenant à la surface de la structure linéaire pour l’appren-
tissage du classifieur. Le travail de Zhang & Lin (2010) présente un très bon exemple pour
cette famille de méthodes. Dans son travail publié en 2010, l’auteur présente une approche
supervisée pour l’extraction des routes basée sur le SVDD (une amélioration du classifieur
58

séparateur à vaste marge SVM ). Trois étapes ont été proposées afin d’identifier les routes pré-
sentes dans l’image optique d’entrée : la première étape consiste à fournir à l’utilisateur une
interface graphique pour lui faciliter le choix des zones d’apprentissage, puis les pixels conte-
nus dans chaque fenêtre sont accumulés dans un histogramme et les caractéristiques provenant
de la concaténation des histogrammes issus des trois bandes sont utilisées comme entrée pour
le classifieur dit "SVDD" afin d’augmenter la taille du vecteur caractéristique. Les résultats
de cette approche sont acceptables, mais la classification échoue dans la distinction entre les
routes, les bâtiments et le sol nu, comme nous pouvons le remarquer dans la figure 2.12 à cause
de leurs radiométries semblables.

a) Site 1 avec les zones b) Résultats de la


d’apprentissages classification

c) Site 2 avec les zones d) Résultats de la classification


d’apprentissages

Figure 2.12 Résultats de l’extraction des routes pour les sites 1 et 2


59

Plusieurs études ont tenté de caractériser les rivières en fonction de leur réponse radar et l’ho-
mogénéité de leur surface. Ces approches ont donné des résultats très prometteurs, mais elles
restent encore limitées dues à la présence de chatoiement qui caractérise les images RSO et
d’autres objets avec des réponses radiométriques similaires. Parmi ces méthodes, les techniques
les plus couramment utilisées sont celles fondées sur le seuillage de l’image pour extraire les
surfaces d’eau. Ces méthodes reposent essentiellement sur le fait que les valeurs de rétrodif-
fusion de l’eau dans les images RSO sont très faibles, et il est donc possible d’en extraire une
partie d’une rivière ou d’un lac en sélectionnant les pixels qui sont inférieurs à une valeur de
seuil donnée. Zhu et al. (2015) discrimine l’eau des objets de l’arrière-plan en utilisant un seuil
optimal sélectionné par la méthode d’Otsu (1979), suivie de l’application de la morphologie
mathématique. Dans Matgen et al. (2011), la rétrodiffusion de l’eau est d’abord estimée en
utilisant une fonction de densité de probabilité gamma, puis une étape de seuillage est appli-
quée afin de séparer complètement l’eau à partir des autres composants de la scène, et enfin
la surface de l’eau est identifiée par l’application de l’algorithme de croissance de région. Les
données d’un modèle numérique de terrain (MNT) sont utilisées dans Hong et al. (2015) pour
éliminer les distorsions géométriques et radiométriques à partir d’images RSO. Cette approche
génère ensuite une carte d’occupation du sol en utilisant l’algorithme d’analyse des données
d’auto-organisation interactive afin de déterminer le seuil optimal pour l’amplitude, classer
l’image et extraire la surface de la rivière. Les méthodes basées sur le seuillage sont très effi-
caces et produisent de très bons résultats. Cependant, la présence de chatoiement sur la surface
de l’eau et l’existence de plusieurs objets qui ont une réponse radiométrique similaire à celle
de l’eau rend la détermination d’un seuil optimal pour séparer les zones d’eau des autres objets
une tâche complexe.

2.5.2 Les méthodes globales

Les approches globales d’extraction des structures linéaires sont définies comme étant les mé-
thodes qui s’intéressent à l’interprétation des regroupements de pixels dans l’image. L’idée de
base provient du fait qu’il est difficile de confirmer l’appartenance d’un objet à une classe ou
60

à une autre sans analyser son voisinage et interpréter leurs groupements, la texture et l’ali-
gnement. Cette famille d’approches est largement utilisée dans la littérature vu qu’elle est
moins sensible aux bruits présents dans l’image. Dans la plupart des cas, les méthodes glo-
bales suivent les méthodes locales pour affirmer ou rejeter l’appartenance d’un pixel à une
classe. Dans le domaine d’extraction des structures linéaires, la transformée de Hough, de Ra-
don Herumurti et al. (2013), Rianto (2002) et Cheng-Li et al. (2005) et la classification objet
Shackelford & Davis (2003) entrent dans le cadre de cette famille d’approches. La linéarité et
le parallélisme des bords de ces structures représentent une information incontournable dans le
processus d’extraction des routes et des rivières.

Les approches basées sur la transformée de Hough

La transformée de Hough est un outil employé dans le domaine de la vision par ordinateur pour
la détection des lignes. Ces dernières sont définies par deux paramètres qui peuvent s’écrire,
dans le cas des lignes droites, sous la forme ax+b avec ’a’ la pente ou le taux de variation et
’b’ la valeur de l’ordonnée à l’origine. Elle peut être employée pour trouver n’importe quelle
forme (droite, cercle ou éclipse) représentée par un ensemble de paramètres. Nous présentons
dans ce qui suit un petit rappel de cette méthode.

Développée par P. Hough en 1963 sous concession de brevet d’IBM, le principe de cette trans-
formée est simple et consiste à faire la correspondance entre les coordonnées d’un pixel et
l’espace des paramètres (a,b). Par conséquent, un point dans l’image sera représenté par une
sinusoïde provenant de l’utilisation de coordonnées polaires et un point dans l’espace des pa-
ramètres sera représenté par une ligne dans l’image. Extraire une droite à partir de l’image
revient à déterminer dans l’accumulateur de l’espace des paramètres la coordonnée qui a le
plus de votes, en effet le nombre de points votés représente l’importance de cette droite dans
l’image. Il suffit donc de retenir les pics dans l’accumulateur pour déterminer les droites les
plus pertinentes dans l’image.
61

La transformée de Hough a été largement utilisée dans la littérature pour l’extraction des struc-
tures linéaires, en particulier les routes Herumurti et al. (2013), Rianto (2002) et Cheng-Li
et al. (2005). Dans Herumurti et al. (2013), l’algorithme de croissance de région est utilisé
pour différencier les bâtiments des routes dans une zone urbaine : une première étape consiste
à appliquer un filtre médian, une fois l’image filtrée, un seuillage est appliqué à l’image dans
le but de la binariser. La transformée de hough est appliquée par la suite pour extraire les struc-
tures linéaires. Les droites générées par l’application de la transformée de Hough représentent
en fait les routes présentes dans l’image, mais aussi des droites formées par les contours des
bâtiments ou ceux d’autres objets linéaires comme les rivières. Pour résoudre ce problème, l’al-
gorithme de croissance de région est appliqué en considérant les périmètres des routes comme
étant des germes pour la croissance de région. La figure 2.13 illustre l’étape de prétraitement
de l’image.

a) Image de test b) Résultat de l’application de


la transformée de Hough

Figure 2.13 Les résultats de la détection des routes, tirés du travail de Herumurti et al.
(2013).

Une variante de la transformée de Hough proposée pour l’extraction des structures linéaires
à partir des images RSO est décrite dans Wei & Feng (2016). Les auteurs partent de l’hypo-
thèse que les arêtes des objets dans les images RSO sont susceptibles d’appartenir à une droite
dans l’image et donc devraient avoir plus de poids dans l’accumulateur de l’espace des para-
mètres. Les résultats obtenus montrent les bonnes performances de l’approche proposée, mais
62

a) Les germes pour la b) Extraction des routes


croissance de région

Figure 2.14 Utilisation des périmètres comme des germes pour la croissance de région.

rappellent aussi les problèmes qu’éprouve cette technique face aux objets caractérisés par une
forte courbure.

Les approches basées sur la classification orientée objet

Contrairement à la classification pixellique, la classification orientée objet analyse les regrou-


pements de pixels contigus en se basant sur la valeur spectrale, la forme, le contexte, etc. Le
processus de classification orientée objet comporte deux phases : une étape de segmentation
des objets et une étape d’affectation à une classe. Pour pouvoir appliquer une classification
orientée objet sur l’image, il est nécessaire de considérer les différents niveaux hiérarchiques
qui définissent le niveau de détail de l’objet. Ensuite, identifier l’objet d’intérêt par application
d’un certain nombre de règles qui traduisent les connaissances sur cet objet. La classification
orientée objet trouve son utilité dans l’extraction des structures linéaires du fait qu’elle favorise
la description grossière de ces structures sans se focaliser sur les détails comme les voitures et
le bruit présents dans l’image qui sont difficiles à discriminer en cas de classification pixellique.

Dans Shackelford & Davis (2003), une approche basée sur la classification orientée objet de
l’image est proposée : une classification pixellique à l’aide de la logique floue est d’abord appli-
quée à l’image afin de discriminer les classes : bâtiments, routes, herbes, arbres, sol nu, ombre.
Les résultats de cette phase sont améliorés à l’aide de mesures de texture (p. ex. entropie) pour
63

distinguer entre deux classes, herbes et arbres par exemple, puis les dimensions spatiales des
objets ont été utilisées pour distinguer les routes par rapport aux bâtiments. Le deuxième ni-
veau consiste à appliquer une classification orientée objet afin de raffiner les résultats de la
classification pixellique : décomposer la classe bâtiments en bâtiments résidentiels, bâtiments
industriels ou bâtiments commerciaux. Une fois l’image classée, les routes sont étiquetées et
leurs axes principaux sont détectés par application d’un algorithme de squelettisation. La figure
2.15 présent les résultats des étapes de la méthode d’extraction proposée.

a) Image infrarouge du site b) Résultat de la classification objet

c) Squelettisation des routes d) Résultat de la croissance


de région

Figure 2.15 Résultats de l’extraction des routes par application de la méthode proposée
dans Shackelford & Davis (2003)
64

2.5.3 Les approches hybrides : l’analyse multiéchelle

Les familles d’approches d’extraction locale et globale couvrent la plupart des approches de
détections des structures linéaires. Ces méthodes traitent les structures linéaires comme étant
des objets invariants indépendamment de l’échelle d’observation. Mais en réalité, la notion
d’échelle est l’une des notions les plus importantes dans le traitement du signal en général et le
traitement d’images en particulier. Il est important dans le processus de segmentation et d’ex-
traction des objets de déterminer l’échelle convenable sinon nous risquons de produire une sur
ou sous segmentation de l’objet d’intérêt. Les routes, par exemple, sont perçues différemment
dépendamment de l’échelle d’observation (voir figure 2.16) :

a) b)

Figure 2.16 Une route perçue à différentes échelles.

L’idée de la représentation multiéchelle est de générer moyennant un paramètre unique (le pa-
ramètre d’échelle t) une famille d’images dérivée de l’image d’origine en éliminant à chaque
stade l’information non utile et en gardant en même temps une information minimale qui re-
présente l’objet. En se basant sur cette définition, la résolution d’un problème d’extraction
des routes revient à déterminer l’échelle la plus adéquate pour l’extraction des routes à partir
des images satellitaires. Il est important de mentionner que les routes dans une même image
peuvent appartenir à différentes échelles suivant leurs classes : autoroutes, routes et chemins.
Les travaux qui s’intéressent à l’analyse multiéchelle sont nombreux, mais ceux qui appliquent
la vraie définition de l’analyse multiéchelle sont moins nombreux. Parmi les travaux dans cet
axe de recherche, nous citons le travail de Naouai et al. (2011). Dans leur article, les auteurs
utilisent la transformée en ondelettes pour segmenter l’image à différents niveaux d’échelles,
65

ensuite les régions issues de la segmentation sont filtrées suivant leur mesure de rectangularité
basée sur le rapport entre le périmètre de l’objet et sa superficie. Finalement, il applique les
opérateurs morphologiques pour l’amélioration des contours et la squelettisation pour extraire
les axes principaux du réseau routier.

La transformée en ondelettes est un outil très puissant pour le traitement du signal et des images
et la compression de l’information de données numériques. Cela a poussé les chercheurs à pro-
poser des variantes de cet outil tout en gardant l’avantage qu’elle offre par rapport à d’autres
méthodes de traitement du signal plus traditionnelles. Parmi ces travaux, nous citons la trans-
formée de beamlets qui a été proposée pour la première fois par Donoho et Huo dans Do-
noho & Huo (2002). Cette transformée a l’avantage que l’élément de base de la décomposition
est une droite, le principe consiste à approximer les contours de l’image à l’aide de segments
de droite appartenant à plusieurs échelles. Cette décomposition permet de réaliser une ana-
lyse multiéchelle de l’image tout en gardant une information pertinente sur l’orientation des
segments dits "beamlets", ainsi que leur orientation.

Figure 2.17 Résultat de la simulation obtenue par Salari dans Salari & Zhu (2012)

Les travaux sur les beamlets ne sont pas nombreux et la plupart d’entre eux traitent les images
radar, nous citons dans ce contexte le travail de Salari qui a proposé une méthode pour l’ex-
traction des routes à partir des images radar bruitées. Dans leur article, Salari & Zhu (2012)
décrivent une méthode qui profite de l’information sur l’orientation et la direction de chaque
beamlet pour la détection des segments quasi droits dans l’image et reconstruire par la suite le
réseau routier. Les résultats obtenus sont exposés dans la figure 2.17.
66

2.5.4 Résumé des approches existantes

Tableau 2.1 Tableau récapitulatif des différents travaux et approches d’extraction des
structures linéaires
Référence Famille Méthode Satellite Résol. Avantages Inconvénients
Mohammadzadeh locale Morphologie IKONOS haute 3 Les structures de 3 Nécessite l’inter-
et al. (2006) forme rectangulaire vention de l’utilisa-
ou carrée sont teur
adéquates pour le
rehaussement des
éléments linéaires
mathématique
Chaudhuri et al. locale Morphologie IKONOS haute
(2012)
mathématique
Jinxin et al. locale contours Quickbird haute 3 Les bords paral- 3Confusion entre les
(2006), lèles des structures li- contours des routes et
néaires présentent une ceux d’autres objets
information capitale (Bâtiments, rivières)
Sun & Mao RADARSAT-2
(2011)
Mena & Malpica locale texture - haute 3 Exploite les rela- 3Temps considérable
(2005) tions spatiales entre de calcul
pixels
3Les structures
linéaires ne présentent
pas une texture
uniforme
Zhang & Lin locale classification Aérienne très 3 Simple à appliquer 3Sensible aux bruits
(2010),
Zhu et al. (2015) pixellique RADARSAT-2 haute
Herumurti et al. globale transformée - haute 3 Simple à appliquer 3Taux élevé d’erreurs
(2013), de commission
Wei & Feng de Hough
(2016)
3 Robuste aux bruits 3Incapable d’extraire
les courbes
Shackelford & Da- globale classification IKONOS haute 3 Robuste aux bruits 3Difficile de définir
vis (2003) le niveau de détails
souhaités
objet
Naouai et al. analyse mul- transformée en Quickbird haute 3Permet de détermi- 3Difficile à implé-
(2011) tiéchelles Ondelettes ner l’échelle adéquate menter
pour l’identification
des routes
Salari & Zhu analyse mul- transformée en Radar : SAR haute 3Permet de décom- 3Les images optiques
(2012) tiéchelles Beamlets poser l’image en sont difficiles à trai-
beamlets faciles à ter : présence des cou-
localiser et analyser leurs
67

2.6 Une revue de littérature relative à l’identification et l’évaluation des dommages des
structures linéaires à l’aide des images satellitaires

2.6.1 Mise en contexte

Défintion

Nous allons nous baser pour la détection des changements des structures linéaires résultants
d’une catastrophe majeure sur la définition suivante :

La détection des changements est le processus d’identification des dif-


férences dans une région en comparant ses images prises en différents
moments, Ilsever & Unsalan (2012).

La détection des changements est un domaine de recherche très vaste qui touche plusieurs ap-
plications comme : l’analyse des séquences d’IRM, la production des cartes d’occupation du
sol, le suivi des cibles avec les capteurs radar, etc. Le nombre d’images à analyser varie à son
tour selon le domaine d’application, allant d’une seule image à une large séquence vidéo en cas
de surveillance de suspects en utilisant des caméras de surveillance. Dans le volet de la télédé-
tection, les champs d’application de détection des changements sont aussi divers, nous citons
l’inspection des forêts et le suivi de leur déforestation, le suivi de l’évolution des inondations
et la mise à jour des bases de données géographiques "SIG". Concernant les techniques de la
détection des changements, les plus utilisées sont celles qui comparent deux images multitem-
porelles acquises à différents moments en supposant qu’elles sont identiques sauf en quelques
régions qui représentent les changements sur le terrain.

Pour les experts en télédétection, la tâche de détection des changements est une tâche difficile
qui engendre plusieurs prétraitements et corrections radiométriques et géométriques, car géné-
ralement, ils sont appelés à comparer deux images qui n’ont pas les mêmes caractéristiques
comme la résolution spatiale ou l’angle d’incidence. En cas de comparaison entre images
panchromatiques et multispectrales, les photointerprètes appliquent souvent la technique de
68

pansharpening qui permet de fusionner les propriétés des données panchromatiques et multis-
pectrales afin d’injecter des détails spatiaux de l’image panchromatique dans l’image mutlis-
pectrale. Le problème de cette technique est l’introduction dans l’image d’artéfacts spatiaux
et de distorsions spectrales qui peuvent affecter la précision des cartes de détection des chan-
gements Bovolo et al. (2010). Un autre problème de la détection des changements survient
quand les deux images sont acquises avec deux angles d’acquisition différents. Cela nécessite
une correction géométrique des images et la création d’une fonction de transformation permet-
tant d’associer à chaque pixel dans l’image esclave (image de l’après catastrophe par exemple)
un pixel dans l’image maîtresse. La présence d’obstacles empêche à son tour la détection des
changements, un exemple très courant : les nuages qui peuvent occlure les régions d’intérêt.
Par conséquent, une bonne détection des changements passe forcément par l’application d’une
étape de prétraitement et de recalage afin de préparer les deux images pour la comparaison et
l’extraction des différences.

2.6.2 La détection de changement dans le cadre des images satellitaires

Avant de présenter un état de l’art des différentes approches de détection des changements subis
par les structures linéaires, nous allons commencer notre revue de littérature par les méthodes
de détection de changements en général qui peuvent être appliquées sur divers types de données
y compris les données satellitaires.

Méthode basée pixel et noyau

Elle est considérée parmi les techniques les plus simples de détection des changements et
consiste à soustraire une image d’une autre de la même région prise à deux dates différentes.
Une formulation mathématique de cette technique est la suivante :

Xd (x, y) = I1 (x, y) − I2 (x, y). (2.17)


69

Les différents coefficients de la matrice de changements décrivent le degré de changement pour


chaque pixel, une valeur élevée traduit un changement important sur le terrain entre les deux
images aux dates t1 et t2 . Pour garder seulement les changements significatifs, nous effectuons
généralement une opération de seuillage définie par :

 1, Xd (x, y) > τ
S(x, y) =
 0, Xd (x, y) < τ

D’autres variantes pour le calcul des changements ont été proposées :

3 La valeur absolue : utilisée pour avoir un changement positif :

Xd (x, y) = |I1 (x, y) − I2 (x, y)|. (2.18)

3 Le rapport : utilisé généralement pour la détection des changements dans les images radar
et exige que les deux images soient recalées auparavant :

I1 (x, y)
Xd (x, y) = . (2.19)
I2 (x, y)

NB : Les valeurs que prennent Xd (x, y) dans la formule 2.19 sont dans l’intervalle [0, +∞[
nous pouvons toutefois normaliser pour obtenir des valeurs entre [− π4 , + π4 ], puis effectuer un
seuillage :
I1 (x, y) π
Xd (x, y) = arctan ( )− . (2.20)
I2 (x, y) 4

Méthodes basées texture

La texture est définie comme étant l’analyse statistique de la relation spatiale ente des pixels
dans l’image. Plusieurs chercheurs se sont intéressés à l’analyse de la texture et son application
dans le domaine de la détection de changements, cet intérêt étant dû à l’information particulière
70

qu’offre la texture par rapport à la radiométrie. La figure 2.18 montre deux images caractérisées
par deux textures distinctes, mais de distributions de niveau de gris identiques.

a) b)

Figure 2.18 Deux images en niveaux de gris caractérisées par deux textures distinctes et
deux histogrammes identiques, tirées de la thèse Germain (1997)

Nous allons dans ce qui suit essayer de présenter quelques mesures de texture sans trop entrer
dans les détails :

3 Matrice de cooccurrence : elle est considérée comme l’une des mesures les plus utilisées
pour l’analyse de la texture. Introduite par Haralick et al. (1973), elle est représentée par une
matrice de taille K × K avec K le nombre de niveaux de gris de l’image analysée. Elle permet
de déterminer dans une image le nombre d’occurrences de paires de niveaux de gris séparés
par une distance d dans une direction définie par le vecteur déplacement (dx, dy)

Haralick a défini dans son travail plusieurs mesures de texture calculables à partir de la matrice
de cooccurrence comme le contraste, la corrélation, l’homogénéité, l’énergie, etc. La détection
des changements est calculée en mesurant la distance entre ces mesures de texture.

3 Transformée de Fourier : définie par Joseph Fourier en 1822, cette transformée est une
opération mathématique qui consiste à décomposer une fonction f selon ses fréquences en une
fonction fˆ. L’étude du spectre de Fourier donne une idée sur l’orientation de la texture et son
71

amplitude : les pics dans ce spectre nous informent sur l’orientation dominante de la texture
dans l’image et la localisation de ces pics détermine sa période spatiale.

3 Transformée en ondelettes : au même titre que la transformée de Fourier, la transformée


d’ondelettes consiste à décomposer une fonction ou un signal selon le temps et la fréquence ce
qui permet de localiser les singularités contrairement à la transformée de Fourier qui permet
une analyse plutôt globale. Cette définition a été adaptée par la suite par Mallat (1989) et
Meyer (1992) pour le traitement des images et qui représente le cas discret de la transformée
en ondelettes. En pratique, décomposer une image en ondelettes revient à appliquer une série
de filtres passe-haut et passe-bas. Il existe différentes variantes d’ondelettes analysantes telles
que Haar, Daubechies ou Chapeau mexicain.

Méthodes basées structure

Contrairement aux autres approches déjà citées dans cette section, les méthodes basées sur
l’analyse des structures présentes dans l’image ne se focalisent pas sur l’information radio-
métrique ou texturale, mais plutôt sur la comparaison des formes des objets. Ces techniques
ciblent en particulier les contours des régions et les descripteurs extraits à partir des objets
d’intérêt. Une comparaison entre ces primitives permet généralement de donner une idée sur la
présence du changement et son degré.

3 Le SIFT : Scale Invariant Feature Transform : les images satellitaires sont constituées
d’objets de formes très variées. Dans une image synthétique, il est relativement facile de définir
les formes connues de certains objets comme un ballon ou une ligne droite, contrairement aux
bâtiments dans les images satellitaires par exemple qui peuvent avoir une forme circulaire au
lieu de carrée. La caractérisation de ces objets en se basant sur l’information radiométrique ou
texturale est une tâche difficile. Parmi les exemples concrets, nous citons les routes dans les
images satellitaires qui peuvent changer de radiométrie ou de texture dans la même scène. Une
manière de décrire ces objets est d’extraire des descripteurs. Un descripteur est un vecteur de
caractéristiques capable de distinguer un objet d’un autre dans une image.
72

Le problème que nous rencontrons dans la définition de ces descripteurs est la difficulté de
les définir et de les extraire sans les confondre. L’un des descripteurs les plus cités parmi la
large gamme de descripteurs proposés dans la littérature est le SIFT. Introduit par David Lowe
(2004), il permet d’extraire à partir des objets de l’image des points particuliers invariants aux
changements d’échelles, à la rotation, à la translation et faiblement influencés par le chan-
gement d’illumination. Détecter des changements en se basant sur cette technique consiste à
extraire les points invariants à partir des deux images puis chercher à comparer chaque point
avec son homologue afin d’identifier la variation dans la forme des objets d’intérêt.

3 L’information sur l’ombre : d’autres descripteurs ont été utilisés pour la caractérisation des
changements dans les scènes urbaines. L’ombre des bâtiments utilisée comme descripteur peut
fournir des informations utiles sur la présence des changements. En effet, la disparition d’un
édifice suite à une catastrophe peut être marquée par l’absence de son ombre adjacente dans
l’image de l’après-catastrophe. Aussi, l’ombre peut servir à identifier un changement dans
l’altitude du bâtiment, cette information peut être utile dans des applications d’urbanismes.
Parmi les descripteurs d’ombre utilisés dans le cas des images satellitaires, nous citons celui
proposé par Sirmacek & Unsalan (2008) :

4 Rouge −Vert
Ψr = arctan( ). (2.21)
π Bleu +Vert

et le descripteur proposé Singh et al. (2012), qui décrivent un détecteur d’ombre basé sur une
combinaison des canaux du modèle TSL défini comme suit :

Saturation −Vert
NDI = . (2.22)
Saturation +Vert

avec le modèle TSL défini à partir du modèle RVB par :

min + max
Luminance = . (2.23)
2
73


max−min

max+min , si Luminance ≤ 0, 5
Saturation =
max−min
2−max−min , si Luminance > 0, 5




 60 × ( Vert+Bleu
max−min ), si Rouge = max

Teinte = 60 × (2 + Bleu−Rouge
max−min ), si Vert = max


 60 × (4 + Rouge+Vert ),

si Bleu = max
max−min

avec min = min(Rouge, vert, bleu) et max = max(Rouge, vert, bleu).

2.7 Une revue de littérature relative à l’identification et l’évaluation des dommages des
structures linéaires

Peu de temps après une catastrophe, des images satellitaires sont acquises et comparées à des
images de l’avant catastrophe et des cartes de référence afin de produire une carte d’évaluation
des dommages. Comme nous l’avons mentionné dans le chapitre précédent, l’objectif de cette
thèse est de fournir une carte des dégâts des structures linéaires contenant des indications sur
les routes touchées, une évaluation de l’amplitude des dommages causés par les inondations
et délimiter l’étendue de l’eau. Le défi rencontré dans l’identification des changements est
généralement dû à la variété des objets contenus dans les structures linéaires. En effet, il est
difficile de discriminer clairement l’impact des dommages comme les fissures, les trous et la
présence de l’eau, etc. Par conséquent, détecter les changements sur l’objet d’intérêt n’est pas
suffisant, il faut en effet identifier la nature de ces changements afin de pouvoir évaluer les
dommages par la suite. L’analyse des images multitemporelles en général et la détection des
changements entre deux images en particulier sont des tâches difficiles à cause de la multitude
de changements que subissent les images de l’avant catastrophe, surtout les plus récents. Ces
dernières contiennent des édifices et des ponts récemment construits, des arbres plantés ou un
nombre élevé de voitures dépendamment de l’heure de l’acquisition des images, ce qui produit
des changements entre les images de l’avant- et de l’après-catastrophe. Nous avons constaté à
partir de notre revue de littérature que les méthodes de détection des changements basées sur la
radiométrie sont efficaces et très rapides dans l’identification des changements, par contre elles
74

sont incapables seules de distinguer la nature des changements. En effet, elles peuvent générer
de fausses alarmes en passant simplement d’une couverture en béton de la route pour l’image
avant à une couverture en asphalte pour l’image après ou en changeant la polarisation radar.

Plusieurs travaux dans la littérature se sont intéressés aux problèmes de détection des chan-
gements, certains d’entre eux partent directement d’une carte d’occupation du sol de la zone
sinistrée à la recherche des occlusions, nous citons dans ce cadre le travail de Li et al. (2011).
D’autres appliquent d’abord une étape d’extraction des structures linéaires avant de pouvoir
décrire leurs dégâts. Dans notre cas, nous avons choisi de précéder l’étape d’évaluation des
dommages par une étape d’extraction des structures linéaires, car les cartes d’occupation du
sol ne sont pas toujours disponibles pour certaines régions et ne sont pas mises à jour réguliè-
rement pour d’autres. Nous présenterons dans ce qui suit quelques approches qui ont traité ce
problème et les différentes mesures d’évaluation employées dans ces cas d’événements.

2.7.1 Identification des dommages

À partir des différents articles que nous avons lus et afin d’alimenter cette revue de la litté-
rature, nous avons pu distinguer deux classes d’approches : la première famille d’approches
s’intéresse uniquement à la localisation des dommages sur les structures linéaires : Li et al.
(2011) et Wang et al. (2011). En raison de la non-disponibilité de certains types d’images peu
de temps après la catastrophe, il n’est pas toujours possible de fournir une évaluation de l’am-
pleur du désastre. Ces travaux s’intéressent seulement à l’identification des occlusions et les
zones inondées présentes sur ces structures.

Dans l’article Li et al. (2011), les auteurs proposent une nouvelle méthode pour la détection des
dommages subis par le réseau routier suite à un tremblement de terre. Ils partent des hypothèses
suivantes : le blocage des routes par des décombres montre généralement des variations spec-
trales et des caractéristiques texturales évidentes, ce qui justifie l’intégration des informations
texturales dans le processus d’extraction de manière à réduire la confusion spectrale. Puisque le
blocage des routes est principalement causé par les dégâts des constructions, les dommages aux
75

bâtiments dans les zones adjacentes aux routes sont extraits et utilisés comme des contraintes
spatiales pour l’amélioration des résultats initiaux de la détection des dommages.

a) b)

Figure 2.19 (a) L’image de test (b) Résultat de la segmentation de l’image .

a) b)

Figure 2.20 Identification des dommages : (a) des bâtiments et (b) des routes (à partir
d’une deuxième zone de l’image d’entrée) .

La méthode de détection des dommages des routes proposées comprend trois modules : la
détection initiale des dommages subis par les routes à partir d’une carte routière et la segmen-
tation des objets d’intérêt en se basant sur les informations spectrales et texturales. Ensuite
l’extraction des dégradations des bâtiments dans les zones adjacentes aux routes et une der-
nière phase de raffinement des résultats qui consiste à exploiter la détection des dommages des
structures adjacentes aux routes comme les bâtiments pour corriger les résultats de la première
76

étape d’extraction des dégâts des routes. Les figures 2.19a, 2.19b et 2.20a représentent succes-
sivement l’image de test, la segmentation de l’image et le résultat de la détection des dommages
des bâtiments tandis que la figure 2.20b expose les résultats de l’identification des dommages
des routes (NB : la quatrième image correspond au résultat de l’application de l’algorithme
pour l’identification des dommages des routes sur une autre zone de l’image de test).

Dans Lu et al. (2015), une méthode hybride pour la détection de changements à partir des
images RSO d’une zone inondées est proposée. L’approche décrite est basée sur la fusion entre
une technique pixellique de détection de changement et une technique objet de détection de
changement pour identifier les régions inondées. L’étude expérimentale des résultats obtenus
montre que la méthode proposée surpasse la plupart des approches existantes pour l’extraction
des zones inondées. En revanche, le choix d’un seuil fixé pour la phase basée sur une détection
de changement pixellique et les paramètres optimaux pour la segmentation objet de l’image
reste problématiques et influence clairement la qualité des résultats obtenus.

Figure 2.21 Le résultat de l’application de la


technique décrite dans Sohn et al. (2005)

La matrice de cooccurrence a été utilisée dans Sohn et al. (2005) pour identifier les zones inon-
dées à partir des images RSO acquises par le satellite RADARSAT-1. Des informations auxi-
liaires issues d’un modèle d’élévation de terrain et de la correction radiométrique de l’image
sont ajoutées aux résultats de l’application de la matrice de cooccurrence pour identifier les
zones inondées caractérisées par une texture particulaire. La figure 2.21 montre le résultat de
la méthode Sohn et al. (2005), l’étendue des inondations est marquée par la couleur bleue.
77

Haghighattalab et al. (2010) proposent une approche très intéressante pour l’extraction des
routes endommagées dans une zone urbaine. D’abord, une segmentation est appliquée sur
l’image QuickBird pour extraire les objets d’intérêt, puis les objets résultants sont classés en
route et non-route en se basant sur des descripteurs de texture. Finalement, un système d’infé-
rence floue est proposé pour évaluer l’accessibilité de la route. Une carte des routes accessibles
et non accessibles est générée comme le montre la figure 2.22.

a) L’image d’entrée avec les b) Une carte des routes


résultats de l’identification praticables et non praticables
des routes praticables dans l’image

Figure 2.22 Résultat de la technique proposée dans Haghighattalab et al. (2010) : la


couleur rouge décrit les routes non praticables et la couleur bleue désigne celles
praticables.

Nous pouvons conclure à partir de cette revue de littérature que les techniques les plus utilisées
pour l’extraction des dommages à partir des images radar ou optiques sont les méthodes basées
sur l’analyse de la texture des objets. L’information texturale, contrairement à l’information
radiométrique, est caractérisée par une robustesse par rapport au changement des conditions
d’acquisition et caractérise efficacement les changements sur la surface homogène des struc-
tures linéaires comme les routes et les rivières. Le seul défi qui persiste est le choix de la
meilleure échelle pour extraire ces mesures de texture, de façon à ressortir l’objet d’intérêt en
éliminant les détails et en définissant les limites réelles de l’objet à analyser.
78

2.7.2 Évaluation des dommages

La deuxième famille de méthodes couvre les approches qui ne se contentent pas de localiser
les dommages des structures linéaires, mais cherchent en plus à les évaluer et à les qualifier.
Après la survenance d’une catastrophe, l’évaluation précise des dommages causés aux struc-
tures linéaires est une des clés de réussite d’une opération de secours. Toutefois, l’évaluation
traditionnelle de la dégradation donne uniquement un aperçu des routes endommagées, mais
ne permet pas de fournir une information sur leur capacité au trafic. Elle ne fournit pas non
plus une idée sur l’ordre de priorité d’intervention suivant la gravité de la situation et les zones
les plus touchées. Cela explique l’utilité de l’évaluation des dommages des structures linéaires
dans le processus de gestion des catastrophes majeures.

Dans Li et al. (2010), une méthode originale pour l’évaluation des dommages des routes est
proposée. Le but de ce travail est de déterminer le degré des dommages des routes qui reflète
leur capacité réelle de trafic après une catastrophe. L’entrée de l’algorithme correspond aux
zones sinistrées. Pour chaque pixel dans la zone endommagée, l’algorithme de croissance de
région est appliqué pour segmenter les objets et extraire les zones homogènes. Dans le but de
déterminer les degrés de dommages, les auteurs définissent cinq indices pour l’évaluation des
dégâts :

1. La longueur totale des dommages (%) : le rapport de la longueur totale des dommages
sur la longueur totale de la route.

2. La superficie totale des dommages (%) : le rapport de la superficie totale des dommages
sur la superficie totale de la route

3. La longueur moyenne des dommages (%) : le rapport de la longueur moyenne des zones
endommagées sur la longueur totale de la route.

4. Nombre de zones endommagées : le nombre de zones endommagées dans une route.

5. Nombre de zones de dégâts complets : le nombre de zones endommagées complètement.


79

Tableau 2.2 Tableau contenant les critères de classification des dégâts des routes
tiré de Li et al. (2010)
Degré de dommage
Intacts Dommage Dommage Dommage
Indice d’évaluation
léger modéré sérieux
Longueur totale des dommages(%) 10 (10-30) [30-50) 50
La superficie totale des dommages(%) 6 (6-21) [21-40) 40
La longueur moy. des dommages(%) 20 (20-40) [40-60) 60
Nombre des zones endommagées 10 (10-20) [20-40) 40
Nombre de zones de dégâts complets 0 0 [1-3) 3

La deuxième étape repose sur la délimitation des critères de classement des degrés des dom-
mages. Cette étape est très importante, car elle permet de définir le passage entre l’évaluation
quantitative et qualitative des dommages, le tableau 2.2 résume les critères suggérés dans Li
et al. (2010).

a) b)

Figure 2.23 (a) Région des dommages (b) Affectation des dommages à des classes
d’évaluation.

Le résultat de cette étape est la donnée de la classe d’appartenance pour chaque indice d’éva-
luation. Le problème est que ces chiffres obtenus sont inexploitables du fait que les valeurs
des différents indices d’évaluation appartiennent à différentes classes, d’où l’utilisation de la
méthode "grey clustering analysis (GCA)" qui consiste à calculer le degré d’appartenance de
chaque indice à chaque degré de dommage et de créer une matrice d’appartenance. La réso-
lution du problème d’affectation d’une classe de dommage à une région revient à chercher la
80

valeur maximale des différents indices dans la matrice et à retenir la classe équivalente. Les
figures 2.23a et 2.23b montrent l’efficacité de cette méthode dans l’évaluation des dommages
subis par les routes. (NB : Les couleurs bleu, vert, jaune et rouge représentent respectivement
les classes de dommages : intacts, dommage léger, dommage modéré et dommage sérieux ).

Figure 2.24 Les étapes de l’algorithme proposé par


Skakun et al. (2014) pour estimer la fréquence relative
des inondations.

En utilisant une série temporelle d’images acquises entre les années 1989 et 2012 des inonda-
tions en Namibie, les auteurs dans Skakun et al. (2014) ont été capables de générer des infor-
mations sur la fréquence relative des inondations, et d’autres statistiques comme la moyenne
et l’étendue maximale et minimale. À partir d’une image acquise à une date tx , une carte de
l’étendue des inondations est produite en distinguant trois classes : 1- eau, 2- non-eau et 3-
81

indéfini et en se focalisant sur les zones susceptibles d’engendrer plus de dommages comme
les rivières. Puis, les cartes produites par l’étape précédente sont fusionnées pour déterminer
l’étendue maximale à une date fixée. Et finalement, la moyenne des cartes des étendues maxi-
males est calculée pour déterminer la fréquence relative des inondations et déduire d’autres
statistiques concernant la vélocité de l’eau. La figure 2.24 décrit les différentes étapes de la
technique proposée dans Skakun et al. (2014) qui permet de prédire le niveau de l’eau lors des
inondations futures et d’alléger les effets de cette catastrophe majeure.

a) Image d’entrée b) Vecteurs routes qui correspondent


à l’image de l’avant catastrophe

c) Mesures de texture utilisées pour d) Carte des dommages du réseau routier


l’évaluation des dommages

Figure 2.25 Approche proposée par Rastiveis et al. (2015)

Rastiveis et al. (2015) utilisent des vecteurs routes de l’avant catastrophe (voir figure 2.25b)
pour identifier les routes endommagées et le degré de dommages à partir des images acquises
par le satellite Worldview-2. Des mesures de texture comme : le contraste, la dissimilarité,
l’entropie et la variance sont calculées à partir de la surface de la route (voir figure 2.25c) et
82

sont utilisées dans l’évaluation des dommages en fusionnant la réponse de ces descripteurs. Un
séparateur à vaste marge est, par la suite, appliqué pour identifier les zones endommagées et
déterminer le degré de dommages (voir figure 2.25d).

2.8 Conclusion

Ce chapitre présente une étude complète et critique des approches proposées dans la littérature
pour résoudre le problème d’extraction des structures linéaires à partir des images satellitaires à
très haute résolution. Les approches décrites ont été décomposées en trois familles d’approche
à savoir : 1- les méthodes locales, 2- les méthodes globales et 3- les méthodes multiéchelle.
Les avantages et inconvénients de chaque famille ont été revus avec détails afin de déterminer
les limitations et justifier le choix de la méthodologie adoptée dans les deux chapitres suivants.
La deuxième partie de ce chapitre a été consacrée à exposer le problème de détection des dom-
mages causés par les catastrophes majeures et discuter le lien entre l’identification des dom-
mages et la détection de changements. Plusieurs techniques proposées dans la littérature ont été
exposées dans le but de spécifier la problématique de détection de changements et l’avantage
des approches basées sur l’analyse de la texture par rapport aux autres techniques sensibles
aux changements dans la condition d’acquisition ou la position du capteur. Nous avons aussi
discuté les distorsions qui affectent les images satellitaires optiques et radar, ainsi que les tech-
niques de correction radiométrique, géométrique et atmosphérique appliquées. Nous voudrions
souligner que le problème de distorsions est exposé pour donner une idée sur les techniques uti-
lisées et l’importance de cette étape dans le processus de gestion des catastrophes, cependant,
dans cette thèse, nous ne nous attardons pas à cette problématique puisque nous supposons que
ces corrections ont déjà été effectuées par notre partenaire industrielle ou par l’opérateur du
satellite lors de la phase de prétraitement.
CHAPITRE 3

EXTRACTION DES ROUTES ET ÉVALUATION DE LEURS DOMMAGES LORS


D’UN TREMBLEMENT DE TERRE

3.1 Introduction

Ce chapitre introduit la méthodologie que nous avons adoptée pour résoudre le problème de
détection des dommages subis par les routes lors d’une catastrophe majeure de type tremble-
ment de terre. Nous nous intéressons particulièrement à ces structures vu leur importance dans
l’acheminement des secours et la nécessité de connaître leur état afin de mener à bien une
intervention d’urgence. Après avoir présenté la transformée multiéchelle en beamlets, nous in-
troduisons son application pour l’extraction des routes dans la deuxième section. La troisième
section expose notre approche pour la détection des dommages principalement basée sur la
segmentation multiéchelle dans la détection des changements et la théorie des fonctions de
croyance pour la distinction des changements pertinents causés par la catastrophe. Enfin, dans
la dernière section, nous présentons une étude expérimentale complète des résultats obtenus
par application de notre méthodologie et une comparaison avec des techniques de la littérature.

3.2 La transformée en beamlets pour la détection des routes

Au même titre que la transformée en ondelettes, la transformée en beamlets est une transforma-
tion multiéchelle introduite par Donoho & Huo (2002). Elle consiste à représenter les contours
des objets présents dans l’image par des segments appartenant à plusieurs échelles tout en
optimisant une fonction énergie qui décrit le degré d’attache entre les contours de l’image et
les segments définis par la transformée. L’application de cette transformée permet d’effectuer
une décomposition hiérarchique en plusieurs niveaux ou échelles permettant par conséquent
d’effectuer une approximation fiable des structures linéaires contenues dans l’image tout en
gardant une information utile sur leur direction, leur position, leur orientation et leur échelle
dominante.
84

La transformée en beamlets effectue une analyse multiéchelle de la scène par le biais de l’ex-
traction des caractéristiques contenues aux différentes échelles de l’image. Le fait que le noyau
de la transformation en beamlets soit un ensemble de lignes permet d’obtenir une informa-
tion sur l’orientation et la position des lignes droites contenues dans la scène, ce que nous ne
pouvons pas avoir avec la transformation en ondelettes traditionnelle.

3.2.1 Terminologie et notations de base

La compréhension de la transformée en beamlets passe forcement par la définition de certaines


notions de base qui constituent le fondement de cette transformation multiéchelle. Nous vou-
drons aussi rappeler qu’une étape d’extraction des contours de l’image est nécessaire avant de
pouvoir appliquer la transformée en beamlets vu qu’elle se sert de la carte des arêtes pour créer
une représentation multiéchelle des segments de l’image.

Le quadrillage

Figure 3.1 les divisions récursives de l’image


et la notion de blocs dyadiques

La décomposition de l’image en beamlets consiste à réaliser des divisions successives de


l’image par quatre. Dans la première itération, l’image est divisée par quatre pour donner
quatre blocs de dimensions identiques, la deuxième itération consiste à diviser chaque bloc
obtenu dans la première étape par quatre et ainsi de suite jusqu’à obtenir des blocs de taille 2
par 2 pixels. Les blocs obtenus à chaque étape sont qualifiés de dyadique à cause de leurs di-
85

mensions qui sont une puissance de 2. Nous devons noter aussi que la taille de l’image utilisée
doit être une puissance de 2 pour pouvoir effectuer les divisions récursives jusqu’aux niveaux
les plus bas de la hiérarchie. La figure 3.1 illustre les divisions récursives de l’image et les
blocs dyadiques obtenus à chaque niveau de détail.

L’échelle

Une autre manière de voir la transformée en beamlets est de considérer chaque niveau hiérar-
chique de la pyramide comme une échelle. Par conséquent, l’échelle 0 représentera l’échelle la
plus grossière, le processus récursif de division se traduit par une augmentation progressive de
l’échelle de la résolution la plus grossière qui représente l’image complète vers les résolutions
les plus fines qui mettent l’accent sur les détails cachés dans l’image.

Si nous considérons une image de taille 1024 par 1024, nous obtenons 10 échelles ou 10 ni-
veaux de hiérarchie. Nous notons l’échelle par j avec j un entier entre 0 ≤ j ≤ J. La figure 3.2
décrit la relation entre la décomposition en beamlets et la notion d’échelle.

Figure 3.2 La notion de multiéchelle


dans la transformée en beamlets
86

Les sommets

Nous définissons sur le pourtour d’un bloc dyadique un ensemble de points équidistants appelés
des sommets. Nous posons l’hypothèse que la définition d’une droite sur l’image revient à as-
socier ses deux extrémités à deux sommets appartenant à un ou plusieurs blocs dyadiques. Ré-
ciproquement, le choix de deux sommets distincts permet de définir une unique droite ayant ces
deux sommets comme extrémités. La figure 3.3 montre les sommets appartenant aux échelles
0,1,2 et 3.

Figure 3.3 Les sommets dans


les 4 premières échelles

3.2.2 La transformée en beamlets

Dans le domaine du traitement du signal, l’application de la transformée de Fourrier consiste à


décomposer n’importe quel signal en une somme de sinus et de cosinus. Cette transformation
est souvent utilisée pour étudier le spectre fréquentiel d’une fonction périodique. La transfor-
mée en beamlets consiste à approximer une fonction-image f par un ensemble fini de lignes
droites de différentes tailles et orientations afin de faciliter son étude. L’image d’entrée est
constituée de l’amplitude des arêtes de l’image suite à l’application d’un détecteur d’arêtes
appliqué sur toute l’image. La transformée en beamlets consiste à calculer l’intégrale de ligne
le long de chaque beamlet b du produit de b par la zone correspondante de l’image d’entrée. Si
cette intégrale de ligne dépasse un seuil fixé, le beamlet b est conservé.
87

Cas d’une fonction continue

La transformée en beamlets d’une fonction continue f (x) définie sur [0, 1], comme décrit dans
le travail de Donoho & Huo (2002), est la collection de toutes les intégrales de ligne de la
fonction f (x) définies sur un ou plusieurs blocs dyadiques le long de la droite (beamlet b)
définie par l’intersection de f (x) et les sommets de chaque bloc et donnée par la formule
suivante :
Z
T f (b) = f (x(l)) dl (3.1)
b

Cette formule explique que le calcul de la transformée en beamlets d’une fonction continue
revient à déterminer l’ensemble des lignes droites appelées beamlets qui représentent au mieux
la fonction approximée en calculant son intégrant le long du beamlet b.

Cas d’une fonction discrète

Par analogie au cas continue, la transformée en beamlets discrète d’une matrice ( fi1,i2 ) de taille
n × n est définie par application de la transformée en beamlets de la fonction continue f avec
interpolation de ses valeurs ( fi1,i2 ). La formule 3.1 s’écrit dans le cas discret comme suit :

T f (x1 ,x2 ) = ∑ fi1,i2 Φi1,i2 (x1, x2) (3.2)


i1 ,i2

avec Φi1 ,i2 une fonction d’interpolation qui permet d’échantillonner la droite qui relie les deux
sommets d’un bloc dyadique pour obtenir les pixels par lesquels passe le beamlet délimité
par les deux extrémités du segment à approximer dans l’image. Il y a plusieurs manières de
définir la fonction d’interpolation, une des fonctions les plus utilisées dans l’implémentation
de la transformée en beamlets est l’algorithme de tracé de segment de Bresenham décrit dans
Bresenham (1965). Une illustration de l’opération d’interpolation d’un beamlet par application
de l’algorithme de Bresenham est présentée dans la figure 3.4. Nous associons à chaque
88

Figure 3.4 L’interpolation d’un


beamlet par application de
l’algorithme de Bresenham

beamlet un coefficient d’énergie défini par :

T f (x ,x )
Cs = p 1 2 (3.3)
l(b)

p
avec T f (x1 ,x2 ) l’intégrale de ligne effectuée le long du beamlet b et l(b) la distance euclidienne
entre les sommets v1 et v2 qui représentent les deux extrémités du beamlet b. La valeur de ce
terme permet de déterminer le degré de similarité entre un segment de l’image et le beamlet
défini entre les deux extrémités du segment : si cette valeur est supérieure à un seuil fixé, ce
beamlet est retenu à cette échelle, sinon l’énergie des beamlets retenus à une échelle inférieure
est plutôt considérée.

3.2.3 Exploitation de la transformée en beamlets

L’application de la transformée en beamlets sur une image génère un ensemble de segments


appartenant à plusieurs échelles représentant les structures contenues dans l’image. Il est utile à
ce stade d’exploiter cette information afin de retenir les données pertinentes. Donoho et Huo en
2002 proposent dans leurs travaux deux structures capables d’exploiter les beamlets en faisant
intervenir des relations spatiales entre eux : les relations hiérarchiques sont traitées en utilisant
89

la pyramide de beamlets et les relations de voisinage entre beamlets de différents niveaux


hiérarchiques par le graphe de beamlets.

La pyramide de beamlets

La pyramide de beamlets est une représentation de la relation hiérarchique entre beamlets. Le


but de cette structure est d’éliminer la redondance dans la représentation d’un même segment
par des beamlets appartenant à différents niveaux de résolution. La structure de pyramide est
construite de bas en haut et commence par mesurer l’énergie des beamlets fils et à la comparer
avec l’énergie du père afin de favoriser les beamlets fils ou les beamlets pères. Fixant une
j
échelle j, pour chaque bloc S de j nous associons un beamlet avec une énergie Cs et des
j j j j
beamlets fils Cs1 ,Cs2 ,Cs3 et Cs4 et cela respectivement pour les blocs enfants S1 , S2 , S3 et S4 .
La loi d’élagage est définie comme suit :

j+1 j+1 j+1 j+1


Cs1 +Cs2 +Cs3 +Cs4 − λ · card(P) ≥ Csj
(3.4)
avec P = {S1 , S2 , S3 , S4 }

avec card(P) le nombre de blocs fils qui contiennent des beamlets. En faisant varier la valeur de
λ nous favorisons les beamlets fils et par conséquent les détails de l’image ou les beamlets pères
et par conséquent les structures grossières dans l’image. La figure 3.5 illustre la représentation
en pyramide de l’image puis sa reconstruction.

Le graphe de beamlets

Contrairement à la pyramide de beamlets, l’exploitation du graphe de beamlets se fait du haut


vers le bas. Cette structure permet d’évoquer les relations entre beamlets de plusieurs niveaux
pour favoriser des aspects de linéarité ou de parallélisme entre beamlets. L’idée consiste à su-
perposer tous les blocs dyadiques des différentes échelles ainsi que leurs sommets pour obtenir
une carte de sommets. À chaque pixel de l’image n × n, nous associons un sommet apparte-
nant à une échelle et un bloc dyadique donné. Cette carte de sommets est appelée graphe de
90

Figure 3.5 Décomposition en pyramide de beamlets de


la carte des contours, tirée de Yudin et al. (2007)

beamlets. Contrairement à la pyramide de beamlets, le graphe permet la comparaison entre


des beamlets qui n’appartiennent pas à la même descendance, ce qui permet de regrouper des
segments de plusieurs niveaux et introduire une relation spatiale entre eux.

3.2.4 La méthode proposée

Par définition, la transformée en beamlets est une transformation multiéchelle capable d’ap-
proximer les contours d’une image par des beamlets appartenant à différentes échelles de ré-
solution. Si nous partons de cette définition, nous pouvons constater que cette technique est
capable d’extraire non seulement les lignes droites présentes dans l’image, mais aussi d’ap-
proximer les lignes quasi droites. En revanche, les objets dans les images satellitaires sont
caractérisés par une forme imparfaite comme les bâtiments par exemple qui ne sont pas repré-
sentés par des rectangles parfaits et de même pour les routes qui admettent des discontinuités et
des inclinaisons. Ceci justifie l’intérêt de l’utilisation de la transformée en beamlets qui offre la
possibilité d’approximer les courbes et les formes quasi droites par un ensemble fini de droites.

Un autre avantage de cette transformée est le fait qu’un algorithme traditionnel d’extraction
de lignes dans une image de N × N nécessite O(n4 ) opérations pour détecter toutes les lignes
91

alors que la transformée en beamlets avec son approximation de l’image en segments réduit
la complexité à O(n2 ) Donoho & Huo (2002). L’effet de cette réduction de complexité n’est
pas évident sur les images de petite taille et en présence de machines performantes, mais il
apparaît clairement lorsque nous traitons des images de grande taille comme c’est le cas pour
les images satellitaires à très haute résolution spatiale. Aussi, la transformée en beamlets est
capable de garder une information sur les caractéristiques de chaque droite stockées dans une
structure dite "dictionnaire de beamlets" fournissant des données sur les pixels extrêmes de la
droite, la direction du segment et sa longueur. Ce qui facilite la tâche de l’interprétation des
résultats et de l’application des règles logiques pour le suivi des routes.

Notre algorithme proposé pour l’extraction des routes basé principalement sur la transformée
en beamlets comprend cinq étapes comme le montre la figure 3.6 et décrit dans Sghaier et al.
(2014) et Sghaier & Lepage (2016). Nous allons dans ce qui suit décortiquer la méthodologie
suivie.

Comme nous traitons dans cette thèse des images panchromatiques à très haute résolution, il
est important dans la première étape d’appliquer des prétraitements sur l’image afin d’atténuer
le bruit et fournir à l’algorithme une liste des arêtes des objets d’intérêt. Le problème princi-
pal des détecteurs de contours connus dans la littérature réside dans le niveau élevé de détails
contenu dans les images satellitaires à très haute résolution, ce qui complique le choix des para-
mètres adéquats pour l’extraction des contours de l’image. Afin de diminuer la complexité des
images d’entrées et éliminer le bruit caractérisant la scène urbaine en particulier, les régions
homogènes contenues dans l’image sont d’abord extraites en utilisant la variante du descrip-
teur de texture structural feature set (SFS) Liangpei et al. (2006) et Xin et al. (2007) basée
sur le calcul de l’écart-type de l’histogramme des lignes directionnelles. Par la suite, l’opéra-
teur morphologique de dilatation Serra (1983) et Matheron (1975) est appliqué dans le but de
boucher les trous causés par la présence des voitures et les occlusions sur la surface des zones
homogènes retenues par la première étape. Les zones identifiées comme des candidats de la
classe route sont passées, par la suite, à l’algorithme de détection de contours pour identifier
leurs bords associés. Les algorithmes d’extraction des contours dans la littérature sont variés et
92

Figure 3.6 Les étapes de l’algorithme d’extraction des routes

diffèrent l’un de l’autre suivant le masque utilisé dans le calcul du gradient, l’ajout d’une étape
de filtrage et le type du filtre appliqué. Nous avons choisi dans ce travail d’utiliser le détecteur
de contour de Canny (1986) à cause de sa robustesse contre les bruits présents dans les images
satellitaires Maini & Aggarwal (2009). Les résultats obtenus fournissent une information sur
l’emplacement des contours dans l’image.

La deuxième étape consiste à appliquer la transformée en beamlets sur l’image ; la structure


que nous allons utiliser pour représenter les beamlets est la pyramide de beamlets, mais sans
appliquer la loi d’élagage. Nous assumons que la route est une structure linéaire ou présen-
tant au moins une partie linéaire dans sa forme. Notre objectif est d’extraire cette partie, car
elle nous permettra par la suite d’en déduire le reste de la route par agrégation d’autres beam-
lets. Pour atteindre cet objectif, nous allons chercher dans la pyramide la première apparition
d’un beamlet et ignorer ses fils qui seront considérés comme une représentation raffinée d’un
segment ou d’un contour dans l’image. Les candidats retenus doivent satisfaire une condition
93

à savoir, leur longueur doit être supérieure à un seuil prédéfini qui varie dépendamment de
l’image afin d’éviter de retenir les petits segments ou les pixels qui reflètent le bruit présent
dans l’image.

Les segments candidats retenus par cette étape peuvent appartenir à des routes, mais peuvent
aussi représenter les bords des bâtiments ou d’autres objets appartenant à la scène urbaine, d’où
l’intérêt de la quatrième étape qui consiste à regrouper les segments deux à deux suivant leurs
caractéristiques. Partant de l’information sur la direction des beamlets, nous allons comparer
leur direction deux à deux afin de déterminer ceux qui sont parallèles entre eux et qui repré-
sentent des candidats potentiels pour la représentation des axes principaux de la route. Une fois
les beamlets parallèles déterminés, nous introduisons une mesure pour distinguer les routes. La
mesure proposée combine deux descripteurs de routes à savoir le rapport de la longueur de la
route sur sa largeur qui caractérise les routes par rapport à d’autres objets comme les bâtiments.
Le deuxième est l’homogénéité définie par la valeur de l’écart type calculée à partir de la région
située entre ces deux beamlets. L’intérêt de l’introduction de l’information sur l’homogénéité
est d’éviter le regroupement de beamlets parallèles, mais appartenant à deux classes différentes
comme le premier axe d’une route et le bord d’un édifice.

Après avoir défini la liste des beamlets qui représentent les candidats potentiels appartenant
aux réseaux routiers, nous appliquons une étape de reconstruction qui se caractérise par l’utili-
sation de la structure graphe qui permet d’évoquer les relations spatiales entre les beamlets de
différentes échelles. La reconstruction du réseau routier est réalisée en agrégeant à chaque fois
des beamlets voisins aux candidats routes tout en respectant des critères sur la direction et la
courbure du segment obtenu avec la possibilité de fusion entre des regroupements de segments
différents.

Prétraitement

Le but de cette étape est de préparer l’image de la région à l’étude pour l’application de l’al-
gorithme d’extraction des routes. La phase de prétraitement est une étape importante dans le
94

processus de traitement des images satellitaires du fait qu’elle influence les performances de
l’algorithme. Cette étape de prétraitement consiste à :

— Le découpage en tuiles de l’image : le découpage de l’image satellitaire est une étape


très importante. En effet, les images acquises suite à une catastrophe représentent géné-
ralement de vastes zones avec des dizaines de kilomètres sur le terrain qui se traduisent
par des millions de pixels sur l’image de la région d’étude. Par conséquent, il sera trop
onéreux en temps de calcul de lancer notre algorithme sur la totalité de l’image, nous pri-
vilégions de découper ces images en des sous-images de taille inférieure faciles à charger
en mémoire et permettant par la suite de vérifier le critère de dimension exigé pour l’ap-
plication de la transformée en beamlets. Le découpage de l’image en blocs dyadiques se
fait d’une manière automatique, la seule condition à vérifier est que la région sélectionnée
contient une très grande variation dans le contenu ce qui se traduit par une variance maxi-
male afin de garantir l’existence d’une variété d’objets d’intérêts et d’éviter les régions
complètement homogènes.

— Extraction des régions homogènes : l’application de la transformée en beamlets sur


les images satellitaires nécessite l’extraction des contours. Typiquement, un détecteur de
contours est capable d’identifier les frontières représentant les objets d’intérêt. Toutefois,
en raison du niveau élevé de détails qui accompagne la très haute résolution spatiale et la
variabilité du milieu urbain, une information additionnelle provenant des détails contenus
dans les objets intérêts, ainsi que des bords appartenant à d’autres objets dans le voisi-
nage sont détectés. Afin de résoudre ce problème, une classification pixellique basée sur
la mesure de texture Structural feature set (SFS) est appliquée afin d’identifier les ob-
jets homogènes et d’éviter une sur-segmentation de l’image. Les concepts de base de ce
descripteur de texture seront décrits avec plus de détails dans le chapitre suivant.

— Détection et extraction des zones homogènes : la classification de l’image en utilisant le


SFS-SD détermine si un pixel donné appartient à une zone homogène. Mais puisque cette
classification est basée sur l’information locale, les résultats obtenus montrent des pixels
mal classés dans les objets homogènes en raison de la présence d’occlusions ou de bruit.
95

D’où l’utilité de la suppression de ces pixels pour corriger les résultats de la classification
et éliminer les petits artéfacts présents dans ces zones homogènes. Pour atteindre ces
objectifs, nous avons appliqué l’opérateur morphologique de dilatation, avec un élément
structurant sous la forme d’un carré de taille 3 par 3 pixels. La dilatation de l’image avec
l’élément structurant est donnée par la formule suivante :

|}
I ⊕ M = {p : M ∩I 6= 0}
/ (3.5)
p

avec I l’image, M l’ensemble des pixels du masque de valeur non nulle et M p désigne le
masque dont l’origine est appliquée au pixel p. Le symbole ∩ représente l’intersection
des deux ensembles M p et I. Le choix des dimensions de l’élément structurant dépend
fortement de la résolution de l’image. Par conséquent, il est possible de changer ses di-
mensions pour les adapter à celles des voitures ou de l’ombre sur la surface de la route par
exemple.

— La détection des contours : comme nous l’avons déjà précisé, nous avons appliqué le
détecteur de contour de Canny (1986) pour l’extraction des contours de l’image. À ce
stade-là, nous avons fixé une valeur usuelle de l’écart type du filtre gaussien, sans pri-
vilégier une sous ou sur détection, car cela influencera sur les résultats de notre analyse
multiéchelle que nous compterons effectuer par le biais de la transformée en beamlets.

Dans ce travail, nous fixons la valeur de l’écart type noté σ à 2.

Application de la transformée en beamlets

Le but de cette étape est d’extraire les structures linéaires présentes dans l’image. Notre stra-
tégie consiste à effectuer une décomposition de l’image en pyramides de beamlets. À chaque
niveau de la pyramide, nous cherchons pour chaque bloc dyadique les beamlets correspondants.
Les candidats retenus correspondent à des segments dans l’image avec une énergie supérieure
à 0, 7. Ce seuil a été défini d’une manière expérimentale pour donner une meilleure estimation
de la linéarité des segments de l’image. La fonction d’énergie utilisée dans ce travail est donnée
par la formule 3.3.
96

Élagage de la pyramide en beamlets

L’application de cette procédure sur la totalité des échelles génère des beamlets représentant
des segments de l’image, mais produit aussi des beamlets redondants par rapport à leurs repré-
sentations aux niveaux supérieurs. Pour remédier à ce problème, nous avons considéré seule-
ment les premières apparitions des beamlets aux échelles les plus grossières. La figure 3.7
illustre la représentation de l’image en pyramide de beamlets et l’application de l’étape d’éla-
gage. La couleur rouge désigne la première apparition d’un beamlet tandis que la couleur verte
distingue les beamlets apparus aux niveaux inférieurs.

a) image b) la méthode de
originale décomposition utilisée

Figure 3.7 Application de la transformée en beamlets

Les segments retenus par cette phase ne sont pas tous candidats de la classe route puisque nous
pouvons aussi garder des objets de petite taille dans l’image, d’où l’intérêt de l’application
d’un seuil sur la longueur des beamlets capable de filtrer les segments non pertinents. Le choix
de la valeur de ce dernier dépend de la résolution de l’image.

L’identification des axes de la route

Les beamlets retenus dans l’étape précédente sont identifiés sans tenir compte des relations
spatiales entre eux. En effet, deux beamlets voisins peuvent appartenir à deux objets complète-
97

ment distincts. Le premier descripteur qui peut caractériser les routes et enlever cette ambiguïté
est le parallélisme entre les axes principaux d’une même route. Cette propriété est très impor-
tante dans le processus d’identification des routes, car elle représente une manière claire de les
distinguer de plusieurs autres classes. Nous nous sommes basés dans notre analyse du parallé-
lisme entre beamlets sur l’information stockée dans la structure "dictionnaire de beamlets" qui
indique la direction de chaque beamlet. Nous n’avons gardé que les beamlets qui vérifient la
formule suivante :

~1 , B
angle(B ~2 ) ≤ α (3.6)

~1 et B
avec B ~2 deux vecteurs caractérisant la direction des deux beamlets B1 et B2 et α l’angle
~1 et B
toléré entre les deux vecteurs B ~2 fixé dans ce travail à π . Les beamlets sont regroupés
6
deux par deux et ceux qui restent sont supprimés de la liste des candidats routes.

Le deuxième descripteur à définir est le rapport de la longueur de la route par sa largeur et le


degré d’homogénéité entre deux beamlets donnés. Pour appliquer ces notions, nous définissons
la formule suivante qui prend en considération ces deux mesures :

MB1 B2 = 2RB1 B2 + HB1 B2 (3.7)

Longueur
avec RB1 B2 une mesure de rectangularité déterminée par le rapport Largeur des beamlets et
HB1 B2 une mesure de l’écart type de la région définie à partir de l’image niveaux de gris d’entrée
1
par les deux beamlets et déterminée par σ B1 B2 .

Dans la formule 3.7, nous accordons plus d’importance à l’aspect dimension de la route plus
que l’homogénéité de sa surface, car l’homogénéité peut caractériser aussi les bâtiments ou
plusieurs autres objets dans l’image satellitaire. Aussi les routes sont facilement distinguables
par leur longueur largement supérieure à leur largeur. Contrairement au calcul des dimensions
des bâtiments, la définition de la longueur et la largeur des routes n’est pas une tâche évidente
98

surtout dans le cas où l’un des deux axes est supérieur à l’autre. Pour résoudre ce problème,
nous avons eu recours à la méthode «Rotating Calipers» décrite dans le travail de thèse de
Michael Shamos (1978) qui consiste à déterminer le plus petit rectangle englobant l’objet d’in-
térêt. Cette méthode présente une mesure de rectangularité pour une région donnée, mais dans
notre cas, elle est employée pour déterminer la longueur et la largeur d’un objet donné. L’ap-
plication de cette étape permettra de retenir les beamlets qui présentent une valeur élevée pour
la mesure que nous avons proposée.

La reconstruction du réseau routier

Les routes dans les images satellitaires ont des structures variées et n’ont pas une forme exacte,
mais elles gardent quand même une certaine linéarité locale. Nous avons profité de cette ca-
ractéristique pour fixer des pixels amorces pour l’initialisation de notre algorithme de recons-
truction. Les candidats “routes” retenus dans l’étape précédente offrent une bonne localisation
des routes dans l’image et permettent de distinguer ces structures des autres objets apparte-
nant à la scène urbaine. Notre algorithme d’agrégation part de la liste des beamlets candidats
fournis par l’étape précédente, contrairement aux méthodes de suivi décrites dans la littérature
qui tentent de rassembler les arêtes ou les segments de la carte des contours. L’agrégation des
segments dans notre cas se base sur les résultats de la décomposition de l’image en pyramide
de beamlets.

L’agrégation d’un beamlet garantit que les pixels rajoutés ne soient pas de formes arbitraires.
En effet, l’étape précédente peut produire de fausses alarmes dues aux bruits existant dans
l’image. L’ajout de beamlets permettra de renforcer la mesure de confiance que nous accordons
aux beamlets candidats. L’algorithme de suivi consiste à ajouter à chaque itération aux beamlets
candidats des beamlets voisins caractérisés par une direction similaire et obéissants à la formule
suivante :

angle(S~res , B
~1 ) ≤ β (3.8)
99

avec S~res et B
~1 deux vecteurs caractérisant respectivement la direction du segment résultant S

et le beamlet B1 et β l’angle toléré entre les deux vecteurs S~res et B


~1 fixé dans ce travail à π .
6

La structure de graphe semble bien adaptée à cette méthodologie vu qu’elle offre la possibilité
d’évoquer des relations spatiales entre beamlets et de comparer leurs directions indépendam-
ment de l’échelle. Dans certains cas, nous détectons la présence de discontinuités dans la carte
des contours dues aux bruits dans l’image ou la présence d’objets qui obstruent des portions
de la route. Notre algorithme de suivi permet de chercher à partir d’une fenêtre centrée aux
extrémités des beamlets, les beamlets voisins ayant la même direction. Nous avons fixé la taille
de cette fenêtre de recherche à 20 pixels. Le schéma 3.8 décrit les deux cas de figure possibles
et l’utilisation de la relation spatiale entre beamlets pour la reconstruction du réseau routier.

a) b)

Figure 3.8 La reconstruction du réseau routier en se basant sur la cinquième étape de


notre algorithme : (a) Cas de beamlets connectés (b) Cas de beamlets non connectés .

3.3 Appariement entre images satellitaires

L’algorithme d’extraction des routes proposé dans la section précédente est appliqué aux deux
images optiques de l’avant et l’après-catastrophe afin d’extraire les routes présentes. Dans cette
étape, nous voudrions identifier la même route dans les deux images d’un désastre d’où l’in-
térêt de l’appariement entre les deux images. Cette technique de traitement d’image consiste à
trouver les correspondances entre les segments des deux images.
100

Dans le cas des images satellitaires multitemporelles, les conditions d’acquisitions sont très va-
riées, notamment la présence de distorsions géométriques qui entraînent des difficultés dans la
recherche des correspondances entre images. L’appariement en présence de distorsions géomé-
triques dues à la rotation de la Terre par exemple s’effectue en appliquant des transformations
géométriques comme la rotation ou la translation des pixels de l’image. Dans le cas des catas-
trophes majeures, la modification de la radiométrie des pixels peut être due à la présence de
l’eau issue des inondations, dans ce cas de figure, il n’existe aucune transformation qui permet
de localiser deux objets occlus par l’eau à partir des deux images.

Dans ce travail de thèse, la localisation des objets d’intérêts dans les deux images est accom-
plie par comparaison entre la liste des routes obtenues à partir des images de l’avant et de
l’après-catastrophe. L’algorithme partira d’une liste des routes obtenue par l’application de la
transformée en beamlets à partir des deux images satellitaires. Ensuite, nous effectuons une
correspondance entre objets en mesurant le degré de similarités de leurs contours. Cette mé-
thode permet de minimiser les erreurs de l’appariement pixellique très sensible aux bruits et aux
changements subis par l’image. Pour pouvoir mesurer la similarité entre deux contours d’ob-
jets arbitraires, nous avons eu recours à la distance de Hausdorff qui décrit «l’éloignement de
deux sous-ensembles dans un espace métrique sous-jacent» thèse de Manolova (2011) et par
conséquent, elle nous permet de comparer les contours des routes deux à deux afin d’identifier
les correspondances. L’application de la mesure de Hausdorff donne une idée sur la similarité
entre deux contours A = {a1 , a2 ..., a p } et B = {b1 , b2 ..., bq } (voir figure 3.9). Cette mesure est
définie par :

DH (A, B) = max{d(A, B), d(B, A)} (3.9)

avec d(A, B) = maxx∈A {minx∈B ||a − b||}.


Une amélioration de cette mesure est décrite dans Dubuisson & Jain (1994) comme étant la
distance moyenne maximale calculée comme suit :
101

1 1
DHM = max{ ∑ d(x, B), ∑ d(x, A)} (3.10)
A x∈A B x∈B

Figure 3.9 La différence entre la distance euclidienne et la mesure de similarité de


Hausdorff, tirée de la thèse de Manolova (2011)

Cette amélioration permet de fournir une mesure de similarité plus robuste de la distance entre
les contours, car elle introduit la moyenne des distances ce qui permet de diminuer l’influence
des pixels aberrants issus du bruit présent dans les images satellitaires. La mesure de similarité
utilisée dans notre cas est définie comme étant le minimum de la distance de Hausdorff définie
entre une route et l’ensemble des routes de la seconde image :

Droutes = min{DHD } (3.11)

3.4 L’évaluation des dommages des routes basées sur l’analyse de la texture

Identifier et évaluer les dommages des routes dans les images satellitaires revient à extraire
les changements utiles à partir des images de l’avant et de l’après-catastrophe. La possibilité
de confusion entre les changements que nous cherchons à identifier causés par l’impact des
catastrophes et les changements dus aux conditions d’acquisition est très probable. En effet,
102

les changements identifiés peuvent être dus à la présence d’occlusions comme l’ombre des
arbres ou des édifices récemment construits.

À partir de ces constatations, nous pouvons conclure que notre procédure d’évaluation des
dommages doit comprendre une étape d’identification des changements et d’analyse de sa na-
ture afin de pouvoir identifier les objets associés à l’impact de la catastrophe dans l’image et
déterminer son ampleur. Comme nous l’avons précisé dans l’état de l’art que nous avons pré-
senté, les approches de détection des changements sont diverses et se basent généralement sur
les informations issues de la radiométrie ou de la texture. Le choix de la méthode utilisée n’est
pas fait arbitrairement, car l’utilisation d’une méthode ou d’une autre influence énormément
sur les résultats obtenus par notre algorithme. L’argumentation de notre méthodologie se base
sur la nature du problème, les contraintes imposées et la nature de l’information disponible ou
recherchée.

En cas de catastrophe, la disponibilité des images satellitaires représente un problème en soi.


Dans certains cas, nous ne disposons pas d’images de l’avant catastrophe ou les images dispo-
nibles dans les bases de données sont trop anciennes. De ce fait, la détection des changements
doit prendre en considération les changements dans l’occupation du sol dus à la construction
d’un bâtiment par exemple ou l’apparition de nouveaux objets comme des plantations d’arbres.
Nous pouvons aussi citer le problème de la variabilité des conditions d’acquisition entre les
deux dates t1 et t2 dépendamment de la saison, les conditions météorologiques et l’angle de
la prise de vue. Ces conditions influencent essentiellement l’analyse des changements radio-
métriques entre deux images et nécessitent dans la plupart des cas un traitement particulier.
Vu que l’information radiométrique n’est pas toujours complète et disponible, nous comptons
l’enrichir par des informations sur la texture. L’information sur la texture permet de détecter
les changements et de les caractériser indépendamment des conditions d’acquisition, ce qui
présente un atout dans le cas de la détection des changements en cas des catastrophes. Nous
allons dans ce qui suit présenter notre méthodologie d’analyse de la texture basée sur la trans-
formée multiéchelle en ondelettes et l’approche adoptée dans la détection et l’évaluation des
changements.
103

3.4.1 La transformée en ondelettes et l’analyse de la texture

La transformée en ondelettes

Nous décrivons dans cette section le deuxième outil que nous comptons utiliser dans l’ana-
lyse des changements subis par les routes dans les images satellitaires acquises suite à une
catastrophe majeure. La transformée en ondelettes est l’une des transformations les plus uti-
lisées dans le traitement des signaux en raison de sa structure parfaitement adéquate pour la
décomposition des signaux et l’extraction de l’information utile Mallat (2000). Les origines
de la transformée en ondelettes remontent aux travaux du géophysicien français Jean Morlet.
Les premières ondelettes ont été créées pour chercher le pétrole dans les différentes couches
géologiques de la terre. La méthode utilisée consiste à envoyer des ondes dans la terre puis
analyser les échos afin de déterminer les différentes couches souterraines et leurs épaisseurs.

Avant l’apparition de la transformée en ondelettes, l’analyse des signaux était réalisée en appli-
quant la transformée de Fourrier qui consiste à décomposer le signal en un ensemble de sinus
et de cosinus faciles à analyser puis reconstruire le signal original. Le problème de cette trans-
formée est qu’elle n’offre pas une information sur l’aspect temporel du signal, la représentation
est seulement suivant les fréquences. Une amélioration de la transformée de Fourrier dite trans-
formée de Gabor est apparue. Elle utilise une fenêtre de taille fixée pour l’analyse du signal et
une gaussienne modulée en temps comme fonction de base dans la décomposition à la place
des sinusoïdes utilisées dans le cas de la transformée de Fourrier. L’avantage de cette technique
est que pour un signal de durée fixe un grand nombre de sinusoïdes est nécessaire pour donner
une estimation exacte du signal, ce qui nécessite plus de temps pour calculer les coefficients
de Fourrier, un problème qui ne se pose pas pour la transformée de Gabor. Par contre, cette
dernière, à son tour demeure imprécise sur l’aspect temporel : en effet, la fenêtre utilisée dans
le cas de la transformée de Gabor est de longueur fixe, ce qui représente un problème surtout
lorsqu’on veut traiter des signaux dont les variations peuvent avoir des ordres de grandeur très
variables.
104

— La transformée en ondelettes continue (TOC) consiste à appliquer à partir d’une fonc-


tion mère ψ(ax + b) un ensemble de translations et de dilatations afin de générer des
ondelettes fils capables de filtrer le signal à différentes fréquences (voir figure 3.10). La
transformation d’ondelettes d’une fonction continue est définie comme suit :

Z +∞
O(a, b) = f (t)ψ(at + b)dt (3.12)
−∞

avec f (t) le signal analysé, ψ la fonction analysante, a le facteur de dilatation et b le


facteur de translation. L’avantage de l’utilisation de ces ondelettes est qu’elles s’adaptent
avec le signal analysé en utilisant des fenêtres larges pour analyser les composantes qui
durent dans le temps et des fenêtres étroites pour analyser les composantes liées à des
hautes fréquences. De cette manière, l’analyse des résolutions fines revient à utiliser un
ensemble de petites ondelettes qui permettent d’identifier les détails cachés par le signal.

Figure 3.10 La décomposition en ondelettes d’un signal continu

— La transformée en ondelettes discrète (TOD) : utilise des valeurs discrètes pour la trans-
lation et la dilatation du signal discret. L’ondelette analysante s’écrit sous la forme sui-
105

vante :

1 t − b.τ0 .sa0
ψa,b [t] = p a ψ( ) et O[a, b] = ∑ f (t) ψa,b [t] (3.13)
s0 sa0

avec a et b deux entiers, f (t) le signal analysé, sa0 le facteur d’échelle et τ0 le paramètre
de translation. En général, nous prenons τ0 = 1 et s0 = 2.

— La transformée en ondelettes orthogonales et leur application en traitement d’images :


à cause de la redondance dans le calcul des coefficients des ondelettes, nous utilisons en
pratique des ondelettes avec des coefficients orthogonaux entre eux. Les bases orthogo-
nales des ondelettes sont périodiques de période «a», elles sont un peu plus difficiles à
construire, mais permettent de reproduire une représentation non redondante du signal
discret étudié.

Figure 3.11 La décomposition en ondelettes d’une image à l’échelle j, HL, LH, HH,
représentent les trois images de détails à chaque échelle caractérisées par les directions
horizontale, verticale et diagonale, LL décrit les coefficients de basse fréquence

Pour une décomposition en ondelettes de niveau I, le signal s’écrit comme suit :

I
x(k) = S(I) (k)φI,I + ∑ di (k).ψi,I (3.14)
i=0
106

avec di les coefficients des ondelettes qui décrivent les détails de l’image et S(I) une ap-
proximation du signal. La figure 3.11 illustre l’application de la transformée en ondelettes
orthogonales sur une image à l’échelle j.

La transformée en ondelettes pour l’analyse multiéchelle de la texture

La transformée en ondelettes offre une décomposition multiéchelle complète de l’image facile


à interpréter. Chaque sous-image générée par cette décomposition contient une information
unique sur l’échelle et l’orientation, ce qui facilite l’extraction et l’analyse des descripteurs de
texture. Comme la transformée en ondelettes génère des coefficients d’ondelettes redondantes
pour les 3 orientations (horizontale, verticale, diagonale), nous pouvons appliquer les mesures
de texture standard (Histogramme, Moyenne, Écart type et Variance) sur chacune des sous-
bandes de fréquences. Les résultats obtenus permettent de définir précisément : la meilleure
échelle pour caractériser la texture donnée par le niveau de la décomposition en ondelettes,
l’orientation dominante de la texture donnée par l’orientation des coefficients d’ondelettes et
la caractérisation de la texture par les mesures de régularité et d’homogénéité.

Plusieurs mesures de texture peuvent être utilisées pour la caractérisation de la texture à une
échelle données de la décomposition en ondelettes, ces descripteurs sont principalement basés
sur la matrice de cooccurrence p. Parmi lesquelles nous citons celles décrites par Haralick et al.
(1973) :

— Moyenne = ∑ j ∑i p(i, j)

— Variance = ∑ j ∑i (i − Moyenne)2 p(i, j)

— Energie = ∑ j ∑i p(i, j)2

— Inertie = ∑ j ∑i p(i, j)2 p(i, j)

— Entropie = − ∑ j ∑i p(i, j)log(p(i, j))

avec i et j les coordonnées dans la matrice de cooccurrence p qui représentent un niveau de


gris particulier dans l’image d’entrée.
107

Un des problèmes de cette technique réside dans le nombre énorme de descripteurs de texture
qui peuvent être extraits et qui contiennent une information redondante sur la texture du même
objet associée à plusieurs échelles d’analyse. Ce qui rend l’interprétation des cette information
moyennant une technique de classification une tâche fastidieuse et très difficile à appliquer. Gé-
néralement, une phase de réduction de la dimensionnalité est employée pour réduire la taille du
vecteur de texture extrait en éliminant l’information redondante. Mais le choix de la meilleure
échelle d’analyse qui permet de ressortir au mieux les caractéristiques d’un objet diffère, d’une
texture à une autre. Dans ce chapitre, une nouvelle technique capable d’extraire l’information
texturale à partir d’une décomposition en ondelettes est proposée. L’idée consiste à chercher
l’échelle la plus appropriée pour extraire les descripteurs de texture pour un objet donné en se
basant sur une segmentation multiéchelle de l’image. L’application d’une phase de segmenta-
tion avant l’extraction des descripteurs permet de réduire le nombre de descripteurs à calculer
tout en déterminant l’échelle optimale pour les extraire.

3.4.2 La méthodologie proposée

La méthodologie proposée dans cette section, comme décrite dans Sghaier & Lepage (2015a)
et Sghaier & Lepage (2015b), repose sur l’analyse de la texture des routes pour extraire les
changements causés par la catastrophe. La première étape de notre algorithme consiste à dé-
tecter les changements subis par la route. Ces changements peuvent être dus à plusieurs sources
y compris les dommages des routes. Cette première étape a comme but de chercher à identifier
les changements sans déterminer leur nature.

Nous commencerons par appliquer la transformée en ondelettes sur les deux images de l’avant
et de l’après-catastrophe, une segmentation par ligne de partage des eaux est combinée avec les
ondelettes de Haar afin de déterminer l’échelle optimale associée à chaque objet. Par la suite, la
divergence de Kullback-Leibler est utilisée afin d’identifier les zones modifiées en comparant
les coefficients de détail de la décomposition en ondelettes. Cette étape fournira une liste des
régions qui ont subi un changement avec une information pertinente sur les échelles les plus
adaptées pour les extraire.
108

Figure 3.12 Les étapes de l’algorithme de détection et d’évaluation des dommages des
routes

Ensuite, pour chaque changement détecté sur la surface de la route, nous calculons des mesures
de texture pour les trois orientations d’ondelettes et nous définissons un vecteur caractéristique.
L’orientation du changement retenue sera celle avec un vecteur caractéristique maximal. À l’is-
sue de cette étape, nous obtenons deux vecteurs caractéristiques formant les sources d’infor-
mations utilisées dans l’estimation des fonctions de masse et caractérisant chaque changement
figurant sur la route, notre objectif est de déterminer la nature et la classe du changement. Pour
y parvenir, nous estimons moyennant une étape d’apprentissage les fonctions de masse qui
décrivent l’appartenance de la zone d’intérêt à une classe particulière selon une mesure de tex-
ture. Chaque mesure de texture donnera une idée sur le degré d’appartenance à une des classes
suivantes : voitures, ombres, débris, routes. Les différentes mesures de texture peuvent être
109

considérées comme un ensemble de sources d’information qui peuvent être en accord ou en


contradiction. Par conséquent, nous ne pouvons pas confirmer définitivement l’appartenance
d’un objet à une classe particulière, d’où l’intérêt de l’utilisation de la théorie des fonctions
de croyance pour la fusion des données issues de chaque source et donner une décision pré-
cise sur la nature des changements. La théorie des fonctions de croyance donnera une base
mathématique robuste pour la fusion des données issues de plusieurs sources tout en tenant
compte de leur incertitude et de leur imprécision. Une fois la fonction de masses finale dé-
crivant l’appartenance de chaque région à chaque classe est déterminée, nous appliquons une
règle de fusion multitemporelle afin de caractériser la nature du changement et de retenir seule-
ment celui causé par la catastrophe. La figure 3.12 décrit les étapes par lesquelles passe notre
algorithme de détection des changements subis par le réseau routier suite à une catastrophe.

Segmentation multiéchelle combinant la technique de la ligne de partage des eaux et la


transformée en ondelettes

Le problème de segmentation d’image est l’un des problèmes les plus difficiles dans le domaine
de traitement d’image et consiste à chercher pour une image donnée une partition optimale
maximisant un critère donné comme la texture ou l’homogénéité, etc. Des algorithmes comme
la segmentation par ligne de partage des eaux Beucher & Lantuejoul (1979) ont maintes fois
montré leur efficacité à résoudre ce genre de problème et permettent d’identifier efficacement
les objets d’intérêt dans l’image. La segmentation par ligne de partage des eaux est une méthode
qui fait partie de la famille des approches basées sur la morphologie mathématique. L’image
est perçue comme un relief topographique avec ses pixels constituants représentant le niveau
d’élévation en chaque point. À partir des minimums globaux, l’image est progressivement
inondée jusqu’à ce que le niveau d’eau atteigne le plus haut sommet dans l’image. Les bassins
versants ainsi obtenus correspondant aux régions de la partition. La principale limite de cette
approche réside dans sa sensibilité au bruit et aux contours à faible magnitude. La transformée
en ondelettes est introduite dans ce travail pour surpasser ces limitations en ajoutant plus de
confiance aux arêtes extraites à des échelles grossières.
110

Tout d’abord, l’image d’entrée est décomposée en coefficients d’ondelettes par application
d’une série de filtres passe-haut et passe-bas. Ce processus de division récursif de l’image
est répété jusqu’à ce que des blocs de taille 128 × 128 sont obtenus représentant le niveau
grossier de la résolution identifié dans ce travail par l’échelle t. À partir de la composante basse
fréquence de l’ondelette (LL - 2 × filtrage passe-bas), le gradient à chaque pixel est calculé
pour définir les limites de chaque objet et l’algorithme de la ligne de partage des eaux est
ensuite appliqué pour segmenter l’image et extraire des objets d’intérêt. Comme les paramètres
optimaux de l’algorithme de segmentation sont inconnus pour chaque image, nous avons choisi
de sur-segmenter l’image. Cette heuristique permet d’éviter la fusion des objets appartenant à
deux classes différentes et favorise l’apparition de sous-classes dans la classe d’intérêt.

Figure 3.13 Les étapes de la segmentation multiéchelle de l’image


111

Sur la base de la carte de voisinage obtenue par application de l’opération de segmentation, une
étape de fusion est appliquée afin de fusionner les régions qui présentent les mêmes caractéris-
tiques texturales. Deux régions adjacentes sont fusionnées si la différence entre leur indice de
texture est inférieure à un seuil de similarité donné ε. Les mesures de texture suivantes : somme
variance (SomVar), Cluster shade (Shade), moyenne et énergie, définies dans Pony et al. (2000)
, sont utilisées dans le processus de fusion comme elles ont prouvé leur capacité à discriminer
entre les classes d’intérêt dans un environnement urbain. La formule de fusion proposée est
donnée par :
| Texturei − Texture j | ≤ ε
(3.15)
Texturei = Shadei + Energiei + SomVari + Moyennei

où i et j sont deux régions voisines. La carte des contours obtenue est projetée sur l’échelle
suivante afin de donner plus de confiance aux bords calculés dans l’échelle courante. Ainsi, les
contours obtenus à l’échelle t-1 et figurant dans la liste des arêtes projetées de l’échelle t ob-
tiennent 30 % de plus dans l’amplitude du gradient (ce seuil est défini d’une façon empirique).
La procédure décrite dans la figure 3.13 est répétée pour chaque niveau jusqu’à ce que nous
atteignons le niveau de l’image originale et les contours extraits à partir de différentes échelles
sont superposés pour déterminer les frontières de la segmentation finale.

L’identification des changements en utilisant la divergence de Kullback-Leibler

Une fois les deux images d’entrée segmentées, les régions définissant le même objet à partir des
deux images, pour une échelle donnée, sont comparées à l’aide de la divergence de Kullback-
Leibler (DKL) Kullback & Leibler (1951), également connue sous le nom de l’entropie relative.
Cette distance asymétrique est un outil usuel pour mesurer la similitude entre deux densités de
probabilités (PDF) correspondant, dans une image, aux histogrammes normalisés des niveaux
de gris P(x) et Q(x) définie comme suit :

P(i)
DKL (P||Q) = ∑ P(i)ln (3.16)
i Q(i)
112

Une version symétrique de la DKL est obtenue en prenant la valeur moyenne dans les deux
directions tel que :
1
SKL (P||Q) = (DKL (P||Q) + DKL (Q||P)) (3.17)
2

L’étape de comparaison est effectuée comme suit ; tout d’abord, la meilleure échelle associée
à un objet donné est retenue dans la phase de segmentation et les coefficients des ondelettes
fines de même orientation sont comparés deux à deux. Un changement sera traduit par une
valeur élevée de la DKL pour une direction donnée des coefficients d’ondelettes. Par la suite,
le maximum de la DKL pour les trois différentes directions d’ondelettes est calculé et comparé
à un seuil fixé dans ce travail de manière empirique à partir d’un ensemble de données d’ap-
prentissage à 0, 75. L’avantage de cette technique est qu’elle n’est pas sensible aux variations
dans les conditions d’acquisition, car elle est basée sur les caractéristiques texturales des objets
dans l’image.

Le calcul du vecteur caractéristique et l’identification de l’orientation dominante

Le but de cette étape est d’extraire des descripteurs caractéristiques de chaque changement
détecté sur la surface de la route. Le vecteur caractéristique défini afin de caractériser la texture
comporte quatre composantes : une première composante pour caractériser la luminance de
l’objet relatif à son échelle d’extraction et qui illustre l’information radiométrique sur l’objet
et trois mesures de texture pour caractériser la répartition spatiale des pixels pour les trois
orientations d’ondelettes LL, LH et HH dans cette zone de l’image, définies dans ce travail
comme suit :

— Le second moment angulaire : il caractérise le caractère "lisse" de l’objet, plus la texture


de l’objet est lisse plus sa valeur est élevée. Le second moment angulaire est défini par la
formule suivante :

l−1 l−1
Sma = ∑ ∑ (P(i, j, d, θ ))2 (3.18)
i=0 j=0
113

— La corrélation : elle caractérise le caractère "régularité" de l’objet, plus la texture de


l’objet est régulière plus sa valeur est élevée. La corrélation est définie par la formule
suivante :

l−1 l−1
((i − µx )( j − µy ))P(i, j, d, θ )
Cor = ∑∑ (3.19)
i=0 j=0 σx σy

— Le contraste : il caractérise les variations locales importantes dans une direction donnée,
plus la variation locale est importante plus sa valeur est élevée. Le contraste est défini par
la formule suivante :

l−1 l−1
Con = ∑ ∑ (i − j)2(P(i, j, d, θ )) (3.20)
i=0 j=0

avec µx et σx la moyenne et l’écart type des lignes de la matrice de cooccurrence, et µy et σy


la moyenne et l’écart type des colonnes de la même matrice. Quant à θ , il représente l’angle
choisi pour le calcul de la matrice de cooccurrence. Nous pouvons déduire à partir des me-
sures calculées précédemment le vecteur caractéristique pour une image k et une orientation
donnée θ ∈ {0, 45, 90} correspondant à la composante horizontale, diagonale et verticale des
ondelettes, respectivement. Le vecteur caractéristique peut s’écrire :

Fkθ = {Lumθk , Smaθk , corkθ , conθk }. (3.21)

Afin de déterminer l’orientation dominante pour analyser la texture de l’objet, nous calculons
pour chaque direction la norme du vecteur caractéristique. L’orientation dominante de la texture
sera donnée par la valeur maximale des trois vecteurs :

Fk = max{||F~k0 ||, ||F~k45 ||, ||F~k90 ||} (3.22)

q
avec ||~F|| = 2 + F2 + F2 + F2
FLum Sma Cor Con
114

Application de la théorie des fonctions de croyance pour la classification

Les étapes précédentes nous ont permis d’identifier la présence de changements dans la route
et de les localiser. Le changement dans les images multitemporelles peut être caractérisé par
des transitions de type routes → voitures, routes → ombres, etc. Dans le cadre de ce travail
nous nous intéressons seulement aux transitions de type : routes → débris, d’où la nécessité
d’identifier la classe d’appartenance de la région avant et après la catastrophe.

Dans la classification de la région d’intérêt, nous nous sommes heurtés à des problèmes de
contradiction entre les sources d’information qui présentent des confusions dans la discrimi-
nation de certains objets. De ce fait, nous avons eu recours à un formalisme de fusion très
puissant qui prend en considération la contradiction et le conflit entre les sources. Aussi, la
théorie des fonctions de croyance semble bien adéquate pour la représentation de l’incertitude
de nos sources d’information hétérogènes. La théorie des fonctions de croyances, aussi ap-
pelée la théorie de Dempster-Shafer introduite par Dempster (1967) et formalisée par Shafer
(1976) offre des propriétés et des fonctions permettant la représentation et la combinaison de
données imparfaites modélisées par des masses de probabilité définies sur des ensembles ou
des intervalles. Nous allons dans ce qui suit exposer le formalisme de la théorie ainsi que son
application à notre problème de classification :

— Formalisation du problème :
La théorie des fonctions de croyance repose sur plusieurs notions parmi lesquelles, nous
citons le cadre de discernement noté Θ = {θ1 , θ2 , . . . , θN } qui inclut l’ensemble des hypo-
thèses englobées par le problème. Il comporte dans le cas de l’image de l’après-catastrophe
par exemple l’appartenance de l’objet d’intérêt aux classes : routes, voitures, ombres et
débris.

Θ = {routes, debris, ombres, voitures} (3.23)


115

À partir de ce cadre de discernement Θ, nous déduisons l’ensemble 2Θ comprenant l’en-


semble des 2N sous-ensembles de Θ. Ce dernier est formé des hypothèses ainsi que de
leurs disjonctions. Au même titre que l’ensemble 2Θ , nous introduisons une grandeur dite
fonction de masse notée :
m : 2Θ → [0, 1]

et vérifiant la propriété : 
/ =0
m(0)

(3.24)
∑ Θ m(A) = 1.

A⊆2

La masse s’interprète comme une mesure de la croyance allouée à l’hypothèse A.

— Estimation des fonctions de masse


La première étape de l’application de la théorie de l’évidence consiste à estimer les fonc-
tions de masse relatives à chaque source. Cette étape peut être réalisée par le biais de
plusieurs techniques, nous avons privilégié dans ce travail de thèse l’utilisation du clas-
sifieur evidentiel de Denoeux (1995) basé sur l’algorithme Kppv (K plus proche voisins)
qui propose une variante de l’algorithme de Kpp traditionnel basée sur la théorie des fonc-
tions de croyance. Cet algorithme se base sur la connaissance d’une base d’apprentissage
contenant des échantillons représentant nos classes d’intérêt. Soit L = {x1 , x2 , . . . , xL }
cette base d’apprentissage. Pour chaque vecteur caractéristique x de la région à classifier,
nous appliquons l’algorithme Kppv évidentiel pour considérer seulement les k vecteurs
d’apprentissage les plus proches de x. Ces vecteurs sont considérés comme une source
d’information pour le vecteur à classer. Les fonctions de masse sont alors données par :

mk (x ∈ θi ) = αk ϕk (dk )

(3.25)
mk (x ∈ Θ) = 1 − αk ϕk (dk )

116

où αk ∈ [0, 1] un coefficient d’affaiblissement, dk la distance euclidienne entre les vecteurs


x et xk , et ϕk une fonction décroissante donnée par :

ϕk (dk ) = exp(−γk d 2 ) (3.26)

où γk un réel positif. La fonction de croyance finale m(.) est obtenue par l’application de
l’opérateur de combinaison de Dempster sur toutes les sources d’informations partielles
mk .
m = ⊕k∈[1,...,K]) mk (3.27)

où ⊕ signifie la règle de combinaison conjonctive de Dempster donnée par :

∑B∩C=A m1 (B) m2 (C)


m⊕ (A) = (3.28)
1 − ∑B∩C=0/ m1 (B) m2 (C)

Tel que décrit précédemment cette approche considère l’espace des caractéristiques dans
sa globalité. Dans notre travail, nous allons adopter la variante séparable de l’algorithme
evidentiel qui consiste à modéliser les informations selon chaque caractéristique x j avec
j ∈ [1, . . . , J], J étant le nombre de descripteurs (sources) du vecteur x à classer.

— Fusion inter-sources
Une fois que nous obtenons les fonctions de masse relatives à chaque descripteur, nous
procédons à la fusion des jeux de masse de chaque source afin d’obtenir la fonction de
masse finale associée à la région d’intérêt. La combinaison est réalisée moyennant la loi
de combinaison de Dempster (voir éq. (3.30)) qui profite de l’information contenue dans
les différentes sources pour la distribuer vers les propositions les plus probables.

m = mLuminance ⊕ mSma ⊕ mCorrelation ⊕ mContraste (3.29)

La figure 3.14 illustre le processus de fusion proposée dans ce travail basé sur la théorie
des fonctions de croyance.
117

Figure 3.14 Les étapes de l’algorithme de détection et d’évaluation des


dommages des routes

Identification de la nature du changement à travers la fusion multitemporelle

Afin d’identifier efficacement la nature des changements qui ont été détectés, nous allons utili-
ser le Raisonnement Evidentiel Multidimensionel (REM) présenté dans Liu et al. (2014) pour
la fusion des régions d’intérêt déjà classées chacune à part dans les images de l’avant et de
l’après-catastrophe. Les fonctions de masse multidimentielles sont considérées comme une
extension des fonctions de masse usuelles, la principale différence est le cadre de discerne-
ment sur lequel elles sont définies. Soit Θ1 = {θ11 , θ12 , . . . , θ1N } et Θ2 = {θ21 , θ22 , . . . , θ2M }
les cadres de discernement relatifs respectivement aux sources de données obtenues à partir de
chaque image. La REM est définie sur le cadre Θ2 = Θ1 × Θ2 = {(θ1i , θ2 j )|(θ1i ∈ Θ1 ) ∧ (θ2 j ∈
Θ2 ), i ∈ [1, N], j ∈ [1, M]} résultant du produit cartésien de ces deux cadres. À partir de ce cadre
n
de discernement multidimensionnel, nous déduisons l’ensemble de puissance 2Θ = 2Θ1 ×Θ2 .
118

Chaque couple A de cet ensemble définit un changement. Par exemple, soit A = (X1 , X2 ), la
masse associée à ce changement se calcule de la manière suivante :

m1→2 (X1 , X2 ) = m1 (X1 )m2 (X2 ) (3.30)

où X1 ∈ 2Θ1 et X2 ∈ 2Θ2 , m1 est la croyance calculée à partir de l’image de l’avant catastrophe


et m2 est la croyance calculée à partir de l’image de l’après catastrophe.

Après avoir calculé la fonction de masse m1→2 associée à chaque couple de régions, une étape
de décision se présente pour conserver le changement le plus probable. Dans ce travail, nous
avons choisi le maximum de probabilité pignistique BetP(.) comme opérateur de décision.

|B ∩ A|
BetP(A) = ∑n m(B) (3.31)
B∈2Θ ,B6=0/
|B|

n
où |B| est la cardinalité de l’élément B. Dans la REM, la cardinalité d’un couple A ∈ 2Θ est le
nombre de singletons qu’il contient dans sa forme canonique. Par exemple |(θ11 , θ22 ∪ θ23 )| =
|(θ11 , θ22 ) ∪ (θ11 , θ23 )| = 2.

3.5 Expérimentation et résultats

Pour évaluer les performances de la méthode proposée, nous l’avons appliquée à des images de
Port-au-Prince en Haïti acquises peu de temps avant le tremblement de terre qui a eu lieu le 12
janvier 2010. Le satellite GeoEye 1 a été utilisé pour l’acquisition de ces images, caractérisé par
un capteur de résolution 58 cm hors nadir pour la bande panchromatique et 2,32 m hors nadir
pour les bandes multispectrales (bleu, vert, rouge et proche infrarouge). Ces caractéristiques
ont été utilisées pour produire des images à très haute résolution spatiale, ce qui donne une vue
très détaillée des objets présents dans l’image et facilite ainsi l’analyse du contenu. Tous les
algorithmes ont été codés en C ++ en utilisant la bibliothèque à accès libre ORFEO Toolbox
(Optical and Radar Federated Earth Observation) Christophe & Inglada (2009) dans sa version
119

actuelle 5.0 caractérisée par diverses fonctionnalités dédiées au traitement d’images satellites.
Les tests ont été effectués sur une machine de type PC munie d’un processeur Intel Core i7-
3770M avec une fréquence d’horloge de 3,4 GHz et 8 Go de mémoire vive tournant le système
d’exploitation Windows 7 Enterprise.

3.5.1 Données utilisées

Figure 3.15 L’épicentre du séisme est situé tout près


de Port-au-Prince, tirée d’un article publié sur le site
web academic

Dans ce travail de thèse, nous nous intéressons au tremblement de terre qui a eu lieu en Haïti
le 12 janvier 2010 (figure 3.15). Cette catastrophe a eu lieu dans l’un des pays les plus pauvres
du monde et a causé la mort de 300.000 personnes et plus d’un million de personnes déplacées,
avec une magnitude de 7,0 sur l’échelle de Richter. Cet évènement peut être considéré comme
étant un cas de catastrophe extrême, non seulement pour les dommages générés, mais aussi
pour l’immense quantité d’observations faites durant cet évènement.
120

Tableau 3.1 Les spécifications du satellite GeoEye-1

Date du lancement Capteur Résolution Plage spectrale

6 Septembre 2008 Panchromatique 0,46 m - 1,51 panchromatique Panchromatique : 450 - 800 nm


Multispectral 1,84 m - 6,04 multispectral Bleu : 450 - 510 nm
Vert : 510 - 580 nm
Rouge : 655 - 690 nm
Proche infrarouge : 780 - 920 nm

Le tableau 3.1 décrit les spécifications du satellite GeoEye-1 employé dans l’acquisition des
images de l’avant- et de l’après-catastrophe d’Haïti. Fournissant une très haute résolution spa-
tiale, un temps de revisite de moins de 3 jours et une capacité de rassembler jusqu’à 700,000
km2 par jour, ce satellite était de forte utilité lors du tremblement de terre et a permis d’avoir
une vue d’ensemble de l’événement.

3.5.2 Extraction des routes

Présentation des résultats

Les figures 3.16a, 3.16b, 3.16c and 3.16d montrent quatre sous-images extraites à partir de
l’image satellite de la ville de Port-au-Prince en Haïti. Comme nous pouvons le constater, ces
images représentent une zone urbaine dense avec la présence de quelques petits artéfacts, y
compris : du bruit, les voitures sur la surface de la route, les bâtiments et l’ombre des arbres.
Les figures 3.16e, 3.16f, 3.16g et 3.16h représentent les résultats de l’application du descripteur
de texture SFS-SD. Nous rappelons que cette mesure de texture permet d’identifier les surfaces
homogènes et droites à partir de l’image, caractérisant plusieurs objets dans les images satel-
lites comme les bâtiments et les routes. Nous pouvons remarquer l’amincissement de la surface
de la route dans certaines zones en raison de la présence de l’ombre qui occlut une partie de
la surface. Certaines zones sombres sur la surface de la route, qui correspondent à des voitures
dans l’image originale, peuvent également être observées.
121

a) site 1 b) site 2 c) site 3 d) site 4

e) texture 1 f) texture 2 g) texture 3 h) texture 4

i) dilatation 1 j) dilatation 2 k) dilatation 3 l) dilatation 4

m) canny 1 n) canny 2 o) canny 3 p) canny 4


122

q) résultat 1 r) résultat 2 s) résultat 3 t) résultat 4

Figure 3.16 Les résultats de l’application de la méthodologie proposée sur les images de
test.

Les figures 3.16i, 3.16j, 3.16k et 3.16l illustrent les résultats obtenus par application de l’opé-
rateur morphologique de dilatation sur les images de test : nous constatons que la dilatation de
l’image par l’élément structurant a permis de supprimer les petites structures représentant des
pixels mal classés ou les petits artéfacts présents dans l’image. L’application de la dilatation a
permis aussi de lisser les bords des routes, tout en maintenant leur forme linéaire. Les figures
3.16m, 3.16n, 3.16o et 3.16p montrent l’utilisation du détecteur de contour de Canny. Les
étapes précédentes ont permis de minimiser les contours non pertinents qui font partie des pe-
tits objets présents dans l’image et qui n’appartiennent pas au réseau routier. Enfin, les figures
3.16q, 3.16r, 3.16s et 3.16t montrent les résultats obtenus suite à l’application de la transformée
en beamlets. Comme nous pouvons le constater clairement, la plupart des principaux axes des
routes dans les images de test ont été correctement détectés. L’analyse multiéchelle a permis
de distinguer entre les contours de la route et ceux appartenant à d’autres objets tels que les
bâtiments, ainsi que supprimer les contours qui décrivent les petits objets. Les résultats obtenus
démontrent la précision et l’efficacité de notre algorithme dans l’identification de la route dans
un contexte urbain, rural et périurbain. Nous allons dans ce qui suit présenter une évaluation
quantitative des résultats afin d’appuyer ces constatations visuelles.

Les figures 3.17a, 3.17b, 3.17c, 3.17d, 3.17e et 3.17f montrent les résultats obtenus par ap-
plication de la transformée en beamlets sur une zone rurale. À des échelles supérieures, nous
pouvons observer les structures grossières dans l’image, représentant les routes. Puis, en des-
cendant vers des niveaux inférieurs de la pyramide, nous notons l’apparition des détails cachés
123

a) image d’entrée b) échelle 0 c) échelle 1

d) échelle 2 e) échelle 3 f) échelle 4

Figure 3.17 Les résultats obtenus par application de la transformée en beamlets sur une
zone rurale

dans l’image. L’algorithme proposé utilise l’aspect multiéchelle de la transformée en beamlets


pour détecter d’abord les principaux axes de la route, puis agrège des beamlets appartenant à
des niveaux de résolution inférieures afin de reconstruire le réseau routier au complet.

Le dictionnaire des beamlets stocke des informations pertinentes sur les coordonnées des pixels
aux extrémités, la direction et l’échelle d’apparition de chaque beamlet, ce qui permet par la
suite d’introduire des règles et des relations spatiales entre beamlets, telle que le parallélisme
ou la continuité de deux segments. Nous pouvons également remarquer que les structures
complexes peuvent être représentées par approximation d’un segment avec un ensemble de
beamlets vérifiant la fonction d’énergie. Nous avons constaté que les routes à Port-au-Prince
contenaient des déformations et des discontinuités dans leur structure linéaire causées par les
bâtiments et l’ombre des arbres, ce qui justifie l’utilisation d’une approximation des segments
de l’image par des beamlets.
124

Évaluation des résultats

Pour évaluer les performances de notre algorithme d’extraction de routes, nous avons utilisé des
vecteurs de routes de la ville de Port-au-Prince fournis par OpenStreetMap 1 . Les vecteurs de
routes, disponibles en format Shapefile, donnent des informations précises sur l’emplacement
des routes et constituent donc notre vérité terrain. Afin de calculer les mesures de complétude,
d’exactitude et de redondance associées à l’algorithme proposé, nous avons basé nos expé-
riences sur une comparaison entre la surface du réseau routier générée par notre algorithme à
partir des images de test et les données vectorielles de la route obtenues à partir d’OpenStreet-
Map. Nous avons d’abord extrait les vecteurs de la route sur la carte OpenStreetMap du réseau
routier qui correspondent à la sous-image en cours d’évaluation. La procédure comprend l’ap-
plication d’un code écrit en OTB, afin de déterminer le nombre de pixels qui constituent chaque
surface de route, le nombre de pixels de référence pour chaque vecteur de route, et le nombre
de pixels associé à chaque zone de correspondance. Chacune de ces valeurs est ensuite utilisée
dans le calcul de nos mesures de qualité. Si l’image contient plus d’une route, la moyenne des
mesures de qualité proposées est employée. Les figures 3.18a et 3.18b illustrent le principe de
la méthode d’évaluation employée.

a) Correspondance avec la route b) Correspondance avec la


extraite référence

Figure 3.18 Le principe de la méthode d’évaluation

1. OpenStreetMap est une base de données à accès libre de vecteurs de routes, sous licence Open Data Com-
mons Open Database License (ODbL).
125

La comparaison entre nos résultats et les vecteurs de la route produites à partir d’OpenSteetMap
est obtenue en utilisant la métrique proposée dans Wiedemann (2003) et Heipke et al. (1997),
qui servira à évaluer la précision et la qualité des résultats. Les mesures de qualité définies dans
ce travail sont les suivantes :

• Complétude : représente le pourcentage des routes correctement détectées par rapport aux
données de référence ; Cette mesure est définie sur l’intervalle [0; 1], où 1 est la valeur op-
timale.

Nous pouvons exprimer la complétude par la formule suivante :

VP
Complétude = (3.32)
V P + FN

• Exactitude : décrit le pourcentage de la surface correctement détectée sur la surface totale


des routes extraites. Cette mesure est définie sur l’intervalle [0; 1], où 1 est la valeur opti-
male.
Nous pouvons exprimer l’exactitude par la formule suivante :

VP
Exactitude = (3.33)
V P + FP

• Redondance : représente le pourcentage auquel la route correctement détectée est redon-


dante. Cette mesure est définie sur l’intervalle [−∞; 1] où 0 est la valeur optimale.
Nous pouvons exprimer la redondance par la formule suivante :

V P − (1 − FP + FN)
Redondance = (3.34)
VP
126

avec VP les vrais positifs, FP les faux positifs, FN les faux négatifs et VN les vrais négatifs. Le
tableau 3.2 décrit les résultats obtenus par application des mesures de qualité définies ci-dessus
sur les quatre images de test :

Tableau 3.2 Résultats obtenus par application de nos mesures de qualité

Complétude Exactitude Redondance

Site 1 0,75 0,9 0,1

Site 2 0,88 0,82 0,18

Site 3 0,9 0,85 0,15

Site 4 0,77 0,93 0,07

Comme le montre le tableau 3.2, la mesure d’exactitude est de 0, 9 et 0, 93 pour le site 1 et


le site 4, respectivement, ce qui reflète la précision de notre algorithme dans l’extraction de
la route et le faible taux de fausses alarmes, comme nous pouvons l’observer clairement à
partir des images. Les valeurs obtenues par la même mesure pour les deux autres sites sont un
peu moins bonnes, mais toujours satisfaisantes. La mesure de complétude est de 0, 9 pour le
site 3, et 0, 88, 0, 75 et 0, 77 pour les sites 1, 2 et 4, respectivement. Ces valeurs relativement
faibles peuvent être expliquées par la présence de plusieurs ruelles dans les sites 1 et 2, et plus
particulièrement dans le site 4. Les résultats de la mesure de redondance sont 0, 07 et 0, 1 pour
les sites 4 et 1, ce qui représentent des résultats très positifs, et 0, 15 et 0, 18 pour les sites 2 et
3, qui sont des résultats acceptables.

L’évaluation quantitative des résultats montre les bonnes performances de notre algorithme en
accord avec nos constatations tirées à partir de l’évaluation qualitative. Nous notons également
que la valeur relativement faible de la complétude pour le site 1 est due à la complexité du
milieu urbain et la présence d’occlusions causées par les voitures et l’ombre qui cachent une
grande partie de la route. L’utilisation de la mesure de la rectangularité définie entre deux
127

beamlets a permis de faire la distinction entre les bâtiments et les routes et d’éliminé les fausses
alarmes causées par des bâtiments qui ont une réponse texturale semblable à celle des routes.
L’interprétation des valeurs obtenues par cette mesure montre que l’algorithme proposé donne
de très bons résultats dans les zones urbaines, en effet la plupart des routes présentes dans les
images de test ont été détectées avec une grande précision. Cependant, le problème majeur que
nous devons mettre en évidence se traduit par la présence de certains artéfacts dans le voisinage
ou la surface d’une route, ce qui ne permet pas de reconstruire complètement certaines parties.

Figure 3.19 Le temps d’exécution de l’algorithme proposé

La figure 3.19 illustre l’évolution du temps d’exécution en fonction de la taille de l’image d’en-
trée. L’axe horizontal décrit la taille de l’image et l’axe vertical représente le temps d’exécution
en secondes. Nous notons que le temps d’exécution croît de façon exponentielle en fonction
de la taille de l’image. Pour les tailles d’image 64 x 64, 128 x 128, 256 x 256 et 512 x 512,
le temps d’exécution est très faible par rapport au temps d’exécution pour les tailles d’image
1024 x 1024 et 2048 x 2048. L’exécution de notre algorithme sur une image de taille 2048 x
2048 nécessite presque une heure, nous pouvons en déduire que l’application de l’algorithme
128

sur des images de taille supérieure à 512 x 512 est très coûteuse en temps et donc peu pratique
pour des problèmes réels.

Si nous nous focalisons sur l’information contenue dans ces images, nous constatons que les
images de taille 512 x 512 couvrent une superficie suffisante pour détecter une grande partie
du réseau routier. Ces observations confirment, à leurs tours, le choix de la taille des images à
utiliser en entrée de l’algorithme proposé, tel que défini dans l’étape de prétraitement.

Figure 3.20 L’évolution du nombre de beamlets en fonction de la taille de l’image

La figure 3.20 décrit l’évolution du nombre de beamlets en fonction de la taille de l’image


d’entrée. L’axe horizontal montre la variation de la taille de l’image, tandis que l’axe vertical
indique le nombre de beamlets retenus dans chaque étape, exprimé dans une échelle logarith-
mique. Nous pouvons remarquer l’écart important entre le nombre de beamlets retenus suite
à l’application de l’étape de décomposition et le nombre résultant de l’étape d’élagage ; nous
constatons que l’étape d’élagage de la pyramide a réduit remarquablement le nombre de beam-
1
lets par 50 . Cette réduction permet de gérer facilement les informations associées à chaque
129

beamlet, et par conséquent un nombre fini de beamlets est en mesure de représenter les in-
formations pertinentes contenues dans l’image. L’application de la transformée en beamlets
sur une d’image de taille 1024 x 1024 ou 2048 x 2048 a généré 100.000 beamlets en plus de
l’information sur l’orientation et la position de chaque beamlet qui devraient être stockées en
mémoire, ce qui réduit les performances de notre algorithme. Les deux étapes d’identification
des axes principaux de la route et la reconstruction du réseau routier nécessitent un nombre
égal de beamlets, étant donné que l’étape de reconstruction est basée sur le regroupement des
beamlets déjà sélectionnés lors de l’étape d’élagage et stockés en mémoire.

Comparaison avec des travaux existants

Afin d’évaluer les performances de l’algorithme d’extraction de routes proposé, nous avons
comparé les résultats de la méthode proposée par Coulibaly et al. (2014) avec notre approche
appliquées sur les mêmes données. La technique décrite dans Coulibaly et al. (2014) est basée
sur l’algorithme d’angle spectral Christophe & Inglada (2007) et une décomposition multié-
chelle en pyramide gaussienne inspirée de celle utilisée dans la transformation de caractéris-
tiques visuelles invariante à l’échelle SIFT Lowe (2004). Des sous-images extraites d’une zone
urbaine (Fig. 3.21a), d’une zone rurale (Fig. 3.21b) et d’une zone périurbaine (Fig. 3.21c)
ont été utilisées comme entrée pour les deux algorithmes. Les figures 3.21d, 3.21e et 3.21f
montrent les vecteurs routes utilisés dans cette évaluation. Les résultats de l’application de la
technique proposée par Coulibaly etal. sont présentés dans les figures 3.21g, 3.21h et 3.21i,
et les résultats obtenus par application de notre méthode sont présentés dans les figures 3.21j,
3.21k et 3.21l.

Comme le montre le tableau 3.3, les deux algorithmes donnent des performances similaires
en termes de complétude. L’algorithme proposé donne de meilleurs résultats pour les zones
d’étude 1 et 3. Pour la zone d’étude 2, la méthode de Coulibaly et al. (2014) obtient une valeur
plus élevée pour la complétude dans la zone rurale. Ceci est dû à la faible largeur de la surface
de la route dans l’image et au fort contraste de la route, des conditions qui favorisent la méthode
de Coulibaly etal. qui se base sur l’analyse de l’information radiométrique dans l’identification
130

a) b) c)

d) e) f)

g) h) i)

j) k) l)

Figure 3.21 Comparaison entre les résultats de la méthode proposée et la méthode de


Coulibaly et al. (2014) : (a,b,c) représentent la zone d’étude 1 : région urbaine, la zone
d’étude 2 : région rurale, et la zone d’étude 3 : région périurbaine, respectivement, et leurs
vecteurs routes associés (d,e,f). Le résultat de l’application de la méthode de Coulibaly
et al. (2014) sur les trois zones de test est montré dans (g,h,i), et (j,k,l) décrivent les
résultats de notre méthode proposée.
131

Tableau 3.3 La performance des deux méthodes d’extraction de routes

Zone d’étude 1 Zone d’étude 2 Zone d’étude 3


Méthode
Compl. Exact. Redon. Compl. Exact. Redon. Compl. Exact. Redon.

Coulibaly et al. (2014) 0,95 0,84 0,09 0,94 0,7 0,02 0,92 0,78 0,06

Proposée 0,97 0,99 0,01 0,9 0,92 0,05 0,93 0,93 0,03

des routes. En termes d’exactitude, notre algorithme proposé réalise de meilleurs résultats et
ne produit pas de fausses alarmes, contrairement à la méthode de Coulibaly etal. qui génère
plusieurs fausses alarmes, en particulier pour la zone d’étude 2. En termes de redondance, les
deux algorithmes obtiennent de très bons résultats pour les trois zones d’étude.

3.5.3 Identification des dommages

Présentation des résultats

Les résultats de l’application de la deuxième phase de notre approche dédiée à la détection


des dommages des routes sur deux images de la ville de Port-au-Prince sont montrés dans
la figure 3.22. Les figures 3.22a et 3.22b exposent les images acquises à partir du site 1, qui
représente une zone urbaine extraite du centre-ville de Port-au-Prince avant et après la catas-
trophe. Les résultats de l’application de la segmentation multiéchelle sur les images de test
sont présentés dans les figures 3.22c et 3.22d. Comme nous pouvons le constater, la combi-
naison de la transformée en ondelettes avec la segmentation par les lignes de partage des eaux
a permis d’améliorer remarquablement les résultats de la segmentation objet de l’image, tout
en éliminant le bruit apparaissant à des résolutions fines. Nous remarquons aussi que les me-
sures de texture utilisées ont permis de distinguer les dommages sur la surface de la route et
de les affecter à une nouvelle classe, malgré la similarité radiométrique entre la réponse des
dommages et la surface de la route. Le résultat de la détection des changements, moyennant
la divergence de Kullback-Leibler, est exposé dans la figure 3.22e. La grande région identifiée
132

a) site 1 : image avant b) site 1 : image après g) site 2 : image avant h) site 2 : image après

c) site 1 : segmentation d) site 1 : segmentation i) site 2 : segmentation j) site 2 : segmentation


multiéchelle multiéchelle multiéchelle multiéchelle

e) site 1 : détection de f) site 1 : détection des k) site 2 : détection de l) site 2 : détection des
changement dommages changement dommages

Figure 3.22 Résultats de l’application des différentes étapes de notre approche

au centre de l’image désigne les dommages subis par la route et les bâtiments au voisinage.
Quelques régions associées à l’ombre qui a disparu suite à l’effondrement des bâtiments aux
alentours ont été aussi détectées suite à l’application de notre étape de détection de change-
ments. Finalement, la figure 3.22f illustre le résultat obtenu par application de notre technique
de détection des dommages. L’application de la phase d’extraction du réseau routier a significa-
tivement contribué à l’amélioration des résultats de l’identification des dommages en réduisant
l’espace de recherche et en se focalisant par conséquent sur la surface d’intérêt, ce qui a permis
de minimiser les fausses alarmes et d’éviter la détection des débris sur les toits des bâtiments.
133

D’autre part, les régions appartenant à la classe ombre et détectées durant la phase d’identifi-
cation des changements sur la surface de la route n’apparaissent pas dans l’image résultante.
Cela signifie qu’ils ont été identifiés correctement comme ombre par application de la classifi-
cation crédibiliste et ont été éliminés de la liste des objets détectés comme étant un changement
pertinent.

Les figures 3.22g et 3.22h montrent les images acquises à partir du site 2, qui représente une
zone périurbaine de Port-au-Prince, acquises peu de temps avant et après le tremblement de
terre. Les résultats de la segmentation multiéchelle basée sur la transformée en ondelettes sont
présentés dans les figures 3.22i et 3.22j. La première conclusion que nous pouvons tirer à
partir de la figure 3.22i est que la surface de la route dans l’image de l’avant catastrophe a été
correctement identifiée comme étant un seul objet homogène. Ceci est justifié par la texture
uniforme qui caractérise la surface de la route mise à part quelques voitures éliminées lors de
la phase de l’analyse multiéchelle de l’image. Par contre, la surface de la route dans l’image
de l’après-catastrophe a été segmentée et affectée à différentes classes. La même remarque
s’applique aussi aux zones de végétation qui ont été attribuées à une seule classe dans le résultat
de la première segmentation et ont été sursegmentées dans l’image de l’après-événement vu la
différence d’exposition entre les deux images qui a ressorti de nouvelles textures dans la même
classe. Le résultat de l’application de l’étape de détection de changement est présenté dans
la figure 3.22k. Les zones libellées en rouge désignent les objets qui ont subi un changement
dû à la catastrophe ou à d’autres facteurs comme l’apparition de l’ombre ou les changements
dans les conditions d’acquisition. Ces changements sont généralement détectés sur la surface
de la route et dans les zones de végétation. Finalement, la figure 3.22l montre le résultat de la
détection des dommages sur la surface de la route. Les résultats obtenus attestent la robustesse
de notre approche aux changements dans les conditions d’acquisition vu que seulement la
partie endommagée de la surface de la route a été identifiée comme débris.
134

Évaluation des résultats obtenus

L’évaluation des résultats de la détection des dommages est basée sur la même métrique utilisée
dans l’évaluation des résultats de notre technique de détection de routes décrite dans la sous-
section 3.5.2. Le tableau 3.4 décrit les résultats obtenus par application des mesures de qualité
définies ci-dessus sur les deux images de test.

Tableau 3.4 Résultats obtenus par application de nos mesures de qualité

Complétude Exactitude Redondance

Site 1 0,81 0,86 0,04

Site 2 0,853 0,91 0,01

Nous pouvons constater à partir des valeurs de la complétude obtenues à partir du site 1 et 2
que le taux des zones endommagées correctement extraites est plus élevé pour le site 2 par
rapport au site 1. Ceci est expliqué par l’hétérogénéité de la surface de la route qui caractérise
le site 1, une hétérogénéité qui se traduit par un changement du couvert bitumineux de la route
et la présence de plusieurs artéfacts sur sa surface. Le site 2, par contre, présente une surface
lisse et plus homogène facilitant la segmentation de l’image de l’avant catastrophe et réduisant
le taux de fausses alarmes, comme nous pouvons le déduire à partir de la valeur de l’exactitude
0,91 comparée à 0,86 pour le site 1. En termes de redondance, les résultats obtenus pour le site
2 surpassent ceux associés au site 1 avec une valeur de 0,01 comparée à 0,04 pour le site 1.
Nous pouvons en conclure que le taux de fausses alarmes est plus élevé pour le site 1 et que le
taux des dégâts non détectés est aussi plus important pour le même site, ce qui justifie la valeur
élevée de la redondance directement en relation avec ces deux taux décrits ci-dessus.
135

a) site 1 : image avant b) site 1 : image après h) site 2 : image avant i) site 2 : image après

c) site 1 : différence d) site 1 : ratio moyen j) site 2 : différence k) site 2 : ratio moyen
moyenne (rayon = 3) (rayon = 3) moyenne (rayon = 3) (rayon = 3)

e) site 1 : divergence de f) site 1 : information l) site 2 : divergence de m) site 2 : information


Kullback-Leibler mutuelle de Kullback-Leibler mutuelle de
(rayon = 3) l’histogramme conjoint (rayon = 3) l’histogramme conjoint

g) site 1 : détection des n) site 2 : détection des


dommages (l’approche dommages (l’approche
proposée) proposée)

Figure 3.23 Comparaison de notre technique avec des approches existantes


136

Comparaison avec des approches existantes

Dans la méthodologie proposée, la phase de détection de changement joue un rôle crucial dans
la détection des dommages, puisque les débris cherchés sur la surface de la route sont par défi-
nition des régions de l’image qui ont subi un changement et qui sont affectées, en même temps,
à la classe des dommages. Nous allons dans ce paragraphe comparer les résultats de l’applica-
tion de l’étape dédiée pour la détection des changements de notre approche avec des approches
existantes dans la littérature. Comme nous nous intéressons en particulier aux changements
sur la surface de la route, nous avons utilisé l’étape de détection des routes comme prétraite-
ment pour ces techniques afin de limiter le champ de recherche et se focaliser sur notre objet
d’intérêt. Quatre algorithmes de détection de changement sont utilisés dans la comparaison des
résultats obtenus :

— La différence moyenne (DM) : principalement basé sur une soustraction pixel par pixel
des deux images Radke et al. (2005). Cette technique de détection de changement est
considérée parmi les méthodes les plus simples permettant d’identifier un changement
entre les deux images d’entrée. La différence entre deux images est formulée comme
suit :
Id (x, y) = I1 (x, y) − I2 (x, y) (3.35)

avec I1 et I2 deux images acquises à deux dates différentes t1 et t2 et Id est l’image ré-
sultante de la soustraction des deux images I1 et I2 . Comme toute méthode basée pixels,
cette technique est très sensible au bruit et nécessite une étape de recalage pour l’appli-
quer. Afin de réduire cette sensibilité au bruit, nous calculons la différence entre les deux
images à partir d’une fenêtre d’analyse de taille fixée, ce qui permet de réduire le bruit lors
du calcul de la différence en introduisant l’information sur le voisinage du pixel courant.
La différence moyenne est calculée comme suit :

Idm = µ1 I1 − µ2 I2 (3.36)
137

avec µ1 et µ2 qui représentent la valeur moyenne des intensités des pixels dans la fenêtre
f de rayon r calculée, respectivement, à partie des deux images I1 et I2 . Afin d’identifier
le changement, une opération de seuillage est par la suite appliquée.

— Le ratio moyen (RM) : basée aussi sur une comparaison pixellique des deux images, cette
technique repose sur une division des valeurs d’intensités des deux images afin d’identifier
les changements Radke et al. (2005). Le ratio de deux images est donné par la formule
suivante :

I1 (x, y)
Ir (x, y) = (3.37)
I2 (x, y)
 
Une forme normalisée du ratio moyen définie sur l’intervalle − π4 , π4 est donnée par la
formule suivante :

 
µ1 I1 π
Irm = arctan − (3.38)
µ2 I2 4

— La divergence de Kullback-Leibler : aussi connue sous le nom de l’entropie relative, la


divergence de Kullback & Leibler (1951) est une mesure de dissimilarité entre deux distri-
butions de probabilités. Définie dans une fenêtre d’analyse à partir de l’image, elle permet
de calculer la distance entre histogrammes normalisés des niveaux de gris représentés
par deux fonctions de densité de probabilité f1 et f2 locales associées à deux variables
aléatoires X1 et X2 et définie comme suit :

K(X1 , X2 ) = K(X1 |X2 ) + K(X2 |X1 ) (3.39)

avec
fXi (x)
Z
K(Xi , X j ) = log dx, i, j = 1, 2 (3.40)
R fX j (x)

— L’information mutuelle de l’histogramme conjoint (IMHC) : introduite pour calculer


la similarité entre deux images par Viola & Wells III (1997) et Maes et al. (1997), l’in-
formation mutuelle entre deux variables mesure la quantité d’information qu’une variable
138

contient d’une autre. L’information mutuelle entre deux variables A et B est définie par la
formule suivante :

I(A, B) = H(A) + H(B) − H(A, B) (3.41)

avec H(A) et H(B) désignent l’entropie associée aux deux variables A et B, et H(A, B)
représente leur entropie conjointe. Si les deux variables A et B représentent deux images,
elles sont considérées comme deux images recalées vis-à-vis de la théorie de l’informa-
tion mutuelle si I(A, B) est maximale. Dans ce cas, l’entropie et l’entropie conjointe sont
données par les formules suivantes :

H(A) = ∑ −PA (a)logPA (a) H(B) = ∑ −PB (b)logPB (b)


a b

H(A, B) = ∑ −PA,B (a, b)logPA,B (a, b)


a,b

avec PA (a) et PB (b) sont les fonctions de masse de la probabilité marginale et PA,B (a, b)
la fonction de masse de la probabilité jointe. L’information mutuelle mesure le degré
de dépendance entre A et B par mesure de la distance entre la distribution jointe et la
distribution associée pour le cas de l’indépendance complète. La probabilité des fonctions
de masse est donnée par :

PA (a) = ∑ PA,B (a, b) PB (b) = ∑ PA,B (a, b)


b a
h(a, b)
PA,B (a, b) =
∑ h(a, b)
a,b

avec h est l’histogramme conjoint de la paire d’images représenté par la matrice suivante :

 
h(0, 0) h(0, 1) ... h(0, N − 1)
 
h(1, N − 1) 
 
 h(1, 0) h(1, 1) ...
h=



 ... ... ... ... 
 
h(M − 1, 0) h(M − 1, 1) . . . h(M − 1, N − 1)
139

La figure 3.23 montre les résultats de l’application des méthodes décrites ci-dessus. Globale-
ment, les résultats obtenus à partir du site 1 sont meilleurs que ceux obtenus par application de
ces techniques sur le site 2, ceci est dû au changement dans les conditions d’acquisition entre
les images 3.23h et 3.23i. Nous pouvons constater son effet clairement sur l’image de l’avant
catastrophe du site 2. Les quatre techniques étaient en mesure d’extraire les débris sur la surface
de la route et de les identifier comme étant des zones de changement à partir des deux images
de l’avant et de l’après-catastrophe. La seule différence réside dans le taux de fausses alarmes
qui diffère d’une technique à une autre. Par exemple, le ratio entre les deux images montre une
grande sensibilité envers le bruit et le changement de contraste. Contrairement aux résultats
obtenus par application de l’information mutuelle de l’histogramme conjoint qui produit un
faible taux de fausses alarmes comparé aux autres techniques.

Tableau 3.5 Comparaison de notre méthode avec les approches existantes

Zone d’étude 1 Zone d’étude 2


Méthode
Compl. Exact. Redon. Compl. Exact. Redon.

Différence moyenne 0,72 0,85 0,3 0,73 0,8 0,25

Ratio moyen 0,83 0,71 0,35 0,721 0,65 0,3

Divergence de Kullback-Leibler 0,77 0,79 0,115 0,75 0,81 0,1

IM de l’histogramme conjoint 0,852 0,81 0,15 0,79 0,78 0,21

Approche proposée 0,8 0,86 0,1 0,831 0,88 0,11

Les résultats de la comparaison de notre technique dédiée pour la détection de changements


avec les quatre méthodes proposées dans la littérature montrent que notre technique donne de
très bonnes performances pour les deux sites d’étude. En termes de complétude, notre approche
surpasse les autres techniques avec une valeur de 0,831 comparée à 0,73, 0,721, 0,75 et 0,75
pour le site 2. Pour le site 1, seule la détection de changement basée sur l’information mutuelle
140

de l’histogramme conjoint donne une valeur supérieure à notre approche proposée avec une
valeur de 0,852 comparée à 0,8. Nous pouvons justifier cette baisse de la performance par la
complexité du site 1 et les erreurs originaires de la phase de segmentation multiéchelle. En
termes d’exactitude, notre approche produit le plus faible taux de fausses alarmes avec 0,88
pour le site 2, comparée à 0,8, 0,65, 0,81 et 0,78 pour les quatre autres approches existantes.
Un résultat un peu surprenant est obtenu par comparaison de notre approche à la différence
moyenne entre les deux images du site 1 en termes d’exactitude ; nous avons constaté que
la différence moyenne a permis d’obtenir des performances légèrement inférieures à celles
obtenues par application de notre technique. Une explication de ce résultat se traduit par le bon
choix du seuil fixé pour détecter le changement, nous pensons que les changements identifiés
sur la surface de la route se distinguent par une intensité radiométrique assez élevée comparés
à d’autres changements non pertinents. Finalement en termes de redondance, notre technique
offre la valeur la plus proche de 0 (la valeur optimale) pour les deux sites, ce qui prouve que
notre approche produit moins de fausses alarmes que les quatre approches existantes.

3.5.4 Discussion

Le premier point dans cette discussion concerne le choix des paramètres de l’algorithme. La sé-
lection des paramètres tels que la taille de l’élément structurant, le seuil fixé pour l’énergie des
beamlets, le seuil sur la taille des beamlets conservés après l’étape d’élagage et l’angle maxi-
mal toléré entre deux beamlets pour reconstruire le réseau routier et pour vérifier le parallélisme
ont une influence sur les résultats de l’algorithme proposé. L’algorithme a été conçu pour être
appliqué sur des images à très haute résolution avec différentes résolutions spatiales, d’où l’in-
térêt de la proposition d’une technique pour automatiser la sélection de ces paramètres. Pour le
choix du seuil associé à l’énergie des beamlets, nous avons déterminé que les deux seuils 0,6
et 0,7 donnent de très bons résultats pour plusieurs résolutions d’images. Le choix de la taille
de l’élément structurant utilisé dans l’opération de la dilatation dépend de la taille des struc-
tures que nous voulons éliminer, tels que les voitures ou les zones d’ombre. Pour le reste des
paramètres, nous proposons l’ajout d’une interface utilisateur, permettant au photo-interprète
141

de sélectionner une zone rectangulaire de la route comme échantillon. La connaissance des


dimensions de la route dans l’image satellite permet d’estimer la taille des beamlets à retenir
dans l’étape d’élagage, ainsi que la taille de la fenêtre d’analyse utilisée pour la reconstruc-
tion du réseau routier. L’utilisation de la fonction d’efficacité du récepteur (les courbes ROC)
Fawcett (2006) dans ce contexte est très intéressante. L’idée consiste à appliquer l’algorithme
sur différentes images caractérisées par une résolution spatiale variable, et tracer leurs courbes
ROC correspondantes. La stratégie de décision qui maximise la surface sous la courbe est re-
tenue. En nous basant sur cette représentation, nous pouvons choisir la combinaison optimale
des paramètres à partir de l’espace ROC.

La méthode d’extraction de routes élaborée dans le cadre de ce travail est robuste face aux
changements dans les conditions d’acquisition comme elle est fondée sur l’analyse de la tex-
ture des objets d’intérêt et non pas sur leur information radiométrique. En outre, l’analyse mul-
tiéchelle de l’image basée sur la transformée en beamlets permet d’identifier les routes quelles
que soient leur dimension ou la courbure qui caractérise leur forme. L’utilisation de l’opérateur
morphologique de dilatation permet de remplir les trous dans la surface de la route, provoqués
par la présence des voitures. Toutefois, lorsque nous avons appliqué l’algorithme sur certaines
zones de la ville de Port-au-Prince, nous avons fait face au problème d’extraction des routes en
présence d’occlusions. Vu les routes étroites de la ville et en présence d’ombre des bâtiments,
une portion de la route était occluse. L’augmentation de la fenêtre de recherche utilisée dans la
reconstruction des segments manquants de la route implique dans certains cas l’ajout d’arêtes
appartenant à d’autres objets dans le voisinage de la route, d’où l’intérêt de bien choisir la
taille de cette fenêtre afin d’éviter l’ajout de fausses alarmes. Un autre problème envisagé est la
présence d’un grand nombre de voitures dans la même région de la route. Nous avons constaté
que l’application de la technique de dilatation pour enlever ces voitures représente une solution
efficace dans certains cas, mais pas dans d’autres cas, en particulier lorsque les voitures sont
proches les unes des autres.
142

3.6 Conclusion

Dans ce chapitre, une nouvelle technique pour l’extraction des dommages des routes lors d’une
catastrophe majeure est proposée. L’approche décrite se décompose principalement en deux
phases : 1- une première étape d’extraction du réseau routier est d’abord appliquée sur les deux
images d’entrée dans le but d’extraire la surface de la route et de réduire l’espace de recherche,
2- une deuxième étape de détection des dommages qui consiste à détecter les changements per-
tinents causés par la catastrophe en se basant sur la classification des descripteurs de textures
extraits à partir de différentes échelles de résolution est ensuite réalisée. Une étude quantitative
et qualitative des résultats obtenus par application de notre méthode sur des images acquises
lors du tremblement de terre d’Haïti montre la précision et l’efficacité de notre méthode. L’ex-
périmentation a été menée sur des images acquises après d’un tremblement de terre, mais la
généralisation de la méthode proposée pour couvrir d’autres types de catastrophes comme les
inondations ou les glissements de terrain est possible, il suffit d’extraire une zone inondée, par
exemple, et l’utiliser comme échantillon de la classe des dommages dans la phase de classifi-
cation. Dans cette thèse, nous nous contentons sur l’identification des dommages des routes,
sans nous attaquer au problème d’évaluation des dégâts causés par la catastrophe, comme cela
représente un problème compliqué. Mais nous envisageons la possibilité de s’attarder dans nos
travaux futurs à ce problème vu son importance dans l’automatisation du processus de gestion
des catastrophes majeures.
CHAPITRE 4

IDENTIFICATION DES RIVIÈRES À PARTIR DES IMAGES RADAR POUR L’AIDE


À LA GESTION DES INONDATIONS

4.1 Introduction

L’extraction de masses d’eau en utilisant les images satellites est d’une grande importance en
raison de son utilité dans plusieurs applications telles que la planification de l’utilisation des
sols et des eaux de même que la gestion et le suivi des inondations. Parmi la large gamme de
capteurs en orbite autour de la Terre, le radar à synthèse d’ouverture (RSO) est un outil très
efficace dans ce contexte d’application en raison de sa robustesse face aux conditions météo-
rologiques défavorables et ses capacités de pénétration des nuages. Ce chapitre présente une
nouvelle méthode pour l’extraction des zones inondées à partir des images à très haute ré-
solution RSO principalement basée sur la combinaison d’une mesure de texture locale et la
connaissance globale associée à la forme de l’objet d’intérêt. Une mesure de la texture locale
est d’abord calculée à chaque pixel de l’image pour extraire les surfaces homogènes contenues
dans l’image, puis un opérateur de morphologie mathématique est appliqué pour éliminer le
bruit généré par le chatoiement caractérisant les images RSO. Par la suite, la surface occupée
par l’objet d’intérêt est comparée à la surface associée au plus petit rectangle qui entoure cet
objet, afin de séparer les rivières des lacs dans l’image. Et finalement, une fusion au niveau des
descripteurs est utilisée dans le but d’identifier les zones inondées par la détection des chan-
gements entre les images de l’avant- et l’après-désastre basée sur la logique floue. L’approche
proposée a été testée sur des images RSO acquises par le satellite RADARSAT-2 à partir de
nombreuses régions du Canada. Nos résultats expérimentaux démontrent que l’approche pro-
posée est robuste et efficace.
144

4.2 Les images RSO : concepts de base et caractéristiques

4.2.1 Fondement physique des images RSO

La polarisation d’une onde

Principalement basée sur la technologie radar, la polarimétrie radar est fondée sur les mêmes
propriétés caractérisant un champ électrique dans le plan de propagation d’une onde électroma-
gnétique. Elle décrit, en fonction du temps, le lieu de l’extrémité du vecteur champ électrique
~ dans un plan orthogonal au vecteur de propagation ~n. Ce lieu peut représenter une ellipse
E(t)
(polarisation elliptique), ou dans certains cas un segment de droite (polarisation linéaire) ou un
cercle (polarisation circulaire).

Figure 4.1 Cas d’une polarisation elliptique, tirée de la thèse de Comblet (2005)

La figure 4.1 décrit le cas d’une polarisation elliptique, avec Ψ ∈ [0°, 180°] représente l’angle
entre l’axe horizontale et le grand axe de l’ellipse décrit par l’onde polarisée, et χ ∈ [−45°, 45°]
décrit l’angle d’ellipticité, dont la tangente est le rapport entre le petit axe de l’ellipse et son
grand axe. Par conséquent, la polarisation d’une onde est parfaitement définie par la donnée du
couple (Ψ, χ), En supposant que l’onde plane se propage selon l’axe (Oz), les composantes du
145

champ électrique s’écrivent sous la forme suivante :


   
E (z,t) |E | cos(ωt − kz + δx )
 x   x 
~E(z,t) =  Ey (z,t)  =  |Ey | cos(ωt − kz + δ y) 
  
 (4.1)
   
Ez (z,t) 0

avec ω est la pulsation de l’onde, k est le nombre d’onde, et δx et δy sont les déphasages à
l’origine. δx et δy sont reliés à (Ψ, χ) par l’intermédiaire des paramètres ∆δ = δy − δx et des
relations :
2|Ex ||Ey |
tan(2Ψ) = |Ex |2 −|Ey |2
cos(∆δ )
2|Ex ||Ey |
(4.2)
sin(2χ) = |Ex |2 +|Ey |2
sin(∆δ )

Dans le domaine de l’observation radar, les polarisations linéaires sont utilisées. Deux cas
particuliers sont à distinguer :

— La polarisation H, pour laquelle le champ ~E est parallèle à la surface éclairée (Ψ = 0°, χ =


0°).

— La polarisation V, pour laquelle le champ ~E est dans un plan orthogonal à la surface


éclairée (Ψ = 90°, χ = 0°).

Un radar à synthèse d’ouverture est généralement conçu pour émettre et recevoir des signaux
polarisés horizontalement ou verticalement. Le Satellite Japonais d’observation de la Terre
JERS 1, par exemple, utilise des signaux polarisés horizontalement. Cependant, PALSAR et
RADARSAT-2 peuvent transmettre et recevoir les deux signaux polarisés horizontalement ou
verticalement. D’une manière générale, quatre combinaisons de polarisation de transmission et
de réception sont à distinguer :

— HH - transmission et réception horizontales.

— VV - transmission et réception verticales.

— HV - transmission horizontale et réception verticale.

— VH - transmission verticale et réception horizontale.


146

Rétrodiffusion et rugosité

Afin de pouvoir décrire les différentes formes d’interaction entre le signal radar et les surfaces
des objets, nous définissons tout d’abord le coefficient de rétrodiffusion par la puissance avec
laquelle les différents éléments de la scène réfléchissent l’onde incidente ; il correspond aussi
au pourcentage d’énergie incidente renvoyée vers le capteur.

La rugosité d’une surface est définie à son tour en fonction de la fréquence micro-onde, l’onde
d’incidence et les caractéristiques physiques de la surface. Elle traduit la capacité d’une surface
à renvoyer de l’énergie vers le capteur. D’après le critère de Rayleigh Ulaby et al. (1982), une
surface est considérée lisse si :
λ
∆h < (4.3)
8 cos θ
avec h est l’hauteur du capteur, λ est la longueur d’onde, et θ est l’angle d’incidence. La
modification de ce critère définit les niveaux de rugosité d’une surface qui varient de lisse à
rugueux. Une surface est dite rugueuse si :

λ
∆h > (4.4)
4, 4 sin θ

La figure 4.2 illustre les quatre mécanismes de rétrodiffusion de cibles au sol définis par :

— La réflexion spéculaire est observée lorsque le rayon incident crée un rayon réfléchi
unique. Dans ce cas, l’énergie du rayon incident se retrouve totalement dans le rayon
réfléchi, mais dans certains cas une partie de l’énergie peut être absorbée par la surface
de l’objet. Les surfaces présentant ces caractéristiques dans les images radar sont très
sombres par rapport aux autres surfaces.

— Les multiples rebonds sont obtenus lorsque le rayon incident est réfléchi par deux ou plu-
sieurs surfaces avant de parvenir au capteur. Les surfaces présentant ces caractéristiques
dans les images radar sont très brillantes par rapport aux autres surfaces.
147

— La rétrodiffusion par des surfaces rugueuses est observée lorsque le rayon incident est
réfléchi dans plusieurs directions à cause de la forme aléatoire de l’objet. Dans ce cas, une
partie seulement de l’onde est renvoyée vers le capteur.

— La rétrodiffusion de volume est constituée de réflexions provenant des différentes com-


posantes à l’intérieur du volume. Par exemple, dans une forêt, la diffusion peut provenir
des feuilles au sommet des arbres, ainsi que des troncs et du sol.

a) Réflexion spéculaire (par b) Double réflexion


ex. eau)

c) Rétrodiffusion par une d) Rétrodiffusion


surface rugueuse de volume

Figure 4.2 Les quatre mécanismes de rétrodiffusion

4.2.2 Caractéristiques des images RSO

Caractéristiques radiométriques

Une bonne compréhension des caractéristiques radiométriques des capteurs radar à synthèse
d’ouverture passe forcément par une bonne interprétation des différents termes de l’équation
de propagation du radar dite équation du radar. Cette équation décrit la densité de puissance
rayonnée par l’antenne à une distance R du radar pour une puissance crête Pe émise et est
donnée par la formule suivante :
148

G2 λ 2
Pr = Pe σ (4.5)
(4π)3 R4

avec Pr et Pe sont, respectivement, la puissance du signal reçu et celle du signal émis, exprimée
en Watt (W ) ; G est le gain de l’antenne, exprimé en décibel (dB). Ce gain est dû à la concen-
tration de la puissance émise dans une seule direction ; λ est la longueur d’onde, exprimée en
mètre (m) et R est la portée du radar, exprimée en mètre (m). Dans cette équation, le coefficient
σ indique la capacité de la cible de diffuser le rayonnement incident vers le radar, exprimé en
mètre carré (m2 ).

Idéalement, l’équation du radar permet de déterminer le coefficient de rétrodiffsuion σ qui


caractérise la nature de la surface. Mais, en réalité, l’équation 4.5 ne permet pas de retrouver
cette valeur directement à cause du bruit qui caractérise les images radar. Ce bruit, aussi appelé
chatoiement (speckle), est le résultat des interférences entre les ondes réfléchies par tous les
diffuseurs élémentaires à l’intérieur d’une cellule de résolution. Son effet principal est d’induire
une très forte dispersion des valeurs de la radiométrie d’une zone homogène de la scène rendant
son interprétation (visuelle ou numérique) plus difficile.

Caractéristiques géométriques

Contrairement aux capteurs optiques, les capteurs radar sont plus influencés par les distorsions
géométriques que par celles d’origine radiométrique. Ces distorsions géométriques sont princi-
palement originaires de la vision latérale du capteur radar (figure 4.3) et le temps d’aller-retour
que nécessite le signal pour pouvoir cartographier une région sur la surface de la Terre. Ces
deux facteurs affectent la position des pixels lors de la phase de formation de l’image radar et
génèrent des erreurs géométriques. Une étape de prétraitement est souvent nécessaire afin de
corriger ces distorsions en effectuant une reprojection de l’image résultante, tout en considé-
rant l’angle d’acquisition de ces images et les effets de la rotation de la Terre. Les distorsions
qui touchent généralement les capteurs radar sont sous trois formes : le raccourcissement, le
repliement et la dilation, définies comme suit :
149

Figure 4.3 Mode d’acquisition latérale du capteur RSO

— Le raccourcissement : caractérisé par une compression des éléments topographiques du


terrain. Nous pouvons observer clairement les effets du raccourcissement sur les versants
faisant face au radar et dont la pente locale est relativement faible et inférieure à l’angle
d’incidence.

— Le repliement : est le cas extrême du raccourcissement. Nous pouvons observer claire-


ment les effets du repliement sur les versants faisant face au radar, mais dont la pente est
supérieure à l’angle d’incidence.

— La dilatation : caractérisée par une distance horizontale entre le sommet et le pied d’un
versant qui apparaîtra plus longue sur une image radar en portée oblique.

4.2.3 Différents types de données RSO

Plusieurs paramètres peuvent intervenir dans la création des images radar comme la bande de
fréquence utilisée, la polarisation du rayonnement et l’angle d’incidence définie par l’angle
que fait la direction de propagation de l’onde incidente avec la normale. Le choix de ces para-
mètres est fortement dépendant du domaine d’application et de la nature des surfaces à étudier.
Généralement, en se basant sur ces paramètres, les données RSO peuvent être classées en cinq
types de données qui peuvent être générés en utilisant des capteurs RSO :
150

— Les données polarimétriques permettent d’identifier les objets ou les surfaces à partir de
leurs propriétés diffusantes. En effet toute cible dans l’image radar disperse l’énergie reçue
d’une manière qui lui est propre et la polarimétrie offre des outils efficaces permettant de
caractériser les mécanismes de diffusion mis en jeu et d’en déduire la nature de chaque
cible. L’utilisation de ces données se traduit par l’exploitation conjointe des 4 images
complexes de la même scène : HH : émission et réception en polarisation horizontale,
VV : émission et réception en polarisation verticale , VH : émission verticale et réception
horizontale et HV émission horizontale et réception verticale, dans l’analyse de la scène
couverte par la fauchée du capteur radar. Ces données permettent de résoudre certains
problèmes de levé cartographique comme l’extraction de l’eau, le sol humide et la glace.
Aussi plusieurs travaux dans la littérature se servent de ces données pour réaliser une
classification RSO polarimétrique Chen et al. (2003).

— Les données multi-bandes permettent d’identifier les objets ou les surfaces à partir de
leurs propriétés d’interaction avec l’énergie radar. L’utilisation de ces données se traduit
par l’exploitation conjointe des images radar de la même scène acquises dans des bandes
de fréquences différentes : P (133 - 76,9cm), L (76,9 - 19,3cm), S (19,3 - 7,1cm), C (7,1
- 5,2cm), X (5,2 - 2,7cm), Ku (2,7 - 1,36cm) et Ka (1,36 - 0,83cm) pour analyser la scène
d’étude. Ces ondes électromagnétiques ont des caractéristiques différentes, par exemple,
la bande C est mois sensible à la pluie que la bande Ku , ce qui justifie son utilisation
dans la cartographie de zones inondées. D’une façon générale, les travaux qui traitent
ces données cherchent à définir la nature d’un objet donné en se basant sur sa réponse à
diverses bandes hyperfréquences Liu et al. (2015).

— Les données multi-incidences permettent de générer un modèle 3D d’une scène donnée


en se basant sur deux ou plusieurs images acquises à différents angles d’incidence. L’in-
terférométrie radar est l’une des techniques les plus connues qui se base sur l’acquisition
de deux images dans des conditions angulaires différentes, mais très proches. Le dépha-
sage entre les deux images est traité afin d’obtenir des renseignements sur la hauteur et
(ou) le déplacement de la surface de la Terre Yu et al. (2007).
151

— Les données multi-temporelles permettent de suivre l’évolution d’un même objet à par-
tir de plusieurs images radar en faisant varier l’aspect temps. Ces données trouvent leur
intérêt dans plusieurs champs d’applications parmi lesquelles nous citons : la détection de
changement et la génération des cartes d’occupation du sol, détection et suivi des objets
dans l’image radar comme les bateaux ou les navires, gestion des catastrophes et évalua-
tion des dommages Jiang et al. (2007).

— Les données issues d’images multi-vues consistent à diviser le faisceau radar en plu-
sieurs sous-faisceaux plus étroits. Chaque sous-faisceau offre une vue de la scène éclai-
rée, et l’image de sortie finale est obtenue en faisant la moyenne des différentes vues.
Cette technique est couramment utilisée dans la formation des images RSO pour réduire
le chatoiement Lopez-Martinez & Pottier (2007).

4.3 Analyse de la texture dans les images RSO

Malgré le besoin réel de trouver une définition universelle de la notion de texture, il n’existe pas
une définition claire et précise de l’information texturale dans une image. Dire que la texture
est l’analyse statistique de la relation spatiale ente pixels dans l’image est correct, mais peu
précis. La notion de texture dans les images RSO est beaucoup plus ambiguë que celle définie
pour les images optiques. Cela est dû au nombre réduit de bandes dans les images radar et
la présence du chatoiement qui perturbe la régularité dans la texture et rend par conséquent
l’interprétation de la texture dans ces images une tâche compliquée.

4.3.1 Les statistiques du premier ordre

Nombreuses sont les mesures statistiques qui peuvent être directement extraites à partir d’une
image afin de caractériser la texture Cocquerez & Philipp-Foliguet (1995). La moyenne, la
variance, la dissymétrie et l’aplatissement sont les mesures du premier ordre les plus utilisées
dans la littérature. Malgré la simplicité du calcul de ces mesures à partir de l’image, leurs
résultats restent très limités vu qu’elles ne tiennent compte que de l’information radiométrique
et néglige les relations spatiales entre pixels.
152

4.3.2 Les statistiques du second ordre et matrice de cooccurrence

Considérée parmi les descripteurs de texture les plus utilisés pour caractériser l’information
texturale, la matrice de cooccurrence mesure la probabilité d’apparition des paires de valeurs
de pixels situés à une certaine distance dans l’image. Généralement utilisée pour extraire des
paramètres qui caractérisent la texture comme l’énergie, la variance, la corrélation ou encore
l’entropie Haralick et al. (1973) et Haralick (1979), elle permet d’estimer des statistiques de
second ordre à partir d’une fenêtre d’analyse. L’analyse de la texture en utilisant la matrice de
cooccurrence se base sur le calcul de la probabilité P(i, j, δ , θ ) qui représente le nombre de fois
où un pixel de niveau de gris i apparaît à une distance δ d’un pixel de niveau de gris j et selon
l’orientation θ . Suivant Barber & LeDrew (1991), cette mesure de probabilité peut être définie
comme suit :
Pr(x) = {Ci, j |δ , θ } (4.6)

avec Ci, j la matrice de cooccurrence pour une image de niveaux de gris tel que :

Pi, j
Ci, j = (4.7)
∑G
i, j=0 Pi, j

avec Pi, j le nombre d’occurrences des niveaux de gris gi et g j et G est le maximum de niveaux
de gris. Comme le montre la figure 4.4, les directions généralement utilisées dans le calcul

Figure 4.4 Les différentes directions


possibles pour l’analyse de texture
153

de la matrice de cooccurrence sont 0, 45, 90 et 135 degrés ; par exemple, les pixels les plus
proches de ’x’ selon la direction θ = 45 degrés sont les pixels 2 et 6. Un exemple de calcul de
la matrice de cooccurrence sur une image 4 × 4 composée de 4 niveaux de gris (l = 0, 1, 2, 3)
donnée par :

0 0 0 1
0 0 1 1
0 2 2 3
2 2 3 3

Les matrices de cooccurrence associées sont donc de dimension 4 et valent :


   
3 2 1 0 3 0 0 0
   
   
 0 1 0 0   0 1 0 0 
P(i, j, 0°, 1) = 


 P(i, j, 45°, 1) = 



 0 0 2 2   0 2 2 0 
   
0 0 0 1 0 0 0 1

   
3 0 0 0 1 0 0 0
   
   
 1 1 0 0   2 0 0 0 
P(i, j, 90°, 1) = 


 P(i, j, 135°, 1) = 



 2 1 1 0   3 0 0 0 
   
0 0 1 1 0 1 2 0

4.3.3 Le spectre de puissance

Il existe plusieurs façons permettant de représenter l’information contenue dans une image afin
de mettre l’accent sur certains aspects en particulier. En général, l’information contenue dans
une image peut être représentée dans le domaine spatial, le domaine fréquentiel ou par com-
binaison des deux domaines. Le bruit contenu dans une image est principalement causé par
les conditions d’acquisitions ou provient du processus de formation des images et a tendance
à modifier la variation spatiale locale de l’intensité. Une des méthodes les plus utilisées pour
154

filtrer ce bruit consiste à représenter l’image dans le domaine fréquentiel, ce qui permet de qua-
lifier les changements d’intensité et de séparer les hautes fréquences contenues dans l’image
(contours, bruit) des basses fréquences. De ce fait, les mesures calculées dans le domaine fré-
quentiel sont moins sensibles au bruit présent dans l’image. Dans ce contexte, la transformée
de Fourier (1822) est considérée comme l’un des outils les plus puissants en analyse d’image
permettant de passer d’une représentation de l’image dans le domaine spatial à sa représenta-
tion dans le domaine fréquentiel. Pour une image de taille N par N, sa transformée de Fourier
discrète s’écrit :
1 N−1 N−1
F(u, v) = ∑ ∑ f (x, y)exp(− j2π(ux + vy)/N) (4.8)
N 2 x=0 x=0

et sa transformée de Fourier inverse est définie par :

N−1 N−1
f (x, y) = ∑ ∑ F(u, v)exp( j2π(ux + vy)/N) (4.9)
u=0 v=0

À partir de ces deux équations, nous définissons le spectre de puissance d’une image comme
étant la transformée de Fourier de la fonction d’autocorrélation. En d’autres termes, le spectre
de puissance est tout simplement |F(u, v)|2 = F(u, v)F ∗ (u, v), avec ∗ le conjugué complexe
de F. Les importants pics dans le spectre de puissance indiquent la direction dominante de la
texture, tandis que l’emplacement de ces pics donne leurs périodes spatiales. L’énergie totale
de l’image excluant le centre de la transformée est donnée par la formule suivante :

N/2 N/2
φ= ∑ ∑ |F(u, v)|2 (u, v 6= 0) (4.10)
u=−N/2 v=−N/2

D’autres mesures de texture peuvent être extraites en sommant l’énergie normalisée en fonction
d’une plage définie de sa fonction radiale (r) sur la plage entière de sa composante orientée (α) :

Z π Z r2
1
φr = |F(r, α)|2 drdα (4.11)
φ α=0 r=r1
155

4.3.4 Analyse multiéchelle de la texture

Inspirée du système de vision humaine, cette famille d’approche se base dans l’analyse de la
texture sur l’hypothèse que chaque objet dans une image appartient à une échelle de résolu-
tion propre. Extraire l’information texturale à partir d’un objet revient à déterminer l’échelle la
plus adéquate pour analyser la texture qui le caractérise. L’analyse multiéchelle d’une image
est généralement réalisée en appliquant une série de filtres sur l’image d’entrée afin de la dé-
composer en une famille d’images dérivées de l’image d’origine en éliminant à chaque stade
l’information non utile et en gardant en même temps une information minimale qui représente
la texture de l’objet.

Filtre de Gabor

L’analyse de la texture par application de la transformée de Fourrier est généralement utilisée


pour caractériser la texture globale de l’image, mais en raison de sa nature non bornée, elle
n’est pas capable de détecter les singularités et les variations locales de la texture. En d’autres
termes, cette transformation permet une analyse de l’image dans le domaine spatial ou fré-
quentiel, mais pas dans les deux à la fois, ce qui représente une limitation. Pour remédier à ce
problème, la transformée de Fourrier à “fenêtre” ou la transformée de Gabor (1946) est souvent
employée pour analyser la texture. L’idée consiste à décomposer l’image en multiples bandes
de fréquences, intervalle par intervalle, pour limiter la plage spatiale analysée. Pour un signal
bidimensionnel modulé par une fonction sinusoïdale plane, le filtre de Gabor est défini par
l’expression suivante :

1 x2 y2
g(x, y) = exp(− 2 − 2 ) × exp( j2π( fx0 x + fy0 y)) (4.12)
σx σy 2π 2σx 2σy

avec σx et σy représentent les composantes de l’écart type de la gaussienne suivant les axes x
et y et fx0 est la fréquence centrale du filtre.
156

Les ondelettes

Comme discuté dans le chapitre précédent, les ondelettes sont des outils très puissants pour
l’analyse multiéchelle de la texture. Au même titre que les images optiques, les ondelettes ont
été utilisées avec succès pour l’analyse de la texture dans les images radar Gupta & Gupta
(2007) et Linders (2000). En se basant sur la capacité de la transformée en ondelettes à séparer
les hautes fréquences du signal des basses fréquences, la transformée en ondelettes permet de
réduire considérablement les effets du chatoiement dans différentes échelles de résolution Fou-
cher (2001). Une étude expérimentale des performances des descripteurs de texture extraits
à partir des coefficients d’ondelettes, décrite dans Linders (2000), montre une bonne perfor-
mance de cette famille d’approche mutliéchelle appliquée aux images RSO. La figure suivante,
extraite à partir du travail de Gupta & Gupta (2007), montre l’intérêt de l’utilisation de la
transformée en ondelettes dans l’extraction des caractéristiques texturals de l’image RSO :

a) Image bruitée b) Application des ondelettes c) Extraction de la route en


se basant sur sa texture

Figure 4.5 Résultat de l’application de la transformée en ondelettes sur une image radar,
tiré de Gupta & Gupta (2007)
157

4.4 Extraction des rivières à partir des images radar

4.4.1 La méthode proposée

Vue d’ensemble

Afin de justifier le choix de la méthodologie adoptée, nous voudrions tout d’abord rappeler que
l’objectif de ce travail est de proposer une nouvelle approche pour l’extraction des rivières à
partir d’images RSO en examinant d’abord les limites des approches proposées dans la littéra-
ture. Le problème principal des techniques existantes est lié à la présence du chatoiement qui
caractérise les images radar, et qui représente un véritable défi empêchant l’analyse de l’image
et l’extraction de l’ensemble de descripteurs qui représentent les propriétés discriminantes de
l’objet cible. Pour surmonter ce problème, une étape de prétraitement est souvent nécessaire vi-
sant à réduire les effets de ce bruit par application de filtres passe-bas tels que le filtre de Frost
et al. (1982) ou celui proposé par Lee (1980). Le chatoiement apparaissant dans les images
RSO est dû à l’interférence des ondes réfléchies par les nombreux diffuseurs élémentaires au
sein d’une cellule de résolution. Lorsque le chatoiement est dit être pleinement développé (à
savoir la réponse de nombreux diffuseurs aléatoires qui se chevauchent), le modèle multipli-
catif suivant devient valide σ = √µ pour une image à L vues, où l’écart type de l’intensité σ
L
est fonction de la moyenne µ. Dans le cas des surfaces d’eau, la réflexion spéculaire devrait
être dominante à moins que la surface devienne rugueuse en raison de vents locaux, ce qui ex-
plique leur réponse radiométrique sombre et leur texture généralement homogène. Dans notre
cas, le processus d’extraction des rivières proposé est basé principalement sur l’homogénéité
de la surface de l’eau qui le distingue des autres objets dans l’image radar. L’homogénéité peut
être considérée comme le meilleur descripteur pour caractériser des surfaces d’eau, même si
d’autres objets tels que les routes ou les bâtiments peuvent avoir une forme similaire locale-
ment, leurs surfaces homogènes ne sont pas assez importantes pour être identifiées comme étant
des objets homogènes à des échelles grossières. Ils sont également caractérisés par une forte
158

réponse de chatoiement en raison des effets de diffusion de multiples surfaces, une réponse non
visible dans le cas des rivières.

Figure 4.6 Schéma général de l’approche proposée

Par conséquent, la première étape de l’algorithme que nous proposons pour résoudre le pro-
blème d’extraction des rivières, telle que représentée dans la figure 4.6, consiste à appliquer la
mesure de texture Structural Feature Set (SFS) pour extraire les zones homogènes à partir de
l’image d’entrée. Nous exploitons particulièrement sa variante (Standard Deviation SD) basée
sur le calcul de l’écart-type et dédiée pour l’identification des formes étroites et allongées. Cette
mesure de texture réalise une classification pixellique, donc elle produit une valeur d’homogé-
néité associée à chaque pixel de l’image. Cependant, son calcul à partir d’une fenêtre d’analyse
ajoute plus de robustesse à cette mesure et diminue l’influence du chatoiement sur le calcul de
l’homogénéité. La deuxième étape de l’algorithme est conçue pour éliminer les fausses alarmes
en appliquant un opérateur d’ouverture morphologique sous la forme de chemins pour suppri-
mer les objets d’une longueur inférieure à un seuil donné. L’avantage d’utiliser cette famille
d’éléments structurants réside dans le fait qu’elle est en mesure d’éliminer les formes non li-
néaires ainsi que les petites régions homogènes retenues par la première étape. En raison de la
présence de plusieurs objets qui peuvent occlure des portions de la rivière comme les ponts ou
les barrages, une troisième étape est ensuite appliquée dans le but de connecter les segments
adjacents appartenant à la même rivière, en vérifiant la colinéarité des segments et en prenant
en compte, simultanément, les résultats fournis par un algorithme de détection de contours.
Cette étape joue également un rôle important dans l’analyse des objets dans la phase suivante,
car elle facilite l’interprétation de leur forme globale. La dernière étape sera dédiée au filtrage
des lacs comme ils ont une réponse d’homogénéité similaire à celle des rivières.
159

Figure 4.7 L’image RSO de la rivière Jacques-Cartier utilisée en


entrée (L’échelle approximative de la figure est 1 : 40 000 et la
taille de la région d’intérêt est 7.5 × 5.5 km2 )

Une comparaison entre la surface formée par le plus petit rectangle englobant l’objet avec la
surface de l’objet d’intérêt permet de distinguer les rivières des autres structures dans l’image.
Une valeur de ce ratio proche de 1 caractérise d’autres objets homogènes de forme droite, tandis
qu’une valeur strictement supérieure à 1 de ce rapport se réfère aux rivières caractérisées par
des fortes variations locales dans leur structure. Ce processus est décrit étape par étape dans
les paragraphes suivants, et le résultat de son application sur l’image représentée dans la figure
4.7 est montré. Cette image couvre une partie de la rivière Jacques-Cartier située à environ
39 kilomètres au nord de la ville de Québec, acquise par le satellite RADARSAT-2 (6 mètres
de résolution) en juin 2012 et en utilisant le mode fine quad-polarisation enregistrée dans un
format complexe à visée simple (single-look complex SLC).

Identification des objets homogènes basée sur l’analyse de la texture

Le problème d’extraction des rivières à partir d’images RSO présente plusieurs similitudes
avec le problème d’identification du réseau routier à partir d’images optiques à très haute ré-
solution spatiale. Plusieurs techniques de la littérature ont été appliquées avec succès aux deux
160

problématiques en tenant compte des particularités des images radar, en particulier la présence
du chatoiement. Dans Sghaier & Lepage (2016) et Sghaier et al. (2014), nous avons appliqué
avec succès le descripteur de texture SFS-SD pour identifier, dans un premier temps, les zones
homogènes à partir des images optiques et pour extraire, dans un second temps, le réseau rou-
tier à partir de ces régions homogènes. Dans le but de résoudre notre problème, nous allons
appliquer une classification pixellique basée sur la même mesure de texture pour identifier les
objets homogènes, étroits et allongés. Ce descripteur a montré de très bonnes performances
appliqué aux images optiques caractérisées par la présence de divers artéfacts découlant de
l’utilisation de la haute résolution spatiale et de la variabilité de l’environnement urbain. Nous
comptons identifier des zones homogènes qui caractérisent les surfaces d’eau tout en négli-
geant les petites variations du chatoiement en calculant l’indice d’homogénéité à partir d’une
fenêtre d’analyse.

Figure 4.8 Illustration du concept des lignes de direction

Le Structural Feature Set (SFS), tel que décrit dans Liangpei et al. (2006) et Xin et al. (2007),
est un ensemble de mesures de texture utilisées pour extraire les caractéristiques statistiques
de l’histogramme de lignes directionnelles. Cette technique est utilisée pour détecter les objets
homogènes et consiste à identifier un ensemble de lignes droites symétriques autour d’un pixel
central. Quelques exemples de lignes directionnelles sont montrés dans la figure 4.8, avec les
différents niveaux de gris qui désignent des lignes directionnelles associées à différentes di-
rections données. Nous introduisons, dans ce qui suit, les concepts de base utilisés pour définir
ces mesures : nous définissons tout d’abord les lignes directionnelles comme étant un ensemble
de lignes également espacées par rapport à un pixel central. Pour une direction donnée, la dif-
161

férence radiométrique entre un pixel appartenant à la fenêtre d’analyse et le pixel central est
mesurée afin de déterminer si ce pixel est situé dans une zone homogène autour du pixel central.
Cette mesure d’homogénéité est définie comme suit :

PHi (s, c) = |p(s) − p(c)| (4.13)

avec PHi (s, c) est la mesure d’homogénéité associée à la ième direction entre le pixel central
et ses pixels environnants, p(s) et p(c) représentent les valeurs radiométriques du pixel en-
vironnant et le pixel central, respectivement. La ième ligne directionnelle est étendue si les
conditions suivantes sont remplies (le choix des valeurs des deux seuils T1 et T2 est discuté
dans la section discussion de ce chapitre) :

— PHi est inférieur à un seuil fixé T1 .

— Le nombre total de lignes directionnelles est inférieur à un seuil T2 .

Ces deux paramètres sont liés à la disposition spatiale et la forme des objets dans l’image. T1
est défini comme étant le seuil d’homogénéité, et il est lié à la variabilité radiométrique dans
la zone d’intérêt, et T2 est défini comme étant la longueur maximale tolérée pour une ligne
directionnelle, et est lié à la taille de la zone d’analyse. Ensuite, nous définissons la longueur
de toutes les lignes directionnelles, pour un pixel donné, par l’équation suivante :

q
di = (me1 − me2 )2 + (ne1 − ne2 )2 (4.14)

dans laquelle (me1 , ne1 ) représentent la ligne et la colonne du pixel à une extrémité, et (me2 , ne2 )
représentent la ligne et la colonne, respectivement, du pixel à l’autre extrémité de la droite.
Nous pouvons ainsi définir l’histogramme de lignes directionnelles associé à un pixel central
par :
H(c) : {c ∈ I|[d1 (c), ..., di (c), ..., dD (c)]} (4.15)

avec I représente l’image d’entrée, c le pixel central et D l’ensemble de toutes les lignes di-
rectionnelles. La mesure de SFS a été associée à six mesures de texture calculées à partir d’un
162

histogramme comme défini dans le travail de Xin et al. (2007). Dans notre cas, nous nous inté-
ressons seulement à l’écart-type (SD), comme il est très approprié pour la description des objets
rectilignes, étroits et allongés dans une image, comme les rivières et les routes. Le SFS-SD est
illustré par la formule suivante :
s
D
1
SFS-SD =
D−1 ∑ (di(c) − PSI)2 (4.16)
i=1

où SD représente l’écart-type calculé à partir de l’histogramme de lignes directionnelles, et PSI


représente la valeur moyenne de l’histogramme, définie comme suit :

∑D
i=1 di (c)
PSI = (4.17)
D

Nous voudrons mentionner que la mesure de texture que nous adoptons favorise les structures
étroites, allongées et localement rectilignes qui correspondent à de nombreux objets dans les
images satellites, tels que les routes, les rivières, les zones agricoles et les grands lacs. La
distinction des rivières parmi ces objets sera abordée dans la prochaine phase.

Figure 4.9 Application de la mesure de texture


SFS-SD sur l’image d’entrée
163

La figure 4.9 illustre le résultat de l’application du descripteur de texture SFS-SD sur l’image
d’entrée. Comme prévu, les zones homogènes dans l’image RSO apparaissent plus brillantes
que celles non homogènes. Nous notons aussi que certains petits objets avec une homogénéité
relativement locale sont également conservés ; ces régions qui ne font pas partie de la structure
de la rivière seront supprimées dans l’étape suivante.

Élimination du bruit

Les différentes portions homogènes appartenant à la rivière sont visuellement apparentes dans
le résultat obtenu par application de la première étape. Nous notons également la présence
d’autres objets qui ont une texture similaire, tels que les lacs, d’autres artéfacts de petite taille
et le bruit. Afin de pouvoir supprimer les objets non pertinents de l’image, nous allons appli-
quer un algorithme de débruitage d’image basé sur la morphologie mathématique qui permet de
filtrer l’information non pertinente tout en conservant la structure recherchée de l’objet d’inté-
rêt. Le défi principal confronté lors de l’application de cette famille d’approches réside dans le
choix de la forme et la taille de l’élément structurant. Dans notre contexte, ce choix est très dif-
ficile vu que l’objet d’intérêt se caractérise par une très faible largeur par rapport à sa longueur,
donc un élément structurant de dimensions supérieures à la largeur de la rivière va la supprimer
complètement. D’autre part, le choix d’un élément structurant de dimensions trop petites n’a
aucun d’effet sur le bruit présent dans l’image. Cela nous amène à utiliser des éléments struc-
turant sous la forme de chemins, comme décrit dans Klemenjak et al. (2012), Heijmans et al.
(2005) et Valero et al. (2010), capables d’extraire des structures et des objets qui présentent
une linéarité locale. Nous allons présenter brièvement la théorie derrière l’opération d’ouver-
ture et de fermeture par des chemins. Par souci de simplicité, le concept d’image binaire est
utilisé dans les définitions suivantes, mais la théorie peut être généralisée pour couvrir aussi les
images en niveaux de gris.

Soit IB une image binaire, dans laquelle nous définissons d’abord la relation suivante : x 7→ y,
où x et y sont deux pixels de IB et le symbole ’7→’ désigne la relation de contiguïté entre ces
deux pixels et signifie qu’il y a un chemin allant de x à y. Cela implique également que x est
164

un précurseur de y et y est un successeur de x. Sur la base de cette notation, nous définissons la


dilatation par :
δ ({x}) = {y ∈ IB |x 7→ y} (4.18)

En d’autres termes, la dilatation d’un sous-ensemble X ⊆ IB comprend tous les points qui ont
un prédécesseur dans X. Le L-tuple a = (a1 , a2 , ..., aL ) est appelé un δ -chemin de longueur L
si ak 7→ ak+1 , ou d’une façon équivalente si :

ak+1 ∈ δ ({ak }), pour k = 1, 2, ..., L − 1 (4.19)

Étant donné un chemin a dans IB , l’ensemble de ses éléments est noté σ (a) avec σ (a1 , a2 , ..., aL ) =
{a1 , a2 , ..., aL }. L’ensemble de tous les σ -chemins de longueur L est noté ΠL . De la même fa-
çon, nous définissons l’ensemble des δ -chemins de longueur L contenu dans le sous-ensemble
X de IB et noté par ΠL (X) par la formule suivante :

ΠL (X) = {a ∈ ΠL |σ (a) ⊆ X} (4.20)

Finalement, nous définissons l’opérateur d’ouverture ou l’ouverture par des chemins αL (X)
comme étant l’union de tous les chemins de longueur L dans X telle que :

[
αL (X) = {σ (a)|a ∈ ΠL (X)} (4.21)

Par analogie à la définition de l’opérateur d’ouverture, nous définissons l’opérateur de la ferme-


ture par des chemins par une simple permutation du premier plan de l’image avec son arrière-
plan. Toutefois, nous allons uniquement employer l’opérateur d’ouverture par des chemins
comme nos objets d’intérêt sont plus lumineux que le reste de l’image. Typiquement, une opé-
ration de seuillage est nécessaire pour maintenir les objets ayant des longueurs supérieures à
un seuil prédéfini ; cependant, en raison de la particularité du problème, le choix de la valeur du
165

seuil ne constitue pas un problème compliqué, car les objets d’intérêt sont suffisamment longs
par rapport à la plupart des objets contenus dans l’image. Nous fixons ce seuil empiriquement
à L = 50 pixels.

Le résultat de l’application de cette étape est représenté dans la figure 4.10. Les petits objets
et le bruit présents dans l’image ont été complètement filtrés et seuls les objets homogènes de
dimensions considérables ont été conservés. La liste des objets retenus comprend des portions
de la rivière et quelques lacs ; la suppression de ces derniers n’est pas une tâche facile en
raison de leurs dimensions très comparables à celles de la rivière. Aussi, notre algorithme est
généralement testé sur des sous-images (des tuiles) de petites dimensions par rapport à l’image
d’entrée, et donc la taille des lacs est très proche de la taille des portions isolées de la rivière.
Pour filtrer adéquatement les lacs, nous allons, dans la phase suivante, reconstruire la structure
de la rivière pour pouvoir comparer sa forme à celle des lacs qui représentent dans ce contexte
des fausses alarmes.

Figure 4.10 Le résultat de l’application de l’opérateur


morphologique d’ouverture par des chemins
166

Suivi de la structure de la rivière

Au niveau pixel, la surface de la rivière n’est pas complètement homogène ; des petites per-
turbations à la surface de l’eau créent des vagues qui se traduisent sur l’image radar par une
forte réponse du chatoiement, ce qui occlut cette région de la rivière et empêche sa détection.
En revanche, la présence de certaines structures humaines telles que les barrages ou les ponts
sur la surface de la rivière peut occlure une portion de la rivière, découpant sa structure en plu-
sieurs parties. Pour distinguer les rivières des lacs, il est important de reconstruire la structure
complète de la rivière et de la traiter comme étant un seul objet compact.

Figure 4.11 Le schéma général de l’étape de suivi de la


structure de la rivière

La figure 4.11 montre la méthode proposée pour le suivi de la rivière ; tout d’abord, une étape
de squelettisation est appliquée, comme décrite dans Abu Ain et al. (2013) et Zhang et al.
(2015), afin d’extraire l’axe central associé aux différentes portions de la rivière. Cette étape
de squelettisation facilitera, par la suite, le suivi et l’interprétation des relations spatiales entre
les différents segments formant la rivière. Ensuite, pour chaque pixel xi1 à l’extrémité d’un
segment, un pixel xi2 est retenu si l’une de ces deux conditions est remplie :
167

— Le segment Sxi1 ,xi2 obtenu par application de l’algorithme de Bresenham Bresenham (1965)
sur les deux extrémités xi1 et xi2 est inclus dans une fenêtre d’analyse de taille 50 par 50
et centrée en xi1 ; ou

— Il existe un contour qui relie directement xi1 à xi2 .

L’algorithme de tracé de segment de Bresenham a été utilisé dans la première condition pour
produire une approximation du segment qui relie deux pixels quelconques de l’image. En outre,
le détecteur de contours de Touzi et al. (1988) a été adopté pour extraire les contours des objets
d’intérêt, tout en favorisant les contours détectés à une résolution grossière. Cette étape du suivi
adaptatif est capable de connecter des segments étroits qui ont une forte probabilité d’appar-
tenir à la même rivière (efficace en présence d’occlusions dans l’image) ; permettant de tirer
profit des informations pertinentes contenues dans les contours extraits à partir de l’image RSO
et démontrant ainsi son efficacité dans de nombreuses applications (particulièrement lorsque
certaines parties d’une rivière sont manquées par la phase de calcul d’homogénéité).

Filtrage des lacs et extraction des rivières

Figure 4.12 Le résultat de la phase de filtrage des lacs obtenu


par application de l’algorithme de Rotating Calipers
168

Sur la base de certaines caractéristiques des rivières telles que l’homogénéité et la forme, nous
avons été en mesure de filtrer la plupart des fausses alarmes présentes dans les images RSO.
Le seul obstacle qui subsiste est l’élimination des lacs qui ont une homogénéité similaire à
celle de la surface de la rivière et qui peuvent également avoir des dimensions comparables.
Les rivières sont caractérisées par des formes très variables, ce qui rend la comparaison des
deux objets difficiles. Pour résoudre ce problème, nous avons basé notre raisonnement sur ce
constat : les rivières et les lacs sont deux objets de taille comparable, mais ils n’occupent pas la
même surface (nous désignons ici par le terme surface le nombre de pixels constituant l’objet).
En d’autres termes, pour une rivière et un lac de dimensions égales, le lac occupe beaucoup
plus de surface dans l’image que celle occupée par la rivière. Ainsi, nous proposons dans cette
étape de comparer la surface du plus petit rectangle englobant l’objet, tel que défini dans Chang
et al. (2011) et Toussaint (1983), avec la surface associée à cet objet d’intérêt, comme indiqué
dans la figure 4.12 (la zone hachurée en rouge représente la surface associée au rectangle
englobant et les zones marquées en blanc désignent les objets d’intérêt). L’algorithme du plus
petit rectangle englobant basé sur la méthode de Rotating Calipers est capable de générer le
meilleur rectangle qui s’ajuste à l’objet d’intérêt en temps linéaire. Le problème de distinction
entre les deux objets est réduit, dans ce cas, à l’interprétation de la valeur de ce ratio : les rivières
ont une valeur du ratio strictement supérieur à 2, tandis que les lacs ont une faible valeur du
ratio proche de 1. Cette technique d’évaluation basée sur l’analyse de la surface occupée par
l’objet permet de distinguer efficacement entre les rivières et les lacs dans un temps d’exécution
raisonnable.

4.5 Détection des zones inondées à partir des images radar

4.5.1 La méthodologie proposée

L’augmentation du niveau de l’eau dans les rivières et les lacs, après de fortes pluies ou la fonte
des neiges au printemps, constitue la cause principale des inondations. L’eau qui déborde de
la rivière envahit les villes et les champs aux voisinages pouvant entraîner de grandes pertes
169

Figure 4.13 Schéma général de la méthode proposée pour identifier les zones inondées

de vies humaines et d’infrastructures. Pour cette raison, l’identification précise de la surface


de la rivière ou du lac représente une étape très importante dans le processus d’extraction des
zones inondées, car elle permet de localiser les zones d’intérêt et d’exclure, en même temps, le
niveau initial de l’eau dans la rivière puisqu’il ne fait pas partie de la zone inondée.

Nous allons nous baser pour l’identification de la surface de la rivière sur notre approche dé-
crite dans le paragraphe précédent en se contentant des deux premières étapes de l’algorithme
puisque nous ne cherchons pas à distinguer entre les rivières et les lacs. Comme le montre la
figure 4.13, notre approche dédiée pour l’extraction des zones inondées à partir des images
de l’avant et de l’après-inondation se base sur l’application de la mesure de texture SFS − SD
qui permet d’extraire les surfaces homogènes à partir des images radar. La deuxième étape
de l’algorithme consiste à appliquer l’opérateur morphologique d’ouverture par des chemins
dans le but de filtrer les détails et rehausser la structure localement linéaire de la rivière. Le
seul problème que nous avons rencontré lors de l’application de cette technique réside dans
le choix de la taille de l’élément structurant, puisqu’une partie des régions inondées, figurants
dans l’image de l’après-catastrophe, sont caractérisées par une petite surface. D’où l’intérêt
170

d’utiliser une petite valeur pour la longueur Lmin de l’élément structurant de façon à préserver
les régions inondées et filtrer les surfaces représentants des petits artéfacts dans l’image. La
combinaison entre les résultats de ces deux étapes est réalisée en utilisant l’opérateur ET de
la logique floue, qui permet de fusionner les différents niveaux de gris des deux descripteurs
afin de décider si un pixel donné appartient à la zone inondée en comparant le niveau d’ho-
mogénéité de ce pixel avant et après la catastrophe. Au meilleur de nos connaissances, cette
technique est utilisée pour la première fois dans la littérature pour fusionner l’information issue
de deux descripteurs et pour détecter les changements pertinents dus à une catastrophe.

a) Image de l’avant catastrophe (14 b) Image de l’après-catastrophe


juin 2009) (11 mai 2011)

Figure 4.14 Images RADARSAT-2 acquises avant et après les inondations de la rivière
Richelieu et obtenues dans le cadre de l’initiative de recherche sur les applications
scientifiques et opérationnelles - Éducation (SOAR-E)

Les figures 4.14a et 4.14b couvrent une partie de la rivière Richelieu avant et après les inonda-
tions de 2011. Ces images ont été acquises par le satellite RADARSAT-2 (8 mètres de résolu-
tion) en juin 2009 et mai 2011, respectivement, en utilisant le mode dual-polarisation (HH et
HV) et enregistrées dans un format complexe à visée simple (single-look complex SLC).
171

Adaptation de la technique d’extraction des rivières pour la résolution de la probléma-


tique d’extraction des inondations

a) Application du SFS-SD sur b) Application du SFS-SD sur


l’image de l’avant-inondations l’image de l’après-inondations

Figure 4.15 Résultat de l’application de la mesure de texture SFS-SD

La première étape de notre approche consiste à appliquer la mesure de texture décrite dans la
section 4.4.1 de ce chapitre. Ce descripteur de texture a montré son efficacité dans l’extraction
des régions homogènes à partir des images optiques et sa robustesse face au chatoiement qui
caractérise les images RSO. Les figures 4.15a et 4.15b montrent les résultats de l’application
de ce descripteur sur les deux images d’entrée. Nous pouvons remarquer que la surface de la
rivière a été correctement extraite à partir des deux images, avec la présence aussi de quelques
régions homogènes et les zones inondées dans la deuxième image.

La deuxième étape vise à éliminer les petites régions homogènes en gardant les zones inondées
présentes sur la deuxième image. Pour résoudre ce problème, nous avons appliqué l’opérateur
morphologique d’ouverture par des chemins décrit dans la section 4.4.1 avec deux différentes
valeurs de la longueur minimale de l’élément structurant : Lmin = 100 pour l’image de l’avant
catastrophe et Lmin = 10 pour l’image de l’après-catastrophe. Ces valeurs permettent de ne
172

garder que les objets grossiers dans la première image et filtrer les petits artéfacts tout en
gardant les zones inondées dans la deuxième image. Le résultat de l’application de cet opérateur
est montré dans les figures 4.16a et 4.16b. La deuxième image n’a pas subi un changement
remarquable, par contre l’effet de l’application du filtrage sur la première image est très clair ;
seule la surface de la rivière a été conservée par l’opérateur morphologique.

a) Application de l’opérateur b) Application de l’opérateur


morphologique sur l’image de morphologique sur l’image de
l’avant-inondations Lmin = 100 l’après-inondations Lmin = 10

Figure 4.16 Le résultat de l’application de l’opérateur morphologique d’ouverture par


des chemins

Fusion floue des descripteurs de texture pour l’identification des zones inondées

Détecter le changement entre deux images binaires revient à identifier les pixels qui ont subi
une modification entre les deux images. Autrement dit, si la valeur du pixel dans la première
image est égale à 1, sa valeur dans la deuxième image devrait être égale à 0 pour qu’il soit
considéré comme changement et vice-versa. Cette notion de changement entre deux images
173

binaires B1 et B2 peut-être formalisée mathématiquement de la façon suivante :

C(x, y) = B1 (x, y) ⊕ B2 (x, y) (4.22)

avec C une matrice de même taille que B1 et B2 et ⊕ représente l’opérateur logique OU exclusif.
Malheureusement, la généralisation de cette formule pour couvrir les images de niveaux de gris
n’est pas évidente vu qu’il est compliqué de définir un seuil pour décider si un pixel donné a
subi un changement ou non. Pour cette raison, nous avons eu recours à la théorie des ensembles
floue proposée par Zadeh (1965) pour traiter l’appartenance graduelle d’un élément à une classe
donnée. Tout d’abord, nous allons essayer de formuler notre problème dans le cadre de la
théorie des ensembles floue ; 1- nous définissons notre espace de référence S comme étant
les différents niveaux de gris de l’image d’entrée [0, 255], 2- nous définissons une fonction
d’appartenance qui pour chaque point de S associe un point de l’intervalle [0, 1] tel que :

1, 00 si G(x, y) = 255









... ...


µG (x, y) = 0, 50 si G(x, y) = 128 (4.23)




... ...







0, 00 si G(x, y) = 0

avec G(x, y) l’image de niveaux de gris résultante de l’application de notre opérateur morpho-
logique. Nous définissons, par la suite, une règle de fusion qui traduit notre définition d’un
changement dû à la catastrophe entre les deux images d’entrées. Nous avons constaté, à partir
de la deuxième image, qu’il existe trois classes d’intérêt dans l’image (voir figure 4.17) : 1- les
régions sombres constituées par les pixels non homogènes dans l’image, 2- les régions grises
constituées par les pixels homogènes, mais appartenant à des régions de longueur inférieure à
Lmin , et 3- les régions claires constituées par les pixels homogènes appartenant à des régions de
longueur supérieure à Lmin . Cette constatation nous a permis de définir les deux règles suivantes
qui décrivent un changement pertinent dans notre cas :
174

Figure 4.17 Les trois fonctions d’appartenance floue associées aux trois classes de
l’image

Si G1 (x, y) est sombre et G2 (x, y) est clair alors changement


Si G1 (x, y) est clair alors pas de changement

À partir de ces deux règles, nous définissons les deux sous-ensembles flous par leurs fonctions
d’appartenance µGα (x, y) et µGβ (x, y), telles que :

µGα1 (x, y) = {p ∈ S, µG1 (x, y) ≤ α1 } (4.24)

µGα2 (x, y) = {l ∈ S, µG2 (x, y) ≥ α2 } (4.25)

avec α1 et α2 sont deux valeurs définies expérimentalement à partir de l’image par regroupe-
ment des pixels qui ont les mêmes caractéristiques radiométriques en trois classes, p et l deux
éléments de l’ensemble S. Les sous ensembles flous µGα1 (x, y) et µGα2 (x, y) sont aussi appelés
des α − coupes et la plupart des opérateurs logiques applicables sur les ensembles flous sont
aussi applicables sur les coupes, ce qui nous permet d’écrire :

C(x, y) = µGα (x,y) ∩ µGα2 (x, y) = µGα (x,y) ∩ Gα2 (x,y) (4.26)
1 1

C(x,y) représente la mesure de changement entre les deux images à la cordonnée (x, y), avec
∩ l’opérateur ET de la logique floue définie par :

µG1 ∩G2 = µG1 (x, y)µG2 (x, y) = G1 (x, y)G2 (x, y) (4.27)
175

4.6 Expérimentation et résultats

4.6.1 Données utilisées

Figure 4.18 La couleur jaune désigne le


bassin du lac Champlain et de la rivière
Richelieu tirée de Wikipédia

Considéré parmi l’un des phénomènes météorologiques les plus dévastateurs qui ont frappé
le Canada en 2011, les inondations de la rivière Richelieu et du lac Champlain ont causé des
dommages importants sur 6.000 hectares de terres agricoles et ont détruit près de 3000 maisons
et chalets. La montée des eaux durant la période allant de la fin d’avril jusqu’au début juillet
2011, a été la cause de la catastrophe qui a frappé plusieurs villes dans la province de Québec :
Saint-Jean-sur-Richelieu, Saint-Paul-de-l’Île-aux-Noix et Venise-en-Québec. Cette situation a
nécessité l’intervention des soldats des forces canadiennes basés à Valcartier pour évacuer près
de 1.000 personnes. Le volume d’eau était cinq fois le débit moyen annuel de la rivière et se
précipita vers le nord avec une force écrasante.

Le tableau 4.1 décrit les spécifications du satellite RADARSAT-2 employé dans l’acquisition
des images de l’avant- et l’après-inondations de Richelieu. Fournissant une très haute résolution
176

Tableau 4.1 Les spécifications du satellite RADARSAT-2

Date de lancement Modes d’acquisition Largeur de fauchée Résolution


nominale (km) approximative (m)

14 décembre 2007 Faible résolution 100 m 500 100 × 100

Résolution moyenne 50 m 350 50 × 50

Résolution moyenne 30 m 125 30 × 30

Résolution moyenne 16 m 30 16 × 16

Haute résolution 5 m 30 5×5

Très haute résolution 3 m 20 3×3

Faible bruit 350 100 × 100

Détection des navires 350 Variable

Spotlight 14 [5 km en azimut] 1×3

Quad-pol 20 9×9

spatiale, un temps de revisite de moins de 3 jours et une capacité de balayer la Terre jour et nuit
et en tout temps, peu importe les conditions météorologiques, ce satellite a permis de suivre
l’étendue de l’eau, la gravité et la progression des inondations de Richelieu.

4.6.2 Extraction des rivières

Présentation des résultats

La figure 4.19a représente une sous-image extraite à partir d’une image RADARSAT-2 à très
haute résolution et orthorectifiée (6 mètres de résolution et enregistrée sous le format d’image
complexe à visée simple SLC) de la grande rivière en Ontario, au Canada, et la figure 4.19b
177

a) Site 1 (la grande rivière en Ontario, b) Le résultat obtenu pour le site 1


au Canada)

c) Site 2 (la grande rivière en Ontario, d) Le résultat obtenu pour le site 2


au Canada)

e) Site 3 (la rivière Mistassini au f) Le résultat obtenu pour le site 3


Québec, Canada)

Figure 4.19 Le résultat de la méthode proposée pour l’extraction des rivières


178

montre le résultat obtenu en appliquant la méthodologie proposée sur une zone urbaine (cette
rivière traverse la petite ville de Paris, de l’Ontario, comme le montre l’image). L’application
de notre algorithme sur une zone urbaine montre une très grande robustesse à la fois au bruit
présent sous la forme de chatoiement et aux effets géométriques, tels que la rétrodiffusion des
toits de bâtiments. En outre, nous pouvons observer que le pont qui relie les deux parties de la
ville a été correctement supprimé de la surface de la rivière, tout en tenant compte de l’autre
partie de la rivière dans le processus d’extraction. La figure 4.19c représente une sous-image
extraite à partir d’une image RADARSAT-2 à très haute résolution orthorectifiée (6 mètres de
résolution et enregistrée sous le format d’image complexe à visée simple SLC) de la même
rivière, mais d’une autre région (près de Bantford, Ontario, Canada) et la figure 4.19d montre
le résultat obtenu en appliquant la méthodologie proposée sur une zone rurale. Comme nous
pouvons le constater à partir de l’image résultante, la rivière a été extraite à partir d’une zone
agricole. Les tracés qui marquent les limites de chaque zone agricole ne sont pas retenus en
raison de leur faible largeur, en dépit de leur forme droite et allongée analogue à celle de la
rivière. Un petit pont a également été identifié et éliminé de la surface retenue de la rivière.
La figure 4.19e montre une sous-image extraite à partir d’une image RADARSAT-2 à très
haute résolution et orthorectifiée (6 mètres de résolution et enregistrée sous le format d’image
complexe à visée simple SLC) de la rivière Mistassini au Québec, Canada et la figure 4.19f
montre le résultat obtenu par l’application de la technique proposée sur une zone montagneuse.
En dépit de leur forme relativement allongée, les lacs ont été supprimés avec succès à partir
de l’image résultante. L’ombre de la montagne qui apparaît dans l’image d’entrée à une courte
distance de la structure de la rivière a été identifiée comme non-candidat de la classe rivière
et a été supprimée. Une petite partie sèche de la rivière qui apparaît en haut de l’image a été
éliminée par la phase de détection d’homogénéité et donc n’a pas été considérée lors de la
génération de la carte des rivières.
179

Évaluation des résultats

Pour mieux évaluer la performance de la méthode proposée, nous avons comparé les images
binaires résultantes de l’application de notre algorithme proposée pour l’extraction de la ri-
vière sur les trois sites d’étude à des vecteurs qui représentent précisément les frontières des
rivières et utilisées comme vérité terrain. Ces données étaient disponibles gratuitement sur le
site web GeoGratis 1 sans restriction d’utilisation. Pour souligner la bonne qualité et la préci-
sion des résultats obtenus, nous allons utiliser deux différentes mesures de qualité pour évaluer
la performance de notre approche.

La première métrique

La première métrique utilisée dans la comparaison entre les vecteurs de la rivière et les résultats
obtenus est la même que celle utilisée dans l’évaluation des résultats de l’extraction du réseau
routier et décrite dans Wiedemann (2003) et Heipke et al. (1997) et telle que :

• Complétude (Com) : représente le pourcentage des rivières correctement détectées par


rapport aux données de référence ; Cette mesure est définie sur l’intervalle [0; 1], où 1 est la
valeur optimale. Nous pouvons exprimer la complétude par la formule suivante :

VP
Complétude = (4.28)
V P + FN

• Exactitude (Exa) : décrit le pourcentage de la surface correctement détectée sur la surface


totale des rivières extraites. Cette mesure est définie sur l’intervalle [0; 1], où 1 est la valeur
optimale. Nous pouvons exprimer l’exactitude par la formule suivante :

VP
Exactitude = (4.29)
V P + FP

• Redondance (Red) : représente le pourcentage auquel la rivière correctement détectée est


redondante. Cette mesure est définie sur l’intervalle [−∞; 1] où 0 est la valeur optimale.
1. http ://geogratis.gc.ca/
180

Nous pouvons exprimer la redondance par la formule suivante :

V P − (1 − FP + FN)
Redondance = (4.30)
VP

Le tableau 4.2 décrit les résultats obtenus par application des mesures de qualité suivantes :
complétude, exactitude et rédondance sur les trois images de test : Comme nous pouvons le

Tableau 4.2 Les résultats de l’évaluation des performances de notre approche dédiée
pour l’extraction des rivières en utilisant la première métrique

Site1 Site2 Site3

Com Exa Red Com Exa Red Com Exa Red

SFS-SD 0,97 0,157 0,47 0,97 0,22 0,2 0,95 0,11 0,3

SFS-SD + ouverture 0,994 0,59 0,19 0,99 0,91 0,2 0,97 0,19 0,3
par des chemins

La méthode proposée 0,985 0,88 0,138 0,997 0,964 0,2 0,997 0,945 0,3

déduire à partir du tableau 4.2, la valeur de la complétude est presque égale à 0, 99 pour les
trois différents sites d’étude qui représentent respectivement une zone urbaine, une zone rurale
et une zone montagneuse. Cette valeur obtenue de la complétude prouve que notre algorithme
est capable d’extraire les rivières avec beaucoup de précision tout en minimisant le taux de
fausses alarmes. Cette valeur élevée est maintenue pour les différentes étapes de l’algorithme,
étant donné que dans la première phase, nous avons pu identifier la surface complète de la
rivière, mais l’interférence d’autres objets homogènes nécessite l’application des deux étapes
de filtrage afin de ne conserver que les rivières.

La valeur de l’exactitude s’est remarquablement améliorée par comparaison à la première étape


avec la deuxième étape et le résultat final. Par exemple, pour le site 1, la valeur l’exactitude est
passée de 0, 157 pour l’étape 1 à 0, 59 pour l’étape 2, et 0, 88 pour le résultat final. En effet,
181

l’exactitude est directement liée au taux de fausses alarmes, par conséquent, l’application des
deux étapes de filtrage a amélioré considérablement sa valeur.

La mesure de redondance n’a pas subi une variation importante entre les trois étapes, car elle
est en rapport avec les objets correctement identifiés. Nous pouvons clairement observer la
différence entre la valeur associée avec le site 1, par exemple, qui est égale à 0, 47, et sa valeur
pour le site 2 qui est 0, 19. Ceci est dû à la complexité des zones urbaines (site 1) par rapport à
la zone rurale du site 2 qui est considérée comme moins complexe. Nous pouvons en déduire
de ces constatations que la première étape a été en mesure d’extraire efficacement les candidats
de la classe rivière, et que l’application des deux autres phases a été très utile pour éliminer les
fausses alarmes et pour améliorer les résultats de la détection.

La seconde métrique

La deuxième métrique utilisée pour évaluer le résultat de notre technique proposée est princi-
palement basée sur la longueur de l’objet d’intérêt et est inspirée de la métrique décrite dans
Hu et al. (2007). Contrairement à la métrique proposée dans le paragraphe précédent fondée
sur une comparaison pixellique des résultats obtenus avec des couches vectorielles, cette mé-
trique effectue une analyse objet afin d’évaluer la qualité des objets extraits. En d’autres termes
seules les grandes portions de la rivière entrent dans le calcul de cette métrique, l’effet du bruit
sur l’analyse de la qualité des résultats est complètement négligé. Nous notons d’abord la lon-
gueur totale de la rivière extraite correspondant à la rivière dans l’image de référence par Lm ,
la longueur totale de la rivière de référence par Lr , la longueur totale de la rivière extraite à
partir de l’image d’entrée par Le et enfin, la longueur totale de la rivière sur- ou sous-extraite
et qui ne correspond pas à la rivière de référence par Lu . La figure 4.20 montre une illustration
de la deuxième métrique, le vecteur de référence est noté en blanc, et les segments de la rivière
extraits sont notés en rouge.

À partir de ces quatre définitions, nous introduisons les trois différentes mesures suivantes :
182

Figure 4.20 Une illustration de


la deuxième métrique

— Complétude basée objet (CBO) : est un pourcentage défini sur l’intervalle [0; 100]. Nous
pouvons exprimer la complétude en utilisant la formule suivante :

Lm
Complétude basée objet = × 100% (4.31)
Lr

— Exactitude basée objet (EBO) : est un pourcentage défini sur l’intervalle [0; 100], nous
pouvons exprimer l’exactitude en utilisant la formule suivante :

Lm
Exactitude basée objet = × 100% (4.32)
Le

— Qualité basée objet (QBO) : est un pourcentage défini sur l’intervalle [0; 100] et exprimée
par la formule suivante :

Lm
Qualité basée objet = × 100% (4.33)
Le + Lu

Le tableau 4.3 décrit les résultats obtenus par application des mesures suivantes : la complétude
basée objet, l’exactitude basée objet et la qualité basée objet, sur les trois sites d’étude :

Comme nous pouvons le constater à partir du tableau 4.3, la même valeur de la complétude
basée objet est obtenue pour les différentes phases de l’algorithme proposé, avec la valeur la
plus élevée de cette mesure obtenue pour le site 2, qui représente une zone rurale. Cela montre
183

Tableau 4.3 Les résultats de l’évaluation des performances de notre approche dédiée
pour l’extraction des rivières en utilisant la deuxième métrique

Site1 Site2 Site3

CBO EBO QBO CBO EBO Qua CBO EBO QBO

SFS-SD 97,6 63,3 53,5 99,1 80,5 72,8 95,78 42,8 38,51

SFS-SD + ouverture 97,6 85,24 77,3 99,1 85,24 77,56 95,78 68,7 64,9
par des chemins

La méthode proposée 97,6 99,5 97,2 99,1 99,4 98,3 95,78 97,7 96,8

que notre algorithme donne de bons résultats pour les rivières caractérisées par une largeur im-
portante et que les performances diminuent en termes d’exactitude basée objet pour les zones
urbaines et montagneuses. Le site 3 montre une région montagneuse ; la présence d’occlusions
empêchant la détection de certaines parties de la rivière justifie les résultats obtenus en termes
d’exactitude basée objet, spécialement pour les deux premières étapes de l’algorithme 42,8% et
68,7%. L’application d’une étape de suivi a résolu ce problème et a amélioré les performances
globales de l’algorithme. Pour le site 2, la qualité basée objet n’a pas changé de façon signi-
ficative entre la première et la seconde phase de l’algorithme 72,8%, 77,56%, par rapport à la
qualité basée objet liée au site 1 par exemple, qui a passé de 53,5% à 77,3%. L’amélioration
de la valeur de la qualité basée objet pour le site 1 est due à la suppression du chatoiement qui
caractérise les zones urbaines et les résultats de l’application de la phase d’élimination du bruit
basée la morphologie mathématique.

La complexité de notre algorithme

Plusieurs facteurs peuvent être pris en considération lors de l’analyse de la performance d’un
algorithme donné telle que la précision, la capacité à traiter des données d’entrée hétérogènes
et le temps d’exécution. Dans certaines applications du monde réel telle que la réponse aux
catastrophes majeures, le temps d’exécution associé à l’algorithme utilisé dans la génération
184

des cartes de dommage est l’aspect le plus important, étant donné qu’une réponse rapide fournit
une vue globale de la situation sur le terrain et aide les autorités dans la prise de décision.

Figure 4.21 Le temps d’exécution en fonction de la taille de l’image

La figure 4.21 illustre l’évolution du temps d’exécution de l’algorithme proposé exprimé en


secondes en fonction de la taille de l’image d’entrée. L’axe horizontal représente la taille
de l’image d’entrée et l’axe vertical indique le temps d’exécution exprimé en secondes. La
courbe associée à notre algorithme est représentée en bleu, tandis qu’une approximation de
cette courbe obtenue en utilisant un polynôme cubique est tracée en rouge. Comme on peut
le constater, la courbe associée à l’algorithme proposé est très proche de la courbe décrivant
un polynôme cubique ; nous pouvons déduire que la complexité de notre algorithme d’extrac-
tion des rivières est O(n3 ), ce temps d’exécution peut être considéré comme très raisonnable
compte tenu de la complexité des images RSO.

Pour des images plus petites que 2500 x 2500 pixels, le temps d’exécution nécessaire pour
obtenir des résultats est de moins de 5 minutes. Également, si nous considérons des images de
dimensions plus petites que 1000 x 1000 pixels, seulement quelques secondes sont nécessaires
pour exécuter l’algorithme global. D’après les informations fournies par la figure 4.21 et en
185

tenant compte de la résolution de l’image (6 mètres), nous pouvons en déduire que seulement
15 minutes sont nécessaires pour appliquer l’algorithme proposé sur une superficie de 576
Km2 . En conclusion, nous croyons que notre méthode proposée est tout à fait appropriée pour
le problème d’extraction de la rivière et est très efficace pour ce type d’application où le temps
d’exécution requis est pris en compte.

Comparison avec la technique des contours actifs et le seuil d’Otsu

Nous allons proposer dans ce paragraphe une analyse quantitative et qualitative des résultats
basée sur les mesures introduites afin de mettre en évidence la performance de notre méthode.
Nous comparons, d’abord, notre technique à d’autres méthodes utilisées dans le processus
d’extraction des rivières. Certaines de ces techniques ne sont pas appliquées directement à
l’extraction de la rivière, mais représentent plutôt une étape importante sur laquelle plusieurs
approches ont été fondées. Ce type de comparaison permettra de repérer les faiblesses des ap-
proches fondées sur les caractéristiques radiométriques ou basées sur la détection des contours.
La première technique est le seuil d’Otsu, utilisé comme une technique de seuillage automa-
tique de l’image et permet de séparer une image en deux ou plusieurs classes en maximisant
la variance interclasse Otsu (1979), Liao et al. (2001). La seconde technique s’appuie sur les
contours actifs, appelés en anglais Snakes Kass et al. (1988). Un contour actif est une spline
minimisant une fonction d’énergie et guidée par des forces externes qui le tirent vers des ca-
ractéristiques dans l’image tels que les contours et/ou les lignes.

La figure 4.22b montre le résultat de l’application du seuil automatique d’Otsu sur une zone
urbaine, avec une valeur de seuil optimale de 108. La figure 4.22e représente le résultat de
l’application du seuil automatique d’Otsu sur une zone rurale, avec une valeur de seuil optimale
de 113, et la figure 4.22h montre le résultat de l’application du seuil automatique d’Otsu sur
une zone montagneuse, avec une valeur de seuil optimale de 127. Comme indiqué dans les
figures 4.22b, 4.22e et 4.22h, cette technique de seuillage permet d’extraire avec précision les
rivières et les lacs grâce à leur faible contraste par rapport à d’autres objets dans l’image, mais
elle conserve d’autres fausses alarmes caractérisées par une réponse radiométrique similaire.
186

a) Site 1 b) Application du seuil c) Application des


d’Otsu contours actifs

d) Site 2 e) Application du seuil f) Application des


d’Otsu contours actifs

g) Site 3 h) Application du seuil i) Application des


d’Otsu contours actifs

Figure 4.22 Les résultats obtenus par application du seuil d’Otsu et les contours actifs

La figure 4.22c montre le résultat de l’application de la technique des contours actifs sur le site
1 ; 15 pixels ont été définis comme des germes pour l’initialisation de l’algorithme. La figure
4.22f montre le résultat de l’application des contours actifs sur le site 2 (rural), dans laquelle
seulement 5 pixels ont été sélectionnés comme les germes pour l’initialisation de l’algorithme.
La figure 4.22i représente le résultat obtenu en appliquant la même technique sur le site 3
qui représente une zone montagneuse, dans laquelle 10 pixels ont été sélectionnés comme
187

des germes pour l’initialisation de l’algorithme. Nous pouvons en déduire que la technique de
segmentation par des contours actifs donne de meilleurs résultats que le seuil Otsu en termes de
précision et de réduction des fausses alarmes. Cependant, une étape d’initialisation ainsi qu’un
nombre élevé de germes sont nécessaires pour obtenir de bons résultats, en particulier dans les
zones où la surface de la rivière est très mince, comme dans le cas des zones urbaines.

Tableau 4.4 Les résultats de la comparaison des performances de notre algorithme pour
l’extraction des rivières avec le seuil d’Otsu et les contours actifs en utilisant la première
métrique

Site1 Site2 Site3

Com Exa Red Com Exa Red Com Exa Red

Le seuil d’Otsu 0,143 0,008 0,01 0,356 0,1 0,01 0,23 0,01 0,02

Les contours actifs 0,997 0,89 0,289 0,997 0,846 0,148 0,995 0,91 0,51

La méthode proposée 0,985 0,88 0,138 0,997 0,964 0,2 0,997 0,945 0,3

Comme indiqué dans le tableau 4.4, en termes de redondance, le seuil d’Otsu obtient de
meilleurs résultats qu’à la fois la technique des contours actifs et notre méthode, avec une va-
leur de 0,01 par rapport à 0,289 et 0,138, respectivement, pour le site 1. Cette performance
montre que cette approche basée sur une classification pixellique est capable d’extraire la
quasi-totalité des pixels qui appartiennent à la classe rivière, contrairement à la technique des
contours actifs qui nécessite une initialisation appropriée et bloque à chaque occlusion ou lors
d’une forte réponse du gradient. Notre technique basée sur l’analyse de la texture est fondée
sur le calcul de l’homogénéité et peut donc être influencée par des pixels bruités entourant le
pixel d’intérêt, ce qui influe sur les résultats. Cependant, en termes d’exactitude, le seuil d’Otsu
donne de très mauvais résultats en raison de sa sensibilité au chatoiement. Notre approche et la
technique des contours actifs obtiennent des résultats très acceptables en termes d’exactitude
avec 0,89 et 0,88 et de complétude avec 0,985 et 0,997, respectivement, pour le site 1. Nous
constatons également que notre approche surpasse les contours actifs en termes d’exactitude
188

et de précision pour le site 3, avec des résultats très comparables dans le cas du site 2. Nous
pouvons conclure que, pour les approches basées sur une classification pixellique, le résultat
de l’extraction de l’objet d’intérêt est très prometteur, mais plusieurs fausses alarmes sont éga-
lement retenues. La segmentation par des contours actifs est une méthode semi-automatique
très dépendante de l’étape d’initialisation et inefficace pour les rivières étroites, comme nous
l’avons indiqué dans le cas du site 3 où la précision est de 0,49 par rapport à 0,98 pour le seuil
d’Otsu et 0,7 pour notre technique. Notre méthode est une approche automatique qui offre un
bon compromis par rapport aux deux autres méthodes décrites ci-dessus avec des performances
acceptables pour les trois sites d’étude.

Comparaison avec la méthode décrite dans Klemenjak et al. (2012)

Plusieurs approches ont été proposées dans la littérature pour résoudre le problème d’extraction
des rivières à partir d’images RSO, mais peu d’entre elles ont obtenu des performances élevées
en raison de la complexité des images radar et la présence de bruit. Parmi les travaux les plus
intéressants, nous citons celui de Klemenjak et al. (2012). Leur approche proposée pour l’ex-
traction des rivières est basée principalement sur trois phases : 1- Génération d’un profil mor-
phologique à partir de chaque pixel de l’image en appliquant une série de fermetures par des
chemins en variant la valeur de Lmin (Lmin est associée à la longueur minimale tolérée pour un
chemin donné) ; 2- Regroupement des pixels résultants en trois groupes : “confiants non-eau-
pixels-d’apprentissage”, “potentiels non-eau-pixels-d’apprentissage” et “potentiels eau-pixels-
d’apprentissage” ; et 3- Application d’une classification supervisée pour identifier les deux
classes “eau” et “non-eau” à l’aide d’un séparateur à vastes marges bi-classes (one-class SVM)
An et al. (2015). La phase d’apprentissage est effectuée en utilisant des zones de la classe
“potentiels eau-pixels-d’apprentissage” comme des échantillons de la classe eau et des zones
de la classe “potentiels non-eau-pixels-d’apprentissage” comme des échantillons de la classe
non-eau. Cette technique a été appliquée à des images RSO à haute résolution et a fourni des
résultats assez précis. Pour mieux évaluer la performance de notre algorithme, nous avons im-
189

a) Site 1 b) Le résultat obtenu pour le site 1

c) Site 2 d) Le résultat obtenu pour le site 2

e) Site 3 f) Le résultat obtenu pour le site 3

Figure 4.23 Le résultat de la méthode proposée par Klemenjak et al. (2012)


190

plémenté l’approche proposée dans Klemenjak et al. (2012) en utilisant la bibliothèque OTB.
Nos résultats obtenus sont décrits ci-dessous.

La figure 4.23b montre le résultat de la technique proposée dans Klemenjak et al. (2012) appli-
quée à l’image du site 1. Il est clair que, bien que la majeure partie de la rivière a été correcte-
ment extraite, certaines portions de la rivière sont manquantes, en particulier celles délimitées
par des occlusions ou passant par une zone urbaine. Une partie de la route apparaissant dans
le coin supérieur gauche de l’image a été également retenue. La figure 4.23d décrit le résultat
de l’application de la même technique sur une zone rurale. La rivière a été complètement ex-
traite sans la présence de fausses alarmes. Nous pouvons en déduire que cette approche est très
appropriée pour les rivières caractérisées par une largeur considérable et celles qui n’ont pas
d’occlusions sur leur surface. La figure 4.23f montre le résultat de la même approche, mais ap-
pliquée cette fois-ci à une zone montagneuse. L’image résultante montre clairement la présence
de fausses alarmes, indiquées par certains lacs retenus aux alentours de la rivière. À partir de
ces observations, nous concluons que cet algorithme n’est pas très efficace dans la distinction
entre les rivières et les lacs. Le tableau 4.5 représente l’évaluation quantitative des résultats de
l’approche proposée par Klemenjak et al. (2012) et ceux obtenus par application de la méthode
que nous proposons sur les images qui représentent les trois sites d’étude :

Tableau 4.5 Les résultats de la comparaison des performances de notre algorithme pour
l’extraction des rivières avec l’approche de Klemenjak et al. (2012) en utilisant la
première métrique

Site1 Site2 Site3

Com. Exa. Red. Com. Exa. Red. Com. Exa. Red.

Klemenjak et al. (2012) 0,996 0,839 0,402 0,996 0,861 0,232 0,978 0,236 0,303

Klemenjak et al. (2012) 0,996 0,839 0,402 0,996 0,861 0,232 0,99 0,853 0,303
+ filtrage des lacs

L’approche proposée 0,985 0,88 0,138 0,997 0,964 0,2 0,997 0,945 0,3
191

En comparant les résultats des deux techniques présentées dans le tableau 4.5, nous pouvons
conclure que la complétude obtenue est très similaire pour la méthode proposée par Klemenjak
etal. (0,996) et pour notre approche (0,985) appliquée au premier site d’étude. La valeur de
la complétude obtenue par les deux approches est aussi élevée et proche l’une de l’autre pour
les sites 2 et 3. Cela prouve que les deux techniques sont capables d’extraire avec précision la
surface de la rivière avec une bonne performance pour les différents sites d’étude. Cependant,
la mesure d’exactitude réalisée par l’approche de Klemenjak etal. diminue considérablement
pour le site 3, passant de 0,839 mesurée pour le site 1 à 0,236 pour le site 3, contrairement à
notre algorithme qui a maintenu à peu près la même valeur de l’exactitude. Cette différence
dans la mesure de l’exactitude est due à la présence de quelques lacs retenus comme rivières
dans la région montagneuse alors qu’ils représentent des fausses alarmes. Pour le site 1, notre
algorithme a réalisé des résultats meilleurs que Klemenjak etal. avec 0,138 par rapport à 0,402,
en termes de redondance. La zone urbaine du site 1 comprend des occlusions sur la surface de
la rivière combinées avec des surfaces étroites qui caractérisent les rivières dans ces zones
urbaines, ces deux facteurs influencent sur les performances obtenues, contrairement à notre
approche qui fournit une étape de reconstruction qui lui permet de surmonter ces problèmes.
Nous avons aussi combiné la technique proposée dans Klemenjak et al. (2012) à l’étape de sé-
paration entre les rivières et les lacs de notre algorithme et les résultats obtenus sont présentés
à la deuxième ligne du tableau 4.5. Comme prévu les valeurs de la complétude, de l’exactitude
et de la redondance pour le site 1 et 2 n’ont pas changé puisqu’il n’y a pas de lacs dans ces deux
sites et donc l’ajout de cette étape de prétraitement n’a aucune incidence sur la performance
globale de l’approche proposée par Klemenjak et al. (2012). Par contre, nous avons remarqué
pour le site 3 que la complétude a considérablement augmenté de 0,236 à 0,853 suite à l’ajout
de l’étape de filtrage des lacs. En conclusion, l’ajout d’une phase de suivi consacrée à la re-
construction de la structure de la rivière et une étape de distinction entre les rivières et les lacs
a permis à notre approche de surpasser significativement l’algorithme de Klemenjak etal., et
donc nous concluons que la méthode que nous proposons peut être appliquée avec succès à
différents scénarios de test.
192

4.6.3 Identification des zones inondées

Présentation des résultats

Les deux figures 4.24a et 4.24b décrivent la première zone d’étude avant et après les inonda-
tions de la rivière Richelieu (fin avril 2011). Les deux images ont été acquises par le satellite
RADARSAT-2, avec une résolution spatiale de 8 mètres et en utilisant la polarisation HH (adé-
quate pour l’étude des surface d’eau dans les images radar). Elles ont été fournies en format
brut, ce qui implique qu’une étape de prétraitement incluant le calibrage, l’orthorectification
et la coregistration de ces deux images était nécessaire pour pouvoir appliquer notre approche
proposée pour l’extraction des zones inondées. La figure 4.24c montre le résultat de l’appli-
cation de notre technique sur la première zone d’étude, avec la couleur bleu clair qui désigne
l’état de la rivière avant les inondations et la couleur bleu foncé qui désigne l’étendue des
inondations suite à la catastrophe. Nous pouvons constater que la limite entre la zone occupée
par la surface de la rivière et la zone inondée a été identifiée avec précision et exactitude. Le
descripteur de texture utilisé était en mesure de caractériser la réponse de l’eau dans l’image
par rapport à d’autres zones de réponse radiométrique similaire. Aussi, le bruit et les petits
artéfacts ont été correctement éliminés de l’image de l’après-catastrophe par application d’un
élément structurant de petite taille permettant de filtrer le bruit et de conserver en même temps
les zones inondées.

Les figures 4.24d et 4.24e montrent la deuxième zone d’étude avant et après la même catas-
trophe. Une partie de la zone d’intérêt couvre une partie de la ville de Saint-Jean-sur-Richelieu.
Les mêmes caractéristiques fixées lors de l’acquisition des deux premières images ont été uti-
lisées pour générer ces deux images. La figure 4.24f décrit le résultat obtenu par application
de notre approche sur les deux images de la deuxième zone d’intérêt. Une première remarque
que nous pouvons tirer à partir de l’image résultante est qu’une partie de la rivière occluse par
un pont qui relie les deux parties de la ville n’a pas été détectée lors de la première phase de
l’algorithme, ce qui explique son affectation à la zone inondée. Du point de vue précision et
exactitude, l’inspection visuelle du résultat obtenu montre que seules les zones appartenant à
193

a) Image de b) Image de c) Résultat de notre


l’avant-catastrophe (zone l’après-catastrophe (zone approche (zone 1)
1) 1)

d) Image de e) Image de f) Résultat de notre


l’avant-catastrophe (zone l’après-catastrophe (zone approche (zone 2)
2) 2)

g) Image de l’avant h) Image de l’après i) Résultat de notre


catastrophe (zone 3) catastrophe (zone 3) approche (zone 3)

Figure 4.24 Les résultats obtenus par application de notre approche pour l’extraction
des zones inondées (la zone en bleu clair qui désigne la surface de la rivière et la zone en
bleu foncé désigne l’étendue de l’inondation)
194

la rivière ont été marquées en bleu clair. Une route en haut à gauche de l’image n’a pas été dé-
tectée par l’algorithme, ce qui appuie les constatations que nous avons tirées dans la première
partie de notre étude expérimentale.

Les figures 4.24g et 4.24h montrent la troisième zone d’étude avant et après les inondations de
la rivière Richelieu. Cette zone couvre la région la plus touchée lors de cette catastrophe. Les
mêmes caractéristiques fixées lors de l’acquisition des deux premières images ont été utilisées
pour générer ces deux images. Nous pouvons constater à partir de la figure 4.24i qu’au même
titre que les résultats obtenus par application de notre approche sur les deux premières zones
de test, notre technique était en mesure d’identifier la zone inondée et la surface de la rivière
avec précision. Seule une région étroite de la rivière qui n’a pas été détectée par l’algorithme
lors de la phase d’extraction des rivières et qui a donc été retenue lors de la phase de détection
des inondations comme étant une fausse alarme.

Évaluation des résultats obtenus

Afin de comparer et évaluer les résultats obtenus par application de notre algorithme dédié à la
détection des zones inondées, nous nous sommes principalement basés sur le rapport technique
du groupe de travail international du lac Champlain et de la rivière Richelieu Commission
mixte internationale (2015) qui a été fourni à la commission mixte internationale (le Canada
et les États-Unis), le 30 novembre 2015. Ce rapport fournit, en se basant sur une combinaison
de données anciennes et nouvelles, une description détaillée de la catastrophe du printemps
2011 et des zones qui seraient touchées si les niveaux d’eau du lac Champlain et de la rivière
Richelieu atteignaient diverses hauteurs. Aussi, des images satellitaires acquises par le satellite
EO-1/ALI dans le cadre de cette entente et rendues publiques par l’Administration nationale de
l’aéronautique et de l’espace (NASA) ont été utilisées dans l’évaluation des dommages causés
par les inondations et ont servi de vérité terrain. Les figures 4.25a et 4.25b représentent deux
images acquises lors de cette catastrophe par le satellite EO-1/ALI, le 8 mai 2011.
195

a) Image multispectrale de la b) Image infrarouge de la


zone inondée zone inondée

Figure 4.25 Les images du satellite EO-1/ALI utilisées dans l’expérimentation

Tableau 4.6 La matrice de confusion calculée à partir de la première zone d’étude

Classe prédite

Zone d’eau libre Zone inondée Zone non-inondée

Zone d’eau libre 99 0 0,1


Classe réelle

Zone inondée 1 100 1,9

Zone non-inondée 0 0 98

Le tableau 4.6 montre les valeurs de la matrice de confusion obtenues par comparaison des
résultats de notre algorithme avec la vérité terrain. Les éléments verticaux du tableau désignent
les classes prédites par notre technique, tandis que les éléments horizontaux du tableau sont
196

associés aux classes réelles. Nous voudrions aussi mentionner que pour simplifier l’interpréta-
tion de la matrice de confusion, ses valeurs ont été normalisées afin d’obtenir des pourcentages
d’appartenance des pixels de l’image à une classe donnée. Pour la classe zone d’eau libre, 99%
des pixels prédits appartiennent à la bonne classe. Tandis que, seulement 1% des pixels classés
par notre algorithme comme zone d’eau libre appartiennent réellement à la classe zone inondée.
Pour la classe zone inondée, tous les pixels ont été correctement classés, ce qui prouve l’exac-
titude et la précision de notre technique dans l’extraction des zones inondées. Finalement, pour
la classe zone non-inondée, seulement 2% des pixels ont été mal classés par l’algorithme. Ces
résultats sont justifiables puisque la phase de détection des zones inondées est dépendante de la
première étape qui consiste à extraire la surface de la rivière, ce qui explique la provenance de
ce faible taux de fausses alarmes. Mais, les résultats obtenus restent très satisfaisants. À partir
de cette matrice de confusion plusieurs mesures de qualité et de précision peuvent être déduites,
parmi ces mesures nous nous intéressons à l’évaluation de la qualité de la classification à l’aide
du coefficient Kappa Stehman (1997). Cette mesure décrit le degré de la concordance entre les
classes prédites et les classes réelles et est donnée par la formule suivante :

P0 − Pe
K= (4.34)
1 − Pe

Pe = ∑ (∑ éléments de la classe sur l’axe horizontale × ∑ éléments de


toutes les classes (4.35)
la classe sur l’axe verticale)

avec P0 la proportion d’accord observée (somme des éléments sur la diagonale de la matrice
de confusion), et Pe la proportion d’accord attendue sous l’hypothèse d’indépendance des ju-
gements. À partir de cette formule, nous obtenons une valeur de k = 0, 96 qui représente un
très bon résultat sachant qu’un classifieur est dit excellent si sa valeur Kappa est supérieure à
0, 81.

Les résultats du calcul de la matrice de confusion associés aux deux tableaux 4.7 et 4.8 sont
très proches des résultats du premier tableau avec une légère variation dans le nombre de pixels
197

Tableau 4.7 La matrice de confusion calculée à partir de la deuxième zone d’étude

Classe prédite

Zone d’eau libre Zone inondée Zone non-inondée

Zone d’eau libre 99 0 0


Classe réelle

Zone inondée 1 100 1,94

Zone non-inondée 0 0 98

Tableau 4.8 La matrice de confusion calculée à partir de la troisième zone d’étude

Classe prédite

Zone d’eau libre Zone inondée Zone non-inondée

Zone d’eau libre 99 0 0


Classe réelle

Zone inondée 0,34 100 1,6

Zone non-inondée 0 0 98

classés par notre algorithme comme zone non-inondée appartenant réellement à la classe zone
inondée. Les valeurs de l’indice Kappa sont respectivement k = 0, 97 et k = 0, 975, ce qui
confirme les conclusions tirées par interprétation des valeurs du premier tableau.

4.6.4 Discussion

L’extraction des rivières à partir d’images RSO est un problème difficile compte tenu de la
forme arbitraire associée à l’objet d’intérêt et le chatoiement qui caractérise ces images. Une
technique innovante pour résoudre ce problème est proposée dans ce chapitre. L’approche pro-
posée applique d’abord une classification pixellique de l’image d’entrée pour extraire les des-
cripteurs locaux, puis les connaissances identifiées à partir des échelles grossières sont intro-
198

duites afin de discriminer les rivières. La classification basée pixels est réalisée par analyse de la
texture locale calculée dans une fenêtre glissante, et les résultats obtenus sont très prometteurs.
La seconde étape consiste à éliminer le bruit, dans laquelle une nouvelle application de l’opé-
rateur d’ouverture par des chemins a été proposée. Par la suite, une étape de reconstruction est
effectuée afin d’éviter d’interpréter les segments formant la rivière indépendamment et donc
de les considérer comme étant des objets à part. La dernière étape de l’algorithme comprend
une application de la méthode du rectangle englobant pour distinguer entre des rivières et des
lacs. Cette variante de la technique originale a montré son efficacité, même dans les situations
les plus ambiguës.

En général, les routes, en dépit de leur structure homogène, ne sont pas retenues comme candi-
dats par application de la première phase de l’algorithme. Cela est dû aux dimensions de leur
surface considérée comme une petite zone homogène comparée à celles des rivières et sont
donc automatiquement rejetées. Cependant, dans certains cas, en particulier dans les zones
urbaines, nous avons remarqué que les autoroutes (qui relient habituellement les villes) ont
été partiellement ou complètement retenues par l’algorithme, ce qui génère de fausses alertes
qui peuvent fausser les résultats obtenus. La distinction entre les routes et les rivières est un
problème compliqué pour deux raisons :

— Ces objets sont caractérisés par leur surface homogène qui peut être similaire dans de
nombreux cas à celle des rivières.

— Leur forme allongée et leur structure quasi droite leurs permettent de passer à travers notre
test basé sur la forme, contrairement aux lacs qui sont facilement identifiables.

Comme déjà mentionnée, dans la dernière phase de l’algorithme, la distinction entre les lacs
et les rivières est relativement simple. Les lacs sont caractérisés par une valeur de notre indice
de forme très proche de 1, alors que les rivières sont caractérisées par une valeur élevée de ce
dernier. Cependant, la clé pour identifier les routes est basée sur la constatation suivante ; en
raison de sa forme quasi droite, la route est caractérisée par une valeur relativement faible de
l’indice de forme par rapport à celle associée aux rivières. En d’autres termes, la surface de la
199

route couvre une grande partie de la surface du rectangle englobant, ce qui implique qu’une
valeur inférieure de l’indice de forme est associée, mais en même temps, cette valeur reste
supérieure à 1. Une étape d’apprentissage peut être ajoutée pour différencier entre les différents
intervalles de l’indice de forme associés aux lacs, les rivières et les routes, respectivement.

Les bonnes performances obtenues par notre algorithme sont principalement dues au bon choix
des paramètres suivants : 1. Les seuils T1 et T2 utilisés lors de l’application du descripteur de
texture SFS-SD, 2. La longueur minimale de l’élément structurant utilisé, 3. Le rapport obtenu
en divisant la valeur de la surface associée au plus petit rectangle englobant l’objet par la valeur
de la surface associée à l’objet d’intérêt et enfin 4. Le choix de la taille de la fenêtre d’analyse
employée dans la phase de suivi. Le choix des paramètres 2, 3 et 4 est relativement simple étant
donné que ces paramètres ne dépendent pas de la résolution spatiale de l’image d’entrée. Le
paramètre décrivant la longueur minimum du chemin (numéro 2), par exemple, vise à filtrer les
petits objets qui représentent le bruit ou les petits artéfacts présents dans l’image et donc une
valeur supérieure à 20 ou 30 pixels devrait donner les résultats souhaités. La seule limitation
réside dans le choix de la valeur de la borne supérieure, elle doit être fixée de telle sorte qu’elle
conserve les petites portions appartenant à la rivière. Comme nous l’avons mentionné dans
la méthodologie proposée, ce seuil a été fixé à 50, mais d’autres valeurs peuvent également
donner de bons résultats. En ce qui concerne le choix du paramètre 3, nous avons déduit par
application de l’algorithme sur différentes images RSO qu’une valeur supérieure à 5 de ce ratio
donne les résultats souhaités. Le quatrième paramètre définit la taille de la fenêtre de recherche
utilisée dans la phase de suivi des segments de la rivière. Il n’y a pas de restriction stricte sur la
valeur de ce paramètre, mais en nous basant sur notre étude expérimentale, nous avons conclu
que la valeur 50 x 50 était très appropriée, car elle représente un compromis entre une valeur
très faible qui ne permet pas de détecter des segments voisins et une grande valeur qui reliera
tous les segments étroits et ajoute ainsi certains candidats qui ne font pas partie de la rivière.
Reste le choix des deux premiers paramètres qui représente un problème difficile. Ces deux
paramètres sont : T1 associé au seuil radiométrique et T2 associé au seuil spatial et qui ont été
fixés à 8 et 100, respectivement, dans ce travail, mais la modification de ces paramètres doit
200

être prise en considération si nous traitons des images caractérisées par différentes résolutions
spatiales. En conclusion, notre technique pour l’extraction des rivières peut être considérée
comme une méthode automatique pour les images radars à très haute résolution (3m à 6m),
mais une phase de réglage des paramètres doit être envisagée si nous traitons des images de
résolutions spatiales différentes.

4.7 Conclusion

Une nouvelle approche conçue pour l’extraction des dommages causés par les inondations
à partir des images RSO est proposée et testée. La technique proposée consiste à fusionner
les résultats de la classification pixellique basée sur le descripteur de texture SFS-SD et des
connaissances de haut niveau sur la forme de l’objet d’intérêt afin d’identifier la structure de
la rivière. La logique floue est par la suite employée comme opérateur de fusion entre les des-
cripteurs. Autant que nous sachions, le descripteur d’homogénéité est utilisé pour la première
fois pour identifier les rivières à partir de ces types d’images, et les résultats obtenus sont très
prometteurs. Les expériences effectuées sur les images acquises par le satellite RADARSAT-2
à partir de différentes régions du Canada montrent que notre algorithme fournit un très bon
rapport qualité d’extraction / temps d’exécution par rapport aux approches existantes dans la
littérature, et il fonctionne très bien sur les images bruitées et en présence d’occlusions. De
nombreuses pistes de recherche intéressantes sont possibles à la suite de ce travail, parmi les-
quelles nous citons : la possibilité d’intégrer l’information radiométrique obtenue à partir des
images optiques dans la phase de détection de la surface de l’eau comme l’indice de teneur en
eau par différence normalisée (NDWI), qui peut discriminer efficacement les surfaces d’eau
et fournir des informations complémentaires à celles fournies par le descripteur de texture uti-
lisé. La fusion des données optiques et radar est très prometteuse dans ce type d’application,
et nous sommes particulièrement intéressés par l’utilisation de la théorie de Dempster-Shafer
employée pour fusionner des sources d’information qui peuvent être à la fois hétérogènes et en
contradiction.
CONCLUSION GÉNÉRALE

L’extraction des structures linéaires et l’évaluation de leurs dommages suite à une catastrophe
majeure ont été étudiées dans le cadre de cette thèse. Deux techniques basées sur les particulari-
tés des images optiques et radar à très haute résolution spatiale sont proposées afin de résoudre
le problème d’extraction des dommages des routes suite à un tremblement de terre et le pro-
blème d’identification des zones sinistrées suite à des inondations. Nous avons en particulier
démontré l’intérêt de l’utilisation des approches multiéchelles qui combinent à la fois l’infor-
mation locale et globale pour décider l’échelle la plus adéquate pour extraire l’objet d’intérêt
ou pour filtrer l’information non pertinente.

Le premier chapitre de cette thèse est dédié à la présentation de la Charte internationale espace
et catastrophe majeure, qui représente le cadre applicatif de ce travail. Une revue des ressources
satellitaires disponibles, le processus d’activation de la Charte et la nature des catastrophes
supportées nous a permis de définir nos objectifs et de déterminer les catastrophes auxquelles
nous devrions nous intéresser. L’analyse des anciennes activations de la Charte nous a permis de
se faire une idée sur les techniques utilisées pour la génération des informations utiles issues des
données satellitaires et de décider par conséquent la méthodologie que nous devrions adopter en
prenant en considération plusieurs facteurs comme : le temps de réponse, la non-disponibilité
de certaines informations peu de temps après l’événement et la précision des résultats à fournir.

Le deuxième chapitre dresse un état de l’art complet des techniques utilisées dans la littérature
pour extraire les structures linéaires. Les approches décrites ont été classées en trois familles
d’approches : 1- les approches locales, 2- les approches globales, et 3- les approches multié-
chelles afin de pouvoir tirer les avantages et les inconvénients de chaque famille d’approche
et argumenter le choix de notre méthodologie. Différents types de distorsions géométriques
et radiométriques qui touchent à la fois les capteurs optiques et radar ont été aussi soulignés
dans ce chapitre et les techniques de correction généralement employées pour remédier à ces
problèmes ont été décrites. La dernière section de ce chapitre est consacrée à la description
des méthodes employées pour la détection des dégâts et les limitations des approches basées
sur l’extraction directe des dommages ont été discutées. Ce chapitre est de grande importance
202

puisqu’il a permis de présenter une revue de littérature des approches utilisées et de justifier le
choix des techniques adoptées dans les deux chapitres qui suivent.

Le troisième chapitre décrit la méthode adoptée pour l’extraction des routes à partir des images
optiques et l’évaluation de leurs dommages suite à un tremblement de terre. La technique
proposée pour extraire les routes est principalement basée sur la transformée multiéchelle en
beamlets capable d’identifier la meilleure échelle pour l’extraction des structures linéaires ;
1- D’abord une phase de prétraitement est appliquée sur l’image d’entrée afin de réduire sa
complexité et d’éliminer le bruit présent dans l’image. 2- Puis, une décomposition multié-
chelle en pyramide de beamlets est réalisée et les axes principaux de la route sont identifiés.
3- Finalement, les beamlets extraits à partir des échelles inférieures sont agrégés en respectant
des règles de linéarité pour pouvoir reconstruire la totalité du réseau routier. Cette technique
permet de limiter la zone de recherche des dommages subis par les routes et de réduire consi-
dérablement le temps d’exécution de l’algorithme. La deuxième étape consiste à identifier les
zones endommagées et décider pour chaque changement détecté s’il est dû à la catastrophe
ou à d’autres facteurs. Une segmentation multiéchelle est employée dans le but d’identifier les
objets présents sur la surface de la route, puis la divergence de Kullback-Leibler est appliquée
pour détecter la présence de changement. La deuxième phase de l’extraction des dommages
consiste à déterminer la nature du changement en utilisant la théorie des fonctions de croyance
qui nous a permis de fusionner différentes sources d’informations hétérogènes. Les résultats
obtenus ont été discutés dans une section dédiée à l’étude expérimentale et les performances
de la technique proposée ont été démontrées en la comparant à des approches existantes.

Le quatrième chapitre traite du problème d’identification des dégâts originaires des inonda-
tions. La technique exposée se base sur la combinaison de l’information locale issue d’un des-
cripteur de texture et de l’information globale générée par comparaison de la forme des rivières
et des lacs. Une fusion basée sur la logique floue est, par la suite, utilisée pour identifier l’éten-
due de l’eau et détecter les zones inondées. Afin d’évaluer les performances de notre technique,
des données réelles acquises lors des inondations du lac Champlain et la rivière Richelieu ont
203

été obtenues et utilisées pour tester les algorithmes développés et les résultats obtenus montrent
les potentiels de notre approche proposée.

Les contributions majeures de cette thèse se résument aux points suivants :

— L’application originale de la transformée en beamlet pour résoudre le problème d’extrac-


tion du réseau routier à partir des images optiques à très haute résolution. Cette étape
comprend aussi le calcul du plus petit rectangle englobant pour établir une distinction
entre les bâtiments et les routes, cette variante de la technique originale est utilisée dans
cette thèse pour la première fois dans la littérature.

— La segmentation multiéchelle de la surface de la route en se basant sur la transformée en


ondelettes a fourni des résultats impressionnants comparés aux techniques proposées pour
la segmentation des images satellitaires à très haute résolution.

— La méthode décrite pour extraire les rivières à partir des images radar diffère des autres
techniques existantes par sa faible sensibilité au chatoiement en raison de l’utilisation
d’une mesure de texture basée sur un noyau robuste aux variations de texture locale, et
par une application innovatrice de l’ouverture morphologique par des chemins pour le
filtrage des objets non linéaires et le bruit.

Les principales perspectives de recherche qui apparaissent à l’issue de cette thèse concernent
l’utilisation des filtres connectés pour améliorer les performances de l’extraction des rivières
à partir des images radar. Les filtres connectés permettent de réaliser une analyse morpholo-
gique multiéchelle et multiforme de l’image d’entrée et ont l’avantage par rapport aux éléments
structurants de ne pas introduire de nouveaux bords dans l’image analysée. Une implémenta-
tion efficace de cette famille de filtres est proposée par Salembier en 1998 et est basée sur la
structure Max-tree. Le Max-tree est définie comme étant un arbre dont les noeuds représentent
les zones homogènes de l’image, le noeud racine représente l’ensemble des pixels appartenant
à l’arrière-plan et les feuilles représentent des zones homogènes caractérisées par le niveau de
gris le plus élevé dans l’image. Des informations comme la forme de la zone homogène et
sa taille peuvent être stockées dans chaque noeud permettant l’élagage de l’arbre par rapport
à un critère fixé. Cette structure peut remplacer les trois dernières étapes de notre algorithme
204

conçue pour l’extraction des rivières ; 1- Les petits objets présents dans l’image peuvent être
filtrés suivant le critère de la taille par suppression des noeuds de l’arbre en fonction de la taille
de la zone qui lui est associée. 2- Les lacs peuvent être facilement distingués des rivières sur
la base de la valeur de l’indice de forme enregistrée dans chaque noeud. 3- Une variante de
la même structure appelée Dual Max-arbre peut être utilisée pour regrouper des fragments de
rivières et permet, par conséquent, de reconstituer la structure de la rivière sans introduire de
nouveaux bords.

Une deuxième perspective serait d’envisager la fusion entre les données optiques et radar afin
de profiter de la richesse radiométrique des données optiques et de la capacité des ondes ra-
dar à se propager avec une faible atténuation à travers l’air et en présence de divers obstacles,
tels les nuages, le brouillard ou la fumée. La complémentarité entre ces deux sources d’infor-
mation rend cette fusion un outil très puissant pour l’interprétation des scènes de catastrophe.
En cas de feu de forêt par exemple, l’identification du couvert végétale en utilisant l’indice
de végétation normalisée basé sur une combinaison de la bande rouge et de la bonde proche
infrarouge est une tâche très facile et permet de déterminer avec précision l’étendue des feux.
Par contre, les zones couvertes par la fumée dégagée par les feux de forêt sont occluses et sont
donc inaccessibles pour le capteur optique. Dans ces situations, le capteur radar peut jouer un
rôle important dans la pénétration à travers la fumée et la cartographie de la zone sinistrée. La
révolution dans le domaine de la fusion optique radar est principalement due à l’amélioration
spectaculaire de la résolution des capteurs radar, qui ont atteint de nos jours un niveau de détail
presque égal à la résolution des capteurs optiques. Cette fusion entre ces deux sources d’infor-
mation peut être réalisée par combinaison non hiérarchique d’informations ou par extraction de
primitives sur l’image optique et leur projection sur l’image radar. Mais les techniques qui se
basent sur la fusion bayésienne, la fusion floue ou encore la théorie des fonctions de croyance
(aussi appelée théorie de l’évidence ou théorie de Dempster-Shafer DST) restent les plus inté-
ressantes vu qu’elles permettent de gérer : la contradiction, l’ambiguïté et l’incertitude entre les
sources d’information. Nous nous intéressons en particulier à une variante proposée par Sma-
randache & Dezert (2004), qui a été développée pour s’affranchir des deux limites inhérentes
205

de la théorie des fonctions de croyance. La théorie du raisonnement plausible et paradoxale per-


met de modéliser la combinaison des sources d’information non seulement avec les unions des
classes, mais également avec les intersections, et donc la possibilité d’associer à un pixel donné
de l’image deux ou plusieurs classes différentes d’appartenance à la fois. Par exemple, un pixel
appartenant à la classe bâtiment suivant la source optique, peut en même temps appartenir à la
classe des objets homogènes suivant la source radar, ce qui est tout à fait logique.

Nous explorons aussi la possibilité d’appliquer les réseaux de neurones artificiels avec ap-
prentissage profonds pour la reconnaissance rapide et précise des objets d’intérêt à partir des
images satellitaires et pour faciliter, par conséquent, la tâche d’identification des dommages.
Cette technique s’inspire originellement des observations en neurosciences vis-à-vis du fonc-
tionnement du cerveau. Contrairement aux premiers modèles de réseaux de neurones artificiels
comme : le perceptron qui est incapable de résoudre des problèmes non-linéaires, les réseaux
de neurones artificiels multi-couches et la rétro-propagation du gradient très sensible au pro-
blème des minima locaux et les séparateurs à vaste marge (SVM) qui permettent de résoudre
des problèmes non-linéaires en utilisant une optimisation convexe, mais qui souffrent du pro-
blème du choix du meilleur noyau pour séparer les données, les réseaux de neurones avec
apprentissage profond permettent de résoudre des problèmes non-linéaires en utilisant un ré-
seau de neurones à plusieurs couches cachées. L’idée de base se résume dans la création d’un
réseau multicouche capable d’apprendre une hiérarchie de caractéristiques avec des niveaux
d’abstraction croissants, tout en veillant à l’aspect séparation entre les propriétés des neurones
qui trouve son intérêt dans des applications comme l’apprentissage multi-tâche ou l’adaptation
du domaine d’application. Ce concept qui a gagné de l’intérêt durant ces sept dernières années
a été propulsé par l’évolution technologique des processeurs graphiques et a trouvé plusieurs
champs d’application, en particulier en classification d’images et en reconnaissance de formes
à partir des images à très haute résolution. Nous nous intéressons en particulier à la biblio-
thèque Theano développée par l’institue des algorithmes d’apprentissage de Montréal (MILA)
affilié à l’Université de Montréal qui permet de compiler et d’exécuter efficacement des algo-
206

rithmes basés sur l’apprentissage profond sur l’unité de traitement central (CPU) ou l’unité de
traitement graphique (GPU).
RECOMMANDATIONS

Sur la base des constats que nous avons tirés à partir de cette thèse, plusieurs recommandations
peuvent être adoptées afin d’améliorer la réponse des organisations et des organismes membres
de la Charte face aux catastrophes majeures et de réduire le temps nécessaire pour la génération
des cartes de dommages. Les principales propositions sont les suivantes :

— La première recommandation concerne l’intérêt de l’application d’une étape de prétrai-


tement et d’une étape de recalage avant d’utiliser les algorithmes développés dans cette
thèse. Comme nous l’avant mentionné dans plusieurs sections de ce manuscrit, les ap-
proches décrites ci-dessus sont invariantes par rapport à l’échelle d’observation et aux
changements dans les conditions d’acquisitions, ce qui leurs donne une robustesse vis-
à-vis du bruit et la majorité des distorsions radiométriques et géométriques qui peuvent
toucher les images satellitaires. Malgré ces précautions prises en considération dès le dé-
but de ce travail, nous avons constaté par application de nos techniques sur une grande
variété d’images de catastrophes que les effets des distorsions sont encore présents dans
ces images. Le problème ne vient pas forcement de la qualité des techniques proposées,
mais du fait qu’il est impossible de créer une méthode générique qui permet de résoudre
des problèmes de reconnaissance de formes complexes, tout en prenant en considération
les problèmes reliés à la variation dans l’angle d’acquisition, le changement du capteur
utilisé entre l’image d’archive et l’image de l’après-catastrophe, l’utilisation d’images à
des résolutions spatiales différentes, etc. Aussi, nous avons déduit à partir de la phase
de détection de changement que l’utilisation d’une étape de recalage efficace et précise
améliore remarquablement la précision des résultats de la détection de changement et par
conséquent l’identification des dégâts. Nous suggérons alors de consacrer le temps néces-
saire pour la phase de prétraitement vu son impact sur la qualité des résultats souhaités,
développer les outils nécessaires et spécifiques pour chaque capteur afin de compenser
au maximum les effets indésirables reliés au mécanisme de formation des images satel-
litaires et l’utilisation d’une information riche en détails. Nous recommandons fortement
de s’assurer de la qualité des données brutes fournies comme entrée pour les algorithmes
automatiques pour garantir la qualité de la carte de dommages générée.
208

— La deuxième recommandation que nous suggérons s’intéresse à l’utilité des données auxi-
liaires et à l’intérêt de la disposition d’une vérité terrain, de connaissances à priori ou de
bases de données SIG dans l’amélioration du processus de la gestion des catastrophes.
Dès le début de cette thèse, nous étions conscients des avantages qu’offre l’ajout d’une
étape d’extraction des structures d’intérêts, puisqu’elle permet de réduire le champ de re-
cherche pour se focaliser sur les dégâts subis par les routes ou causés par les rivières, de
diminuer le taux de fausses alarmes et de réduire considérablement le temps d’exécution
des algorithmes. De ce fait, nous avons consacré, que ce soit en cas de tremblements de
terre ou en cas d’inondations, une phase d’extraction des structures linéaires permettant
de fournir la position de ces structures en cas de sa non-disponibilité. Les résultats obtenus
par application de nos algorithmes sont très promoteurs et sont assez précis, mais, même
avec un taux d’extraction supérieur 90 %, le taux de fausses alarmes obtenu par applica-
tion de nos algorithmes influence directement le taux total associé à l’identification des
dommages. Nous sommes conscients que cette information n’est pas toujours disponible
pour certaines régions et que dans la plupart des cas cette information n’est pas régulière-
ment mise à jour, mais nous voudrions inciter les décideurs et les photo-interprètes à s’en
servir dès qu’ils en disposent, vu le gain remarquable en terme de qualité et d’exactitude
des résultats finaux fournis. D’ailleurs, ces données peuvent servir aussi à compléter les
informations manquantes et à s’assurer des résultats fournis par les algorithmes que nous
avons proposés. C’est pour ces raisons que nous avons aussi veillé à prendre en considéra-
tion l’information provenant de ces données auxiliaires, en implémentant des algorithmes
modulaires et adaptatifs afin de faciliter la procédure de modification des données d’en-
trée pour qu’ils pointent, par exemple, sur une base de données SIG ou sur des couches
vectorielles représentant le réseau routier si ces données sont accessibles. Dans le futur,
de nouveaux systèmes plus adaptatifs peuvent être mis en place afin de tirer profil de l’in-
formation issue d’autres capteurs satellites de nature hétérogène, d’un modèle d’élévation
de terrain utile dans l’évaluation des dégâts des bâtiments ou encore des applications web
qui permettent à des utilisateurs sur le terrain de fournir une évaluation en temps réel de
l’état des routes ou des bâtiments touchées.
209

— Nous suggérons aussi de créer une base de données d’archive contenant des images de
l’avant catastrophe et des cartes de dommages montrant avec précision les zones touchées.
Cela permet d’apprendre des expériences passées et d’éviter l’utilisation de certaines tech-
niques qui n’ont pas montré de bonnes performances appliquées à certaines catastrophes
en particulier. Dans les deux cas que nous avons traités dans le cadre de cette thèse, à
savoir le tremblement de terre d’Haïti et les inondations du lac Champlain et de la rivière
Richelieu, les données d’archives des deux événements étaient disponibles, mais n’étaient
pas, dans certains cas, utilisables vu la différence dans les conditions d’acquisition, dans
l’angle d’incidence et dans la résolution des capteurs entre les images de l’avant et de
l’après-désastre. Afin de pouvoir surpasser ces problèmes, nous suggérons de : 1- créer
une base de données des images d’archives enregistrées dans les meilleures conditions
d’acquisition possibles : par exemple privilégier les images acquises avec une visée au
nadir, 2- éviter d’acquérir des images en utilisant des capteurs radar durant l’hiver ou la
saison humide à cause de la sensibilité de ce capteur aux surfaces couvertes par la neige et
aux surfaces humides et 3- appliquer les prétraitements et les corrections nécessaires sur
l’image avant de l’enregistrer sous forme d’archive pour diminuer un temps de traitement
important lors du déclenchement de la Charte. D’autres formes de données peuvent être
dérivées à partir des images d’archive et peuvent être enregistrées à leur tour comme des
archives, mais sous d’autres formes afin d’être utilisées plus tard pour l’amélioration de la
gestion des catastrophes. Nous citons par exemple l’emploi des classifieurs comme les sé-
parateurs à vaste marge ou les réseaux de neurones artificiels qui peuvent être entraînés en
se basant sur les classes présentes dans l’image de l’avant catastrophe et utilisés plus tard
pour détecter la présence d’une classe différente qui correspond aux débris recherchés.
L’aspect temps qui joue en faveur des données d’archive peut aussi permettre d’entraîner
des algorithmes plus complexes qui nécessitent à la fois plus de temps d’entraînement et
de ressources de calcul comme les réseaux de neurones artificiels à apprentissage pro-
fond, mais qui par contre permettent d’obtenir des résultats largement supérieurs aux al-
gorithmes de classification traditionnels. Un tel modèle peut être généralisé pour créer des
neurones interconnectés réutilisables sur d’autres images satellitaires.
210

— Un autre point très important s’articule autour de la favorisation de l’utilisation du code


réutilisable, la décomposition des programmes en un ensemble de modules interconnec-
tés et la création d’une bibliothèque de fonctionnalités de traitement d’image prédéfinies.
Ces recommandations ont été principalement déduites à partir de plusieurs observations
effectuées tout au long de cette thèse ; nous avons remarqué que le descripteur de tex-
ture utilisé pour l’extraction des routes a été aussi appliqué avec succès pour caractériser
l’homogénéité des rivières. Aussi, l’algorithme d’extraction des routes développé dans
le cadre de ce travail peut servir de prétraitement pour d’autres méthodes d’identifica-
tion des inondations à partir des images optiques. L’idée est de garder chaque étape des
techniques proposées dans un module à part et profiter des modeleurs de traitement in-
tégrés dans des plateformes connues en traitement d’image comme QGIS ou ArcGIS pour
interconnecter ces modules. De plus, des techniques inspirées des notions de base du trai-
tement d’image peuvent être de grande utilité dans de telles circonstances. Par exemple,
la localisation rapide des zones les plus touchées peut être effectuée en se basant sur une
simple soustraction ou une division des valeurs de chaque pixel dans les deux images, cela
permet de localiser rapidement les zones d’intérêt, en un temps très raisonnable. D’autre
part, certaines techniques très génériques comme l’angle spectral, par exemple, peuvent
être utilisées pour résoudre plusieurs problèmes de reconnaissance d’objets ou de détec-
tion de dommages, il suffit de calculer l’angle entre le ou les pixels de référence et le reste
de l’image pour pouvoir dresser une carte de distance et déterminer le degré de similarité
radiométrique entre le pixel courant et un pixel quelconque de l’image.

— La dernière recommandation s’intéresse à l’avantage de l’amélioration de l’aspect interac-


tion homme-machine dans les modules de gestion des catastrophes développés dans le fu-
tur. Nous encourageons les photo-interprètes à utiliser les algorithmes semi-automatiques,
puisqu’ils permettent généralement d’obtenir des résultats supérieurs à ceux fournis par
les algorithmes non supervisés et profitent du cadre qu’offre la gestion des catastrophes
majeures qui permet l’intervention d’un photo-interprète pour sélectionner des zones d’ap-
prentissages ou délimiter les objets d’intérêt. L’utilisateur peut intervenir aussi au niveau
211

du choix des paramètres optimaux et du choix du meilleur algorithme à exécuter. Le but


dans ce cas n’est pas de rendre la tâche d’extraction des dommages manuelle, mais de mi-
nimiser au maximum l’intervention de l’utilisateur et de restreindre son rôle à orienter la
méthode vers les résultats optimaux en faisant varier les paramètres d’entrée ou en choi-
sissant les meilleurs échantillons représentatifs des objets recherchés dans l’image. Nous
avons remarqué que cet aspect est utilisé de plus en plus dans les applications d’aide à la
gestion des catastrophes récemment développées, mais cela reste inférieur aux attentes.
Les outils proposés dans cette thèse peuvent servir de point de départ pour contourner ces
limitations et faire avancer la recherche dans cette branche peu exploitée faisant partie de
la gestion des catastrophes majeures.
ANNEXE 1 : INTRODUCTION À LA BIBLIOTHÈQUE DE TRAITEMENT
D’IMAGES SATELLITAIRES LIBRE ORFEO TOOLBOX (OTB) : INSTALLATION
ET CRÉATION DES APPLICATIONS SUR QUANTUM GIS

1 Introduction

Proposer des algorithmes dédiés pour le traitement des images satellitaires et capables d’ex-
traire l’information utile indépendamment de la nature des données traitées constitue une étape
importante dans le processus de création d’une application performante pour la gestion des
catastrophes majeures. Cependant, le choix de la plateforme applicative à adopter, le langage
de programmation utilisé et les bibliothèques à intégrer dans le programme a aussi une grande
influence sur les performances du logiciel final fourni aux photo-interprètes. Dans cette thèse,
nous avons opté dès le début pour la bibliothèque à accès libre Orfeo toolbox (OTB) qui four-
nit un paquet d’outils de traitement d’images facilitant la manipulation et la visualisation des
images satellitaires de grande taille. Nous allons, dans ce qui suit, expliquer les différentes
étapes à suivre pour installer la bibliothèque OTB, ainsi que toutes les dépendances nécessaires
pour son bon fonctionnement.

2 Guide d’installation

2.1 OSGeo4W

OSGoe4W est une distribution de binaires d’un grand nombre de logiciels géospatiaux à code
source libre pour l’environnement Windows. Nous allons utiliser cette distribution pour ins-
taller les différentes dépendances nécessaires pour compiler le projet OTB. Aussi, nous en
profiterons pour installer QGIS qui représente notre plateforme de visualisation des images sa-
tellitaires et qui permettra par la suite d’intégrer nos applications OTB avec sa liste de fonctions
natives.
214

Distribution OSGeo4W64

Il existe deux versions d’OSGeo4W disponible sur le site officiel : la version 32 bits pour
les systèmes d’exploitation 32 bits et la version 64 bits pour les systèmes d’exploitation 64
bits. Nous recommandons d’installer la version 64 bits si vous disposez d’une machine 64 bits,
puisqu’elle permet de profiter pleinement des ressources matérielles disponibles sur la machine
utilisée et n’a pas de limitation de mémoire sur la taille des images satellitaires utilisées en
entrée. Afin de télécharger osgeo4w-setup-x86_64.exe (64 bits), il suffit de cliquer sur le lien
suivant :
http://download.osgeo.org/osgeo4w/osgeo4w-setup-x86_64.exe

Une fois le téléchargement terminé, exécuter l’installation d’OSGeo4W64 avec les droits AD-
MINISTRATEUR, puis suivre les étapes d’installation suivantes :

1. Advanced Install // Type d’installation

2. Install from internet // Source du téléchargement

3. Root : C :\OSGeo4W64 + All users // Répertoire de téléchargement

4. local package : n’import où // Répertoire de téléchargement


+ Start menu name : Osgeo4W // Nom de démarrage du script

5. Direct connection // Connexion internet

6. Available download sites : // http://download.osgeo.org

Selection des progiciels, bibliothèques et dépendances

À partir de l’installation d’OSGEO4W64, sélectionner pour installation les dépendances sui-


vantes :

1) Dans Desktop :

— qgis (ne pas sélectionner qgis-full ni qgis-dev)


215

— saga // Système d’analyse géographique


automatisée

2) Dans CommandLine_Utilities :

— Liblas //LIDAR

— python-core

— swig //Liaisons entre langages

3) Dans Libs :

— boost

— curl

— expat

— fftw

— fltk

— freexl

— gdal //Lecture et écriture d’images


géographiques

— gsl-devel(et gsl-libs) //Bibliothèque scientifique GNU

— itk

— libgeotiff

— libjpeg12

— liblas-devel

— libpng

— libpq

— libtiff

— mapnik (optionnel) //Peut être absent de la liste...

— msvcrt
216

— msvcrt2010 (si visual studio 2010 utilisé)

— ogdi //Data access library

— opencv

— openjpeg

— osg-dev (et osg-libs) //Open Source Graph

— osgearth-dev (et osgearth-libs)

— ossim //Open Source Software Image Map

— python-devel

— qt4-devel

— sqlite3

— szip

— tinyxml

— xerces-c-vc-10 (et xerces-c-vc-10-devel)

— zlib

Accepter aussi toutes les dépendances requises à l’étape suivante.

2.2 CMake

Afin de pouvoir lier les différentes dépendances téléchargées en utilisant OSGEO4W64 au pro-
jet OTB, nous avons besoin d’un logicielle appelé CMake. Ce système est un logiciel libre, mul-
tilangage et multiplateforme capable de générer à partir d’un fichier de configuration (nommé
CMakeLists.txt), un fichier Makefile, un fichier de projet d’EDI (Environnement de dévelop-
pement intégré) ou une combinaison des deux (pour les EDI supportant les fichiers Makefile).
Cmake est disponible pour téléchargement sur le lien suivant (version actuelle 3.7.2, janvier
217

2017) :
https://cmake.org/download/

2.3 Orfeo toolbox (OTB)

Optical and radar Earth Observation images (OTB) est une bibliothèque de traitement d’images
satellitaires. Initiée par l’agence spatiale française (CNES) en 2006, OTB est développée en
C++ et est bâtie au dessus de la bibliothèque de traitement d’images médicales ITK (Insight
toolkit). Elle offre diverses fonctionnalités pour faciliter le traitement des grandes images satel-
litaires, parmi lesquelles nous citons : 1- lecture et écriture des images satellitaires (en utilisant
la bibliothèque GDAL), 2- filtrage et suppression du bruit, 3- extraction des descripteurs, 4-
segmentation de l’image, 5- classification supervisée et non supervisée et 6- prétraitement des
images satellitaires optiques et radar...

Distribution 5.2.0

La version 5.2.0 d’OTB vient avec plusieurs améliorations par rapport aux versions antérieures.
Ces améliorations sont principalement liées à l’allégement du code source du projet et à la
compatibilité avec la nouvelle version de Gdal 2.0. En plus de ces améliorations mentionnées,
d’autres fonctionnalités sont intégrées dans cette version d’OTB, comme :

— Traitement des images polarimétriques RSO.

— Support des produits Sentinels1.

— Amélioration de l’algorithme de classification basé sur les forêts aléatoires.

— Integration de plusieurs filtres pour éliminer le chatoiement dans les images RSO (Frost,
Lee, GammaMAP, Kuan).

Compilation de la bibliothèque OTB

Une fois OSGeo4W installée :


218

1. Créer un répertoire C :\OTB

2. Dans C :\OTB

2.1. Créer un répertoire OTB-SOURCE

2.2. Créer un répertoire OTB-BIN

2.3. Créer un répertoire OTB-INSTALL

2.4. Créer un répertoire src

2.5. Créer un répertoire bin

3. Télécharger OTB-5.2.0.zip à partir de http://sourceforge.net/projects/orfeo-toolbox/files/

4. Décompresser le fichier zip dans C :\OTB\OTB-SOURCE

5. Créer un fichier OTB-build.bat avec les informations suivantes et le placer au même


niveau que les répertoires OTB-SOURCE, OTB-BIN et OTB-INSTALL :

@echo off

call "C:\Program Files (x86)\Microsoft Visual Studio 10.0


\VC\vcvarsall.bat" amd64

set /A ARGS_COUNT=0
for %%A in (%*) do set /A ARGS_COUNT+=1
if %ARGS_COUNT% NEQ 3 (goto :Usage)

if NOT DEFINED OSGEO4W_ROOT (goto :NoOSGEO4W)

set src_dir=%1
set build_dir=%2
set otb_install_dir=%3
set current_dir=%CD%
219

set LANG=C
set ITK_AUTOLOAD_PATH=
set PYTHONPATH=
set PATH=%OSGEO4W_ROOT%\apps\swigwin\;C:\Program Files (x86)
\CMake\bin;%PATH%

cd %build_dir%

cmake %src_dir% ^
-G "Visual Studio 10 Win64" ^
-DBUILD_EXAMPLES:BOOL=OFF ^
-DOTB_WRAP_QT:BOOL=ON ^
-DOTB_WRAP_PYTHON:BOOL=ON ^
-DPYTHON_LIBRARY:FILEPATH="%OSGEO4W_ROOT%/apps
/Python27/libs/python27.lib" ^
-DPYTHON_INCLUDE_DIR:PATH="%OSGEO4W_ROOT%/apps
/Python27/include" ^
-DPYTHON_EXECUTABLE:FILEPATH="%OSGEO4W_ROOT%/bin
/python.exe" ^
-DOTB_USE_OPENCV:BOOL=ON ^
-DCMAKE_INSTALL_PREFIX:PATH=%otb_install_dir% ^
-DCMAKE_CONFIGURATION_TYPES:STRING=Release;
RelWithDebInfo"
REM THE LINE DOTB_SHOW_ALL_MSG_DEBUG SHOULD BE REMOVED WHEN
ALL WORKS OK
REM -DOTB_SHOW_ALL_MSG_DEBUG:BOOL=ON ^
REM -DOTN_USE_EXTERNAL_OSSIM:BOOL=OFF"

REM -DOTB_USE_EXTERNAL_ITK:BOOL=ON ^
220

REM -DITK_DIR:PATH="C:/Developpement/OTB/ITK-BIN"

cmake --build . --target INSTALL --config Release

cd %current_dir%

goto :END

:Usage
echo Vous devez fournir 3 arguments au programme :
echo 1. chemin vers le repertoire source
echo 2. chemin vers le repertoire build (un repertoire vide)
echo 3. chemin vers le repertoire install (un repertoire vide)

1. Lancer un interpréteur de commande (shell) OSGeo4W64


C :\OSGeo4W64\OSGeo4W.bat

2. Dans le shell

2.1. cd C :\OTB\

2.2. Taper OTB-build.bat C :\OTB\OTB-SOURCE C :\OTB\OTB-BIN C :\OTB\OTB-


INSTALL

2.3. L’ensemble de l’installation d’OTB devrait se faire seul avec succès

NOTE 1 : VISUAL STUDIO 2010 64 bits doit être installé avant l’exécution du script. Si
VISUAL STUDIO 2010 32 bits est déjà installé, il faut, pour migrer à 64 bits :

— Désinstaller les redistributions x64 de VISUAL STUDIO 2010.

— Installer VISUAL STUDIO 2010 SDK v7.1

NOTE 2 : Le numéro de la version doit être spécifié pour les versions de cmake antérieures
à la version 3. La ligne suivante du script devra donc être corrigée si cmake est inférieur à la
221

version 3 (dans l’exemple ci-dessous, on suppose qu’on dispose de la version 2.8 de cmake) :
set PATH=%OSGEO4W_ROOT%\apps\swigwin\ ;C :\Program Files (x86)\CMake 2.8\bin ;
%PATH%

3 Création des applications OTB sur QGIS

3.1 Transformation d’un programme OTB en une application OTB

Le passage d’une fonction OTB à une application suit le même modèle adopté dans la créa-
tion des applications ITK. Il suffit de changer la fonction main() par la fonction DoExecute,
initier les paramètres du programme dans la fonction DoInit() et ajouter une fonction DoUp-
dateParameters(). L’exemple suivant montre une simple application OTB avec les préambules
nécessaires.

// L’entête minimal
#include "otbImage.h"
#include "otbImageFileReader.h"
#include "otbImageFileWriter.h"
#include "otbWrapperApplication.h"
#include "otbWrapperApplicationRegistry.h"
#include "otbWrapperApplicationFactory.h"
#include "otbWrapperTags.h"
namespace otb
{
namespace Wrapper
{
class ExtractionRoutes : public Application
{
public:
typedef ExtractionRoutes Self;
222

typedef Application Superclass;


typedef itk::SmartPointer<Self> Pointer;
typedef itk::SmartPointer<const Self> ConstPointer;
/** Macro standard d’ITK */
itkNewMacro(Self);
itkTypeMacro(ExtractionRoutes, otb::Application);
private:
void DoInit()
{
SetName("ExtractionRoutes");
SetDocName("ExtractionRoutes");
SetDocLongDescription("Un simple module pour l’extraction des
routes");
SetDocLimitations("Les autres paramètres seront ajoutés plus
tard");
SetDocAuthors("Moslem Ouled Sghaier");
AddParameter(ParameterType_InputImage,"in", "Input Image");
SetParameterDescription("in", "The input image");
AddParameter(ParameterType_OutputImage,"out", "Output Image");
SetParameterDescription("out","The output image");
}
void DoUpdateParameters()
{
//Ne rien faire ici, tous les paramètres sont indépendants
}
void DoExecute()
{
// Le programme pricipal
223

SetParameterOutputImage<CharImageType>("out",outputfinal);};}}
OTB_APPLICATION_EXPORT(otb::Wrapper::ExtractionRoutes);

3.2 Integration d’une application OTB dans QGIS

Ajout d’un module OTB contenant l’application

À partir de la version 5.0, toute application OTB doit être associée à un module OTB. Les
modules OTB sont ajoutés sous le répertoire suivant : C :\OTB\OTB-SOURCE\Modules\
Application\. Un dossier avec le nom de l’application précédé par le préfixe App est créé
incluant les quatre éléments suivants :

1. Un dossier app : Ce dossier contient le ou les applications que nous voudrions ajouter
à notre module. Ces fichiers sont généralement associés à l’extension .cxx. Un fichier
CMakeLists contenant l’information suivante est créé :

set(OTBAppExtractionRoutes_LINK_LIBS
${OTBTextures_LIBRARIES}
${OTBImageBase_LIBRARIES}
${OTBObjectList_LIBRARIES}
${OTBApplicationEngine_LIBRARIES}
${OTBImageManipulation_LIBRARIES}
${OTBGDAL_LIBRARIES})
OTB_CREATE_APPLICATION(NAME ExtractionRoutes
SOURCES ExtractionRoutes.cxx
LINK_LIBRARIES ${${otb-module}_LIBRARIES})

Note : Vous devez répéter les trois dernières lignes pour chaque application à ajouter.
224

2. Un dossier include : Ce dossier contient les fichiers d’entêtes utilisés dans le pro-
gramme. Nous voudrions mentionner que seuls les fichiers ajoutés par l’utilisateur sont
déposés dans ce dossier, les entêtes ITK par exemple sont chargés automatiquement.

3. Un fichier CMakesLists : Ce fichier contient le nom du projet précédé par le préfixe


OTBApp.

project(OTBAppExtractionRoutes)
otb_module_impl()

4. Un fichier otb-module.cmake : Ce fichier contient une description du module, ainsi que


les dépendances nécessaires pour l’exécuter.

set(DOCUMENTATION "Extraction des routes.")


otb_module(OTBAppExtractionRoutes
DEPENDS
OTBITK
OTBApplicationEngine
OTBGdalAdapters
OTBApplicationEngine
OTBImageBase
OTBCommon
OTBImageManipulation
OTBTextures
OTBEdge
TEST_DEPENDS
OTBTestKernel
OTBCommandLine
DESCRIPTION "${DOCUMENTATION}"
)
225

Création d’un fichier XML associé à l’application OTB

Pour relier l’application OTB à QGIS, une sorte de pont est nécessaire afin de faire le lien entre
les entrées du programme et l’interface utilisateur de QGIS. Ce pont est créé en utilisant un
fichier de configuration XML (langage de balisage extensible). Un exemple du fichier XML
créé pour notre module dédié pour l’extraction des routes est présenté dans le code suivant :

<root>
<key>ExtractionRoutes</key>
<exec>otbcli_ExtractionRoutes</exec> // Le nom du fichier
.bat associé à l’application
<longname>ExtractionRoutes</longname> // Le nom du module
dans Qgis
<group>TCM</group> // Le groupe auquel
appartient le module
<description>Une approche multiéchelle pour extraire les
routes </description>
<parameter>
<parameter_type source_parameter_type=
"ParameterType_InputImage">ParameterRaster
</parameter_type>
<key>in</key> // Le nom du paramètre
dans l’application OTB
<name>Input Image</name> // Le nom du paramètre
dans Qgis (l’image d’entrée)
<description>The input image.</description>
</parameter>
<parameter>
<parameter_type source_parameter_type=
"ParameterType_OutputImage">OutputRaster</parameter_type>
226

<key>out</key> // Le nom du paramètre


dans l’application OTB
<name>Output Image</name> // Le nom du paramètre
dans Qgis (l’image de sortie)
<description>Output image.</description>
<hidden />
</parameter>
</root>

Création d’un fichier HTML associé à l’application OTB

Une description détaillée des paramètres d’entrée et de sortie, ainsi que leurs types est aussi né-
cessaire afin d’aider l’utilisateur à comprendre le fonctionnement de l’application OTB. Cette
information est incluse dans un code HTML comme le montre l’exemple suivant, et sera affiché
dans l’application sous la forme d’une page web sous l’anglet description.

<html><head>
<style type="text/css">
dl { border: 3px double #ccc; padding: 0.5em; }
dt { float: left; clear: left; text-align: left; font-weight:
bold; color: green; }
dt:after { content: ":"; }
dd { margin: 0 0 0 220px; padding: 0 0 0.5em 0; }
</style>
</head><body><h1>ExtractionRoutes</h1>
<h2>Brief Description</h2>
Extraction des routes à partir des images optiques à THRS
227

<h2>Tags</h2>TCM
<h2>Long Description</h2>
Une application multiéchelle pour l’extraction des routes
basée sur la transformée en beamlets
<h2>Parameters</h2><ul>
<li><b>[param] -in</b>&lt;string&gt; L’image utilisée
en entrée</li> // L’image d’entrée
<li><b>[param] -out</b>&lt;string&gt; L’image utilisée
en sortie</li> // L’image de sortie
<li><b>[param] -ram</b>&lt;int32&gt; La mémoire RAM
disponible</li> // La mémoire utilisée
</li></ul>
<h2>Limitations</h2>None // Limitations
<h2>Authors</h2>Moslem // L’auteur
<h2>See Also</h2>
<h2>Example of use</h2> // Exemples
<ul><li><p style=" margin-top:0px; margin-bottom:0px;
margin-left:0px; margin-right:0px; -qt-block-indent:0;
text-indent:0px;">in: input.tif</p></li>
<li><p style=" margin-top:0px; margin-bottom:0px;
margin-left:0px; margin-right:0px; -qt-block-indent:0;
text-indent:0px;">out: output.tif</p></li>
</body></html>

Intégration de l’application et activation de la barre d’outils OTB sur QGIS

Une fois que les fichiers XML et HTML associés à l’application sont créés, et que l’application
est compilée (en mode release) pour générer un fichier dll et deux fichiers bat, il suffit de copier
ces fichiers dans le bon emplacement sur la racine de QGIS pour qu’il puisse y accéder :
228

1. Copier le fichier XML créé sous C :\OSGeo4W64\apps\qgis\python\plugins


\processing\algs\otb\description

2. Copier le fichier HTML créé sous C :\OSGeo4W64\apps\qgis\python\plugins


\processing\algs\otb\description\doc

3. Copier les deux fichiers bat (otbcli et otbgui) se trouvant sous C :\OTB\OTB-INSTALL
\bin à leur nouvel emplacement dans la racine de QGIS sous C :\OSGeo4W64\bin

4. Copier le fichier dll se trouvant sous C :\OTB\OTB-INSTALL\lib\otb\applications à


son nouvel emplacement dans la racine de QGIS sous C :\OSGeo4W64\apps\orfeotool-
box\applications

5. Pour tester l’application, ouvrir QGIS et aller sur Traitement→Options→Prestataires de


services→Boîte à outils Orfeo (Analyse d’images) et cocher Activate. Les modules OTB
préinstallés, ainsi que la nouvelle application ajoutée devraient apparaître dans la boîte à
outils de traitements à droite de la fenêtre d’accueil de QGIS.
BIBLIOGRAPHIE

Abu Ain, T., Abdullah, S. N. H. S., Bataineh, B. & Omar, K. (2013). A fast and efficient
thinning algorithm for binary images. Journal of ICT Research and Applications, 7(3),
205-216.
An, W., Liang, M. & Liu, H. (2015). An improved one-class support vector ma-
chine classifier for outlier detection. Proceedings of the institution of mechani-
cal engineers, part c : Journal of mechanical engineering science, 229(3), 580-588.
doi : 10.1177/0954406214537475.
Arsenault, H. (1987). Information extraction from images degraded by speckle. IEEE Interna-
tional Geoscience and Remote Sensing Symposium (IGARSS), Ann Arbor (USA), 18-21
May, 87, 1317–1322.
Barber, D. G. & LeDrew, E. F. (1991). Sar sea ice discrimination using texture statistics :
A multivariate approach. Photogrammetric Engineering and Remote Sensing, 57(4),
385–395.
Bessis, J.-L., Béquignon, J. & Mahmood, A. (2004). The international charter “space and
major disasters” initiative. Acta Astronautica, 54(3), 183-190.
Beucher, S. & Lantuejoul, C. (1979). Use of watersheds in contour detection. Internatio-
nal Workshop on Image Processing : Real-time Edge and Motion Detection/Estimation,
Rennes, France, 17-21 september. CCETT/IRISA Report no. 132, p. 2.1–2.12.
Bovolo, F., Bruzzone, L., Capobianco, L., Garzelli, A., Marchesi, S. & Nencini, F. (2010).
Analysis of the effects of pansharpening in change detection on vhr images. IEEE Geos-
cience and Remote Sensing Letters, 7(1), 53-57.
Bresenham, J. E. (1965). Algorithm for computer control of a digital plotter. IBM Systems
Journal, 4(1), 25-30. doi : 10.1147/sj.41.0025.
Canny, J. (1986). A computational approach to edge detection. IEEE Transaction on Pattern
Analysis and Machine Intelligence, 8(6), 679–698.
Chang, C.-T., Gorissen, B. & Melchior, S. (2011). Fast oriented bounding box op-
timization on the rotation group so(3,r). ACM Transaction Graph., 30(5), 1-16.
doi : 10.1145/2019627.2019641.
Chaudhuri, D., Kushwaha, N. K. & Samal, A. (2012). Semi-automated road detection from
high resolution satellite images by directional morphological enhancement and segmen-
tation techniques. IEEE Journal of Selected Topics in Applied Earth Observations and
Remote Sensing, 5(5), 1538-1544.
Chen, C.-T., Chen, K.-S. & Lee, J.-S. (2003). The use of fully polarimetric information for the
fuzzy neural classification of sar images. IEEE Transactions on Geoscience and Remote
Sensing, 41(9), 2089-2100. doi : 10.1109/TGRS.2003.813494.
230

Cheng-Li, J., Ke-Feng, J., Yong-Mei, J. & Gang-yao, K. (2005). Road extraction from high-
resolution sar imagery using hough transform. IEEE International In Geoscience and
Remote Sensing Symposium (IGARSS), Seoul, Korea (South), 25-29 July, 1, 336–339.

Christophe, E. & Inglada, J. (2007, Sept). Robust road extraction for high resolution satellite
images. IEEE International Conference on Image Processing (ICIP), 5, 437–440.

Christophe, E. & Inglada, J. (2009). Open source remote sensing : Increasing the usability
of cutting-edge algorithms. IEEE Geoscience and Remote Sensing Newsletter, 35(5),
9–15.

Cocquerez, J. P. & Philipp-Foliguet, S. (1995). Analyse d’images : filtrage et segmentation.


MASSON.

Comblet, F. (2005). Détection, localisation et identification de cibles radar par imagerie


électromagnétique bistatique. (Thèse de doctorat, Université de Bretagne occidentale-
Brest).

Commission mixte internationale. (2015). Vers un système opérationnel en temps réel de


prévision des crues et de cartographie des plaines inondables pour le lac Champlain et
la rivière Richelieu.

Coulibaly, I., Spiric, N., Sghaier, M., Manzo-Vargas, W., Lepage, R. & St-Jacques, M. (2014).
Road extraction from high resolution remote sensing image using multiresolution in
case of major disaster. IEEE International Geoscience and Remote Sensing Sym-
posium (IGARSS), Quebec City, QC, 13-18 July, pp. 2712-2715. doi : 10.1109/I-
GARSS.2014.6947035.

Dempster, A. P. (1967). Upper and lower probabilities induced by a multivalued mapping. The
annals of mathematical statistics, 38(2), 325–339. doi : 10.1214/aoms/1177698950.

Denoeux, T. (1995). A k-nearest neighbor classification rule based on dempster-shafer theory.


IEEE Transactions on Systems, Man and Cybernetics, 25(5), 804-813.

Deriche, R. (1987). Using canny’s criteria to derive a recursively implemented optimal edge
detector. International Journal of Computer Vision, 1(2), 167-187.

Donoho, D. & Huo, X. (2002). Beamlets and multiscale image analysis. Dans Barth, T., Chan,
T. & Haimes, R. (Éds.), Multiscale and Multiresolution Methods (vol. 20, pp. 149-196).
Springer Berlin Heidelberg.

Dubuisson, M.-P. & Jain, A. (1994). A modified hausdorff distance for object matching. Pro-
ceedings of the 12th IAPR International Conference on Pattern Recognition, Jerusalem,
Israel, 9-13 october, 1, 566-568.

Fawcett, T. (2006). An introduction to roc analysis. Pattern Recognition Letter, 27(8), 861–
874. doi : 10.1016/j.patrec.2005.10.010.
231

Foucher, S. (2001). Analyse multiéchelle d’images radar : application au filtrage, à la clas-


sification et à la fusion d’images radar et optique. (Thèse de doctorat, Université de
Rennes et Université de Sherbrooke).

Fourier, J. (1822). Theorie analytique de la chaleur. Chez Firmin Didot, père et fils.

Frost, V. S., Stiles, J. A., Shanmugan, K. S. & Holtzman, J. C. (1982). A model for radar
images and its application to adaptive digital filtering of multiplicative noise. IEEE
Transactions on Pattern Analysis and Machine Intelligence, 4(2), 157–166.

Gabor, D. (1946). Theory of communication. Journal of the Institution of Electrical Engineers-


Part III : Radio and Communication Engineering, 93(26), 429–441.

Germain, C. (1997). Contribution à la caractérisation multi-échelle de l’anisotropie des


images texturées. (Thèse de doctorat, Bordeaux 1, Grenoble).

Gitas, I. Z., Polychronaki, A., Katagis, T. & Mallinis, G. (2008). Contribution of re-
mote sensing to disaster management activities : A case study of the large fires in
the peloponnese, greece. International journal of remote sensing, 29(6), 1847-1853.
doi : 10.1080/01431160701874553.

Gupta, K. K. & Gupta, R. (2007). Despeckle and geographical feature extraction in SAR
images by wavelet transform. Journal of Photogrammetry and Remote Sensing, 62(6),
473 - 484.

Haghighattalab, A., Mohammadzadeh, A., Zoej, M. V. & Taleai, M. (2010). Post-earthquake


road damage assessment using region-based algorithms from high-resolution satellite
images. Proceedings of SPIE, 7830, 7830–7839.

Haralick, R., Shanmugam, K. & Dinstein, I. (1973). Textural features for image classification.
IEEE Transactions on Systems, Man and Cybernetics, SMC-3(6), 610-621.

Haralick, R. M. (1979). Statistical and structural approaches to texture. Proceedings of the


IEEE, 67(5), 786–804.

Hecher, J. F. (2012). Extracting river features from remotely sensed data : An evaluation
of thematic correctness. (Thèse de doctorat, Department of Geography, Texas A&M
University).

Heijmans, H., Buckley, M. & Talbot, H. (2005). Path openings and closings. Journal of
Mathematical Imaging and Vision, 22(2), 107–119.

Heipke, C., Mayer, H., Wiedemann, C. & Jamet, O. (1997). Evaluation of automatic road
extraction. International Archives of Photogrammetry and Remote Sensing, 32(3 SECT
4W2), 151–160.
232

Hemiari,Abbas, D.-C. H. e. D. M. (2004). Nouvelle methode globale d’extraction automatique


des routes dans des images satellitaires : la methode multicouche tridimensionnelle. Té-
lédétection, 4(1), 499-517.

Herumurti, D., Uchimura, K., Koutaki, G. & Uemura, T. (2013). Urban road extraction based
on hough transform and region growing. 19th Korea-Japan Joint Workshop on Frontiers
of Computer Vision,(FCV), Incheon, Korea, 30 January - 1 February, pp. 220-224.

Hong, S., Jang, H., Kim, N. & Sohn, H.-G. (2015). Water area extraction using RADARSAT
SAR imagery combined with landsat imagery and terrain information. Sensors, 15(3),
6652-6667. doi : 10.3390/s150306652.

Hu, J., Razdan, A., Femiani, J., Cui, M. & Wonka, P. (2007). Road network extraction and inter-
section detection from aerial images by tracking road footprints. IEEE Transactions on
Geoscience and Remote Sensing, 45(12), 4144-4157. doi : 10.1109/TGRS.2007.906107.

Idbraim, S. (2009). Méthodes d’extraction de l’information spatiale et de classification en ima-


gerie de télédétection : applications à la cartographie thématique de la région d’Agadir
(maroc). (Thèse de doctorat, Université de Paul Sabatier, Toulouse, France).

Ilsever, M. & Unsalan, C. (2012). Two-dimensional change detection methods : Remote sensing
applications. Springer Science & Business Media.

Ito, A. (2005). Issues in the implementation of the international charter on space


and major disasters. A model for radar imagesSpace Policy, 21(2), 141-149.
doi : http://dx.doi.org/10.1016/j.spacepol.2005.02.003.

Jiang, L., Liao, M., Zhang, L. & Lin, H. (2007). Unsupervised change detection in multitem-
poral sar images using mrf models. Geo-spatial Information Science, 10(2), 111–116.
doi : 10.1007/s11806-007-0051-y.

Jibrini, H. (2002). Reconstruction automatique des batiments en modeles polyedriques 3-d a


partir de donnees cadastrales vectorisees 2D et d’un couple d’images aeriennes a haute
resolution. (Thèse de doctorat, Telecom ParisTech, France).

Jinxin, C., Qixin, S. & Liguang, S. (2006, Dec). A methodology for automatic detection and
extraction of road edges from high resolution remote sensing images. IEEE International
Conference on Industrial Technology (ICIT), Mumbai, India, 15-17 December, pp. 69-
74.

Kass, M., Witkin, A. & Terzopoulos, D. (1988). Snakes : Active contour models. International
Journal of Computer Vision, 1(4), 321-331. doi : 10.1007/BF00133570.

Klemenjak, S., Waske, B., Valero, S. & Chanussot, J. (2012). Automatic detection of rivers in
high-resolution SAR data. IEEE Journal of Selected Topics in Applied Earth Observa-
tions and Remote Sensing, 5(5), 1364-1372.
233

Kuan, D. T., Sawchuk, A. A., Strand, T. C. & Chavel, P. (1985). Adaptive noise smoothing
filter for images with signal-dependent noise. IEEE Transactions on Pattern Analysis
and Machine Intelligence, 7(2), 165–177.

Kullback, S. & Leibler, R. A. (1951). On information and sufficiency. The annals of mathe-
matical statistics, 22(1), 79–86.

Lacoste, C. (2004). Line network extraction from satellite and aerial images by marked point
processes. (Thèse de doctorat, Université Nice Sophia Antipolis).

Lee, J.-S. (1980). Digital image enhancement and noise filtering by use of local statistics.
IEEE transactions on pattern analysis and machine intelligence, 2(2), 165–168.

Li, J., Qin, Q., Ma, H. & Yuan, W. (2010). Study on road damage assessment based on rs
and gis. IEEE International on Geoscience and Remote Sensing Symposium (IGARSS),
Honolulu, USA, 25-30 July, pp. 4534-4537.

Li, P., Xu, H. & Song, B. (2011). A novel method for urban road damage detection using
very high resolution satellite imagery and road map. Photogrammetric Engineering and
Remote Sensing, 77(10), 1057-1066.

Liangpei, Z., Xin, H., Bo, H. & Pingxiang, L. (2006). A pixel shape index coupled with spectral
information for classification of high spatial resolution remotely sensed imagery. IEEE
Transactions on Geoscience and Remote Sensing, 44(10), 2950-2961. doi : 10.1109/T-
GRS.2006.876704.

Liao, P.-S., Chen, T.-S. & Chung, P.-C. (2001). A fast algorithm for multilevel thresholding.
Journal of Information Science and Engineering, 17(5), 713–727.

Linders, J. (2000). Comparison of three different methods to select feature for discriminating
forest cover types using sar imagery. International Journal of Remote Sensing, 21(10),
2089–2099.

Liu, C., Yin, J., Yang, J. & Gao, W. (2015). Classification of multi-frequency polarimetric sar
images based on multi-linear subspace learning of tensor objects. Remote Sensing, 7(7),
9253–9268.

Liu, Z., Mercier, G., Dezert, J. & Pan, Q. (2014). Change detection in heterogeneous re-
mote sensing images based on multidimensional evidential reasoning. IEEE Geoscience
Remote Sensing Letter, 11(1), 168-172.

Lopez-Martinez, C. & Pottier, E. (2007). On the extension of multidimensional speckle noise


model from single-look to multilook sar imagery. IEEE Transactions on Geoscience and
Remote Sensing, 45(2), 305-320. doi : 10.1109/TGRS.2006.887012.

Lowe, D. G. (2004). Distinctive image features from scale-invariant keypoints. International


journal of computer vision, 60(2), 91–110.
234

Lu, J., Li, J., Chen, G., Zhao, L., Xiong, B. & Kuang, G. (2015). Improving pixel-based change
detection accuracy using an object-based approach in multitemporal sar flood images.
IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing,
8(7), 3486–3496.

Maes, F., Collignon, A., Vandermeulen, D., Marchal, G. & Suetens, P. (1997). Multimoda-
lity image registration by maximization of mutual information. IEEE Transactions on
Medical Imaging, 16(2), 187-198.

Maini, R. & Aggarwal, H. (2009). Study and comparison of various image edge detection
techniques. International journal of image processing (IJIP), 3(1), 1–11.

Mallat, S. (1989). A theory for multiresolution signal decomposition : the wavelet representa-
tion. IEEE Transactions on Pattern Analysis and Machine Intelligence, 11(7), 674-693.

Mallat, S. (2000). Une exploration des signaux en ondelettes. Editions Ecole Polytechnique.

Manolova, A. (2011). Catégorisation par mesures de dissimilitude et caractérisation d’images


en multi échelle. (Thèse de doctorat, Université de Grenoble ; University of Sofia, Bul-
garie).

Matgen, P., Hostache, R., Schumann, G., Pfister, L., Hoffmann, L. & Savenije, H. H. G. (2011).
Towards an automated SAR-based flood monitoring system : Lessons learned from
two case studies. Physics and Chemistry of the Earth, Parts A/B/C, 36(7-8), 241-252.
doi : http://dx.doi.org/10.1016/j.pce.2010.12.009.

Matheron, G. G. (1975). Random sets and integral geometry. New York, London : Wiley.

Mena, J. (2003). State of the art on automatic road extraction for gis update : a novel classifi-
cation. Pattern Recognition Letters, 24(16), 3037-305.

Mena, J. & Malpica, J. (2005). An automatic method for road extraction in rural and semi-
urban areas starting from high resolution satellite imagery. Pattern Recognition Letter
(Netherlands), 26(9), 1201-1220.

Meyer, Y. (1992). Wavelets and operators. Cambridge University Press, Cambridge.

Mohammadzadeh, A., Tavakoli, A. & Valadan Zoej, M. J. (2006). Road extraction based
on fuzzy logic and mathematical morphology from pan-sharpened ikonos images. The
Photogrammetric Record, 21(113), 44-60.

Naouai, M., Hamouda, A., Akkari, A. & Weber, C. (2011). New approach for road extraction
from high resolution remotely sensed images using the quaternionic wavelet. Dans Pat-
tern Recognition and Image Analysis (vol. 6669, pp. 452-459). Springer Berlin Heidel-
berg.

Otsu, N. (1979). A threshold selection method from gray-level histograms. IEEE Transactions
on Systems, Man and Cybernetics, 9(1), 62-66.
235

Pony, O., Descombes, X. & Zerubia, J. (2000). Classification d’images satellitaires hyper-
spectrales en zone rurale et périurbaine. (Thèse de doctorat, INRIA).

Radke, R. J., Andra, S., Al-Kofahi, O. & Roysam, B. (2005). Image change detection algo-
rithms : a systematic survey. IEEE Transactions on Image Processing, 14(3), 294-307.

Rastiveis, H., Hosseini-Zirdoo, E. & Eslamizade, F. (2015). Automatic blocked roads assess-
ment after earthquake using high resolution satellite imagery. The International Archives
of Photogrammetry, Remote Sensing and Spatial Information Sciences, 40(1), 601-606.

Rianto, J. (2002). Road network detection from spot satellite image using hough transform
and optimal search. Asia-Pacific Conference on Circuits and Systems (APCCAS), 2,
177-180.

Richards, J. A. (2013). Correcting and registering images. Dans Remote Sensing Digital Image
Analysis : An Introduction (pp. 27–77). Remote Sensing Digital Image Analysis : An
Introduction. Springer Berlin Heidelberg.

Ruskone, R. & Stamon, G. (1996). Extraction automatique du réseau routier par interpretation
locale du contexte : application à la production de données cartographiques. (Thèse de
doctorat, Universite de Marne-la-Vallee).

Saint-Jean, R. (2005, July). The role of the eco in the context of the international charter on
space and major disasters. IEEE International Geoscience and Remote Sensing Sympo-
sium (IGARSS), Seoul, Korea (South), 25-29 July, 6, 4370-4372.

Salari, E. & Zhu, Y. (2012, May). A road extraction method using beamlet transform. IEEE
International Conference on Electro/Information Technology (EIT), Indianapolis, USA ,
6-8 May, pp. 1-4.

Schnebele, E., Cervone, G. & Waters, N. (2013). Road assessment after flood events using
non-authoritative data. Natural Hazards and Earth System Sciences Discussions, 1(4),
4155–4179. doi : 10.5194/nhessd-1-4155-2013.

Serra, J. (1983). Image analysis and mathematical morphology. Orlando, FL, USA : Academic
Press, Inc.

Sghaier, M. O. & Lepage, R. (2015a, July). Road damage detection from vhr remote sensing
images based on multiscale texture analysis and dempster shafer theory. IEEE Interna-
tional Geoscience and Remote Sensing Symposium (IGARSS), Milan, Italy, 26-31 July,
pp. 4224-4227.

Sghaier, M. O. & Lepage, R. (2015b, July). Change detection using multiscale segmentation
and kullback-leibler divergence : Application on road damage extraction. 8th Internatio-
nal Workshop on the Analysis of Multitemporal Remote Sensing Images (Multi-Temp),
Annecy, France, 22-24 July, pp. 1-4.
236

Sghaier, M. O. & Lepage, R. (2016). Road extraction from very high resolution remote sen-
sing optical images based on texture analysis and beamlet transform. IEEE Journal of
Selected Topics in Applied Earth Observations and Remote Sensing, 9(5), 1946-1958.
Sghaier, M. O., Coulibaly, I. & Lepage, R. (2014). A novel approach toward rapid road map-
ping based on beamlet transform. IEEE International Geoscience and Remote Sensing
Symposium (IGARSS), Quebec City, QC, 13-18 July, pp. 2351-2354.
Sghaier, M. O., Foucher, S. & Lepage, R. (2016a). River extraction from high-resolution sar
images combining a structural feature set and mathematical morphology. IEEE Journal
of Selected Topics in Applied Earth Observations and Remote Sensing, 10(3), 1025-
1038.
Sghaier, M. O., Foucher, S., Lepage, R. & Dahmane, M. (2016b, July). Combination of texture
and shape analysis for a rapid rivers extraction from high resolution sar images. IEEE
International Geoscience and Remote Sensing Symposium (IGARSS), Beijing, China,
23-28 July, pp. 673-676.
Shackelford, A. & Davis, C. (2003). Urban road network extraction from high-resolution mul-
tispectral data. 2nd GRSS/ISPRS Joint Workshop on Remote Sensing and Data Fusion
over Urban Areas, Berlin, Germany, 22-23 May, pp. 142-146.
Shafer, G. (1976). A mathematical theory of evidence. Princeton university press.
Shamos, M. (1978). Analysis of the complexity of fundamental geometric algorithms such
as area computation, sweep-line algorithms, polygon intersection, voronoi diagram
construction, and minimum spanning tree. (Thèse de doctorat, Yale University).
Singh, K. K., Pal, K. & Nigam, M. J. (2012). Article : Shadow detection and removal from
remote sensing images using ndi and morphological operators. International Journal of
Computer Applications, 42(10), 37-40. Published by Foundation of Computer Science,
New York, USA.
Sirmacek, B. & Unsalan, C. (2008, oct). Building detection from aerial images using invariant
color features and shadow information. 23rd International Symposium on Computer and
Information Sciences (ISCIS), Istanbul, Turkey, 27-29 October, pp. 1-5.
Skakun, S., Kussul, N., Shelestov, A. & Kussul, O. (2014). Flood hazard and flood risk as-
sessment using a time series of satellite images : A case study in namibia. Risk Analysis,
34(8), 1521–1537.
Smarandache, F. & Dezert, J. (2004). Advances and applications of dsmt for information fusion
(collected works). American Research Press.
Sohn, H.-G., Song, Y.-S. & Kim, G.-H. (2005). Detecting water area during flood event
from sar image. Dans Computational Science and Its Applications – ICCSA 2005 :
International Conference, Singapore, May 9-12, 2005, Proceedings, Part II (pp. 771–
780). Berlin, Heidelberg : Springer Berlin Heidelberg.
237

Stehman, S. V. (1997). Selecting and interpreting measures of thematic classification accuracy.


Remote Sensing of Environment, 62(1), 77–89. doi : http://dx.doi.org/10.1016/S0034-
4257(97)00083-7.

Sun, J. & Mao, S. (2011). River detection algorithm in sar images based on edge extraction and
ridge tracing techniques. International journal of remote sensing, 32(12), 3485–3494.

Tao, B. & Zhang, L. (2013). Vector mathematical morphology for color image processing.
Dans Du, W. (Éd.), Informatics and Management Science III (vol. 206, pp. 187-193).
Springer London.

Thomas, D. S., Ertugay, K. & Kemec, S. (2007). The role of geographic information sys-
tems/remote sensing in disaster management. Dans Handbook of Disaster Research
(pp. 83–96). New York, NY : Springer New York. doi : 10.1007/978-0-387-32353-4_5.

Toussaint, G. T. (1983). Solving geometric problems with the rotating calipers. Proceedings
IEEE Melecon, 83, 1–4.

Touzi, R., Lopes, A. & Bousquet, P. (1988). A statistical and geometrical edge detector for
SAR images. IEEE Transactions on Geoscience and Remote Sensing, 26(6), 764-773.
doi : 10.1109/36.7708.

Ulaby, F. T., Moore, R. K. & Fung, A. K. (1982). Microwave remote sensing active and passive-
volume 2 : Radar remote sensing and surface scattering and emission theory. Addison-
Wesley Publishing CompanyAdvanced Book Program/World Science Division.

Valero, S., Chanussot, J., Benediktsson, J., Talbot, H. & B.Waske. (2010). Advanced di-
rectional mathematical morphology for the detection of the road network in very high
resolution remote sensing images. Pattern Recognition Letters, 31(10), 1120-1127.

Viola, P. & Wells III, W. M. (1997). Alignment by maximization of mutual information.


International Journal of Computer Vision, 24(2), 137-154.

Wang, J., Ge, Y., Heuvelink, G. B., Zhou, C. & Brus, D. (2012). Effect of the sampling
design of ground control points on the geometric correction of remotely sensed imagery.
International Journal of Applied Earth Observation and Geoinformation, 18, 91-100.

Wang, Y., Wang, Y., Da, Y., Liu, X., Li, J. & Huang, J. (2011). An object-oriented method for
road damage detection from high resolution remote sensing images. 19th International
Conference on Geoinformatics, Shanghai, China, 24-26 June, pp. 1-5.

Wei, Q. R. & Feng, D. Z. (2016). Extracting line features in sar images through image edge
fields. IEEE Geoscience and Remote Sensing Letters, 13(4), 540-544.

Wiedemann, C. (2003). External evaluation of road networks. In The International Archives


of the Photogrammetry, Remote Sensing and Spatial Information Sciences, 34, 93–98.
238

Xin, H., Liangpei, Z. & Pingxiang, L. (2007). Classification and extraction of spatial features in
urban areas using high-resolution multispectral imagery. IEEE Geoscience and Remote
Sensing Letters, 4(2), 260-264. doi : 10.1109/LGRS.2006.890540.

Yu, Q., Yang, X., Fu, S., Liu, X. & Sun, X. (2007). An adaptive contoured window filter for
interferometric synthetic aperture radar. IEEE Geoscience and Remote Sensing Letters,
4(1), 23-26. doi : 10.1109/LGRS.2006.883527.

Yudin, M., Yudin, O. & Dubinin, P. (2007). Beamlet transforms and their application to
geophysical data processing. Izvestiya, Physics of the Solid Earth, 43(3), 225-236.
doi : 10.1134/S106935130703007X.

Zadeh, L. A. (1965). Fuzzy sets. Information and control, 8(3), 338–353.

Zhang, F., Xiao, Z., Geng, L., Wu, J., Xu, Z., Wang, D. & Xi, J. (2015). Ske-
leton extraction based on anisotropic partial differential equation. Optik-
International Journal for Light and Electron Optics, 126(23), 3692-3697.
doi : http://dx.doi.org/10.1016/j.ijleo.2015.08.189.

Zhang, R. & Lin, X. (2010). Automatic road extraction based on local histogram and support
vector data description classifier from very high resolution digital aerial. IEEE Interna-
tional on Geoscience and Remote Sensing Symposium (IGARSS), Honolulu, USA, 25-30
July, pp. 441-444.

Zhu, H., Li, C., Zhang, L. & Shen, J. (2015). River channel extraction from SAR images by
combining gray and morphological features. Circuits, Systems, and Signal Processing,
34(7), 2271-2286. doi : 10.1007/s00034-014-9922-2.

Vous aimerez peut-être aussi