Chapitre 2 Objets Communicants Et Internet Des Objets
Chapitre 2 Objets Communicants Et Internet Des Objets
Chapitre 2 Objets Communicants Et Internet Des Objets
OBJETS COMMUNICANTS
Page 2 sur 29
Master I GIS, UDM, Architectures des Objets communicants
I. INTRODUCTION
Page 3 sur 29
Master I GIS, UDM, Architectures des Objets communicants
Dans un avenir proche, on s’attend à ce que ces objets intelligents aillent bien au-delà
des < simples >> capteurs et modules RFID aujourd’hui utilisés. Ils seront notamment
fondés sur des équipements bas coût, miniaturisés, intégrant des capacités de détection
Master I GIS, UDM, Architectures des Objets communicants
Application Source Transmetteur Taille Coüt Quantite Caracteristiques reseau mode Challenges
d’energie Recepteur d’interaction
à distance
Maison Secteur PLC Découverte du service Interrogation Découverte du
intelligente Débits : <20 < 1€ >100 Auto-configuration Chargement service
Tx: qques kbps cm3 millions Découverte du réseau
Rx : qques kbps
Distance < 0m
Maison Secteur PLC ou Microonde Auto-configuration Activation Efficacité
intelligente ou Débits : <10 <0. € >10 Réseau spontané Interrogation énergétique
batterie cm3 Milliards Adressage et
Tx : qques kbps Codage de réseau
routage
Rx : qques bps
Distance < 100m
Villes Batterie Microonde Auto-configuration Activation Efficacité
intelligentes - ou Débits : <10 <0. € >10 Réseau spontané Interrogation énergétique
Villes propres photo- cm 3 Milliards Adressage et
voltaIque Tx : 100 bps Codage de réseau
routage (meshj
Rx : quelques bps
Distance < 1km
Maison Secteur Microonde/optique Réseau spontané Commande Sécurité
intelligente ou Débits : <20 <10€ >100 Codage de réseau Activation Auto-
/surveillance batterie Tx : 100 kbps cm3 millions configuration
Centralisé/Distribué Transfert
Rx : 1 kbps Données
Distance < 00m
Batterie Microonde/optique Réseau spontané Commande Sécurité
Villes Débits: <20 <10€ >100 Codage de réseau Activation Auto-
intelligentes - Tx : 100 kbps cm3 millions Centralisé/Distribué Transfert configuration
Villes propres / Données
surveillance Rx : 1kbps
Distance < km
L’interface entre les mondes réel et numérique nécessite la capacité pour le monde
numérique de percevoir le monde réel et d’agir en conséquence. L’initiative contribuera
à la conception d’objets intelligents exploitables au niveau du réseau et correspondant à
une nouvelle génération de capteurs et d’actionneurs permettant de répondre aux
exigences multiples imposées par la grande diversité de dispositifs dans lesquels ils
seront intégrés : capacités réduites en termes de puissance de calcul, de mémoire, de
taille, d’exploitation et de stockage d’énergie et enfin d’intégration spécifique dans
l’environnement compte tenu des contraintes propres aux applications visées. Un effort
de recherche sera également porté sur les architectures des dispositifs qui intégreront
ces fonctionnalités et qui, par exemple, effectueront un traitement du signal embarqué,
un traitement de l’information distribué et offriront des possibilités d’agrégation de
données. Des solutions avancées de SoC (System on Chip) seront ainsi conçues.
Les défis autour de l’intelligence nécessaire à intégrer dans ces systèmes seront décrits
et étudiés de concert avec l’analyse de la capacité à communiquer des composantes
devant interagir. Un effort particulier sera porté sur l’exploration des architectures de
réseaux (ad hoc, WSANs, essaims de robots, etc.), ainsi que sur l’exploration des
protocoles correspondants. L’auto-organisation et l’autogestion sont essentielles dans
cet environnement et les principes conceptuels propres à ces nouveaux réseaux, à savoir
Master I GIS, UDM, Architectures des Objets communicants
Figure 3 : Description des objets connectés à l’Internet des objets et les trois principaux challenges
correspondants : Technologies - Communication - Intelligence.
Page 9 sur 29
Master I GIS, UDM, Architectures des Objets communicants
Page 10 sur 29
Master I GIS, UDM, Architectures des Objets communicants
En d’autres termes, les méthodes et les technologies de gestion de l’énergie sont des
verrous critiques. C’est donc un domaine d’innovation en forte croissance, quoique
manquant encore de réels intégrateurs de systèmes industriels qui ne se focaliseraient
plus sur un seul aspect du nœud global.
Les sources de récolte et surtout de récupération d’énergie ne sont caractérisées que par
leur densité de puissance. Elles sont un moyen de capturer l’énergie ambiante comme la
lumière, les flux thermiques et électromagnétiques ou les mouvements mécaniques (ex.
vibrations). Cette énergie primaire durement gagnée doit alors être efficacement
convertie en puissance électrique utilisable. Ceci implique à la fois la conception de
transducteurs qui doivent s’adapter aux conditions toujours spécifiques de leur
environnement, et une adaptation d’impédance appropriée entre la sortie du
transducteur et la charge, quelle que soit sa nature, afin de maximiser le transfert
d’énergie. Si nécessaire, n’importe quel circuit convertisseur basse consommation doit
pouvoir se déconnecter si la puissance capturée passe en dessous de ses propres
besoins. Evidemment, tous les autres dispositifs doivent aussi suivre les règles de
conception et de fonctionnement basse consommation.
Une autre étape dans les solutions d’alimentation serait de gérer plusieurs sources
d’énergie avec des technologies compatibles et avec des ratios de puissance substantiels.
L’autre aspect de l’alimentation est l’autonomie. Pour être autonome, le système doit
avoir une gestion de l’énergie parfaite afin d’optimiser l’alimentation et les
performances. Cet aspect devient crucial pour un système disposant de plusieurs
sources d’alimentation et de solutions de stockage de l’énergie. De l’intelligence est alors
embarquée dans le système pour gérer toutes les contraintes. Comme l’alimentation,
l’autonomie dispose de solutions existantes qui doivent être adaptées ou même
redéveloppées pour se conformer aux micro et nano systèmes.
Un autre point est que pour certaines activités le réseau doit être actif alors que son
environnement n’offre aucune énergie (l’équipement est à l’arrêt, c’est la nuit, ..). Il faut
donc qu’une partie de l’énergie capturée auparavant ait pu être stockée. En pratique, le
stockage peut être réalisé soit à travers des batteries secondaires, soit des (super)
capacités. La première option souffre néanmoins de certains inconvénients des batteries
primaires et nécessite un circuit électronique pour contrôler le profil de charge, ce
circuit impactant en outre négativement la dissipation d’énergie.
Finalement, la conception d’un capteur sans fil économe en énergie exige une approche
globale (holistique) prenant en compte les différents aspects de la consommation
d’énergie. Le défi consiste alors dans le développement d’une architecture de co-
simulation qui inclut des modèles énergétiques précis pour l’analyse et l’optimisation de
l’utilisation de l’énergie dans le nœud d’un réseau de capteurs.
L’énergie opportuniste (les techniques de récolte d’énergie) devra aussi être abordée et
générer ainsi de nouveaux défis concernant les procédures d’optimisation de l’efficience
énergétique. Ce sujet est intrinsèquement lié à la partie < gestion des capteurs au sein du
réseau >> mais demandera aussi des investigations spécifiques sur les types de codage
notamment, afin de converger vers un ratio de consommation bit/Hz/s/DC amélioré.
Page 11 sur 29
Master I GIS, UDM, Architectures des Objets communicants
Page 12 sur 29
Master I GIS, UDM, Architectures des Objets communicants
comme les actionneurs constituent les < bras >> de ces systèmes ambiants intelligents, il
est crucial de bien prévoir et de bien contrôler leurs comportements.
Le but du système de calibration est d’abord d’identifier les imperfections possibles
d’une mesure, telles que les biais, les dérives et les niveaux de bruit, et ensuite de les
corriger. En effet, ces imperfections qui peuvent engendrer des mesures erronées ou des
dispersions perturbantes, doivent être minimisées. Dans un cas idéal, la calibration
devrait être effectuée en usine. Cependant, plusieurs types de capteurs demandent une
calibration réalisée in situ. Par exemple, les capteurs embarqués dans des matériels
peuvent altérer les caractéristiques (de réponse) d’un capteur particulier d’une façon
spécifique, qui peut ne pas être connue au moment où le capteur est produit. Il peut
aussi arriver que le coût de production ciblé pour le capteur rende impossible sa
caractérisation précise et sa calibration complète. En conséquence, des méthodologies
qui peuvent être appliquées à des capteurs de haut niveau, ne sont en fait pas
applicables à toute la gamme des capteurs utilisés, et de nouvelles techniques d’auto-
calibration sont à développer.
Le déploiement d’infrastructures de capteurs soulève aussi de nombreux problèmes.
Afin de mettre en œuvre un déploiement à un coût raisonnable, le système de capteurs
doit être capable de produire lui-même une évaluation de son état effectivement
déployé, c’est-à-dire qu’il doit être alors capable d’estimer alors son état réel (où sont les
capteurs ? comment peuvent-ils être connectés les uns aux autres ? quelle redondance et
quelle résilience doivent-ils établir ?). Un tel besoin implique l’utilisation de technologies
de base, telle que l’auto-localisation, l’auto-test et les tests croisés coopératifs.
Page 13 sur 29
Master I GIS, UDM, Architectures des Objets communicants
fil est le principal contributeur à la consommation globale, bien au-dela des éventuels
sous-systèmes capteur et microcontrôleur.
Néanmoins, la consommation en mode actif à encore un impact sur la gestion de
l’énergie et sur le choix et la conception de la source d’énergie, même si c’est de moins
en moins la première source de diminution d’énergie, puisque le nœud du capteur passe
généralement plus de 99% du temps dans un mode repos pendant lequel il consomme
quelques 100 nA, permettant ainsi une durée de vie de plusieurs années.
Les piles à faible coût, de petite taille, jetables et/ou biocompatibles présentent
typiquement une capacité de courant crête inférieure aux besoins réels instantanés de la
partie radio en transmission ou réception. Par conséquent, l’objectif de réduction de la
consommation en mode actif est toujours pertinent.
Le sous-système communication sans fil doit faire face à de fortes contraintes de
packaging et d’intégration, comme souligné précédemment. Bien que le circuit radio
n’occupe qu’une taille limitée, les lois de la physique pour la conception d’antennes
conduisent à des compromis taille-efficacité poussant la sélection de la fréquence radio
vers de plus hautes valeurs, toutefois moins appropriées aux objectifs de basse
consommation et de faibles courants de fuite du circuit radio en fonctionnement.
Par conséquent, la majorité des capteurs communicants est maintenant dans la gamme
des 00 MHz à 2,4 GHz, bénéficiant de bandes sans licences mais encombrées.
La vision de solutions en rupture consiste :
/ soit dans l’optimisation de chaque brique dans une approche < classique >> d’une
matrice croisée systèmes/compétences, nécessitant une coopération étroite entre
chercheurs de domaines très larges, spécialement pour la mise en place des flots de
modélisation et de conception ;
/ soit dans l’analyse approfondie des besoins applicatifs spécifiques et l’adaptation
d’une solution à ces besoins, en évitant alors les approches génériques, au détriment
de l’optimisation des coûts du fait de l’absence de marchés de masse critiques.
Finalement, le caractère défendable et reconfigurable est fortement souhaité pour de
tels objets et capteurs intelligents du futur, et des investigations sur les
nanotechnologies émergentes sont très attendues, en particulier si on considère
l’environnement, les nouvelles activités de recherche relatives aux capteurs
biocompatibles et les nouveaux actionneurs avec de nouvelles dimensions physiques
(fluidique, thermique, piézoélectrique..).
Page 14 sur 29
Master I GIS, UDM, Architectures des Objets communicants
pourrait attendre. Une des raisons majeures est que l’on ne fait pas confiance à ces
systèmes. Pour augmenter la confiance, il faudrait garantir que tout service :
/ se comporte comme prévu, sans aucune erreur (correction fonctionnelle) ;
/ est exempt de conditions qui peuvent causer des blessures ou la mort aux utilisateurs,
qui peuvent endommager ou entrainer la perte d’équipements, ou qui posent un
risque pour l’environnement (sécurité) ;
/ est protégé contre des adversaires malveillants qui ont l’intention de pénétrer ou de
détourner le service (sécurité).
Ce type de systèmes présente de nouveaux défis pour sa validation. Certes, pour
l’utilisation pratique de ces services, il est essentiel de pouvoir ajouter d’autres services
de manière dynamique pour qu’ils puissent être adaptés aux différentes configurations
et aux divers besoins des utilisateurs. L’explosion combinatoire provoquée par la
multiplication des services reste un problème difficile. De plus, et puisque les services
peuvent interagir, il faudrait procéder à une validation finale après le déploiement
(validation en ligne).
Les dispositifs intelligents peuvent potentiellement être accessibles de nombreuses
manières par un personnel non-autorisé. Des techniques au niveau matériel, aussi bien
qu’au niveau logiciel/réseau, doivent être développé afin d’assurer un degré convenable
de sécurité, en fonction des exigences applicatives visées.
Les systèmes autonomes sont complexes. Ils englobent un grand nombre de capteurs
contrôlés par logiciel (caméras, sonars, etc.) et d’actionneurs (moteurs, roues, bras,
pinces, pompes, etc.). En outre, ils intègrent des fonctionnalités avancées, basées sur des
donnés provenant de ces capteurs et actionneurs afin de fournir des services de haut
niveau (corrélation stéréoscopique, modélisation de l’environnement, planification de
voyage, évitement d’obstacles, navigation, etc.). Ces fonctionnalités sont mises en place
en tant que composants logiciels.
En plus de cette complexité, ces systèmes sont critiques, et les logiciels de ces systèmes
autonomes doivent aussi gérer l’incertitude et les contraintes temporelles. Les
contraintes temporelles sont critiques parce que le système interagit avec d’autres
systèmes dynamiques dans un environnement dynamique. L’incertitude est due au fait
que l’environnement et ses interactions ne peuvent pas être entièrement et fidèlement
modélisées. En particulier, la sécurité de fonctionnement doit être considérée comme
une préoccupation majeure. En effet, la plupart des systèmes autonomes peuvent être
un danger potentiel pour les personnes. Les composants de systèmes autonomes
doivent disposer de solides capacités pour répondre aux incertitudes de
fonctionnement. Néanmoins, l’incertitude est souvent la source d’événements et
d’interactions inattendus, et peut mettre le système dans un état imprévisible. D’un
point de vue logiciel, un mécanisme doit être prévu pour que ces situations soient sous
contrôle et qu’elles ne conduisent pas à des conséquences catastrophiques pour le
système et/ou l’environnement.
L’objectif est de développer un environnement pour faciliter la conception de systèmes
autonomes à base de composants logiciels. Il doit permettre :
1. la construction de systèmes autonomes complexes à partir de composants logiciels
hétérogènes (synchrones, asynchrones, en temps réel) ;
Page 15 sur 29
Master I GIS, UDM, Architectures des Objets communicants
Page 17 sur 29
Master I GIS, UDM, Architectures des Objets communicants
communicants. Sur ce point, la localisation et le suivi des objets peuvent être exploités
pour un < relayage >> efficace des données. Deux approches principales devraient être
considérées : la première, similaire à l’approche IP, permettra la transmission du trafic
de bout en bout (< end to end >>), et la seconde s’appuiera sur l’utilisation de passerelles,
telles que par exemple des passerelles sémantiques, qui interconnecteront des sous-
réseaux d’objets au reste du réseau et interpréteront et traduiront les communications
d’un sous-réseau à un autre.
En fait la conception du réseau de communication nécessitera de traiter en parallèle la
conception du modèle de communication pour la connectivité entre objets, de même que
le modèle de communication pour la connectivité d’un objet, ou d’un réseau d’objets,
vers un autre réseau tel que l’Internet. Dans le premier cas, les travaux de recherche
pourraient conduire à l’élaboration d’un nouveau modèle de communication exploitant
de nouveaux paradigmes tels que les communications autonomiques, ou conduire à
l’adaptation de modèles de communication existants tels que le modèle Internet. Dans le
second cas, comme mentionné précédemment, les recherches vont poursuivre les
travaux en cours (tels qu’à l’IETF ou IPSO) concernant l’adaptation du modèle IP actuel
dans l’optique d’étendre la connectivité à ces nouveaux nœuds, c.à.d. objets, ou de
concevoir des passerelles protocolaires spécifiques pour interconnecter ces objets à un
réseau cible, c.à.d. l’Internet, et permettre de concevoir et d’accéder à de nouveaux
services construits sur ces objets et accédés à travers un réseau convergeant < tout IP >>.
Ce dernier scénario attire tout particulièrement les acteurs des télécommunications
mobiles.
Pour conclure, le modèle de communication qui sera conçu, aussi bien entre les objets
que des objets vers le réseau global tel que l’Internet, devra intégrer les nécessaires
mécanismes de sécurité, la encore adaptés à des ressources et niveaux d’énergie limités,
pour assurer la confidentialité de l’information et le respect de la vie privée.
L’évolution des réseaux actuels vers des solutions < tout-IP >>, vers l’Internet des Objets,
prend différentes formes, alors que les grands groupes de télécommunications
traditionnels (telcos) migrent vers les réseaux de nouvelle génération à partir des
recommandations de l’ITU et de l’ETSI, tandis que les fournisseurs de services Internet
(ISP) développent leurs réseaux IP orientés vers des réseaux multi-services, s’appuyant
davantage sur les spécifications IETF. Les principales caractéristiques des réseaux de
nouvelle génération sont une séparation des fonctions (contenu, service, transport) et
l’utilisation d’un réseau par paquet pour fournir des services multiples, avec l’ouverture
et la convergence sur la couche IP.
Afin d’avoir un réseau ouvert capable de transporter des flots multiples et différents
services, et qui devrait aussi permettre de connecter toutes sortes d’équipements dans
le monde, y compris toutes les séries de capteurs, tout en conservant l’interactivité, il est
nécessaire de s’assurer qu’un ensemble minimum de conditions relatives à la Qualité de
Service (QoS) sont remplies. Par exemple, le débit, le retard maximum, le < jitter >> et la
perte en ligne doivent être correctement conçus ou garantis pour un grand nombre de
sessions multimédia d’un bout à l’autre.
Des mécanismes pour assurer le QoS permettraient aux ISP de fournir de nouveaux
services et aux Fournisseurs de Réseaux de construire des voies de QoS. Cependant, le
QoS peut conduire à des problèmes complexes dans les réseaux IP, bien que les réseaux
telcos historiques aient été conçus pour fournir un niveau garanti de QoS, au contraire
de l’Internet actuel qui ne fournit qu’une connectivité < au mieux >> (< Best Effort >>j.
Perte de paquets, délai de latence et < jitter >> sont les principaux paramètres de QoS,
décrivant ainsi la performance du réseau et donc les caractéristiques de qualité du trafic
IP. Trois stratégies et approches fondamentales existent pour maitriser le QoS sur
Internet, solutions très différentes dans leurs principes, mécanismes, architectures,
déploiement et difficulté :
/ la première approche suppose que les réseaux sous-jacents sont capables de fournir
la QoS demandée : rien n’est à faire dans l’architecture internet pour ce qui relève de
la QoS. C’est la solution technique la plus simple basée sur l’hypothèse que, quel que
soit le trafic envoyé, l’infrastructure du réseau et son équipement fourniront toujours
une QoS suffisante. Ceci signifie que le réseau doit être mis à jour et amélioré, autant
et dès que nécessaire, de façon telle que le réseau fournisse toujours la QoS
nécessaire pour tout le monde. Cette supposition repose sur l’expérience que jusqu’à
ce jour la technologie matérielle du réseau continue à s’améliorer en ligne avec la
demande. C’est une solution statistique et long terme, implantée par le gestionnaire
du trafic avec l’espoir d’être capable de garantir que presque tous les liens seront en
sous-charge la plupart du temps. Ainsi, en réalisant un monitoring sur des périodes
suffisamment courtes, les liens qui approchent de la saturation devront être détectés
et mis à jour. Evidemment, les recherches en monitoring, en gestion du trafic, en
optimisation de la topologie et en déploiement à temps des mises à jour, sont
nécessaires.
/ La deuxième approche reconnait que les réseaux actuels ne peuvent pas fournir de la
QoS dans tous les cas, mais elle suppose que des améliorations de l’Internet actuel
peuvent être ajoutées pour fournir une QoS acceptable. Cette approche part de
l’Internet < Best Effort >> actuel et développe différents mécanismes d’optimisation.
Page 21 sur 29
Master I GIS, UDM, Architectures des Objets communicants
Comme quelques réseaux existants ne peuvent garantir une QoS, des améliorations
sont nécessaires et ainsi de nouvelles conceptions et solutions doivent permettre
d’améliorer l’Internet actuel < Best Effort >> en introduisant des solutions
d’optimisation. Cette approche satisfera les besoins en QoS de l’utilisateur dans
certains cas, mais le résultat de ces mécanismes d’optimisation dépendra toujours des
capacités maximales de QoS des réseaux sous-jacents. Ici encore par conséquent, on
fait appel à une solution statistique, moins coûteuse mais aussi sujette à des
problèmes de conflit. Afin de minimiser ces problèmes, les fournisseurs de réseaux
peuvent réaliser un monitoring afin de définir de manière adéquate leur capacité
d’utilisation acceptable avant toute mise à jour. Par conséquent, dans notre vision, la
recherche sur les mécanismes nouveaux ou optimisés, protocole et architecture (i.e.
respectivement ECN.., DCCP.., proxys..) et une comparaison (partielle) des modèles
est nécessaire.
/ La dernière approche propose de construire une nouvelle architecture de réseaux qui
doit être capable de fournir aux utilisateurs de réseau n’importe quelle QoS
demandée. Les utilisateurs recevront la QoS qu’ils demandent. La conception d’une
telle solution n’est pas une tâche facile puisqu’elle demanderait d’utiliser l’IP et, en
même temps, d’être aussi générique et ouverte que l’Internet actuel. De plus, il est
nécessaire d’être capable de suivre et gérer toutes les demandes et ressources
Internet. En clair, concevoir, développer et déployer une telle solution conduit à une
grande complexité, d’une part pour définir une solution, et d’autre part pour montrer
que le coût de son déploiement est raisonnable. En particulier, il est nécessaire de
signaler le passage de l’information entre éléments afin de réserver les ressources, de
réaliser le contrôle de l’admission et le routage des paquets vers certaines voies, de
gérer les priorités de trafic et d’utiliser les protocoles de transport adéquats, ce signal
permettant les transferts d’information entre utilisateurs et différents Systèmes
Autonomes (AS) ou entre AS sans fournir de fonctionnalité pour gérer les priorités
d’utilisation des ressources du réseau.
Le degré de difficulté s’accroit pour chacune de ces approches, la plus difficile étant la
dernière qui doit être aussi générique et ouverte que l’Internet actuel, alors qu’en même
temps, il faut être capable de garantir une réponse à toutes les requêtes et gérer toutes
les ressources. Dans notre vision, une proposition pour de nouvelles solutions peut être
faite dans les domaines de l’architecture QoS, de la qualité d’expérience et des
préférences utilisateur, du plan de contrôle, des protocoles QoS, des signaux et de la
synchronisation inter domaines, des abstractions et mappings multi-technologies, de
l’optimisation des réservations hôte à hôte (< host-to-host >>j , de modularité en modèles
complets d’architecture et de déploiement de classes de services.
système peut alors décider s’il doit ou non divulguer davantage d’informations, au
risque de causer une violation de la confidentialité.
Page 25 sur 29
Master I GIS, UDM, Architectures des Objets communicants
énergétiques dans le réseau. Une architecture arborescente peut alors être adoptée
de manière dynamique.
Deux niveaux de fusion de données peuvent être envisagés : la fusion de la décision
ou des mesures. Dans le premier cas, les capteurs échangent avec leurs capteurs
voisins ou avec un nœud central une décision locale, tandis que dans le second cas, ils
partagent leurs mesures. En termes de coût de communication, le transfert de
mesures brutes est généralement plus coûteux qu’une décision. Dans le cas des
réseaux suffisamment denses, une approche hybride peut être considérée, offrant un
meilleur compromis entre le coût des communications et la qualité de l’estimation ou
de la décision.
Lorsque la décision est prise à un nœud central, les erreurs locales sont généralement
facilement détectées et supprimées. Toutefois, l’existence d’un nœud central crée un
goulot d’étranglement au niveau du réseau. Selon l’application, il peut être nécessaire
d’utiliser un traitement hautement décentralisé. Une telle approche est plus adaptée
en termes de dimensionnement et de mise à l’échelle et plus tolérante à l’ajout ou à la
suppression d’un nœud ou à des changements dynamiques dans le réseau.
De plus, le développement d’un processus de fusion de données dans un réseau de
capteurs doit tenir compte de l’asynchronisme entre les capteurs, la perte possible de
paquets en particulier dans le cas de la communication sans fil et les perturbations
locales. Les algorithmes de fusion de données doivent être insensibles aux pertes de
paquets, ou du moins être en mesure de s’adapter efficacement lorsque la perte de
données est partielle ou totale.
+ < Plug play >>, auto-déploiement et management hétérogène
De minuscules dispositifs de détection sont de plus en plus présents dans les
applications qui exigent une qualité de service accrue avec la capacité d’adaptation et
des propriétés de reconfigurabilité. Cependant, le grand nombre et l’hétérogénéité
des dispositifs de détection rendent difficile la gestion avec des outils classiques. En
outre, la nature < temps réel >> des systèmes de détection impose des actions de
gestion critique en termes de temps de ces systèmes fortement dynamiques. L’auto-
gestion est donc une propriété essentielle pour les systèmes de détection en réseau.
Plusieurs défis points-clés doivent être posés :
/ Le déploiement de capteurs : ce problème a été rencontré par exemple par la
communauté Télécom. Cependant, il semble qu’aucun travail n’existe encore
aujourd’hui sur le déploiement optimal d’un capteur/actionneur. Au niveau du
réseau les indicateurs doivent être définis. La plupart du temps, les capteurs sont
placés la où ils peuvent être placés en raison de contraintes externes, et non la où
ils devraient être fixés selon les exigences de l’application. Des modèles de type
< Building Information Models >> seraient utiles pour prendre de telles décisions.
/ Configuration et déploiement automatique du logiciel : ce sont des éléments
importants pour les systèmes de détection flexibles car l’utilisateur final n’est ni un
expert ni un spécialiste de l’outil logiciel. Tout ce qu’on peut demander à
l’utilisateur à ce niveau est une interaction via un navigateur Web. Idéalement, on
pourrait s’attendre à ce que le système s’auto-configure sans intervention
humaine, en réponse aux changements dynamiques de son environnement. La
mise à jour du microprogramme de l’appareil, la fourniture de nouveaux services
Page 27 sur 29
Master I GIS, UDM, Architectures des Objets communicants
et la mise à jour des applications sont nécessaires pour les systèmes extensibles.
Un logiciel de gestion autonome, sans intervention humaine, serait une étape vers
une véritable prise d’autonomie des systèmes de détection. A cette fin, un
mécanisme d’événement est nécessaire afin d’informer les acteurs qui sont
impliqués dans la prise de décisions sur le déploiement de nouveaux logiciels ou la
mise à jour des versions existantes. Le consortium a notamment souligné ce besoin
au niveau < Hardware >> et < Software >> dans le paragraphe < matériel
reconfigurable et logiciel, co-design et l’intégration >>.
/ Le suivi des performances et l’entretien de ces réseaux de capteurs/actionneurs
sont essentiels. Comme les capteurs peuvent être placés à des endroits qui sont
difficilement accessibles, la télésurveillance et l’entretien revêtent une importance
particulière. Par exemple, quand un ensemble de capteurs ou d’actionneurs est
soupçonné d’être défectueux, plusieurs scénarios peuvent être envisagés. Le
premier est le cas idéal oü la pièce défectueuse est répliquée. Cependant, ce n’est
pas toujours possible et une dégradation tolérable pourrait être une réponse. Une
dégradation tolérable consiste à ne pas assurer le service complet, mais un service
dégradé (par exemple un nombre de données d’entrée réduit, un ralentissement
du traitement). Dans certains cas, ceci pourrait être suffisant pour s’assurer que le
système offre un mode de fonctionnement alternatif acceptable.
L’objectif global est de fournir un système de détection/d’écoute < plug play >>
(PnPj. L’utilisateur devrait pouvoir, à partir d’un capteur disponible sur le marché,
le brancher sur le système et le dispositif serait alors auto-découvert, auto-
configuré, automatiquement mis à jour avec la dernière composante logicielle, et
suivi pendant l’ensemble de son cycle de vie. Le domaine de l’informatique
autonome travaille sur des questions similaires. Toutefois, les concepts existants
doivent être repensés et adaptés aux ressources limitées des appareils en réseau
dotés de système de détection, considérant de surcroit les contraintes sévères
sous-jacentes, notamment du point de vue temps-réel, et avec par exemple des
questions liées à la sécurité ou au système de commande.
Page 28 sur 29
Master I GIS, UDM, Architectures des Objets communicants
L’utilisation de la vue située implique une coopération implicite entre les agents qui
s’influencent les uns les autres au travers de la connaissance qu’ils partagent. La
coopération implicite est le mode élémentaire de la coopération. Ce mode est simple,
particulièrement robuste et bien adapté aux environnements se modifiant
dynamiquement, car il n’implique pas l’établissement d’un dialogue explicite et une
synchronisation stricte entre les agents.
Ce qu’un agent est capable de faire est défini dans un ensemble de comportements.
Chacun de ces comportements peut être considéré comme une fonction spécialisée
avec des capacités expertes, capable de traiter des aspects spécifiques du travail à
accomplir par l’agent. Les comportements ont accès à la vue située qui fonctionne en
chaque agent comme un tableau blanc partagé par tous les comportements agent.
L’activation, le paramétrage dynamique et l’ordonnancement des comportements au
sein de l’agent sont réalisés par un module de planification dynamique. Celui-ci
décide du comportement à activer, du moment où il doit l’être et avec quels
paramètres. Ce module détecte les changements dans la vue située et l’apparition
d’évènements internes ou externes. A partir de la, il peut orchestrer la réaction de
l’agent aux changements de l’environnement réseau.
Les éléments décrits ci dessus proviennent de la société GINKGO NETWORKS et de la
plateforme proposée par cette société. La plateforme fournit des moyens simples et
décentralisés pour traiter la complexité croissante des réseaux modernes et de leurs
besoins qui sont de plus en plus difficiles à traiter avec les systèmes centralisés
classiques.
+ Environnement et outils pour la création, l’agencement et la mise en œuvre de
services, et l’interaction avec l’utilisateur :
L’intelligence ambiante est appelée à impacter tous les aspects de la vie quotidienne ;
elle constitue un vecteur puissant de développement et d’innovation. Il est nécessaire
de fournir des services et des équipements adaptés à toute circonstance, à tout
moment et en tout lieu, pour satisfaire les besoins individuels et répondre à des
enjeux sociétaux, dans des domaines d’activité très diversifiés.
Il ne s’agit plus seulement d’augmenter les gains de productivité des individus et des
organisations mais également de développer des dispositifs technologiques qui
améliorent la qualité de vie à l’échelle des individus, des communautés et de la
société, et qui, subséquemment, contribue à la sauvegarde de la planète. Il ne s’agit
plus de produire des ordinateurs prêts à l’emploi (aux niveaux logiciel et matériel)
mais de permettre aux citoyens et aux compagnies de devenir les architectes de leurs
propres services. Ces services seront idéalement (rejconfigurables de manière
illimitée, en accord avec les règles de sécurité, la législation et les valeurs du plus
grand nombre.
Les enjeux adressés :
/ La mobilité (incluant la persistance et la continuité dans la communication), le
déplacement d’objets communicants (avec une connexion intermittente), la
sensibilisation et l’apprentissage de l’informatique ubiquitaire, la téléprésence
d’individus ou la présence partielle (segments corporels) ;
Page 30 sur 29
Master I GIS, UDM, Architectures des Objets communicants
attentes des utilisateurs. Un des problèmes réside dans le fait que la configuration
de chaque espace domestique est différente, que les dispositifs fournissent
différents services, et que la multiplicité des dispositifs peut être à l’origine de
conflits et d’incompatibilités difficilement détectables à priori.
Le premier enjeu est de parvenir à concevoir des services de haut niveau formés de
services composites et de vérifier que l’équipement de l’espace domestique
fournisse des services en accord avec les attentes exprimées.
Le second enjeu réside dans la gestion du comportement dynamique inhérent à ce
type d’application : les services sont créés, interconnectés, et supprimés durant
leur exécution. Le caractère de dynamicité répond aux contraintes d’adaptabilité
des applications distribuées et à la mobilité de ses utilisateurs. Dans le cas
d’architectures statiques, des modèles ont été proposés mais ces approches ne
sont pas utilisables et il est donc nécessaire de se baser sur des formalismes de
modélisation puissants, par exemple les grammaires de graphes qui traitent
l’évolution dynamique des architectures logicielles par des transformations de
graphes.
/ Accès aux services, interfaces, interfaces Homme-Machine (IHMj : les services
fournis doivent non seulement être accessibles à l’utilisateur mais ces derniers
doivent également être capables de les surveiller et de les contrôler. Il est donc
nécessaire de rester attentif aux questions d’usage et d’ergonomie, par le biais
notamment de la conception d’IHM adaptées qui permettent à l’utilisateur de
< rester dans la boucle de contrôle >>, de façon à ce que les systèmes soient plus
facilement acceptés. La recherche de solutions innovantes dans le domaine des
IHM doit se traduire par des solutions qui permettent aux utilisateurs d’avoir accès à
l’état courant du système technique, notamment à la logique qui sous-tend une
action système, de façon à ce que ce dernier ne constitue pas une < boite noire >>.
L’utilisateur doit ainsi garder le contrôle et être en mesure à tout moment de
passer outre aux décisions du système (exception faite des contraintes de
sécuritéj. Dans le domaine de la maitrise de la consommation d’énergie, l’objectif
poursuivi est que l’utilisateur puisse être conscient de son empreinte énergétique,
de manière à, dans la mesure du possible, modifier son comportement grâce à un
retour en temps réel de l’impact de ses actions.
Il existe plusieurs types d’IHM qui peuvent être distingués selon le contenu de
l’information véhiculée et le dispositif d’affichage et de contrôle. Elles doivent être
adaptées à l’usage qu’en font les utilisateurs. On considérera différents types
d’IHM : traditionnelles, tangibles, multimodales, centralisées ou distribuées,
mobiles, semi-mobiles ou statiques.
Enfin, les facteurs déterminants pour la mise en oeuvre des services peuvent être
exprimés en termes de qualité du service (telle que discutée dans la partie < modèles
et contrôle, dimensionnement, extensibilité, convergence et standards de Qualité de
service >> QoSj ainsi qu’en relation à l’existence du < substrat d’intermédiation >> pour
la conception de services appropriés.
(point de contact)
Page 32 sur 29