Apprentissage de relations floues pour l’annotation sémantique expliquée avec peu de données - Archive ouverte HAL
Nothing Special   »   [go: up one dir, main page]

Communication Dans Un Congrès Année : 2019
Learning Fuzzy Relations from Few Data for Explainable Semantic Annotation Apprentissage de relations floues pour l’annotation sémantique expliquée avec peu de données
1 LI3A (CEA, LIST) - Intelligence Artificielle et Apprentissage Automatique (CEA, LIST) (Artificial Intelligence and Automatic Learning (LI3A) 91191 - Gif sur Yvette cedex anciennement Laboratoire Analyse des Données et Intelligence des Systèmes (LADIS), Laboratoire Information Modèles et Apprentissage (LIMA), Laboratoire Intelligence Multi-capteurs et Apprentissage (LIMA) - France)
"> LI3A (CEA, LIST) - Intelligence Artificielle et Apprentissage Automatique (CEA, LIST)
2 MICS - Mathématiques et Informatique pour la Complexité et les Systèmes (Plateau de Moulon 3 rue Joliot Curie 91192 GIF SUR YVETTE CEDEX - France)
  • CentraleSupélec (3, rue Joliot Curie, Plateau de Moulon, 91192 GIF-SUR-YVETTE Cedex - France)
"> MICS - Mathématiques et Informatique pour la Complexité et les Systèmes

Résumé

Despite the recent successes of deep learning, such models are still far from some human abilities like learning from few examples, reasoning and explaining their decisions. In this paper, we focus on object annotation in images and we introduce a reasoning framework that is based on learning fuzzy relations on a dataset for generating explanations. Given a catalogue of relations, it efficiently induces the most relevant relations and combines them for building constraints in order to both solve the target task and generate explanations. We test our approach on a publicly available dataset on which the goal was both to perform multiple organ annotation and to provide explanations. We show that our model can generate explanations and achieve high performance despite being trained on a small dataset containing as few as a couple of examples.
Malgré son récent succès, l’apprentissage profond semble loin d’égaler certaines capacités humaines comme l’apprentissage à partir de peu d’exemples, le raisonnement ou encore l’explicabilité. Dans cet article, nous mettons l’accent sur l’annotation d’objets dans des images et nous présentons un cadre de raisonnement s’appuyant sur l’apprentissage de relations floues qui permet notamment de générer des explications. Étant donné un ensemble de relations, les plus pertinentes d’entre elles sont induites et combinées pour construire des contraintes permettant de définir un problème de satisfaction de contraintes floues. La résolution de ce probléme nous permet d’annoter l’image et de générer des explications à l’aide des contraintes utilisées. Nous testons notre approche sur un jeu de données public avec deux objectifs : effectuer une annotation d’organes et fournir une explication à chaque annotation. Nous montrons que le modèle que nous obtenons peut générer des explications tout en atteignant des performances élevées malgré un jeu de données pouvant être constitué de seulement deux exemples.
Fichier principal
Vignette du fichier
rjcia2019-03.pdf (2.07 Mo) Télécharger le fichier
Origine Fichiers produits par l'(les) auteur(s)
Loading...

Dates et versions

hal-02160290 , version 1 (20-06-2019)
Identifiants
  • HAL Id : hal-02160290 , version 1

Citer

Régis Pierrard, Jean-Philippe Poli, Céline Hudelot. Apprentissage de relations floues pour l’annotation sémantique expliquée avec peu de données. Rencontres des Jeunes Chercheurs en Intelligence Artificielle 2019, Toulouse Institute of Computer Science Research (IRIT), and the French AI Society (AFIA), Jul 2019, Toulouse, France. pp.18-26. ⟨hal-02160290⟩
458 Consultations
397 Téléchargements

Partager

More