Communication Dans Un Congrès
Année : 2023
Résumé
Les modèles d'apprentissage automatique (AA) peuvent présenter des biais discriminatoires envers certains groupes sociaux. Nous étudions à quel point les techniques et définitions d'équité utilisées en AA peuvent garantir le respect du droit de l'UE en matière de non discrimination. À travers des modèles de classification entraînés avec différentes contraintes d'équité, nous évaluons l'efficacité des méthodes de correction de biais et discutons les résultats sous l'angle de l'AA et de l'informatique juridique.
Mots clés
Apprentissage automatique Droit de l'Union Européenne Décision algorithmique Équité Non-discrimination Machine learning European Union law Algorithmic decision-making Fairness Non-discrimination
Apprentissage automatique
Droit de l'Union Européenne
Décision algorithmique
Équité
Non-discrimination Machine learning
European Union law
Algorithmic decision-making
Fairness
Non-discrimination
Origine | Fichiers produits par l'(les) auteur(s) |
---|
Sandra Bringay : Connectez-vous pour contacter le contributeur
https://hal.science/hal-04164322
Soumis le : mardi 18 juillet 2023-10:59:36
Dernière modification le : mercredi 25 septembre 2024-09:56:06
Archivage à long terme le : jeudi 19 octobre 2023-18:33:38
Dates et versions
- HAL Id : hal-04164322 , version 1
Citer
Magali Legast, Yasaman Yousefi, Lisa Koutsoviti, Axel Legay, Christopher Schommer, et al.. Métriques d'équité en Apprentissage Automatique et droit de l'Union Europénne en matière de non-discrimination. CNIA 2023 - Conférence Nationale en Intelligence Artificielle, PFIA, Jul 2023, Strasbourg (67), France. ⟨hal-04164322⟩
38
Consultations
68
Téléchargements