German Title: Robustheit und Domänenverallgemeinerung
Preview |
PDF, English
- main document
Download (40MB) | Terms of use |
Abstract
The robustness task asks to find a predictive model that remains accurate not only under known conditions but also when encountering completely novel situations, often referred to as distribution shift. Domain Generalization (DG) represents a specific case of robustness, wherein access to distinct environments is provided during the training phase. In this thesis, we contribute to the robustness task in four important ways. We propose two distinct frameworks in the context of DG designed to attain robustness. One is rooted in the fundamental principle of independent causal mechanisms, seeking invariances that persist across various environments. The second approach leverages contextual information about the origins of the data to improve robustness via permutation-invariant neural networks. Additionally, we define and implement a classifier’s competence region as the region where the classifier is deemed competent and trustworthy. This approach enables us to increase the classifier’s accuracy by rejecting samples lying outside its competence region, even in the presence of a distribution shift. Lastly, we theoretically analyze three crucial types of invariances, showing their prospects of success or failure in the robustness task under various distribution shifts. This comprehensive analysis provides a broad and insightful perspective on the topics of robustness and invariances.
Translation of abstract (UNSPECIFIED)
Die Aufgabe von Robustheit besteht darin, ein Vorhersagemodell zu finden, das nicht nur unter bekannten Bedingungen präzise bleibt, sondern auch in völlig neuen Situationen. Die Veränderung der Bedingungen wird auch als Verteilungsverschiebung bezeichnet. Domain Generalization (DG) stellt einen spezifischen Fall der Robustheitsaufgabe dar, bei dem während der Trainingsphase Zugang zu unter- schiedlichen Bedingungen (oder Umgebungen) gewährt wird. In dieser Arbeit tragen wir insgesamt vier wesentliche Ansätze zur Robustheitsaufgabe bei. Wir schlagen zwei unterschiedliche Heransgehensweisen im Kontext von DG vor, die auf Robustheit ausgelegt sind. Eine basiert auf dem fundamentalen Prinzip unabhängiger kausaler Mechanismen und sucht nach Invarianzen, die in verschiedenen Umgebungen bestehen bleiben. Der andere Ansatz nutzt kontextbezogene Informationen über die Herkunft der Daten, um die Robustheit mithilfe von permutationsinvarianten neuronalen Netzwerken zu verbessern. Zusätzlich definieren und implementieren wir den Kompetenzbereich eines Klassifizierers als den Bereich, in dem der Klassifizierer als kompetent und vertrauenswürdig angesehen wird. Dieser Ansatz ermöglicht es uns, die Genauigkeit des Klassifizierers zu erhöhen – selbst in Anwesenheit einer Verteilungsveränderung – indem wir Eingaben außerhalb seines Kompetenzbereichs ablehnen. Schließlich analysieren wir in der Theorie drei entscheidende Arten von Invarianzen und zeigen ihre Erfolgsaussichten oder ihr Versagen bei der Robustheitsaufgabe unter verschiedenen Verteilungsverschiebungen auf. Diese umfassende Analyse liefert eine breite und aufschlussreiche Perspektive zu den Themen Robustheit und Invarianzen.
Document type: | Dissertation |
---|---|
Supervisor: | Köthe, apl. Prof. Ullrich |
Place of Publication: | Heidelberg |
Date of thesis defense: | 25 April 0024 |
Date Deposited: | 30 Apr 2024 14:48 |
Date: | 2024 |
Faculties / Institutes: | The Faculty of Mathematics and Computer Science > Department of Computer Science |
DDC-classification: | 004 Data processing Computer science |
Controlled Keywords: | Maschinelles Lernen, Kausalität |