Explainable machine learning in soil mapping: Peeking into the black box

DSpace Repositorium (Manakin basiert)


Dateien:

Zitierfähiger Link (URI): http://hdl.handle.net/10900/116585
http://nbn-resolving.de/urn:nbn:de:bsz:21-dspace-1165851
http://dx.doi.org/10.15496/publikation-57960
Dokumentart: Dissertation
Erscheinungsdatum: 2021-07-06
Sprache: Englisch
Fakultät: 7 Mathematisch-Naturwissenschaftliche Fakultät
Fachbereich: Geographie, Geoökologie, Geowissenschaft
Gutachter: Scholten, Thomas (Prof. Dr.)
Tag der mündl. Prüfung: 2021-04-26
DDC-Klassifikation: 550 - Geowissenschaften
Schlagworte: Maschinelles Lernen , Bodenkartierung , Modellierung , Interpretation
Freie Schlagwörter:
Explainable machine learning
model interpretability
digital soil mapping
Lizenz: http://tobias-lib.uni-tuebingen.de/doku/lic_mit_pod.php?la=de http://tobias-lib.uni-tuebingen.de/doku/lic_mit_pod.php?la=en
Gedruckte Kopie bestellen: Print-on-Demand
Zur Langanzeige

Inhaltszusammenfassung:

Während des Anthropozäns und insbesondere in den letzten Jahrzehnten hat sich die Umwelt der Erde stark verändert. Die planetarischen Grenzen stehen zunehmend unter Druck. Da der Boden als wichtiger Teil der Kohlenstoff- und Stickstoffkreisläufe das Klima beeinflusst, ist er eine wichtige Ressource bei der Bewältigung dieser Umweltprobleme. Folglich spielt das Wissen über den Boden, Bodenprozesse und Bodenfunktionen eine wesentliche Rolle bei der Erforschung und Lösung dieser schwerwiegenden ökologischen und sozioökonomischen Herausforderungen. Die Kartierung und Modellierung des Bodens liefert räumliche Kenntnis über den Zustand des Bodens und seine Veränderungen im Laufe der Zeit. Dies ermöglicht es, Methoden der Bodenbewirtschaftung und Lösungsansätze für Umweltprobleme zu beurteilen und zu bewerten. Methoden des maschinellen Lernens haben sich für die räumliche Kartierung und Modellierung des Bodens als geeignet erwiesen. Oft handelt es sich dabei aber um Black Boxes und die Modellentscheidungen und -ergebnisse werden nicht erklärt. Allerdings würden erklärbare Bodenmodelle auf der Grundlage des maschinellen Lernens die Erkennung von Umweltveränderungen erleichtern, zur Entscheidungsfindung für den Umweltschutz beitragen und die Akzeptanz von Wissenschaft, Politik in Gesellschaft fördern. Daher sind die jüngsten Bemühungen im Bereich des maschinellen Lernens darauf ausgerichtet, den konventionellen Rahmen des maschinellen Lernens auf er¬klärbares maschinelles Lernen zu erweitern, um 1) Entscheidungen zu begründen, 2) die Modelle besser zu steuern und 3) zu verbessern und 4) neues Wissen zu generieren. Die Kernelemente für erklärbares maschinelles Lernen sind Transparenz, Interpretierbarkeit und Erklärbarkeit. Darüber hinaus sind domain knowledge und wissenschaftliche Konsistenz entscheidend. Bei der Bodenmodellierung spielten die Konzepte des erklärbaren maschinellen Lernens jedoch bisher eine geringe Rolle. Ziel dieser Arbeit war es, zu untersuchen und zu beschreiben, wie Transparenz, Interpretierbarkeit und Erklärbarkeit im Rahmen der Bodenmodellierung erreicht werden können. Die Fallbeispiele zeigten, wie Konsistenz mit Modellvergleichen bewertet werden kann und domain knowledge in die Modelle einfließt. Ebenso zeigten die Studien, wie Transparenz mit reproduzierbarer Proben- und Variablenauswahl erreicht werden kann und wie die Interpretation der Modelle mit domain knowledge verknüpft werden kann, um die Modellergebnisse besser zu erklären und in Bezug zu bodenkundlichem Wissen zu setzen sind.

Abstract:

During the Anthropocene and especially in the past decades earth’s environment has undergone major changes. The planetary boundaries are increasingly under pressure. Since soil affects climate as compartment of the carbon and nitrogen cycles, it is an important resource in approaching these environmental problems. Consequently, knowledge about soil, soil processes and soil functions plays an essential role in research on and solutions for these severe environmental and socio-economic challenges. The mapping and modelling of soil provides spatial knowledge of soil status and changes over time, which allows to assess and evaluate soil management practices and attempts to solve to environmental problems. Machine learning methods have proven to be suitable for spatial mapping and modelling of soil, but often are black boxes and the model decisions and prediction results remain unexplained. However, explainable soil models based on machine learning would facilitate detection of environmental changes, contribute to decision making for environmental protection and foster acceptance in science, politics, and society. Therefore, latest efforts in machine learning were to expand the conventional machine learning framework to explainable machine learning to 1) justify decisions, 2) control, and 3) improve models and 4) to discover new knowledge. The core elements for explainable machine learning are transparency, interpretability and explainability. Additionally, domain knowledge and scientific consistency are crucial. However, to date the concepts of explainable machine learning played a marginal role in soil modelling and mapping. Objective of this thesis was to explore and describe how transparency, interpretability and explainability can be achieved in the soil mapping framework. The example studies showed how scientific consistency can be evaluated with model comparison and domain knowledge was and incorporated in DSM models. The studies showed how transparency can be accomplished with reproducible sample and covariate selection, and how interpretation of the models can be linked with domain knowledge about soil formation and processes to explain the model results.

Das Dokument erscheint in: