Towards Inherently Interpretable Machine Learning for Healthcare

DSpace Repository


Dateien:

URI: http://hdl.handle.net/10900/151023
http://nbn-resolving.de/urn:nbn:de:bsz:21-dspace-1510237
http://dx.doi.org/10.15496/publikation-92363
Dokumentart: PhDThesis
Date: 2024-02-09
Language: English
Faculty: 7 Mathematisch-Naturwissenschaftliche Fakultät
Department: Informatik
Advisor: Pfeifer, Nico (Prof. Dr.)
Day of Oral Examination: 2024-01-25
DDC Classifikation: 004 - Data processing and computer science
510 - Mathematics
610 - Medicine and health
Keywords: Maschinelles Lernen , Explainable Artificial Intelligence , Medizinische Informatik , Bioinformatik , Individualisierte Medizin
Order a printed copy: Print-on-Demand
Show full item record

Inhaltszusammenfassung:

Für die Forschung im Bereich der Medizin und der Gesundheitsversorgung werden hochdimensionale, multimodale und komplexe Daten benutzt, um eine detailliertere Unterteilung von Patienten zu ermöglichen. Dies hat zum Ziel, die Diagnose und Behandlung von Patienten zu optimieren und neuartige Erkenntnisse über Krankheiten zu gewinnen. Maschinelles Lernen kann einen potenziell positiven Einfluss auf diese beiden Forschungsfelder haben, da Prädiktionsmodelle des Maschinellen Lernens die Fähigkeit haben, komplexe Muster in hochdimensionalen Daten zu erkennen und diese mit relevanten Endpunkten in Korrelation zu setzen. Um einen signifikanten Fortschritt im Bereich der Medizin und der Gesundheitsversorgung zu erreichen, ist eine interdisziplinäre Anstrengung unter Beteiligung von Ärzten, Experten des maschinellen Lernens, Datenwissenschaftlern und weiteren Interessensgruppen erforderlich. Inhärent interpretierbare Prädiktionsmodelle können ein wichtiger Ansatz für solch interdisziplinäre Forschung sein, da sie die Expertise der verschiedenen Fachleute vereint und so eine Kooperation auf Augenhöhe unterstützt. Diese Doktorarbeit untersucht die Realisierbarkeit von inhärent interpretierbaren Modellen für die Forschung in Medizin und Gesundheitsversorgung. Hierbei liegen die wissenschaftlichen Beiträge dieser Arbeit in zwei Forschungsfeldern: Datenzentrierte und modellzentrierte Forschung. Im datenzentrierten Teil werden die Voraussetzungen untersucht, die Daten erfüllen müssen, um das Training von inhärent interpretierbaren Modellen zu ermöglichen. Da diese Art von Prädiktionsmodellen eine konzeptuelle Einfachheit erfordern, muss eine besonders hohe Qualitätsanforderung an Trainingsdaten gestellt werden, um ein erfolgreiches Training mit entsprechender Prädiktionsperformanz zu erreichen. Die Ergebnisse dieser Arbeit zeigen, wie ein entsprechend ausgearbeitet Aufnahmeszenario ermöglicht, unter Verwendung von linearen Modellen sogenannte Perturbation-Evoked Potentials vom Ruhe-EEG zu unterschieden. Außerdem wird gezeigt, wie speziell kuratierte Daten das Training von Modellen für die Vorhersage von Antigenkandidaten gegen \textit{Plasmodium falciparum} ermöglichen. Modelle, die auf diesen spezialisierten Daten trainiert wurden, erreichen eine signifikant bessere Prädiktionsperformanz als komplexere Modelle, die auf nicht kuratierten Daten trainiert wurden. Die modellzentrierte Forschung dieser Doktorarbeit untersucht die Möglichkeit, die Ausdrucksstärke von inhärent interpretierbaren Modellen für den Einsatz im medizinischen Kontext oder dem Gesundheitswesen zu verbessern. Die in dieser Arbeit vorgestellten Ergebnisse zeigen, wie aus einer Kombination aus interpretierbaren Kernfunktionen mit künstlichen neuronalen Netzen inhärent interpretierbare Modelle entstehen. Diese Modelle erreichen State of the Art Prädiktionsperformanz auf getesteten Vorhersageaufgaben. Außerdem wird gezeigt, dass diese Modelle robust und effizient auf verschiedenen Datensatzgrößen trainiert werden können. Da die Größe von Datensätzen in Medizin und Gesundheitsversorgung stark schwankt, ist diese Eigenschaft eine Voraussetzung für einen weiträumigen Einsatzbereich. Die in dieser Arbeit vorgeschlagenen Modelle und präsentierten Ergebnisse stellen einen wissenschaftlichen Fortschritt für die Forschung zu inhärent interpretierbaren maschinellem Lernen in Medizin und Gesundheitsversorgung dar.

Abstract:

Research in medicine and healthcare utilizes high-dimensional, multi-modal and complex data to stratify patients for improving diagnosis and treatment and discovering novel insights into diseases. Machine learning has the potential to positively impact medicine and healthcare due to the ability of machine learning methods to find complex patterns in high-dimensional data and correlate these patterns with relevant endpoints. However, substantial advancements in these two research fields can only be achieved by an interdisciplinary effort involving physicians, machine learning experts, data scientists, and more. One approach that utilizes expertise from all involved parties while also enabling scientists from different disciplines to interact on equal footing is the use of inherently interpretable prediction models. This thesis explores the viability of inherently interpretable prediction models for research in medicine and healthcare. The contributions of this thesis lie in two different fields: data-centric and model-centric research. On the data-centric side, this thesis explores the prerequisites that data have to fulfill to allow the training of inherently interpretable models. Since this type of prediction model needs to be conceptually simple, data has to fulfill quality requirements to allow the training of high performing models that are inherently interpretable. Results presented in this thesis show that a carefully designed recording setup allows to distinguish perturbation-evoked potentials from ongoing electroencephalography with simple linear models. Furthermore, a carefully curated dataset allows to train specialized prediction models for the classification of \textit{Plasmodium falciparum}-specific protein antigen candidates. These models vastly outperform more complex prediction services for similar tasks. On the model-centric side, this thesis explores the possibility to increase the expressiveness of inherently interpretable models for prediction tasks in medicine and healthcare. The results of this thesis show that a combination of interpretable kernel functions with artificial neural networks creates inherently interpretable kernel networks that achieve state-of-the-art prediction performance on tested prediction tasks. Furthermore, these kernel networks can be robustly and efficiently trained on all dataset sizes. Since available data in medicine and healthcare ranges from small- to large-scale, this property is important for models that aim to be generally applicable in the targeted research areas. With the models proposed and the results presented in the included research, this doctoral thesis advances current knowledge towards inherently interpretable machine learning for medicine and healthcare.

This item appears in the following Collection(s)