Richting betrouwbaar machinaal leren voor antibioticatherapie dankzij verklarende AI dashboards

Student:Kaat Van der Eycken
Richting:Master of Science in de industriële wetenschappen: informatica
Abstract:In het kader van het HEROI2C project werd onderzoek gedaan naar verklaarbare AI voor het creëeren van een dashboard applicatie. Met het HEROI2C willen onderzoekers een meer geïndividualiseerde antibioticatherapie ontwikkelen voor IZ patiënten. In eerder onderzoek werd een machine learning model ontwikkeld voor predictie van antibioticaconcentratie in het bloed van de patiënt. Dit model wordt gevisualiseerd in een verklarende AI dashboard, ontwikkeld om vertrouwen te creëeren in het model. Hiervoor werd onderzoek gedaan naar verklaarbaarheid en technieken die trachten machine learning modellen meer verklaarbaar te maken. Enkele technieken werden geëvalueerd en drie methoden werden geselecteerd voor gebruik in het dashboard. SHAP, CP-profielen en LeafInfluence bleken het meeste bij te dragen tot interpreteerbaarheid. Het dashboard werd vervolgens ontwikkeld met gebruik van Flask en ReactJS en geëvalueerd door zeven arsten a.d.h.v. een vragenlijst. De arsten kregen toegang tot een versie van het dashboard met vijf casussen en werden gevraagd de verschillende componenten te beschrijven. Op het einde van de vragenlijst, werden alle onderdelen beoordeeld op hun invloed op de interpreteerbaarheid. SHAP, CP-profielen en LeafInfluence scoorden gemiddelde 5.43, 7.0 en 5.43 op 10. Het complete dashboard behaalde een score van 7 op 10 naar volledigheid van interpreteerbaarheid.
Abstract (Eng):In the context of the HEROI2C project, research into explainable AI for creating a dashboard application was done. With HEROI2C, researchers are developing a more individualised approach to antibiotic therapy for ICU patients. In previous work, a machine learning model was created to predict antibiotic concentration in the patient's blood. The aim is to visualise this model in an explainable AI dashboard, developed to create trust. To this end, research was conducted into explainability and techniques that attempt to make machine learning models more explainable. Some techniques were evaluated, and three methods were selected for use in the dashboard. SHAP, CP profiles and LeafInfluence were found to contribute the most to the interpretability of the model. The dashboard was then developed using Flask and ReactJS and evaluated by seven professionals using a survey. Physicians were given access to a dashboard version containing five case studies and asked to describe the dashboard's different components. At the end of the survey, participants scored all components and the complete dashboard on influence and completeness of interpretability. SHAP, CP profiles and Leafinfluence scored 5.43, 7.0 and 5.43 out of 10 on their influence on the interpretability. Overall the dashboard received a score of 7 out of 10 for completeness of interpretability.