Uitlegbaarheid van neurale netwerk-gebaseerde aanbevelingssystemen.

Student:Toon Mertens
Richting:Master of Science in de industriële wetenschappen: informatica
Abstract:Met de stijgende populariteit van deep learning, zijn er de laatste jaren veel neurale netwerk-gebaseerde aanbevelingssystemen voorgesteld. Deze modellen verschillen in meerdere opzichten; ze zijn gebaseerd op verschillende deep learning technieken, gebruiken verschillende input data, en dienen verschillende voorspellingsdoelen. Dit alles leidt tot een versnipperd veld waar het vaststellen van baselines praktisch onmogelijk is. Dit werk probeert een duidelijk overzicht te scheppen van de verschillende neurale netwerk-gebaseerde modellen die zijn voorgesteld. Vier modellen van collaborative filtering worden geselecteerd voor verder onderzoek, waarbij de architectuur van het model wordt beschreven, en de stappen worden gegeven die nodig zijn om het model te implementeren. De mogelijkheid om het model te gebruiken voor zowel impliciete als expliciete feedbackgegevens wordt onderzocht. Evaluatie van de prestaties van de modellen leidt tot interessante inzichten. Hieruit blijkt dat op neurale netwerken gebaseerde aanbevelingssystemen geschikter zijn voor het omgaan met expliciete data en dat traditionele aanbevelingsmethoden de optimale keuze blijven voor impliciete feedback. De mogelijkheid om uit te leggen waarom een bepaalde voorspelling is gedaan is een groot voordeel, maar is tot nu toe buiten beschouwing gelaten. Dit werk zal de haalbaarheid onderzoeken van het introduceren van verklaarbaarheid in neurale netwerk-gebaseerde aanbevelingssystemen. Het zal duidelijk worden dat het toevoegen van inhoudsgegevens aan de collaboratieve filteringgegevens essentieel is om verklaarbare output te verkrijgen. Door het model aan te passen voor inhoudsdata en door gebruik te maken van de bibliotheek shap, wordt verklaarbaarheid gerealiseerd.
Abstract (Eng):With the rise in popularity of deep learning, many neural network-based recommender systems have been proposed in recent years. These models vary in multiple aspects; they are based on different deep learning techniques, use different input data, and serve different prediction goals. All this leads to a scattered field where establishing baselines is practically impossible. This work tries to give a clear overview of the different neural network-based models that have been proposed. Four collaborative filtering models are selected for further examination, where the model’s architecture is described, and the steps required to implement the model are given. The possibility of using the model for both implicit- and explicit feedback data is explored. Evaluation of the models’ performance leads to interesting insights. It shows that neural network-based recommender systems are more suitable for dealing with explicit data and that traditional recommendation methods remain the optimal choice for implicit feedback. The ability to explain why a certain prediction was made is a real advantage but has previously been disregarded. This work will research the feasibility of introducing explainability to neural network-based recommender systems. It will become clear that adding content data to the collaborative filtering data is essential in order to obtain explainable output. By adapting the model for content data and by using the shap library, explainability is realised.