Een recente trend bij het oplossen van problemen met betrekking tot het dagdagelijks leven van de mens is het gebruik van technieken voor machinaal leren, met name neurale netwerken. Hoewel neurale netwerken, door gebruik te maken van grote hoeveelheden data, het mogelijk maken om heel complexe uitdagingen aan te pakken, werd onlangs ontdekt dat ze een ernstige veiligheidsfout hebben, namelijk hun kwetsbaarheid voor vijandige voorbeelden. In dit opzicht verwijst de term vijandige voorbeelden naar invoer die met kwaadwillende bedoelingen is gemaakt, met als doel geautomatiseerde besluitvormingssystemen te misleiden. In dit doctoraal proefschrift bestuderen we het fenomeen van vijandige voorbeelden in meer detail in de context van diepe neurale netwerken, met bijzondere aandacht voor de volgende onderwerpen: (1) eigenschappen van vijandige voorbeelden, (2) vijandige aanvallen op modellen voor het segmenteren van biomedische afbeeldingen, (3) vijandige aanvallen op modellen voor het herkennen van menselijke activiteiten in radarbeelden, en (4) verdedigingen tegen vijandige voorbeelden. Meer specifiek heeft het onderzoek dat voorgesteld wordt in dit doctoraal proefschrift geleid tot de ontwikkeling van twee nieuwe vijandige aanvallen op modellen voor machinaal leren, alsook een nieuwe verdediging, en waarbij deze ontwikkelingen het mogelijk maken om een dieper inzicht te verwerven in de eigenschappen van vijandige voorbeelden. | |