Artificiële intelligentie (AI) speelt steeds vaker een rol bij beslissingen die een belangrijke impact hebben op ons leven, zoals bij jobrecrutering, het uitkeren van leningen, of het vellen van oordelen bij justitie. AI kan hierbij helpen door nuttige patronen te leren uit grote hoeveelheden data. Wanneer deze data echter bestaat uit beslissingen die door mensen genomen zijn, riskeren AI systemen dat ze ook de discriminerende vooroordelen van mensen reproduceren of versterken.
In deze thesis worden daarom drie nieuwe methoden voor eerlijkheid-regularisatie voorgesteld die kunnen gebruikt worden om vooroordelen in AI systemen te beperken zonder al te veel in te boeten aan nauwkeurigheid. Hoewel zo'n technische hulpmiddelen een praktische waarde kunnen bieden, steunen ze op dezelfde, simplistische aannames die gebruikelijk zijn in de bredere literatuur over AI-eerlijkheid. De thesis bevat daarom ook een analyse van hoe nuttig zo'n technische, simplistische beschrijvingen van AI-eerlijkheid ook daadwerkelijk kunnen zijn om discriminatie te vermijden.
| |