De laatste decennia is het besef gegroeid in allerhande sectoren (gezondheidszorg, sport, verkoop, industrie...) dat het verzamelen en analyseren van (big) data vele voordelen met zich mee kan brengen, mede door het toenemende belang van artificiële intelligentie. Een van de grootste uitdagingen is, echter, dat men moet kunnen garanderen dat de kwaliteit van deze data voldoende hoog is, zodat de verworven inzichten ook voldoende betrouwbaar zijn. De bijdragen die voorgesteld worden in dit doctoraat helpen om deze kwaliteitsproblematiek verder aan te pakken. Specifiek ligt de focus van dit doctoraat op het automatisch detecteren van inconsistenties in datasets door middel van regelgebaseerde methodieken. Meerbepaald worden verschillende soorten semantische kwaliteitsregels die inwerken op individuele tuples van datasets voorgesteld als een effectief en efficiënt mechanisme om de meest waarschijnlijke locaties van consistentiefouten in data-objecten te vinden. Voor elk van dit soort kwaliteitsregels worden bepaalde problemen die als fundamenteel worden beschouwd binnen de context van regelgebaseerde systemen (bv. ontginning, implicatie, detectie...) uitgebreid onderzocht. Om tegemoet te komen aan de uitdagingen die (big) data tegenwoordig met zich meebrengen, wordt er hierbij steeds een doordachte afweging gemaakt tussen efficiëntie, kwaliteit en toepasbaarheid van de mogelijke oplossingen. | |