In de voorbije jaren is onze maatschappij in snel tempo gedigitaliseerd. Als gevolg hiervan zijn belangrijke maatschappelijke processen, zoals besluitvorming of publieke berichtgeving, ingrijpend geëvolueerd en in toenemende mate afhankelijk geworden van de beschikbaarheid van grote hoeveelheden data. Om de kwaliteit van deze processen te kunnen garanderen, is het noodzakelijk dat de data waarop zij steunen ook kwalitatief zijn. Ondanks het feit dat datakwaliteit in de voorbije decennia geëvolueerd is tot een prominent onderzoeksdomein, circuleren in de praktijk minder kwalitatieve data nog steeds op grote schaal. In een poging om dit probleem aan te pakken, focust dit werk op drie, in de praktijk veelvoorkomende, kwaliteitsproblemen. Meer specifiek onderzoekt dit werk nieuwe technieken om te kunnen omgaan met de aanwezigheid van onzekerheid tijdens kwaliteitsmetingen, de bestaande nood om datakwaliteit op een meer contextbewuste manier te benaderen én de moeilijkheden die gepaard gaan met het onderzoeken van de accuraatheid van informatie. Elk van de voorgestelde procedures wordt vervolgens vertaald naar de praktijk. Aldus resulteert dit werk in een nieuw, onzekerheidsbewust raamwerk voor het meten van wetenschappelijke datakwaliteit, een nieuwe, empirische methode voor het nagaan van de praktische impact van datakwaliteit én (semi-)geautomatiseerde modellen voor het monitoren van de accuraatheid van online nieuws. | |