In de laatste decennia hebben Artificiële Intelligentie in het algemeen en meer specifiek Machinaal Leren (ML), zowel in de academische wereld als de privésector, aan populariteit gewonnen. Ruwweg gesproken probeert ML modellen te construeren die de capaciteit hebben om verbanden in data te ontdekken. Bijvoorbeeld: de prijs van een aandeel te proberen voorspellen a.d.h.v. bepaalde financiële indicatoren, de aerodynamische performantie van een wagen voorspellen gegeven de geometrische parameters.
Wegens de explosieve groei van beschikbaarheid aan data in de privésector (denk aan afbeeldingen op Facebook of klanten op Netflix), is er veel onderzoek gedaan naar modellen die deze grote hoeveelheden kunnen uitbuiten. Echter, er is lang niet voor alle problemen een grote hoeveelheid aan data beschikbaar. In vele problemen, zijn de datasets klein of moet de data nog verzameld worden. Het samenstellen van deze datasets hangt dikwijls af van arbeidsintensieve metingen of computationeel dure simulaties. Hierdoor zijn modellen die voldoende accuraat zijn wanneer er weinig data voorhanden is essentieel, alsook methoden die de dataset op een efficiënte manier kunnen uitbreiden, deze methoden zijn het onderwerp van deze thesis.
| |