Mechatronische systemen zijn alomtegenwoordig geworden in de hedendaagse industrie. De conventionele regelaars die deze systemen aansturen zijn algemeen genomen robuust tegen allerhande variërende omstandigheden, maar bijgevolg suboptimaal voor specifieke condities. De immer toenemende vraag naar doorgedreven performantie en de nood om systemen te maken die minder afhankelijk zijn van de expertise van operatoren, vormen echter uitdagingen waar deze regelaars steeds vaker tekort schieten. Aan de andere kant zijn er via zelflerende regelaars die gebruik maken van AI, reinforcement learning genaamd, de voorbije jaren verwezenlijkingen behaald die voordien als onmogelijk werden beschouwd. Als nadeel, echter, zijn deze regelaars onveilig terwijl ze leren om het systeem te beheersen. In dit onderzoek bekijken we deze vooruitgang vanuit een regeltechnisch standpunt en zien we dat deze algoritmes hetzelfde probleem aanpakken als de conventionele regelaars. We ontwikkelen een raamwerk met verschillende methodes waarin beide gecombineerd worden. De robuuste controller levert de bulk van de aansturing en garandeert zo de stabiliteit, terwijl de zelflerende regelaar leert hoe dit verder geoptimaliseerd kan worden door kleine aanpassingen aan te brengen. We valideren en bestuderen de werking experimenteel en onderzoeken hoe deze regelaars zowel op korte als lange termijn erin slagen systemen te optimaliseren terwijl de veiligheid gegarandeerd blijft. | |