Hieronder vind je de onderwerpen voor het UniMath-event (2026).
Dit soort vragen vormt de kern van een nieuw deelgebied binnen de statistiek: causaliteit (causal inference). Het gaat niet alleen om verbanden vinden, maar om begrijpen of er werkelijk sprake is van oorzaak en gevolg. In deze tweedelige les maken leerlingen kennis met de basisprincipes van oorzakelijk redeneren. Ze leren hoe schijnverbanden ontstaan, wat het verschil is tussen correlatie en causaliteit, en hoe statistische methoden onderzoekers helpen om betrouwbare conclusies uit data te trekken. Met concrete voorbeelden uit het dagelijks leven en de wetenschap ontdekken ze dat een kritische blik en logisch denken onmisbaar zijn om de wereld beter te begrijpen.
Een toegankelijke maar inhoudelijke kennismaking met de logica van oorzakelijk redeneren en statistiek — voor nieuwsgierige leerlingen die willen weten hoe wetenschap werkt.
Specifieke voorkennis: geen
Golven zijn overal: op zee als tsunami's, in de lucht als schokgolven rond raketten. Maar hoe kunnen de volgende gigantische tsunami of een vlucht van een ruimtecapsule door de atmosfeer van Mars worden voorspeld? Toegepaste wiskunde levert de instrumenten om golven te modelleren, te simuleren en hun effecten te berekenen. We duiken in de wiskunde van golven en hun berekening.
Specifieke voorkennis: geen
Grafen zijn combinatorische structuren. Ze bestaan uit toppen (of knopen) en verbindingen tussen de toppen. Grafen kennen hun oorsprong in het achttiende-eeuwse vraagstuk over de zeven bruggen van Koningsbergen. Leonhard Euler lost dit probleem op een uiterst elegante wijze op door een graaf te associeren met het probleem. De oplossing van Euler illustreert overigens ook prima hoe een abstract concept leidt tot de oplossing van een concreet probleem, en hoe dus abstractie aan de basis ligt van de universele toepasbaarheid van wiskunde. Grafen worden als het ware dagelijks gebruikt. Netwerken, zoals facebook, kunnen gemodelleerd worden met behulp van grafen. Ook google pagerank, het algoritme dat google gebruikt om ons de weg te wijzen op het internet, steunt op zogenaamde random walks op grafen.
Sinds hun introductie zijn grafen ook niet meer weg te denken uit de wiskunde. In deze lessenreeks gaan we eerst aan de slag rond enkele eenvoudig voor te stellen vraagstukken over grafen. Dan leggen we het verband tussen grafen en matrices. Aangezien matrices algebraïsche objecten zijn, objecten waar mee gerekend kan worden, is het niet verwonderlijk dat bepaalde eigenschappen van grafen onderzocht kunnen worden door de algebraïsche eigenschappen van de matrices te onderzoeken. We illustreren dit op een zeer toegankelijke wijze door de eigenwaarden en eigenvectoren van de matrices te gebruiken. Om te vermijden dat specifieke voorkennis nodig is, zullen we aandacht besteden aan de concepten eigenwaarde en eigenvector van een matrix vertrekkend van matrices geassocieerd met grafen.
Tenslotte besteden we uitgebreid aandacht aan de vele interessante toepassingen van de algebraïsche grafentheorie. Deze toepassingen zijn te vinden binnen de wiskunde zelf, hetgeen we illustreren aan de hand van opnieuw zeer toegankelijke vraagstukken over grafen, en ook binnen de data science. Zo bespreken we een algoritme om clustering van data uit te voeren aan de hand van de eigenwaarden en eigenvectoren. De techniek om data te clusteren is tegenwoordig uiterst relevant in artificiële intelligentie. Indien de tijd het toelaat, komen ook andere hedendaagse toepassingen aan bod. Steeds zal blijken dat al deze moderne toepassingen niet ontwikkeld konden worden zonder de fundamentele wiskunde te begrijpen.
Specifieke voorkennis: geen
Wist je dat computers taal kunnen begrijpen met behulp van wiskunde? In moderne AI-taalmodellen, zoals ChatGPT, wordt taal voorgesteld als een vectorruimte—een abstracte wiskundige ruimte waarin woorden en zinnen worden omgezet in getallen. Elk woord krijgt een unieke plek in deze ruimte, gebaseerd op betekenis en gebruik. Zo kunnen modellen verbanden leggen tussen woorden zoals “koning” en “koningin”, of “auto” en “voertuig”.
In deze les gaan we dieper in op neurale netwerken: de wiskundige modellen die moderne taalmodellen gebruiken om taal voor te stellen, en ermee te redeneren. Een neuraal netwerk is een wiskundig model dat is geïnspireerd op hoe onze hersenen werken. Het bestaat uit lagen van “neuronen” (kleine rekeneenheden) die samenwerken om informatie te verwerken. Elke neuron ontvangt input, voert een berekening uit, en stuurt een output door naar de volgende laag. Door heel veel van deze neuronen te combineren kunnen we complexe dingen doen, zoals gezichten in foto's herkennen, stemmen in audio onderscheiden, of betekenis in tekst leren. Neurale netwerken vormen de basis voor heel veel AI-modellen, en in deze les illustreren we de wiskunde die zulke modellen gebruiken om te “leren” uit grote hoeveelheden data. Hierbij zullen we zien hoe lineaire algebra, kansrekening en optimalisatie kunnen gebruikt worden om computermodellen met complexe patronen, zoals taal, te leren omgaan.
Specifieke voorkennis: geen
We maken in het dagelijks leven gebruik van een aantal technologieën waarachter heel wat wiskunde schuilt. In deze les bekijken we van nabij hoe muziek in een MP3-bestand sterk gecomprimeerd kan worden zonder hoorbaar kwaliteitsverlies. De achterliggende wiskunde bestaat in dit geval in het opsplitsen van een geluidssignaal in een spectrum van verschillende toonhoogten, de zogenaamde Fourier-analyse. Hetzelfde principe wordt gebruikt wanneer foto's gecomprimeerd opgeslagen worden.
Specifieke voorkennis: somformules voor sinus en cosinus, inproduct (of scalair product), loodrechte stand van twee vectoren