Algoritmes gaan op functioneringsgesprek

Nemen algoritmes de juiste beslissingen? De Universiteit Utrecht gaat dit twee jaar onderzoeken en testen, in samenwerking met Agentschap Telecom, de Nederlandse Voedsel- en Warenautoriteit (NVWA) en I-Partnerschap Rijk-Hoger Onderwijs. De insteek is multidisciplinair, naast de techniek ligt ook het sociale functioneren van zelflerende algoritmes onder de loep: welke invloed heeft de omgeving bij het ontwerp en gebruik van een algoritme?

Kunstmatige intelligentie (of artificiaI intelligence, kortweg AI) speelt een groeiende rol in ons dagelijks leven. In de dienstverlening van bedrijfsleven en overheid nemen algoritmes steeds meer en complexere taken over, gevoed door data. Denk bijvoorbeeld aan het beslissen over een subsidieaanvraag, het signaleren van mogelijke fraude of - relevant voor een toezichthouder als Agentschap Telecom - het voorspellen waar preventief onderhoud nodig is in een telecomnetwerk.

Ethisch verantwoord

Hoe maak je zichtbaar of deze algoritmes hun werk goed doen? Dat is de hoofdvraag in het onderzoeksproject van Utrecht Data School en het departement Informatica van de Universiteit Utrecht. Het doel is om in twee jaar tijd een praktisch controlemiddel te ontwikkelen waarmee algoritmes – net als medewerkers – jaarlijks over hun functioneren kunnen worden bevraagd. Doet het algoritme wat het beoogt te doen, ook in nieuwe omstandigheden? Is "bijscholing" nodig? Daarbij kijken de onderzoekers niet alleen naar de techniek, maar ook naar de omgeving: welke data, beslisbomen of culturele waarden zijn van invloed op het functioneren? En heel belangrijk: is de werking van het algoritme ethisch verantwoord? Het onderzoeksteam zet daarbij de expertise in van collega’s op het terrein van onder meer mediawetenschappen, ethiek en toegepast (data)onderzoek.

‘Ongewenste effecten elimineren bij zelflerende algoritmes’

Proeftuin

Zowel NVWA en Agentschap Telecom werken actief mee aan het onderzoeksproject. Als toezichthouders controleren ze ook het verantwoord gebruik van AI, een nieuwe vorm van toezicht. Met het nieuwe protocol voor het “functioneringsgesprek” worden eerst de eigen algoritmes getest. De lessen die deze proeftuin oplevert, dragen weer bij aan de verdere ontwikkeling van het functioneringsgesprek. De volgende stap is de toepassing van dit controlemiddel bij andere organisaties, inclusief handleiding en tips om ongewenste effecten te elimineren bij zelflerende algoritmes.

Ook meedoen?

Hoe meer organisaties straks het functioneringsgesprek kunnen inzetten, hoe betrouwbaarder en effectiever de algoritmes. I-Partnerschap zoekt tijdens het onderzoekstraject daarom actief naar geschikte kennispartners om de proeftuin uit te breiden. Dat kan een hogeschool zijn die meedoet aan het toegepast onderzoek of rijksorganisaties die graag aanhaken en hun domeinkennis inbrengen. De onderzoeksresultaten worden na afloop ook rijksbreed gedeeld. 

Regiomanager Konstant Vossen van I-Partnerschap benoemt alvast de voordelen: ‘Tegen relatief weinig kosten kun je samenwerken aan het oplossen van een gedeeld actueel vraagstuk. Dit is kennis waar heel veel partijen op zitten te wachten. En dat je daarbij andere organisaties leert kennen met vergelijkbare uitdagingen, maakt dit type samenwerking ook nog eens extra leuk.’

Interesse? Neem contact op met Konstant Vossen via i-partnerschap@rijksoverheid.nl