Video Assessment voor verantwoorde AI

Tijdens een drie maanden durende pilot onderzocht het Rijks ICT Gilde in samenwerking met de provincie Fryslân en AI-autoriteit Prof. Dr. Zicari een deep learning algoritme in de praktijk.

Professor Roberto Zicari (oprichter Z-Inspection initiatief):

Hallo, ik ben professor Roberto Zicari en ik leid het Z-Inspection initiatief. Z-Inspection is een participatief proces om belanghebbenden te helpen de betrouwbaarheid van een AI-systeem in de context te beoordelen. Ons team bestaat uit ongeveer 85 professionals, waaronder onze adviesraad over de hele wereld. De Z-Inspection is, voor zover wij weten, het eerste proces om de betrouwbaarheid van AI in de praktijk te beoordelen. Kunstmatige intelligentie is een alomtegenwoordige technologie die steeds meer in ons leven wordt gebruikt. Het heeft potentie en voordelen op veel gebieden. Zoals in de zorg, de economie en het zou bijvoorbeeld zelfs armoede kunnen terugdringen. De overheid heeft een voorbeeldfunctie en moet belangrijke vragenstukken zoals gelijkheid, verantwoordelijkheid, ethiek en de impact van AI op de samenleving oppakken. De pilot “Assessment for Responsible AI” is een stap in deze richting. De pilot van zes maanden met het Rijks ICT Gilde en de provincie Friesland, samen met het team van onze experts, beoordelen het AI-systeem met behulp van een deep learning algoritme. We hebben veel geleerd in deze use case en we willen graag de kennis en de geleerde lessen met u delen en ervoor zorgen dat het een best practice zal zijn voor toekomstige cases.

Voice-over:

Samen met professor Roberto Zicari en zijn internationale team met AI-experts hebben we voor het eerst binnen de Nederlandse overheid de Z-Inspection methode gebruikt voor het beoordelen van een algoritme. Dit is een belangrijke stap. Als overheid hebben we namelijk een voorbeeldrol. Zo moet het gebruik van artificial intelligence altijd mensgericht zijn en gebaseerd zijn op democratische waarden en rechten. De Z-Inspection methode helpt om stap voor stap de ethische, technische en juridische implicaties van een algoritme te beoordelen. De methode is gebaseerd op de Europese AI-richtlijnen.

Gerard Kema (innovator provincie Friesland):

Bij de provincie Friesland zijn wij steeds op zoek naar nieuwe methodes om onze algoritmes betrouwbaar, veilig en uitlegbaar te maken. Deze pilot biedt ons de mogelijkheid om de dialoog aan te gaan met experts vanuit de verschillende domeinen.

Voice-over:

We hebben een deep learning algoritme van de provincie Friesland onder de loep genomen. Dit algoritme kan door het gebruik van satellietbeelden de biodiversiteit van heidevelden in beeld brengen. Een mooie digitale hulp voor ecologen en natuurbeheerders om de natuurgebieden te monitoren. Maar kunnen we erop vertrouwen dat de uitkomsten van het algoritme betrouwbaar zijn? Hebben we alle risico's in beeld? En welke stappen zou de provincie moeten zetten om het algoritme daadwerkelijk in de praktijk te gebruiken? Vragen die centraal stonden in de beoordeling.

Gerard Kema:

Het algoritme helpt ons naast de fysieke inspectie om ons veel frequenter een beeld te geven over de vergrassing van de heidegebieden.

Voice-over:

De Z-Inspection methode is niet een ‘one size fits all’ aanpak. Een belangrijk onderdeel is dan ook het samenstellen van het audit team. Een verantwoord algoritme moet voldoen aan technische, juridische, ethische en sociale eisen. Deze verschillende zienswijzen en expertises hebben we samengebracht in het team om een goede beoordeling van het algoritme te geven. Deze interdisciplinariteit is één van de belangrijkste aspecten van de aanpak. In plaats van een checklist bepaalt de expertise aan tafel welke vraagstukken centraal staan in de beoordeling.

Willy Tadema (AI Ethics Lead Rijks ICT Gilde):

In de pilot hebben we gekeken naar de technische, juridische, ethische en sociale implicaties van het AI-systeem. We hebben daarbij niet alleen gekeken naar het algoritme, maar naar het hele algoritme systeem, dus ook naar de interacties van het algoritme met zijn omgeving en met de medewerker. Want de medewerker is immers ook onderdeel van het systeem. En we hebben gekeken naar de ethische spanningen. Waar zitten die en hoe worden die geadresseerd? En naar de ethische waarden, hoe die worden vertaald naar technische ontwerpbeslissingen.

Dankzij de pilot hebben we meer bewustzijn kunnen creëren rondom de ethische aspecten van AI. We hebben praktijkervaring kunnen opdoen met het beoordelen van een algoritme. We hebben een casus van de provincie Friesland. Daar hebben we een interdisciplinaire assessment voor kunnen doen en een gemeenschappelijk advies kunnen schrijven. En we hebben een wetenschappelijke methode, de Z-Inspection methode, kunnen valideren binnen de context van de overheid. En dit alles met als doel om te komen tot verantwoorde inzet van algoritmen en AI binnen de Nederlandse overheid. Er komt heel veel op organisaties af als het gaat om algoritmen en artificiële intelligentie.

AI-systemen moeten niet alleen voldoen aan wet- en regelgeving en technisch en organisatorisch robuust zijn. AI-systemen moeten verantwoord zijn en daarvoor moeten ze ook voldoen aan ethische kaders. Maar ja, wat betekent dat nou eigenlijk en wat moet je daarvoor doen? Ethiek is iets wat je niet uit een boekje kan leren. Ethiek is iets wat je moet doen en wat je moet oefenen om er beter in te worden. En daarom waren wij ook heel erg blij met deze pilot. Een prachtige casus van de provincie Friesland en een internationaal en interdisciplinair team van wetenschappers die ieder met hun eigen kennis en met hun eigen perspectieven kwamen. Ik persoonlijk heb ontzettend veel geleerd van deze pilot en ik denk ook dat de Z-Inspection methode een hele waardevolle aanvulling is op de methoden en instrumenten die we al gebruiken binnen de Nederlandse overheid, met name als het gaat om hoog risico algoritmen.