Kunstmatige intelligentie, een experiment en ethiek (deel 2)

Weblogs

Een tijdje terug vertelden we dat we namens het Rijks ICT Gilde op May Contain Hackers (MCH) aanwezig waren. Een evenement dat ook wel dé hackersconferentie van Nederland genoemd wordt. In onze stand bouwden we een smart mirror om daarmee het gesprek over de ethische kant van kunstmatige intelligentie aan te gaan. Hoe zag ons experiment eruit, wat waren de belangrijkste uitkomsten en hoe gingen wij de dialoog over ethiek aan met bezoekers? Tech consultant Laurens Weijs vertelt in dit blog de ins en outs van het experiment. Nieuwsgierig naar de techniek achter de smart mirror, bekijk dat in Laurens’ eerste blog. Meer over de ethische kant van het experiment weten? Lees het in dit blog.

Goede voorbereiding is het halve werk

Alles begint altijd met onderzoek, zo ook ons experiment. Wat is er al gedaan om kunstmatige intelligentie te foppen? Hoe zijn anderen te werk gegaan? Welke gezichtsherkenningssoftware gebruikten ze? Dat leverde een hoop handige input op, waarvan de belangrijkste take-away voor het experiment was: verstoor de symmetrie van het gezicht door veel kleuren en objecten op het gezicht te gebruiken. Zodoende hebben wij op MCH een tafel gedekt met schmink, glitter en verschillende kleine objecten waarmee mensen zichzelf konden versieren. De opgedirkte bezoekers zetten we vervolgens in een stoel voor de smart mirror om te kijken hoe hoog de gezichtsherkenning scoorde in procenten.

Startpunt van het experiment

Een gezicht zonder versieringen werd door onze smart mirror herkent, waardoor een bounding box op het scherm getekend werd. Deze box gaf aan waar het gezicht te zien was. Ook gaf de smart mirror aan met hoeveel procent zekerheid er een gezicht waargenomen werd in die box. Dit percentage was in alle gevallen 99% (zekerheid). Vaak werden ook mensen achter de ‘hoofdpersoon’ met 99% zekerheid herkent.

Uitkomsten van het experiment:

  • Grote contrasten werkten het beste om herkenning door de smart mirror te verkleinen.
  • Veel wit en zwart naast elkaar zorgt voor minder goede herkenning. Zo kon iemand met een zwarte driehoek op het gezicht, de ogen, neus en mond niet meer herkend worden door het Machine Learning-model.
  • Personen met driehoeken verspreid over het gezicht verlaagden de herkenning aanzienlijk: van 99% (geen versiering) naar 30%-50% zekerheid.
  • Het bedekken van één oog was ook erg effectief in de fopperij. Bij de meeste mensen resulteerde dit in 0% herkenning.
Laurens Weijs

Een ethisch gesprek

Een belangrijk onderdeel van ons experiment was het ethische aspect. We wilden graag ons fysieke experiment gebruiken om het gesprek met bezoekers aan te gaan over ethiek. Van tevoren twijfelde ik wel hoe ik dit het beste aan kon pakken, maar in de praktijk verliep dit eigenlijk allemaal heel organisch. Je hebt een trigger nodig voor het gesprek, en daar hielp onze stand bij. Met een open houding gingen we het gesprek aan: welke implicaties heeft een door de overheid gebouwde smart mirror? De inzichten uit die gesprek konden we dan weer gebruiken voor vervolgvragen in andere gesprekken.

Het vervolg: wat nu?

Dit experiment was leuk en vooral belangrijk. Het in elkaar zetten van de demo en het event zelf is natuurlijk tof, maar het stukje ethiek maakte het echt interessant. Tijdens het maken van het Machine Learning-model ben je minder bezig met de mogelijke gevolgen ervan. Daardoor is het des te interessanter om in het wild te zien wat de sterke, maar ook mindere kanten van het model zijn. Ook sta je tijdens de bouw weinig stil bij de sociale implicaties van het in productie brengen van dit model. Gedurende MCH kon ik in een experimentele setting in gesprek gaan. De praktijk zien, vragen stellen, feedback krijgen en nieuwe inspiratie opdoen.  

Bij het ministerie van Binnenlandse Zaken is het inmiddels verplicht om een Impact Assessment Mensenrechten en Algoritmes (IAMA) te doen. Deze assessment zal zeker leiden tot een gestructureerd gesprek over de ethische aspecten van algoritmes. We hopen dat men feedback blijft verzamelen, ook wanneer dit model in productie wordt genomen. Met een open houding feedback ontvangen, filteren en gebruiken voor aanpassingen blijft nodig. We zijn wel benieuwd: hoe zie jij dit?

Meer weten en informatie

Wil je meer weten over de technische set-up van de RIG-spiegel op May Contain Hackers, neem dan een kijkje op de GitHub van Laurens.

Vragen over ethiek (en het dialoog aangaan hierover)? Stuur een berichtje naar Laurens, Marjolein, Willy óf RIG@Rijksoverheid.nl.

Reactie toevoegen

U kunt hier een reactie plaatsen. Ongepaste reacties worden niet geplaatst. Uw reactie mag maximaal 2000 karakters tellen.

* verplichte velden

Uw reactie mag maximaal 2000 karakters lang zijn.

Reacties

Er zijn nu geen reacties gepubliceerd.