Hogeschool Windesheim: “Samenwerken met de overheid vormt onze studenten”
Via I-Partnerschap gingen docenten en studenten van hogeschool Windesheim aan de slag voor de Rijksoverheid. Ze deden onderzoek naar het voorkomen van bias (vooringenomenheid) in algoritmes bij de dienst Toeslagen en hoe de overheid algoritmes voor de burger beter inzichtelijk maakt. “Je verdiepen in ethische dilemma’s bij technische vraagstukken is waardevol voor ICT’ers in de dop. Het vormt ze in hun professionele en maatschappelijke carrière.”
De overheid maakt in de besluitvorming steeds vaker gebruik van kunstmatige intelligentie (AI). Bij beslissingen over aanvragen van subsidies of het signaleren van fraude worden data en algoritmes veelvuldig ingezet. Met AI kan de overheid goedkoper, sneller, objectiever en voorspelbaarder te werk gaan. Maar tegelijkertijd zorgen deze algoritmes voor nieuwe uitdagingen. Zoals het waarborgen van de privacy en de mensenrechten, en het inzichtelijk en navolgbaar maken van de manier waarop beslissingen worden genomen. Zo bleken bij de toeslagenaffaire de algoritmes van de Belastingdienst gericht op selectie van nationaliteit ‘discriminerend’ te zijn.
Tijdens de kennissessie Datascience/AI op donderdag 18 april in ZZIIN in Den Haag deelde docent Business en IT Management Inge Strijker de eerste resultaten van haar onderzoek. “Omdat Informatiesystemen worden bedacht en gemaakt door mensen, komen onbewuste vooroordelen ook in het systeem terecht. Met de komst van AI is deze impact nog diffuser geworden. Maar AI houdt ons ook een spiegel voor en biedt technische oplossingen voor onze menselijke tekortkomingen.” Daarnaast benadrukte Strijker dat AI niet uitsluitend een technische kwestie is: ‘Wil je bias (vooroordelen) verminderen in algoritmes, dan is het belangrijk dat je ook goed kijkt naar het proces en de mensen. Door wet– en regelgeving, methodieken en richtsnoeren toe te passen. En te zorgen voor een divers personeelsbestand en scholing in ethisch redeneren.”
Igor ter Halle en Pascal de Vries van het lectoraat Digital Business & Society werken aan modellen die overheidsprofessionals helpen om algoritmische processen betekenisvoller uit te leggen aan burgers. Het in 2022 gelanceerde Algoritmeregister van de Nederlandse Overheid is gericht op het doorgronden van het algoritme. Igor ter Halle: “Dit register maakt het systeem transparant, maar zorgt niet meteen voor meer vertrouwen bij de burgers. Mensen willen het proces snappen, niet doorgronden.” Naast uitleg over de techniek van een algoritme is het ook belangrijk om de werking en de uitkomsten van het algoritme in begrijpelijke taal uit te leggen. Daarvoor ontwikkelen de Windesheim-medewerkers een gespreksmethode waarbij verschillende experts hebben gekeken welke impact een algoritme op de burger heeft.
De docent-onderzoekers hopen dat meer rijksorganisaties bij hen aankloppen met hun casuïstiek. De samenwerking tussen overheid en onderwijs is voor alle partijen lonend. Strijker: “Studenten hebben vaak nieuwe, originele gezichtspunten, die helpen om problemen op een creatieve wijze op te lossen. Bovendien bieden de casussen een prachtige leerervaring op het snijvlak van ICT en ethiek. Dit vormt toekomstig ict-professionals, ook als ze later bij een commerciële organisatie aan de slag gaan.”
Heb je vragen over bias in algoritmes? Neem contact op met Inge Strijker. Aan de slag met het betekenisvol uitleggen van algoritmes? Igor ter Halle en Pascal de Vries vertellen je graag meer.
I-Partnerschap verbindt onderwijs en rijksorganisaties op het gebied van digitalisering en rijksmanagement. Meer weten: ga naar www.i-partnerschap.nl.