Beste mensen,

De reclassering gebruikte een digitaal programma om te voorspellen of een verdachte of gedetineerde opnieuw in de fout zou gaan. Er bleken ernstige fouten in het programma zelf te zitten. Jaren geleden was de reclassering daar al op gewezen, maar ‘we hebben dat onvoldoende onderkend’, zei de directeur.

De medewerkers van de reclassering moesten er mee werken, want een computerprogramma heeft geen onderbuik. En medewerkers zijn mensen die zich kunnen vergissen, die vooroordelen en onderbuikgevoelens hebben. Een computerprogramma, algoritme, of kunstmatige intelligentie klinkt neutraal en onpartijdig.

Wat altijd vergeten wordt, is dat de makers van computerprogramma’s, algoritmes en kunstmatige intelligentie ook mensen zijn die zich kunnen vergissen en dat die ook vooroordelen en onderbuikgevoelens hebben. Maar als je er een computerprogramma van maakt, zou dat neutraal zijn omdat het techniek is.

Het is zorgelijk hoe makkelijk we onze samenleving overleveren aan technische systemen waaraan we essentiële beslissingen overlaten. Want dat is het geval als je beslist of iemand zijn of haar leven opnieuw kan opbouwen of een boef blijft.

Voor de landbouw wordt een machine ontwikkeld die zelfstandig over het land kan rijden,  onkruid herkent en dat kan verwijderen. Zoiets doen we ook met mensen. Als je eenmaal een vinkje hebt bij je naam hebt dat je ‘onkruid’ bent, kom je daar niet meer vanaf. We maken ons zo afhankelijk van kunstmatige intelligentie dat waarschuwingen dat er fouten gemaakt worden ‘niet onderkend’ worden.

We hebben geen programma of algoritme nodig om te voorspellen dat organisaties en overheid weer in de fout zullen gaan.

Laten we niet vergeten dat we mensen zijn.

Met aan hartelijke groet,
ds. Menso Rappoldt