DE WERELD NU

Algoritmes en de angst voor onwelgevallige feiten

energierekening, Corona, Minister, Politiek bedrog, Oekraïne, Lage inkomens, Mondkapjesdeal, Rutte4, betrouwbaarheid, Vertrouwen, klimaathoax, Stikstofbeleid, Zwak kabinet, Begroting, politiek, APB2022, Asielmigratie, Rutte4, Rel rond Arib, Extremisme, NL2023, gezinsleven, Formatie2024

Kunnen algoritmes discrimineren? Het is de onvermijdelijke vraag die men bij D66 en CDA liever oversloeg alvorens te gaan protesteren tegen toekomstige ongewenste uitkomsten.

Want het resultaat telt? En sommige resultaten van algoritmes zouden wel eens ongewenst kunnen zijn?

Algoritmes

Het zijn dan ook niet de meest intelligente types die hiermee komen:

Verhoeven en zijn collega-Kamerlid Harry van der Molen van het CDA dienen vandaag een motie in om het kabinet daar om te vragen. “We willen dat er een toezichthouder komt die soms kan zeggen: nee, hier is de kans op discriminatie te groot”, aldus Verhoeven. “Ik ben niet tegen gebruik van algoritmes, maar die vraag wordt nu niet gesteld.”

Dat zaken worden berekend is prima, maar de uitkomsten moeten niet uit de hand lopen is kort samengevat wat beide heren hier zeggen. Beseffen wat dat impliceert doen ze niet – uitkomsten die hen niet bevallen plegen ze normaal gesproken te negeren, maar ze willen niet dat mensen denken dat er toch een goede basis onder zou kunnen zitten. Dit is klassiek. Vergelijkbaar voorbeeld: hoe je wettelijk een hoog minimumloon vaststelt en dan tot de ontdekking komt dat na een tijdje je economie crasht. Het klinkt sympathiek, maar het is de grootst mogelijke kolder. Politici bekreunen zich daar liever niet om, het is de emotie van mensen waarop zij proberen in te spelen. Stel je voor dat er een wetenschappelijke basis zou zijn onder wat ze nu voelen als discriminatoir beleid? Zoals bijvoorbeeld een volledig gelijke behandeling, in plaats van een bezopen moratorium op mannelijke docenten op een technische universiteit:

Aanleiding is berichtgeving van de NOS over de overheid die op grote schaal voorspellende algoritmes gebruikt, zonder dat dat altijd even duidelijk voor burgers is. Soms kunnen die algoritmes negatieve effecten hebben, zoals discriminatie.

Dat beide heren van toeten nog blazen weten is duidelijk genoeg. Hetgeen uit de berichtgeving blijkt ….:

“Uit die berichtgeving blijkt dat er een wildgroei aan algoritmes bij de overheid is”, zegt D66-Kamerlid Kees Verhoeven. “Maar nergens wordt dat centraal bijgehouden.”

Maar dit moet volgens Verhoeven en Van der Molen voortaan worden bijgehouden en elk algoritme moet worden gewogen op al dan niet bereikte discriminatoire resultaten? Alsof er nog niet genoeg zinloze bureaucratie is.

De richtlijn moet duidelijk maken in welke gevallen gebruik van algoritmes wel of niet gerechtvaardigd is. Of er een volledig nieuwe toezichthouder moet komen of dat bijvoorbeeld de Autoriteit Persoonsgegevens extra bevoegdheden krijgt, moet nog worden besloten.

De overheid moet er dus op gaan toezien dat in objectieve formules voldoende subjectieve factoren worden ingebouwd dat bijvoorbeeld discriminatie wordt voorkomen? Want dat is de portee van dit voorstel. Apparaten en formules worden door meer politici eng gevonden (Kernenergie? Húúú. Het is ‘chemisch’!! – ook zoiets), maar wat het allemaal doet of betekent? Ze hebben er geen idee van, maar weten alvast wel dat ze er niets mee willen als de uitkomsten hen niet bevallen.

13 reacties

  1. Juanito schreef:

    Kunnen er ook algoritmes ontwikkeld worden die figuren als Verhoeven of Van der Molen uit de 2e kamer houden?
    Win – win. 😎

  2. Dick Orwell schreef:

    Als algoritmes discrimineren, zou je dat als rekenkundig wetenschappelijk bewijs kunnen zien dat er iets niet deugt aan bepaalde bevolkingsgroepen.
    Dezelfde statistische onderbouwing wordt namelijk als bewijs gebruikt in sociale wetenschappen

  3. BegrensEuropa! schreef:

    Natuurlijk kunnen algoritmes discrimineren. Bijvoorbeeld als in een algoritme voor bepaalde controleactiviteiten wordt meegenomen wat de turken- en marokkanendichtheid in bepaalde wijken is. De vraag is dan welk belang we gaan dienen. Dat van de opsporingseffectiviteit of dat van bepaalde wetsovertredende bevolkingsgroepen. Om de schijn van discriminatie te voorkomen zal de toevlucht worden gezocht in andere indicatoren om de opsporingseffectiviteit te doen toenemen. Doorredenerend moet er een redelijke balans zijn in de pakkans tussen bevolkingsgroepen. Maar de bepaling van de pakkans is weer afhankelijk van de opsporingseffectiviteit. Een vicieuze cirkel. Misschien weer tijd voor een zinloos onderzoekje? Of wordt het juist een discriminerend onderzoekje omdat het bedoeld zou kunnen zijn om bepaalde advocaten het argument van discriminerende opsporingsactiviteiten en daarmee samenhangende algoritmes uit handen te slaan.

  4. Frans Groenendijk schreef:

    Precies @BegrensEuropa!
    De BEDOELING van de algoritmes is het zo objectief mogelijk onderbouwen van KEUZES. Van het maken van onderscheid dus. Met een moeilijk woord: te discrimineren.
    Deze simpelen van geest zijn niet louter kwaadaardig. Ze zijn deels oprecht, deels deug-hysterisch bang voor een vorm van generaliseren.

  5. Dick H. Ahles schreef:

    Gelukkig, dit is de opstap van de onvermijdelijke conclusie dat we sociale wetenschappen moeten verbieden, want mogelijk is de uitkomst discriminator.

    Dat schelt een hoop kosten voor de financiering van het wetenschappelijk onderwijs en scheelt een hoop nutteloze medewerkers van ministeries die zich met beleidsontwikkeling bezig houden.

    En het scheelt een hoop beroepsbeoefenaren met onduidelijke, zo niet nutteloze, profielen; inclusief mijzelf.

  6. Ad Rek schreef:

    “We willen dat er een toezichthouder komt die soms kan zeggen: nee, hier is de kans op discriminatie te groot”.
    Ik denk dat DENK wel enkele sollicitanten zal sturen.

  7. Complurk schreef:

    Algoritmes kunnen een vooroordeel/bias bevatten. Maar dan heeft de maker het erin gestopt, meen ik als student Articial Intelligence.

  8. Erik schreef:

    Dat is ook precies de reden van het mislukken van veel ICT projecten bij de overheid.
    Zo wilde Amsterdam de sociale uitkeringen en aanverwante subsidies automatiseren in de jaren ‘90, maar het resultaat was dat me dan ook met een druk op de knop alle fraude gevallen eruit kon laten rollen, dit was niet de bedoeling van de PvdA , en gooide het 100 miljoen kostende project in de prullenbak.

  9. Juanito schreef:

    Als de uitkomsten niet bevallen, moet het maar afgeschaft en verboten worden, net als de referenda. Er als de paupers nog langer ‘populistisch’ stemmen, schaffen we ook de verkiezingen af. Dan kan ‘europa’, de islam en het klimaat er veel efficiënter doorheen gedramd worden.

  10. carthago schreef:

    Als je “kip zonder kop ” googlet kom je steeds op KeesVee uit.

  11. Cool Pete schreef:

    Het hele internet, is al decennia, volkomen wetteloos.

    Maar als het overheden uitkomt, dwingen ze bedrijven,
    hun wil uit te voeren.

    Verlies – verlies.

  12. Grapjas schreef:

    Ik heb geen computer nodig om te stellen – niet voorspellen- welke groepen de grootste kans hebben crimineel gedrag te vertonen.
    Daarbij ook geen algoritmes om uit te leggen waaróm.
    Realiteit KAN niet discriminerend zijn. Het is slechts realiteit. Wie dat onként is de racist.

  13. Grapjas schreef:

    Maar de uitkomst van deze strafrechtelijke faalhazerij zal wel zijn : voor elke veroordeelde allochtoon, MOET er 1 Blanke ook veroordeeld worden.
    Gaat dát even een achterstand in afhandelen worden..