De Autoriteit Persoonsgegevens waarschuwt dat we ons onvoldoende bewust zijn van de risico's van algoritmes en kunstmatige intelligentie. Deze technologieën kunnen leiden tot desinformatie, privacyschending en discriminatie. De ontwikkelingen op het gebied van kunstmatige intelligentie gaan sneller dan we kunnen bijhouden, waardoor we een achterstand hebben in het herkennen en aanpakken van deze risico's.
Het toeslagenschandaal heeft laten zien welke gevaren algoritmes met zich meebrengen voor onze privacy. Duizenden mensen werden onterecht bestempeld als fraudeurs door algoritmes. Volgens experts kan kunstmatige intelligentie zelfs nog meer risico's met zich meebrengen.
Hoewel techbedrijven graag pronken met kunstmatige intelligentie, is het eigenlijk niet meer dan een verzameling algoritmes. Zodra een algoritme conclusies kan trekken of iets nieuws kan genereren, wordt het als AI beschouwd.
Privacyexpert Rejo Zenger omschrijft algoritmes en kunstmatige intelligentie als een zwarte doos. Je stopt data in de doos, maar je hebt geen inzicht in wat er met die data gebeurt. Er komt een conclusie uit, of er komen nieuwe data uit, maar je hebt geen idee hoe dit tot stand is gekomen. Dit brengt risico's met zich mee op het gebied van privacyschending, discriminatie en desinformatie.
Een belangrijk aspect van kunstmatige intelligentie is de data waarmee het wordt getraind. Als deze data niet representatief zijn, bestaat het risico op discriminatie en het genereren van verkeerde informatie. Bijvoorbeeld in de zorgsector is er veel medische kennis over mannen, waardoor een AI-model dat alleen met deze data wordt getraind mogelijk onbetrouwbare resultaten oplevert voor vrouwen en kinderen.
Daarnaast moeten mensen in ons land vaak toestemming geven voordat hun privacygevoelige gezondheidsdata gebruikt mogen worden om een AI-model te trainen. Het risico bestaat dat bepaalde groepen toestemming geven en andere groepen niet, waardoor de trainingsdata niet representatief zijn.
De conclusies en gegenereerde informatie van een AI-model zijn sterk afhankelijk van de data die erin gestopt worden. Als de data niet representatief zijn, kunnen de resultaten onjuist en zelfs discriminerend zijn. Dit onderstreept het belang van toezicht op kunstmatige intelligentie.
De Autoriteit Persoonsgegevens heeft het toezicht op algoritmes en kunstmatige intelligentie dit jaar hoog op de agenda staan. Ze geven prioriteit aan klachten, datalekken en onderzoeken die hiermee verband houden. Sinds januari 2023 zijn ze ook coördinerend algoritmetoezichthouder in Nederland, om publieke waarden en grondrechten te beschermen bij het gebruik van algoritmes en kunstmatige intelligentie.
Hoewel het vertrouwen van de Nederlandse burger in algoritmes en AI klein is, is dit volgens de Autoriteit Persoonsgegevens niet geheel terecht. Technologie kan namelijk ook bijdragen aan duurzame welvaart en welzijn.
Kunstmatige intelligentie biedt veel kansen, vooral in de zorgsector. Het kan bijvoorbeeld helpen bij het sneller en accurater stellen van diagnoses. De privacyadvocaat benadrukt echter dat kunstmatige intelligentie de arts niet zal vervangen. Het kan taken overnemen en de zorg efficiënter maken, waardoor er meer tijd overblijft voor persoonlijk contact en het helpen van meer patiënten. Dit kan leiden tot meer vertrouwen in de zorg.
Aanbevolen reactie
Doe je mee?
Je kunt nu een bericht plaatsen en je later registeren. Als je al een account hebt, kun je je hier aanmelden.
Note: Your post will require moderator approval before it will be visible.