De risico's verbonden aan het gebruik van kunstmatige intelligentie (AI) zijn aanzienlijk toegenomen, zo blijkt uit een recent rapport van een vooraanstaande privacywaakhond.
De groeiende bezorgdheid richt zich vooral op de opmars van generatieve AI technologieën, die in staat zijn om op basis van instructies tekst, beelden of foto's te creëren. Een van de meest bekende voorbeelden hiervan is ChatGPT. Volgens een expert in AI regelgeving bij de waakhond, ligt het gevaar van AI in de voorspellende aard van algoritmes. Deze algoritmes categoriseren mensen of profileren hen, wat kan leiden tot oneerlijke uitkomsten, discriminatie of zelfs fysieke risico's.
Een praktisch voorbeeld van problemen met AI wordt geïllustreerd door het gebruik van scanauto's in sommige steden. Deze voertuigen controleren op basis van kentekens of er betaald is voor parkeren. Dit systeem heeft in sommige gevallen geleid tot onterechte en talrijke parkeerboetes voor individuen vanwege herhaalde scans.
Het rapport, dat internationale gegevens gebruikt, toont een significante wereldwijde toename in het aantal geregistreerde AI gerelateerde incidenten, een vertienvoudiging ten opzichte van eerdere jaren. Deze cijfers worden verondersteld slechts het topje van de ijsberg te zijn, wat wijst op een mogelijk veel groter, ongedocumenteerd probleem.
Aanbevolen reactie
Doe je mee?
Je kunt nu een bericht plaatsen en je later registeren. Als je al een account hebt, kun je je hier aanmelden.
Note: Your post will require moderator approval before it will be visible.