Voor veilig ai-gebruik zijn regels nodig
Auteur: Redactie Management Scope | 05-03-2026
Het blijft een lastige verhouding: data en privacy. Begin februari liet het Odido-lek zien dat bedrijven nog altijd moeite hebben met het veilig houden van klantdata, nu komt de Autoriteit Persoonsgegevens (AP) met een nieuwe waarschuwing: de regulering rondom ai moet echt beter, de privacyrisico’s die eraan kleven zijn te groot.
Als voorbeeld noemt AP-voorzitter Aleid Wolfsen het toeslagenschandaal. Aan de fouten die daar werden gemaakt lag een discriminerend algoritme ten grondslag. Ook noemde hij reclasseringsorganisaties die middels algoritmes recidive-risico’s probeerden in te schatten. Het risico op fouten en verkeerde inschattingen is hier te groot.
Er is al EU-wetgeving die stelt dat producenten van ai-systemen moeten zorgen voor accurate modellen en grote risico’s moeten ondervangen, maar in Nederland moet die wetgeving nog worden uitgevoerd. En daar is het dus de hoogste tijd voor. Wolfsen vergelijkt het met medicijnen en auto’s, die ook eerst moeten worden getest voordat ze op de markt worden toegelaten.
Over de ethische kant van technologiegebruik schreven Hilde van der Baan en Gijs Linse van A&O Shearman dit essay. Zij schrijven daarin: ‘Ethiek begint niet bij wet- en regelgeving, protocollen of compliance-afdelingen’ en: ‘Dat anderen onethisch handelen, ontslaat niemand van de eigen verantwoordelijkheid.’ En dat is uiteindelijk natuurlijk waar, je bent als organisatie zelf verantwoordelijk voor wat je doet. Ethisch handelen zou intrinsiek gemotiveerd moeten zijn. Maar ik onderschrijf ook de oproep van Aleid Wolfsen: om onethisch en risicovol gebruik van ai te voorkomen is regelgeving wel écht belangrijk.
Reageren? Mail ons op redactie@scopebusinessmedia.nl