Veiligheid & Privacy
Privacy by design: hoe je data binnen je organisatie houdt
Europese AI-modellen, Nederlandse servers en volledige AVG-compliance. Zo bescherm je gevoelige data.
Het probleem dat niemand wil hebben
Stel je voor: een medewerker van je gemeente typt een complexe WMO-aanvraag in ChatGPT om advies te krijgen. Naam, BSN, medische gegevens, financiele situatie -alles gaat naar servers in de Verenigde Staten, beheerd door een Amerikaans bedrijf dat de data mag gebruiken voor het trainen van hun modellen.
Dit is geen hypothetisch scenario. Het gebeurt dagelijks, in organisaties door heel Nederland. Niet uit kwade wil, maar uit onwetendheid. Medewerkers willen hun werk goed doen en grijpen naar de tools die beschikbaar zijn.
De oplossing is niet om AI te verbieden. De oplossing is om het goed te organiseren. En dat begint bij privacy by design.
Wat is privacy by design eigenlijk?
Privacy by design is een principe uit de AVG (Algemene Verordening Gegevensbescherming) dat stelt dat je privacybescherming moet inbouwen vanaf het allereerste ontwerp van een systeem of proces. Niet als een laagje eroverheen achteraf, maar als fundament.
Voor AI-toepassingen betekent dit concreet:
- Data minimalisatie: verzamel en verwerk alleen de gegevens die strikt noodzakelijk zijn
- Doelbinding: gebruik data alleen voor het doel waarvoor het verzameld is
- Opslagbeperking: bewaar gegevens niet langer dan nodig
- Integriteit en vertrouwelijkheid: bescherm data tegen ongeautoriseerde toegang
- Transparantie: wees duidelijk over wat je met data doet
Dit klinkt misschien als standaard IT-beleid, maar bij AI zijn er specifieke uitdagingen die extra aandacht vragen.
De specifieke risico's van AI en data
Data lekt naar het model
Bij veel commerciele AI-diensten worden de gegevens die je invoert, gebruikt om het model te verbeteren. Dat betekent dat informatie die je deelt, in principe terecht kan komen in de output die andere gebruikers ontvangen. Voor publieke organisaties en zorginstelling is dit onaanvaardbaar.
Data verlaat Europa
De meeste grote AI-modellen draaien op servers in de VS. Sinds de Schrems II-uitspraak van het Europese Hof is de doorgifte van persoonsgegevens naar de VS juridisch complex. Het EU-US Data Privacy Framework biedt enige bescherming, maar brengt nog steeds risico's met zich mee -zeker voor gevoelige overheidsdata.
Inferentierisico
AI-modellen kunnen uit ogenschijnlijk onschuldige data gevoelige conclusies trekken. Een model dat patronen herkent in zorggebruik kan indirect informatie afleiden over iemands gezondheid, financiele situatie of leefstijl. Dit maakt data-minimalisatie extra belangrijk.
De oplossing: een Europees en lokaal AI-ecosysteem
Bij Humanaize hanteren we een duidelijk uitgangspunt: gevoelige data blijft binnen de organisatie, op Nederlandse of Europese servers, verwerkt door Europese AI-modellen. Hier is hoe dat er concreet uitziet.
Europese AI-modellen
Er zijn inmiddels uitstekende alternatieven voor Amerikaanse modellen. Europese AI-modellen zoals Mistral (Frans), Aleph Alpha (Duits) en open-source modellen die je lokaal kunt draaien, bieden vergelijkbare kwaliteit zonder de privacyrisico's. Het grote voordeel: je data wordt niet gebruikt voor training en verlaat nooit de Europese grenzen.
Daarnaast bieden steeds meer partijen de mogelijkheid om modellen van OpenAI of Anthropic te draaien op Europese infrastructuur, waarbij de data binnen Europa blijft en niet wordt gebruikt voor modeltraining. Dit geeft je het beste van twee werelden.
Nederlandse hosting
Wij werken met Nederlandse datacenters die voldoen aan de strengste beveiligingsnormen (ISO 27001, NEN 7510 voor de zorg). Data wordt versleuteld opgeslagen en versleuteld verzonden. Er is geen enkele noodzaak om gevoelige data buiten Nederland te laten komen.
Lokale verwerking
Voor de meest gevoelige toepassingen bieden we de mogelijkheid om AI-modellen on-premise te draaien -binnen het eigen netwerk van de organisatie. De data verlaat letterlijk het gebouw niet. Dit is ideaal voor organisaties die werken met zeer gevoelige gegevens, zoals jeugdzorg of GGZ.
Praktische checklist voor privacy by design bij AI
Als je overweegt om AI in te zetten in jouw organisatie, doorloop dan deze checklist:
1. Data-inventarisatie
- Welke data gaat de AI verwerken?
- Bevat deze data persoonsgegevens? Bijzondere persoonsgegevens (medisch, BSN, strafrechtelijk)?
- Is de verwerking noodzakelijk voor het doel?
- Kun je de data minimaliseren of anonimiseren?
2. Modelkeuze
- Waar draait het AI-model? (VS, Europa, lokaal?)
- Wordt ingevoerde data gebruikt voor modeltraining?
- Is er een verwerkersovereenkomst?
- Voldoet de leverancier aan de AVG?
3. Infrastructuur
- Waar wordt data opgeslagen?
- Is data-in-transit versleuteld (TLS 1.3)?
- Is data-at-rest versleuteld (AES-256)?
- Wie heeft toegang tot de data?
4. Governance
- Is er een DPIA (Data Protection Impact Assessment) uitgevoerd?
- Is de Functionaris Gegevensbescherming (FG) betrokken?
- Zijn er duidelijke afspraken over dataretentie?
- Is er een procedure voor datalekken?
5. Transparantie
- Weten burgers/clienten dat AI wordt ingezet?
- Kunnen zij bezwaar maken?
- Is er altijd een menselijk alternatief beschikbaar?
- Wordt het gebruik van AI gedocumenteerd?
Een praktijkvoorbeeld: AI in de jeugdzorg
Een organisatie in de jeugdzorg wilde AI inzetten om medewerkers te helpen bij het schrijven van behandelplannen. De uitdaging: de data is extreem gevoelig -het gaat om minderjarigen, vaak in kwetsbare situaties.
De aanpak die wij kozen:
- Model selectie: een open-source model, gehost on-premise op de eigen servers van de organisatie
- Data minimalisatie: het model krijgt alleen de informatie die relevant is voor het behandelplan, niet het volledige dossier
- Geen opslag: ingevoerde data wordt direct na verwerking verwijderd, niet opgeslagen door het AI-systeem
- Toegangscontrole: alleen geautoriseerde behandelaren kunnen het systeem gebruiken, met tweefactorauthenticatie
- Audit trail: elke interactie met het AI-systeem wordt gelogd voor verantwoording
- DPIA: vooraf is een uitgebreide Data Protection Impact Assessment uitgevoerd in samenwerking met de FG
Het resultaat: medewerkers besparen gemiddeld 45 minuten per behandelplan, zonder dat er ook maar een byte aan patientgegevens de organisatie verlaat.
De AI Act en privacy
De Europese AI Act, die vanaf augustus 2026 volledig van kracht wordt, stelt aanvullende eisen aan AI-systemen -bovenop de AVG. Met name voor AI in de publieke sector en de zorg gelden strenge regels rondom transparantie, documentatie en menselijk toezicht.
Privacy by design en AI Act compliance gaan hand in hand. Als je nu al investeert in een solide privacy-architectuur, ben je straks ook beter voorbereid op de eisen van de AI Act.
Wat je morgen kunt doen
Je hoeft niet alles tegelijk te regelen. Begin met deze drie stappen:
- Inventariseer welke AI-tools medewerkers nu al gebruiken -ook de onofficieel. Je zult verrast zijn hoeveel schaduw-AI er al is
- Bespreek met je FG of DPO welke risico's dit met zich meebrengt en welke maatregelen nodig zijn
- Onderzoek Europese alternatieven voor de commerciele AI-tools die nu ongecontroleerd worden gebruikt
Privacy en AI zijn geen tegenpolen. Met de juiste architectuur kun je de voordelen van AI benutten zonder concessies te doen aan de bescherming van gevoelige gegevens. Dat is geen compromis -dat is gewoon goed ontwerp.
Wil je weten wat dit betekent voor jouw organisatie?
Meer insights
Thought Leadership
Waarom AI-angst vaak wijst op goed leiderschap
Leiders die kritisch zijn over AI begrijpen iets fundamenteels: technologie moet je organisatie dienen, niet andersom.
Praktijkgids
Van AI-stagiaire naar AI-collega: een praktijkgids
Hoe je in drie fases van experimenteren naar een volwaardig werkende digitale collega gaat.
Wetgeving
De AI Act uitgelegd voor gemeenten en zorgorganisaties
Wat de nieuwe Europese AI-wetgeving betekent voor jouw organisatie en hoe je je erop voorbereidt.
