Dit is de tweede blog in de reeks over de AI-Act in de zorg. In de eerste blog uit de reeks vertelden we waarom de AI-Act belangrijk is voor de zorgsector. Als je AI specifiek voor HR taken gebruikt, is het ook belangrijk dat je weet wat er voor HR afdelingen precies in deze wet staat. Deze blog brengt je rechtstreeks naar de plekken in de AI-Act waar HR voorkomt, en waar jij dus in actie moet komen.
De AI-Act richt zich vaak op werk en personeel
De wet beschouwt alles wat invloed heeft op toegang tot werk, arbeidsvoorwaarden en beoordeling als hoog-risico AI. Daarmee is er automatisch ook een grote rol weggelegd voor HR. En let op: hierbij gaat het niet alleen om fancy tools, maar ook om ‘gewoon’ slimme software waarvan je misschien niet eens wist dat er AI in zit.
AI voor HR: de interessante artikelen
Artikel 6 bevat een lijst van AI-systemen die altijd hoog risico zijn. HR staat er letterlijk tussen! Waar moet je dan aan denken? Aan AI-systemen voor werving en selectie bijvoorbeeld, maar ook tools die te maken hebben met functioneren.
Veel HR-software wordt dus per definitie gezien als high-risk. Dit betekent dat HR bij ieder systeem moet nagaan of er invloed is op de toegang tot een baan of een besluit over iemand, en als daarop het antwoord ‘ja’ is gelden automatisch de zwaarste verplichtingen uit de AI-Act.
Artikel 10 geeft aan dat datasets aantoonbaar in orde moeten zijn. De wet verplicht dat de data achter AI representatief en actueel is, en geen discriminerend effect mag hebben. Als een tool kandidaten beoordeelt, moet HR weten welke data gebruikt zijn, of groepen structureel worden uitgesloten en hoe bias wordt gemonitord.
Ook in artikel 13 en 52 komt HR weer terug. Hier gaat het over het transparant zijn over het gebruik van AI naar sollicitanten en medewerkers toe. HR moet kunnen uitleggen dat AI een rol speelt, hoe het de beoordeling beïnvloedt, en wie uiteindelijk beslist. Sollicitanten en medewerkers hebben recht op die informatie.
De wet vereist “(…) meaningful human oversight (…)”. Dit komt terug in artikel 14. HR moet vooraf bepalen wanneer de mens moet ingrijpen, zorgen dat medewerkers voldoende getraind zijn, vastleggen hoe beslissingen worden gecontroleerd en voorkomen dat mensen blind afgaan op een AI-advies.
Als je werkt met AI, kan het ook misgaan. Daarover gaan de artikelen 33–43. Hier komt de meldplicht en toezicht aan de orde. Voor HR betekent dit dat als blijkt dat een AI-systeem discrimineert, oneerlijke uitkomsten geeft of verkeerde beslissingen neemt, dat gemeld moet worden. De zorgorganisatie moet dit dan onderzoeken en documenteren. Niet alleen voor intern gebruik; toezichthouders kunnen vragen om logbestanden en onderbouwing.
Tot slot
Voor zorgorganisaties is 2025 het jaar van voorbereiden, bewustwording en beleid bouwen. Wie nú begint, heeft straks geen compliance-stress, maar een voorsprong. Wachten is geen optie. Wie straks compliant wil zijn, moet al in actie komen.
Wil je weten wat de AI Act concreet betekent voor HR in de zorg?
Bel ons gerust voor advies of boek onze training: ‘AI-act in de zorg, wat betekent dit voor jouw organisatie?’. Wij komen graag langs op locatie om jouw HR-team bij de praten.
Of kijk ons webinar‘ AI-wetgeving is er al: wat betekent dat voor jou als HR-professional in de zorg?’ terug via onze Academy:
Vragen?
Dit is de tweede blog uit een serie over de AI Act. In een volgende blog maken we de praktische vertaling naar scholingsplicht, OR-instemming en het tegengaan van shadow AI. Heb je hier nu al vragen over? Wij staan voor je klaar!
Meld je aan voor de Nieuwsbrief.
Meld je hier aan voor onze nieuwsbrief en blijf op de hoogte.