In de eerste twee blogs uit de reeks over de AI-Act hebben we je meegenomen in wat de AI-Act is en waar de verplichtingen voor HR in de wet staan. In dit derde deel maken we de stap waar het in de praktijk vaak misgaat: de vertaling naar beleid, processen en gedrag. Want uiteindelijk legt de de AI-Act HR drie belangrijke verplichtingen op die leiden tot de volgende vragen:
-
- Heb je je medewerkers voldoende geschoold?
- Is de OR daadwerkelijk aan zet geweest?
- Weet je zeker dat medewerkers AI niet (al) gebruiken buiten je beleid om?
Bij veel organisaties is het antwoord op deze vragen nog steeds nee.
Scholingsplicht: AI-training
De AI-Act verplicht organisaties om te zorgen voor AI-geletterdheid bij medewerkers die met AI werken (artikel 4 AI-Act). AI-training wordt gezien als noodzakelijke scholing. In Nederland haakt dit direct aan bij de bestaande scholingsplicht van werkgevers. Dat betekent dat AI-kennis niet optioneel is, niet in eigen tijd hoeft te worden opgedaan en niet vrijblijvend mag worden aangeboden.
Wat moet een werkgever concreet doen? Je moet AI-scholing faciliteren, aanbieden en vastleggen. Een vrijblijvende sessie waarbij iedereen ‘mag’ komen is dus niet voldoende. Ook moeten de AI-vaardigheden in functieprofielen worden opgenomen. Omdat AI-geletterdheid structureel wordt, moeten functieprofielen worden aangepast. Net zoals digitale vaardigheden dat ooit zijn geworden.
Voor HR betekent dit dat het van belang is om functieomschrijvingen te actualiseren, opleidingen vast te leggen en AI-kennis onderdeel te maken van beoordelingscriteria. Als iemand in de praktijk in een functie werkt met AI, leg dit dan ook zo vast.
OR-instemming
De AI-Act introduceert geen nieuw medezeggenschapsrecht, maar zet het bestaande recht op scherp. In Nederland betekent dit: instemmingsrecht van de OR (art. 27 WOR).
OR-instemming is nodig bij AI-scholingsbeleid, regels over AI-gebruik door medewerkers, inzet van AI bij werving en selectie, AI-gestuurde beoordeling, monitoring of performance-systemen, gebruik van AI voor personeelsgegevens.
Zeker bij high-risk AI (zoals HR-systemen) is instemming geen formaliteit, maar een harde voorwaarde. Geen instemming betekent geen invoering. Zonder instemming van de OR mag je het systeem niet invoeren, niet gebruiken en loopt de organisatie direct juridisch risico.
Shadow AI
Terwijl beleid wordt geschreven, gebruiken medewerkers allang AI-tools zoals ChatGPT, Copilot of andere slimme assistenten. Dit gebeurt dagelijks, zonder afspraken en toezicht. Dat noemen we ook wel shadow AI. Shadow AI is risicovol omdat het kan leiden tot het gebruik van persoonsgegevens, discriminatie en bias, overtreding van de AI-Act én de AVG,aansprakelijkheid zonder dat HR het doorheeft.
De AI-Act legt de verantwoordelijkheid hiervoor nadrukkelijk bij de werkgever.
Tot slot
Het is dus belangrijk dat HR duidelijk AI-beleid opstelt, medewerkers scholing aanbiedt en medewerkers traint in het gebruik van AI, toezicht organiseert en vastlegt welke tools wel en niet mogen.
Wie nu investeert in scholing, medezeggenschap serieus neemt en shadow AI onder controle brengt, loopt straks niet achter de feiten aan, maar voorop. Heb je hier vragen over? Wij staan voor je klaar!
Meld je aan voor de Nieuwsbrief.
Meld je hier aan voor onze nieuwsbrief en blijf op de hoogte.