AI op de werkvloer: wat nu als de robot fouten maakt?

AI-tools zoals ChatGPT, Copilot en Gemini zijn niet meer weg te denken van de werkvloer. Professionals gebruiken deze tegenwoordig dagelijks voor teksten, analyses, offertes etc. Dat scheelt natuurlijk tijd, maar het brengt ook de nodige risico’s met zich mee.

AI op de werkvloer: wat nu als de robot fouten maakt?

Blog van AVN

11 sep 2025

De laatste tijd hoor je steeds meer over AI die aan het “hallucineren” is. In het kort gaat het dan om situaties waarin AI overtuigend klinkende informatie genereert, maar deze informatie feitelijk onjuist is.

Onlangs speelde in Nederland een opvallende zaak (ECLI:NL:RBROT:2025:10388). Een advocaat diende een processtuk in met allerlei verwijzingen naar uitspraken die niet bestonden. De Rechtbank Rotterdam overwoog onder meer:

“Tijdens de mondelinge behandeling is vastgesteld dat alle verwijzingen in de conclusie van antwoord naar uitspraken van de Hoge Raad onjuist zijn. In de conclusie van antwoord heeft gedaagde verwezen naar (vermeende) uitspraken van de Hoge Raad ten aanzien van het handelsnaamrecht, met vermelding van een (vermeend) ECLI-nummer. Geen enkele van de aangehaalde (vermeende) arresten heeft betrekking op het handelsnaamrecht. Sommige ECLI-nummers horen bij strafrechtelijke uitspraken, andere bestaan in het geheel niet. Desgevraagd heeft (de advocaat van) gedaagde verklaard dat dit alles is veroorzaakt door een probleem bij het converteren van een Word-bestand naar PDF. Deze verklaring roept vragen op. De rechtbank laat die vragen en de vraag of hiermee artikel 21 Rv is geschonden verder in het midden, omdat gedaagde per saldo geen voordeel heeft gehad van de onjuiste voorstelling van zaken in de conclusie van antwoord”.

Op Social media is het oordeel al geveld. Deze advocaat zou AI hebben ingezet zonder zelf te controleren of de antwoorden van AI wel zouden kloppen. Au!

Hoog risico bij professionals

Het voorbeeld van de advocaat is illustratief, maar dit geldt breder. In veel beroepsgroepen is het risico op fouten en/of reputatieschade groot als AI verkeerd wordt gebruikt. Denk bijvoorbeeld aan foutieve diagnoses bij artsen, verkeerde marktdata of verzonnen cijfers bij offertes of bij commerciële functies, verkeerde berekeningen of foutieve interpretaties van cijfers bij administratieve functies.

Naast de schade die het gevolg is van de fout zelf, is er natuurlijk ook nog de commerciële schade. Indien een klant ziet dat “de professional” zijn werk volledig door AI laat doen en dan ook nog eens fouten maakt, zal een samenwerking vaak niet lang meer duren.

AI-beleid: noodzakelijk wat ons betreft

Werkgevers doen er verstandig aan om een schriftelijk AI-beleid op te stellen. Dit voorkomt fouten en maakt werknemers / professionals bewust van hun verantwoordelijkheid. Daarnaast creëert het een arbeidsrechtelijk kader waarop kan worden teruggevallen als het dan toch mis mocht gaan.

Wat ons betreft moet een AI-beleid in ieder geval de volgende elementen bevatten:

  • Belang: leg duidelijk uit waarom verantwoord AI-gebruik noodzakelijk is.
  • Gebruikskaders: in welke situaties mag AI wel en niet worden gebruikt.
  • Privacy: verbied invoer van persoonsgegevens of bedrijfsgevoelige informatie in openbare AI-tools.
  • Bronvermelding en verificatieplicht: verplicht de werknemers / professionals AI altijd te vragen om bronvermelding en spreek af dat de werknemers / professionals de output altijd controleren.
  • Consequenties: beschrijf wat de (arbeidsrechtelijke) consequenties zijn als de werknemer / professional zich niet houdt aan het beleid.

Door het opstellen van een duidelijk AI-beleid weten werknemers / professionals wat er van hen wordt verwacht. Wanneer zij zich niet aan deze afspraken houden, kan de werkgever optreden. Hierbij kan gedacht worden aan een officiële waarschuwing of in ernstigere gevallen zelfs een ontslag. Het bestaan van een dergelijk beleid helpt discussies achteraf te voorkomen.

Conclusie

AI is niet meer weg te denken uit het moderne werkveld en kan organisaties veel voordelen opleveren, maar het brengt ook nieuwe risico’s met zich mee. Het hanteren van een duidelijk AI-beleid is dan ook zeer aan te bevelen.

Fun fact!

Bij het opstellen van deze blog hebben wij AI gebruikt om mee te denken. Tot 3x toe “citeerde” AI een totaal verkeerde overweging van de Rechtbank Rotterdam ondanks dat de directe link, de vindplaats en concrete rechtsoverweging concreet in de prompt was genoemd. Wederom een duidelijk voorbeeld van een hallucinatie. 

Blog van AVN

11 sep 2025

© 2025 Advocaten van Nu