AI-tools zoals ChatGPT, Copilot en Gemini zijn niet meer weg te denken van de werkvloer. Professionals gebruiken deze tegenwoordig dagelijks voor teksten, analyses, offertes etc. Dat scheelt natuurlijk tijd, maar het brengt ook de nodige risico’s met zich mee.
De laatste tijd hoor je steeds meer over AI die aan het “hallucineren” is. In het kort gaat het dan om situaties waarin AI overtuigend klinkende informatie genereert, maar deze informatie feitelijk onjuist is.
Onlangs speelde in Nederland een opvallende zaak (ECLI:NL:RBROT:2025:10388). Een advocaat diende een processtuk in met allerlei verwijzingen naar uitspraken die niet bestonden. De Rechtbank Rotterdam overwoog onder meer:
“Tijdens de mondelinge behandeling is vastgesteld dat alle verwijzingen in de conclusie van antwoord naar uitspraken van de Hoge Raad onjuist zijn. In de conclusie van antwoord heeft gedaagde verwezen naar (vermeende) uitspraken van de Hoge Raad ten aanzien van het handelsnaamrecht, met vermelding van een (vermeend) ECLI-nummer. Geen enkele van de aangehaalde (vermeende) arresten heeft betrekking op het handelsnaamrecht. Sommige ECLI-nummers horen bij strafrechtelijke uitspraken, andere bestaan in het geheel niet. Desgevraagd heeft (de advocaat van) gedaagde verklaard dat dit alles is veroorzaakt door een probleem bij het converteren van een Word-bestand naar PDF. Deze verklaring roept vragen op. De rechtbank laat die vragen en de vraag of hiermee artikel 21 Rv is geschonden verder in het midden, omdat gedaagde per saldo geen voordeel heeft gehad van de onjuiste voorstelling van zaken in de conclusie van antwoord”.
Op Social media is het oordeel al geveld. Deze advocaat zou AI hebben ingezet zonder zelf te controleren of de antwoorden van AI wel zouden kloppen. Au!
Het voorbeeld van de advocaat is illustratief, maar dit geldt breder. In veel beroepsgroepen is het risico op fouten en/of reputatieschade groot als AI verkeerd wordt gebruikt. Denk bijvoorbeeld aan foutieve diagnoses bij artsen, verkeerde marktdata of verzonnen cijfers bij offertes of bij commerciële functies, verkeerde berekeningen of foutieve interpretaties van cijfers bij administratieve functies.
Naast de schade die het gevolg is van de fout zelf, is er natuurlijk ook nog de commerciële schade. Indien een klant ziet dat “de professional” zijn werk volledig door AI laat doen en dan ook nog eens fouten maakt, zal een samenwerking vaak niet lang meer duren.
Werkgevers doen er verstandig aan om een schriftelijk AI-beleid op te stellen. Dit voorkomt fouten en maakt werknemers / professionals bewust van hun verantwoordelijkheid. Daarnaast creëert het een arbeidsrechtelijk kader waarop kan worden teruggevallen als het dan toch mis mocht gaan.
Wat ons betreft moet een AI-beleid in ieder geval de volgende elementen bevatten:
Door het opstellen van een duidelijk AI-beleid weten werknemers / professionals wat er van hen wordt verwacht. Wanneer zij zich niet aan deze afspraken houden, kan de werkgever optreden. Hierbij kan gedacht worden aan een officiële waarschuwing of in ernstigere gevallen zelfs een ontslag. Het bestaan van een dergelijk beleid helpt discussies achteraf te voorkomen.
AI is niet meer weg te denken uit het moderne werkveld en kan organisaties veel voordelen opleveren, maar het brengt ook nieuwe risico’s met zich mee. Het hanteren van een duidelijk AI-beleid is dan ook zeer aan te bevelen.
Bij het opstellen van deze blog hebben wij AI gebruikt om mee te denken. Tot 3x toe “citeerde” AI een totaal verkeerde overweging van de Rechtbank Rotterdam ondanks dat de directe link, de vindplaats en concrete rechtsoverweging concreet in de prompt was genoemd. Wederom een duidelijk voorbeeld van een hallucinatie.
© 2025 Advocaten van Nu