Steeds meer zorginstellingen zetten AI in om administratieve taken te verlichten. Denk aan apps die gespreksverslagen genereren of systemen die dossiers analyseren. Maar wat als de AI iets mist? Stel: een app vat een intakegesprek samen, maar laat weg dat een bewoner valgevaarlijk is. De zorgmedewerker controleert het verslag onvoldoende, de informatie komt niet in het dossier en de bewoner valt met letsel tot gevolg. Wie is dan aansprakelijk? In deze blog legt Anton de Swart, adviseur bij Sovib, uit hoe dit juridisch zit en wat uw verzekering wel en niet dekt.
AI mag ondersteunen, niet overnemen
De hoofdregel in de zorg is helder: AI mag de besluitvorming ondersteunen, maar niet overnemen. De zorgverlener blijft eindverantwoordelijk voor de kwaliteit van de zorg. Dat betekent dat een medewerker die een AI-gegenereerd verslag klakkeloos overneemt zonder controle, aansprakelijk kan zijn als daar iets misgaat.
Dit is geen theoretisch risico. Naarmate AI-tools vaker worden ingezet voor taken als verslaglegging, triage of dossieranalyse, neemt de kans toe dat fouten in de AI-output onopgemerkt blijven. Vooral bij hoge werkdruk is de verleiding groot om een samenvatting te vertrouwen zonder deze kritisch te lezen.
De zorginstelling is aansprakelijk, niet de AI
Juridisch gezien is de situatie vrij overzichtelijk. Als een patiënt of bewoner schade lijdt door onvoldoende zorg, kan de zorginstelling aansprakelijk worden gesteld. Dat geldt ook als de fout zijn oorsprong vindt in een AI-hulpmiddel. De Wet op de geneeskundige behandelingsovereenkomst (WGBO) bepaalt dat de hulpverlener moet handelen zoals een goed hulpverlener betaamt. Het gebruik van AI ontslaat de zorgverlener niet van die verplichting.
De patiënt hoeft overigens niet te bewijzen dat de AI de fout heeft gemaakt. Het volstaat om aan te tonen dat de zorginstelling niet de zorg heeft geleverd die redelijkerwijs verwacht mocht worden. Of daar een AI-systeem aan te pas kwam, doet voor de aansprakelijkheidsvraag niet ter zake.
Wat dekt de AVB wel en niet?
De aansprakelijkheidsverzekering voor bedrijven (AVB) dekt in beginsel schade die voortvloeit uit dit soort situaties. Als een medewerker een fout maakt bij het controleren van een AI-gegenereerd verslag en een bewoner daardoor schade lijdt, valt dat onder de normale dekking van de AVB.
Er is echter een belangrijke uitzondering: cybergerelateerde schade. Als de AI-tool wordt gehackt, data lekt of het systeem wordt gemanipuleerd, valt de daaruit voortvloeiende schade doorgaans niet onder de AVB. Daarvoor is een aparte cyberverzekering nodig.
De AI Act brengt nieuwe verplichtingen
Sinds augustus 2024 is de Europese AI-verordening (AI Act) van kracht, die gefaseerd wordt ingevoerd. Deze wet stelt eisen aan de ontwikkeling en het gebruik van AI-systemen en verplicht organisaties om te zorgen voor voldoende AI-geletterdheid bij medewerkers.
Voor zorginstellingen betekent dit concreet dat u beleid moet hebben voor het gebruik van AI binnen uw organisatie. Medewerkers moeten weten hoe zij AI-tools verantwoord gebruiken, wanneer zij de output moeten controleren en waar de grenzen liggen. Het ontbreken van dergelijk beleid kan bij een incident tegen u werken.
Wat kunt u doen?
Om de risico's van AI in de zorg te beheersen, zijn er een aantal praktische stappen.
Stel duidelijk beleid op voor het gebruik van AI binnen uw organisatie. Leg vast welke tools worden gebruikt, waarvoor en onder welke voorwaarden. Zorg dat medewerkers getraind zijn in het kritisch beoordelen van AI-output.
Controleer uw verzekeringsdekking. Bespreek met uw verzekeraar of uw AVB ook schade dekt die voortvloeit uit het gebruik van AI-systemen. En overweeg een cyberverzekering als u die nog niet heeft.
Volg de gebruiksinstructies van AI-leveranciers. Als u een AI-systeem niet gebruikt zoals de leverancier voorschrijft, wordt het lastiger om aan te tonen dat u zorgvuldig heeft gehandeld.
Leg afspraken vast met AI-leveranciers. Let bij contracten op aansprakelijkheidsbeperkingen en maak waar mogelijk afspraken over wie waarvoor verantwoordelijk is.
Tot slot
AI biedt de zorg mooie kansen om de werkdruk te verlichten en de kwaliteit te verbeteren. Maar de mens blijft verantwoordelijk voor het eindresultaat. Een AI-tool die iets mist, ontslaat de zorgverlener niet van de plicht om zorgvuldig te handelen. Zorg dat uw medewerkers dat weten, dat uw beleid op orde is en dat uw verzekering aansluit bij de risico's die u loopt.
Heeft u vragen over aansprakelijkheid en AI in de zorg? Of wilt u uw verzekeringsdekking laten toetsen? Neem contact met ons op. We denken graag met u mee.