Aansprakelijkheid en regelgeving rond artificiële intelligentie in de zorg
Artificiële intelligentie (AI) in de zorg staat niet op zichzelf zoals een MRI-scanner, een pacemaker of een prothese. Het is een systeemtechnologie, waarbij software data ontvangt, die data verwerkt en erop reageert. Door vorige acties te analyseren, is AI in staat zich te verbeteren. De toepassingsmogelijkheden zijn legio: een chatbot die taal verwerft om vragen te begrijpen en passend te beantwoorden, een systeem dat medische beelden analyseert, diagnosticeert en daarvan leert, een robot die operaties uitvoert, systemen die data en beelden analyseren om ziektes op te sporen, een robot die patiënten vraagt hoe zij zich voelen en hun symptomen in kaart brengt enzovoort.
Met AI kunnen we de kwaliteit van de zorg verbeteren en de werkdruk verlichten. Daarbij is het momenteel een hoofdregel dat AI de besluitvorming over een behandeling mag ondersteunen, maar niet mag overnemen. Bovendien zijn er twee juridische aandachtspunten. Het eerste is dat AI tot het uitblijven van goede zorg kan leiden, bijvoorbeeld door een gebrekkig algoritme of een menselijke fout bij het gebruik daarvan. Wie is dan voor dat gebrek aansprakelijk? De ontwikkelaar, de producent of de gebruiker? Het tweede aandachtspunt is dat die ontwikkelaar, producent en gebruiker zich aan regels moeten houden. Doen zij dat niet, dan kan dat tot klachten, claims en boetes leiden.
Lees verder:
Aansprakelijkheid en regelgeving rond artificiële intelligentie in de zorg door Shirin Slabbers, VvAA Legal