Nieuwscentrum

Zeven ethische voorwaarden om de toepasbaarheid van AI in de zorg te vergroten

okt 17, 2024 | 4 minuten leestijd

Wereldwijd zijn er wel meer dan 100.000 algoritmes en apps ontwikkeld in de medische sector, zelfs al voor het AI-tijdperk. Algoritmes die gezondheidsproblemen kunnen inschatten of het effecten van een behandeling kunnen voorspellen voor een individuele patiënt. Toch brengt AI nog niet die verlichting waar de zorg zo behoefte aan heeft. De vraag rijst dan ook: wat is er nodig om de toepasbaarheid van AI in de gezondheidszorg te vergroten? En hoe zorgen we dat we AI op de juiste manier toepassen?

BNR op locatie

 

Te midden van de AI-expo “brAInpower” in het Philips Museum, sprak Nina van den Dungen in het radioprogramma BNR Beter hierover met Eva Deckers, hoofd van het AI-expertise centrum in het Catharina Ziekenhuis en Carl Moons, directeur AI in de zorg in het UMC Utrecht. Philips nodigde het publiek uit voor een verdere verdieping na afloop van de uitzending, met Eva, Carl en Paul Lemmens, Senior Scientist Responsible AI bij Philips.

Vertrouwen in AI moet groeien

 

Er zijn legio voorbeelden van AI in de zorg, die nu, of in de toekomst, de arts kan ondersteunen. Een succesvol voorbeeld is de toepassing van AI in de radiologie, waar het artsen helpt om te prioriteren welke beelden extra aandacht nodig hebben. Dit scheelt de arts veel tijd om de beelden te analyseren. “Diagnostische AI gebruiken we eigenlijk al jaren”, aldus Carl. Hierbij refereert hij naar toepassingen die ontwikkeld zijn door bedrijven die bekend zijn met de gezondheidszorg, zoals Philips. “Wat we als gezondheidszorg spannender vinden, zijn AI-oplossingen die ontwikkeld zijn door bedrijven uit een heel andere sector en nu met grote vaart ingevoerd worden in de medische sector. Het gaat hier om zogenoemde Large Language Models (LLMs) en generatieve AI. Voordat we generatieve AI gebruiken voor het schrijven van een ontslag- of verwijsbrief na afloop van een consult, willen we er als zorgverleners op kunnen vertrouwen dat het de juiste dingen laat zien. We willen hier als mens eindverantwoordelijk zijn.”

Menselijke eindverantwoordelijke is een vereiste

 

De menselijke eindverantwoordelijke is tevens een belangrijke factor in de acceptatie van AI, vult Paul aan. “Zo hanteren we bij Philips een aantal principes bij het ontwikkelen van AI-toepassingen, zoals dat er altijd een menselijke eindverantwoordelijke moeten zijn. Zo houdt de zorgverlener de controle”. Een indicatie van óf en wanneer we AI blind durven te vertrouwen kunnen de gasten niet geven. Het vergt namelijk dat we in de toekomst bereid zijn om fouten van AI te accepteren, net zoals we nu omgaan met menselijke fouten. “Naar alle waarschijnlijkheid, zullen we in de toekomst minder verkeersslachtoffers hebben als we in zelfrijdende auto’s rijden. Maar we vinden het moeilijker om vijftig verkeersslachtoffers te accepteren door schuld van technologie, dan honderd verkeersslachtoffers door schuld van de mens”, vult Eva aan.

We moeten ons bewust zijn dat dergelijke grote datasets niet bestaan en er voorlopig ook niet komen.

- Carl Moons, directeur AI in de zorg in het UMC Utrecht

Representatieve data niet in alle gevallen een voorwaarde

 

Veel van de data in de gezondheidszorg, en daarmee ook de algoritmes, zijn gebaseerd op westerse mannen van middelbare leeftijd. Zo worden hartaanvallen bij vrouwen minder snel herkend dan bij mannen, omdat vrouwen andere symptomen vertonen. “Natuurlijk willen we een algoritme dat is ontwikkeld op alle potentiële patiënten die zo’n aandoening kunnen krijgen. Maar we moeten ons bewust zijn dat dergelijke grote datasets niet bestaan en er voorlopig ook niet komen”, zegt Carl. Bovendien is zo’n brede dataset ook niet in alle gevallen nodig. “Stel, we doen onderzoek naar de overlevingskans van het springen uit een helikopter vanuit de lucht. We laten tien blanke mannen van 57 jaar uit de helikopter springen, vijf met parachute, vijf zonder. Je concludeert dat de overlevingskans 100% is met parachute. Moet dit onderzoek dan ook nog met andere groepen gedaan worden?”

Het belang van transparantie

 

Vaak zijn ontwikkelde algoritmes generaliseerbaar en dus toepasbaar zonder dat bij de ontwikkeling alle soorten of typen mensen vertegenwoordigd waren. Paul: ”Daarbij is het belangrijk dat ontwikkelde algoritmes transparant gerapporteerd worden, inclusief op welke data van welke groepen mensen het ontwikkeld is.” Carl vervolgt: ”Daar hebben we recent internationale richtlijnen en een Nederlandse Leidraad-AI in de zorg voor ontwikkeld. Dit is de basis voor de implementatie van AI in de gezondheidszorg.”

BNR op locatie

Testen van kleinere datasets

 

Vervolgens is het belangrijk dat het algoritme getest wordt in de context waarin het wordt toegepast. Het doorontwikkelen van een algoritme dat op basis van data van mannen is getraind, voor gebruik bij vrouwen, kan soms met een kleinere dataset dan nodig was voor de eerste fase van ontwikkelen; iets dat in de AI-wereld ‘transfer learning’ heet. Maar ook: hoe kleiner de dataset, hoe minder milieubelasting. Grote datasets verbruiken namelijk veel energie. Het devies van Carl luidt dan ook: “Ontwikkel met kleinere datasets, wees transparant, en test, test, test.”

Standaardisatie van data

 

Ziekenhuizen kunnen algoritmes van andere ziekenhuizen testen in de eigen context. Dit voorkomt dat ziekenhuizen ieder hun eigen algoritme moeten gaan ontwikkelen, “Dit blijkt in de praktijk soms moeilijk”, stelt Eva. “Zo kan het zijn dat wij data anders labelen, of we bijvoorbeeld andere data hebben. Het is belangrijk dat we dit gebruik van data gaan standaardiseren. We moeten een manier vinden om een algoritme van buiten, toe te passen in ons eigen ziekenhuis.”

De winst voor ons zit hem in het beter stroomlijnen van de zorgprocessen, en meer OK-tijd.

- Eva Deckers, hoofd van het AI-expertise centrum in het Catharina Ziekenhuis

AI inzetten voor de meeste toegevoegde waarde

 

Op de vraag waar de meeste toegevoegde waarde voor AI voor het ziekenhuis zit, is Eva duidelijk: “We ontwikkelen nu niche oplossingen, vaak op gebieden waar we al heel goed in zijn. Zo zijn we al heel goed in het plaatsen van een stent, en dan passen we AI toe om nóg beter te bepalen wat de diameter van het vat is. Terwijl we ook zien dat de cardioloog de OK binnen loopt met zijn handen omhoog, maar de voorbereiding nog niet klaar is. De winst voor ons zit hem in het beter stroomlijnen van de zorgprocessen, en meer OK-tijd”.

BNR microfoon

BNR Beter als podium voor de dialoog

 

Het podium van BNR Beter, hét radioprogramma over de zorg in Nederland, bleek een goed startpunt voor de dialoog waarin de voorwaarden en ethische kwesties rondom AI in de zorg verder konden worden uitgediept. Iedere week duikt Nina van den Dungen met interessante gasten in de kansen en uitdagingen in de Nederlandse gezondheidszorg en neemt ze de nieuwste zorginnovaties onder de loep. BNR Beter wordt gesponsord door Philips en is iedere maandag om half 4 te beluisteren op BNR-nieuwsradio of altijd in je favoriete podcast app.

Voor meer informatie

Pieter de Meer-External Relations Lead Philips Benelux-
Pieter de Meer
External Relations Lead Philips Benelux
Contact informatie Contact informatie

You are about to visit a Philips global content page

Continue

Deel dit artikel met je netwerk

  • https://www.philips.nl/a-w/about/news/archive/standard/about/news/articles/2024/zeven-ethische-voorwaarden-om-de-toepasbaarheid-van-ai-in-de-zorg-te-vergroten.html Link gekopieerd

You are about to visit a Philips global content page

Continue

U kunt onze website het beste bekijken met de nieuwste versie van Microsoft Edge, Google Chrome of Firefox.