Kunstmatige intelligentie (AI) kan een belangrijke ondersteunende functie vervullen in diagnostiek in de zorg. De manier waarop AI-systemen werken is vaak echter ondoorzichtig, wat de relevantie van de systemen aantast. Onderzoekers van het Radboudumc tonen in een nieuwe publicatie hoe zij de werking van AI inzichtelijk kunnen maken en AI meer als een arts kunnen laten diagnosticeren. De onderzoekers willen hiermee de relevantie van AI-systemen in de klinische praktijk vergroten.
Artsen zijn in de praktijk veel tijd kwijt aan het bekijken van röntgenfoto’s of biopsieën om afwijkingen te detecteren. Al eerder schreven we over AI-systemen die de diagnostiek van medische beelden kan detecteren. Denk hierbij aan CAD4COVID voor het beoordelen van longfoto’s van patiënten met een COVID-19 besmetting en een systeem van DeepMind, onderdeel van Google’s moederbedrijf Alphabet, in samenwerking met het Britse Moorfields Eye Hospital voor het diagnosticeren van vijftig oogziektes.
Dergelijke systemen maken in de meeste gevallen gebruik van deep learning. Een deep learning-algoritme bestaat uit een netwerk van elektronische ‘neuronen’, die elk één aspect van het gewenste beeld leren herkennen. Iedere neuroon vormt hierbij een eigen laag, die zijn resultaat telkens doorgeeft aan de volgende laag. Het systeem is zelflerend en herkent naarmate het meer beelden te zien krijgt steeds beter patronen en daarmee afwijkingen. Door te leren bij welke ziekten deze kenmerken horen kan het systeem diagnoses stellen.
Het gebruik van dergelijke deep learning-systemen biedt belangrijke voordelen. In sommige gevallen is het systeem bijvoorbeeld net zo goed of zelfs beter als ervaren artsen in het herkennen van afwijkingen. Daarnaast kunnen zij hun trainingen veel sneller afronden dan mensen en kunnen AI-algoritmes zonder pauzes 24 uur per dag werken. De algoritmes kunnen artsen dan ook in belangrijke mate ondersteunen en hen meer tijd geven voor het uitvoeren van taken die meer toegevoegde waarde bieden.
Tegelijkertijd kennen deep learning-systemen ook hun beperkingen. Zo zijn AI-systemen vaak niet transparant over de manier waarop zij beelden analyseren. Daarnaast noemt het Radboudumc de systemen ‘lui’. Zo kijkt een AI-algoritme alleen naar wat nodig is voor een bepaalde diagnose en stopt vervolgens. Dit betekent in de praktijk dat een scan door een AI-algoritme niet alle afwijkingen identificeert, ook niet als de diagnose correct is. Een arts kijkt echter naar het groter geheel.
Om deze beperkingen terug te dringen en AI-systemen aantrekkelijker te maken voor de klinische praktijk ontwikkelde Cristina González-Gonzalo een tweeledige verbetering van diagnostische AI. González-Gonzalo is PhD-kandidaat bij A-eye Research en de Diagnostic Image Analysis Group van Radboudumc. Zij deed dit op basis van oogscans waarop afwijkingen aan het netvlies te zien zijn, waarbij het met name ging om diabetische retinopathie en leeftijdsgebonden maculaire degeneratie. Dit zijn afwijkingen die gemakkelijk door zowel een arts als AI kunnen worden herkend.
Tegelijkertijd zijn het afwijkingen die vaak in groepen voorkomen. Bij conventionele AI-algoritmes zou dit betekenen dat AI slechts één of enkele plekken diagnosticeert, en vervolgens de analyse stopt. González-Gonzalo ontwikkelde een proces waarin het AI-systeem keer op keer door het beeld gaat, de plekken die eerder zijn gepasseerd leert te negeren en zijn aandacht steeds richt op nieuwe plekken. Het systeem wordt zo geforceerd verder te zoeken. Ook laat het AI-systeem dankzij het proces van González-Gonzalo zien welke delen van de oogscan als verdacht zijn geïdentificeerd, wat het diagnostische proces transparanter maakt.
Dit doet het AI-systeem in de praktijk door op medische beelden afwijkingen die worden ontdekt te ‘bedekken; met gezond weefsel van rondom de afwijking. Tijdens de volgens analyseronde kan het systeem deze afwijkingen hierdoor niet meer herkennen, en alleen nog nieuwe afwijkingen vinden. Door de resultaten van alle analyserondes te combineren kan een uiteindelijke diagnose worden gesteld.
Meer informatie is te vinden in het artikel ‘Iterative augmentation of visual evidence for weakly-supervised lesion localization in deep interpretability frameworks: application to color fundus images’ in IEEE van Cristina González-Gonzalo, Bart Liefers, Bram van Ginneken en Clara I. Sánchez.
Auteur: Wouter Hoeffnagel