Aasa Feragen er professor på DTU Compute, Foto: Bax Lindhardt

Forklarlig kunstig intelligens skal øge sygehuses brug af AI

Matematik Medicin og medicoteknik Informationsteknologi

I nyt DIREC-projekt samarbejder AI-forskere med sygehuse om at skabe mere nyttig AI og AI-algoritmer, der er lettere at forstå.

AI (kunstig intelligens) vinder gradvist større plads i medicinske hjælpeteknologier såsom billedbaseret diagnose, hvor den kunstige intelligens med overmenneskelig præcision kan analysere skanningsbilleder. AI er derimod sjældent designet som en samarbejdspartner for lægepersonalet.

I et nyt human-AI-projekt EXPLAIN-ME’ støttet af det nationale forskningscenter DIREC vil AI-forskere sammen med læger udvikle forklarlig kunstig intelligens (Explainable AI - XAI), der kan give klinikere feedback, når de uddanner sig på hospitalernes træningsklinikker.

I den vestlige verden vurderes omkring hver tiende diagnose at være forkert, så patienterne ikke får den rette behandling. Forklaringen kan skyldes manglende erfaring og træning. Vores XAI-model vil hjælpe lægepersonalet med at træffe beslutninger og virke lidt som en mentor, der giver råd og respons, når de træner,” forklarer Aasa Feragen, projektleder og professor på DTU Compute.

I projektet samarbejder DTU, Københavns Universitet, Aalborg Universitet og Roskilde Universitet med læger på trænings- og simulationscentret CAMES på Rigshospitalet, NordSim på Aalborg Universitetshospital samt kræftlæger på Urologisk Afdeling på Sjællands Universitetshospital i Roskilde.

Ultralydsskanning af gravide
På CAMES vil DTU og Københavns Universitet udvikle en XAI-model, der kigger læger og jordemødre over skulderen, når de i træningsklinikken ultralydsskanner ’gravide’ træningsdukker. 

"Vores XAI-model vil hjælpe lægepersonalet med at træffe beslutninger og virke lidt som en mentor, der giver råd og respons, når de træner."
Aasa Feragen, projektleder og professor på DTU Compute

Inden for ultralydsskanning arbejder klinikere ud fra specifikke ’standardplaner’, som viser forskellige dele af fostrets anatomi, så man kan reagere ved komplikationer. Reglerne bliver implementeret i XAI-modellen, der bliver integreret i en simulator, så lægen får feedback undervejs.

Forskerne træner den kunstige intelligens på rigtige data fra Rigshospitalets ultralydsskanninger fra 2009 til 2018, og det er primært billeder fra de almindelige nakkefolds- og misdannelsesskanninger, som alle gravide tilbydes cirka 12 og 20 uger inde i graviditeten. Når XAI-modellerne om godt et års tid vil blive anvendt på træningsklinikken, skal man først tjekke, om modellen også virker i simulatoren, eftersom EAI-modellen er trænet på rigtige data, mens træningsdukken er kunstige data.

Ifølge læger afhænger kvaliteten af ultralydsskanninger og evnen til at stille rette diagnoser af, hvor megen træning lægerne har fået.

”Hvis vores model undervejs kan fortælle lægen, at der mangler en fod i billedet for, at billedet er godt nok, vil lægen muligvis kunne lære hurtigere. Hvis vi også kan få XAI-modellen til at fortælle, at sonden på ultralydsapparatet skal flyttes lidt for at få alt med i billedet, så kan det måske anvendes i lægepraksis også. Det ville være fantastisk, hvis XAI også kan hjælpe mindre trænede læger til at lave skanninger, der er på højde med de meget trænede læger,” siger Aasa Feragen.

Forskningslektor og leder af CAMES’ forskningsgruppe inden for kunstig intelligens Martin Grønnebæk Tolsgaard understreger, at mange læger er interesserede i at få hjælp af AI-teknologien til at fastlægge den bedste behandling for patienterne. Og her er forklarlig AI vejen frem.

”Mange af de AI-modeller, der findes i dag, giver ikke særlig god indsigt i, hvorfor de kommer frem til en bestemt beslutning. Det er vigtigt for os at blive klogere på. Hvis man ikke forklarer, hvorfor den kunstige intelligens kommer frem til en given beslutning, så tror klinikerne ikke på beslutningen. Så hvis man vil bruge AI til at gøre klinikerne bedre, så er det ikke nok bare at få beslutningerne, men også behov for gode forklaringer, det vil sige Explainable AI."

Løbende feedback ved robotkirurgi
Robotkirurgi giver kirurger mulighed for at udføre deres arbejde med mere præcision og kontrol end traditionelle kirurgiske værktøjer. Det reducerer fejl og øger effektiviteten, og forventningen er, at AI vil kunne forbedre resultaterne yderligere.

I Aalborg skal forskerne udvikle en XAI-model, der støtter lægerne i træningscentret NordSim, hvor både danske og udenlandske læger kan træne kirurgi og operationer i robotsimulatorer med f.eks. grisehjerter. Modellen skal give løbende feedback til klinikerne, imens de træner en operation, og uden at det forstyrrer, fortæller Mikael B. Skov, professor på Department of Computer Science ved AAU:

”I dag er det typisk sådan, at man først får at vide, hvis man skulle have gjort noget anderledes, når man er færdig med at træne en operation. Vi vil gerne se på, hvordan man kan komme med den her feedback mere kontinuerligt, således, at man bedre forstår, om man har gjort noget rigtigt eller forkert. Det skal helst gøres sådan, at personerne lærer det hurtigere og samtidig begår færre fejl, inden de skal ud og lave rigtige operationer. Vi skal derfor se på, hvordan man kan komme med forskellige typer af feedback, som f.eks. advarsler, uden at det afbryder for meget”.

Billedanalyser ved nyrekræft
Læger skal ofte træffe beslutninger under tidspres, f.eks. i forbindelse med kræftdiagnoser, fordi man vil undgå, at kræften spreder sig. En falsk positiv diagnose kan derfor betyde, at patienten får fjernet en rask nyre og påføres andre komplikationer. Selv om erfaringen viser, at AI-metoder er mere præcise i vurderingerne end lægerne, har lægerne brug for en god forklaring på, hvorfor de matematiske modeller klassificerer en tumor som godartet eller ondartet.

I DIREC-projektet vil forskere fra Roskilde Universitet udvikle metoder, hvor kunstig intelligens analyserer medicinske billeder til brug ved diagnosticering af nyrekræft. Lægerne vil hjælpe dem med at forstå, hvilken feedback der er brug for fra AI-modellerne, så man finder en balance mellem, hvad der er teknisk muligt, og hvad der er klinisk nødvendigt.

”Det er vigtigt, at teknologien skal kunne indgå i hospitalernes praksis, og derfor har vi især fokus på at designe de her metoder inden for ’Explainable AI’ i direkte samarbejde med de læger, der rent faktisk skal bruge den i deres beslutningstagning. Her trækker vi især på vores ekspertise inden for Participatory Design, som er en systematisk tilgang til at opnå den bedste synergi mellem, hvad AI-forskeren kan komme op med af teknologiske innovationer, og hvad lægerne har brug for,” siger Henning Christiansen, professor i datalogi på Institut for Mennesker og Teknologi på Roskilde Universitet.

Om DIREC

    Det nationale forskningscenter DIREC - Digital Research Centre Denmark - støtter digital forskning i verdensklasse, der skal bringe Danmark er i front med nye digitale teknologier.

    DIREC bidrager derudover til at udbygge kapaciteten inden for både forskning og uddannelse af dataloger, så Danmark får flere højtuddannede it-specialister.

    DIREC er et unikt samarbejde mellem de datalogiske institutter ved de otte danske universiteter og Alexandra Instituttet. Der er et samlet budget på 275 millioner kroner, hvoraf 100 millioner kommer fra Innovationsfonden.

    DIRECs aktiviteter tager udgangspunkt i samfundets behov, og forskningen skal løbende omsættes til værdiskabende digitale løsninger i samarbejde med erhvervslivet og den offentlige sektor.

    Projekterne går på tværs af brancher og omhandler bl.a. kunstig intelligens, Internet of Things, algoritmer ogcybersikkerhed. Læs mere på direc.dk