Ph.d.-forsker vil gøre det lettere for læger at stille korrekte diagnoser, når børn har ondt i ørerne, så man undgår høretab og unødig brug af antibiotika.
Da min søn var lille, fik han pludselig høj feber og klynkede konstant. Familielægen kiggede ham kort i ørerne med et otoskop og udskrev antibiotika til mellemørebetændelse. Den lille fyr blev hurtigt rask.
Måske var han blevet rask uden medicinen, for det kan være svært at tolke ud fra symptomerne, om mellemørebetændelse skyldes bakterier og skal behandles eller kan gå over af sig selv. I fremtiden vil lægerne kunne tage et billede med otoskopet og automatisk få hjælp til hurtigt og sikkert at stille diagnosen.
Josefine Vilsbøll Sundgaard er ph.d.-studerende på DTU Compute og anvender den nyeste forskning inden for machine learning kaldet deep learning til billedanalyse af otoskopibilleder, så en matematisk model ud fra kendetegn på trommehinden kan sige, om der er brug for behandling. Modellen er lige så god som de bedste ørelæger og langt bedre end læger, der kun lejlighedsvis behandler børn med øresmerter.
1.336 billeder af trommehinder
Projektet er et samarbejde med Interacoustics Research Unit, som ligger på DTU og er en del af selskabet Interacoustics, der er verdensførende inden for audiologisk udstyr.
En af verdens førende ørelæger, dr. Yosuke Kamide fra Japan, har lånt Josefine Vilsbøll Sundgaard 1.336 billeder af trommehinder, hvor han har mærket billederne med, om det er raske ører, behandlingskrævende eller ikkebehandlingskrævende mellemørebetændelse.
Det smarte ved deep learning er, at det ikke kræver andet input end træningsdata (billeder og diagnose til hvert billede). Den matematiske model lærer herefter selv at identificere mønstre i datasættet, uden at man skal definere, hvor den skal lede efter disse mønstre. Og ved fejl kører modellen billederne ’baglæns’ i sit netværk og ser på de ting, den har tolket forkert.
”Det kan være, at modellen har fundet andre kendetegn i billederne end dem, lægerne ser eller bruger, og koblet dem sammen. Og på den måde har modellen lært at stille diagnoser ud fra mønstergenkendelse,” siger Josefine Vilsbøll Sundgaard.
Til sidst har Josefine Vilsbøll Sundgaard undersøgt, om modellen er i stand til at lave en automatisk diagnosticering på nye billeder, modellen ikke har set før. Det er den. Modellen diagnosticerer korrekt på 85 pct. af billederne. Det er langt bedre end f.eks. børnelæger og på linje med de bedste ørelægers diagnoser.
Studier har tidligere vist, at almindelige børnelæger kun stiller den rette diagnose på 50 pct. af patienterne, familielæger er sikre i 67 pct. af tilfældene, mens øre-, næse- og halslæger vurderer 75 pct. rigtigt.
DTU og Interacoustics er ikke de første, der anvender deep learning til at analysere billeder af trommehinder til at diagnosticere øreproblemer. Men Josefine Vilsbøll Sundgaards resultat er så godt, at det er blevet offentliggjort i verdens førende tidsskrift inden for medicinsk anvendelse af billedanalyse, ’Medical Image Analysis’/Elsevier.
Proof of concept
Josefine Vilsbøll Sundgaard mangler stadig et år af sit ph.d.-projekt, og hun arbejder nu videre med data fra Interacoustics’ instrumenter.
”Vi kan se, at modellen har svært ved at stille de rette diagnoser, hvis der er meget ørevoks på trommehinden, eller billederne er uskarpe, for det skjuler vigtige kendetegn. Det er en svaghed, som vi gerne vil have forbedret. Ved at kigge på andre typer data fra Interacoustics kan vi forhåbentlig forbedre diagnosticeringen af mellemørebetændelse,” siger Josefine Vilsbøll Sundgaard.
Deep learning er et relativt nyt felt, som udvikler sig enormt hurtigt, og udviklingen har gjort det muligt at automatisere mange analyseværktøjer. Efterhånden som forskningsfeltet bliver mere og mere udbredt, bliver metoderne anvendt stadig flere steder i praksis. I dag bliver deep learning anvendt til billedanalyse og hjælp til diagnostik af bl.a. kræftsygdomme.
Forskningen her bekræfter ifølge Josefine Vilsbøll Sundgaards vejleder, lektor Rasmus R. Paulsen, at deep learning egner sig rigtig godt til at skelne mellem varianter af mellemørebetændelse.
”Selv folk, der ikke er læger, kan se på billeder, at noget er galt, hvis trommehinden er irriteret, rød og hævet, og der måske flyder væske i øret. Men hvis læger anvender avancerede billedanalysemetoder, har de større chancer for at hjælpe patienter i gråzonen korrekt og undgå overbehandling med antibiotika,” siger Rasmus R. Paulsen.
I ph.d.-projektet udfører DTU et forskningsbaseret proof of concept. Det er så op til Interacoustics at anvende den nye viden, f.eks. ved at integrere deep learning-modeller i softwaren i de digitalkameraer, man bruger i otoskoper.
Lovende resultat
Forskningschef hos Interacoustics James Harte kalder forskningsresultatet ekstremt lovende og glæder sig til at se, hvor effektiv og følsom metoden kan blive gennem yderligere forbedringer.
Han vil af konkurrencehensyn ikke komme ind på, hvordan Interacoustics konkret vil anvende deep learningmetoder i de kommende år.
”Men det er tydeligt for os i Interacoustics, at deep learning kan bruges i diagnosticering af sygdomme, der er velbeskrevne med billeder og andre data. Jeg ser også en tendens til, at man ønsker at anvende data ikke bare i devices, men også i cloudbaserede løsninger, og det skaber mulighed for at udvikle bedre løsninger for vores kunder,” siger James Harte.