Publicerad: 2020-04-27 11:24 | Uppdaterad: 2020-04-27 13:55

Ny avhandling om hur vi kan kvantifiera neurodegeneration från medicinska bilder

Gustav Mårtensson, doktorand vid sektionen för klinisk geriatrik. Den 15 maj 2020 kommer du att försvara din avhandling "Quantifying neurodegeneration from medical images with machine learning and graph theory", vad handlar den om?

Porträtt av Gustav Mårtensson, doktorand vid NVS.
Gustav Mårtensson, doktorand vid NVS.

Den handlar om hur vi kan kvantifiera neurodegeneration från medicinska bilder. Inom forskning så använder vi främst automatiska metoder, medan man på klinik gör visuella bedömningar av hur mycket som har försvunnit i specifika områden av hjärnan. Vi utvecklade en model som bygger på maskininlärning som vi kallar AVRA: Automatic visual ratings of atrophy. AVRA kan snabbt skatta MR-bilder enligt tre kliniska skattningsskalor: MTA (medial temporallobsatrofi), GCA-F (frontal kortikalatrofi) och PA (posterior atrofi).

Vilka är de viktigaste resultaten? 

Vi visade att AVRAs skattningar stämde väl överens med radiologens på extern data, och på samma nivå som tidigare rapporterats mellan två radiologer. Trots att vår modell fungerade bra på data från flera externa minneskliniker, så såg vi att den stora variation i bildkvalitet som finns mellan kliniker kan utgöra ett problem vid implementering av “AI”-mjukvaror.

Hur kan den kunskapen komma människor till nytta/bidra till att förbättra människors hälsa? 

Artificiell intelligens kommer troligtvis spela en stor roll i framtidens sjukvård, och den här avhandlingen kan förhoppningsvis bidra lite till den utvecklingen. Vi har gjort AVRA gratis tillgänglig för andra forskare. Vi hoppas att det kan leda till att fler rapporterar visuella skattningar i deras studier, vilket på så sätt knyter klinik och forskning närmare varandra.

Vad ska du göra nu? Kommer du fortsätta att forska? 

Maskininlärning inom medicinsk bilddiagnostik är ett spännande område som jag gärna fortsätter inom.

 

Kontakt

Gustav Mårtensson Doktorand-L