Skip to main content

Fachverlag und Nachrichtenagentur

La rete neuronale riconosce la malattia di Alzheimer sintomatica usando immagini retiniche multimodali

NEUROOPHTHA Durham – Alla Duke University di Durham, North Carolina, USA, un gruppo interdisciplinare si è occupato dello sviluppo di una rete neuronale artificiale per il rilevamento della malattia di Alzheimer (AD) sintomatica. C. Ellis Wisely et al. hanno usato una combinazione di immagini retiniche multimodali e dati dei pazienti per la Convolutional neural network (CNN). Le mappe a colori dello spessore dello strato plessiforme interno delle cellule gangliari (GC-IPL), del plesso capillare superficiale (SCP) all’angiografia con tomografia a coerenza ottica (OCTA) e l’imaging con autofluorescenza a colori Ultra-Widefield (UWF) e del fondo oculare (FAF) dell’oftalmoscopia a scansione laser sono stati ottenuti in persone con AD e in persone cognitivamente sane. È stata sviluppata una CNN per predire la diagnosi di AD usando immagini retiniche multimodali, dati OCT e OCTA quantitativi e dati dei pazienti. Per lo sviluppo del modello, sono stati utilizzati complessivamente 284 occhi di 159 persone (222 occhi di 123 persone cognitivamente sane e 62 occhi di 36 pazienti con AD). L’area sotto la curva limite di ottimizzazione (AUC) per la probabilità prevista di AD nel set di test indipendente variava a seconda dell’input utilizzato: AUC UWF-color 0,450, OCTA SCP 0,582, UWF FAF 0,618, mappe GC-IPL 0,809. Un modello che includeva tutte le immagini, i dati quantitativi e i dati del paziente (AUC 0,836) ha dato un risultato comparabile ai modelli che includevano solo tutte le immagini (AUC 0,829). Le mappe GC-IPL, i dati quantitativi e quelli dei pazienti hanno prodotto una AUC di 0,841. Nell’anteprima di pubblicazione online sul BRITISH JOURNAL OF OPHTHALMOLOGY nel novembre 2020, gli autori hanno potuto comunicare che la loro CNN era in grado di prevedere efficacemente la diagnosi di AD sintomatica in un set di test indipendente basato sulle immagini retiniche multimodali utilizzate. Le mappe GC-IPL erano l’input singolo più utile per la predizione. I modelli che includevano solo le immagini hanno messo in evidenza risultati simili ai modelli che includevano anche dati quantitativi e dei pazienti.(bs)

Autori: Wisely CE, Wang D, Henao R, Grewal DS, Thompson AC, Robbins CB, Yoon SP, Soundararajan S, Polascik BW, Burke JR, Liu A, Carin L, Fekrat S. Korrespondenz: Dr Sharon Fekrat, Department of Ophthalmology, Duke University, Durham, NC 27708-0187, USA. E-Mail: sharon.fekrat@duke.edu Studie: Convolutional neural network to identify symptomatic Alzheimer’s disease using multimodal retinal imaging. Fonte: Br J Ophthalmol. 2020 Nov 26:bjophthalmol-2020-317659. doi: 10.1136/bjophthalmol-2020-317659. Epub ahead of print. PMID: 33243829. Web: https://bjo.bmj.com/content/early/2020/11/25/bjophthalmol-2020-317659.long