Skip to main content

Fachverlag und Nachrichtenagentur

DeepSeeNet: Deep Learning unterstützt und verbessert AMD-Diagnose und Risikovorhersage

 

MEDICAL RETINA Bethesda – mechentel news – Bei der Beurteilung des Schweregrads der altersbedingten Makuladegeneration (AMD) prognostiziert der Simplified Severity Scale der Age-Related Eye Disease Study (AREDS) das Risiko einer Progression bis zur fortgeschrittenen AMD. Die manuelle Verwendung erfordert jedoch die zeitraubende Beteiligung von erfahrenen Experten. Obwohl bereits mehrere automatisierte Deep-Learning-Systeme zur Klassifizierung von Farbfundusfotografien (CFP) einzelner Augen anhand des AREDS-Scoresystems entwickelt wurden, hat bisher keines ein patientenbasiertes Bewertungssystem verwendet, das Bilder aus beiden Augen nutzt, um einen Schweregrad zuzuweisen. Yifan Peng aus dem National Center for Biotechnology Information am National Institutes of Health in Bethesda, Maryland, aus den USA und Kollegen berichten über DeepSeeNet, ein Deep-Learning-Modell, das entwickelt wurde, um Patienten anhand des AREDS Simplified Severity Scale (Score 0-5) mithilfe bilateraler CFP automatisch zu klassifizieren. DeepSeeNet wurde mit 58.402 Bildern aus dem Längsschnitt-Follow-up der 4.549 Teilnehmern an AREDS trainiert und anhand 900 dieser Bilder getestet. Goldstandard-Labels wurden anhand des Gradings durch Auswertungszentren ophthalmologischer Bildgebung ermittelt. DeepSeeNet simuliert den menschlichen Einstufungsprozess, indem zunächst einzelne AMD-Risikofaktoren (Drusengröße, Pigmentabnormalitäten) für jedes Auge ermittelt und anschließend ein patientenbasierter AMD-Schweregrad anhand der AREDS Simplified Severity Scale berechnet wird. Die Hauptzielparameter waren Gesamtgenauigkeit, Spezifität, Empfindlichkeit, Cohens Kappa und Fläche unter der Kurve (AUC). Die Leistung von DeepSeeNet wurde mit der von Netzhautspezialisten verglichen. DeepSeeNet zeigte bei der patientenbasierten Klassifizierung (Genauigkeit = 0,671; Kappa = 0,558) bessere Ergebnisse als Netzhautspezialisten (Genauigkeit = 0,599; Kappa = 0,467) mit hoher AUC beim Nachweis von großen Drusen (0,94), Pigmentanomalien (0,93) und fortgeschrittener AMD (0,97). DeepSeeNet übertraf Netzhautspezialisten auch bei der Erkennung großer Drusen (Genauigkeit 0,742 vs. 0,696; Kappa 0,601 vs. 0,517) und Pigmentanomalien (Genauigkeit 0,890 vs. 0,813; Kappa 0,723 vs. 0,535), zeigte jedoch eine schlechtere Leistung bei der Erkennung von AMD (Genauigkeit 0,967 vs. 0,973; Kappa 0,663 vs. 0,754).Die Autoren stellen in der elektronischen Vorabpublikation im November 2018 beim Fachjournal Ophthalmology dar, dass DeepSeeNet durch die Simulation des menschlichen Einstufungsprozesses eine hohe Genauigkeit und erhöhte Transparenz bei der automatisierten Zuordnung einzelner Patienten zu AMD-Risikokategorien basierend auf der AREDS Simplified Severity Scale zeigte. Diese Ergebnisse unterstreichen das Potenzial des Deep Learnings zur Unterstützung und Verbesserung der klinischen Entscheidungsfindung bei Patienten mit AMD, wie z. B. frühzeitige AMD-Erkennung und Risikovorhersage für die Entwicklung einer fortgeschrittenen AMD. DeepSeeNet ist öffentlich verfügbar unter https://github.com/ncbi-nlp/DeepSeeNet. (bs)

Autoren: Peng Y, Dharssi S, Chen Q, Keenan TD, Agrón E, Wong WT, Chew EY, Lu Z. Korrespondenz: Emily Y. Chew, MD, National Eye Institute, National Institutes of Health, 9000 Rockville Pike, Bethesda, MD 20894, USA. E-Mail: echew@nei.nih.gov Studie: DeepSeeNet: A Deep Learning Model for Automated Classification of Patient-based Age-related Macular Degeneration Severity from Color Fundus Photographs. Quelle: Ophthalmology. 2018 Nov 22. pii: S0161-6420(18)32185-7. doi: 10.1016/j.ophtha.2018.11.015. [Epub ahead of print] Web: https://www.aaojournal.org/article/S0161-6420(18)32185-7/abstract