Diese Veranstaltung wird nicht als Video-on-Demand-Angebot verfügbar sein.
Künstliche Intelligenz (KI) ermöglicht eine zunehmend besser werdende Leistung in der Mustererkennung zur Unterstützung der Diagnostik und Interpretation von klinischen Daten. Derzeit werden KI-Methoden in der klinischen Praxis und Forschung kaum eingesetzt, da man bisher zu wenig Verständnis davon hat, welche Informationen solche Black-Box-Systeme berücksichtigen, um ihre Entscheidungen zu treffen. Dieses vom DGPPN-Referat für Bildgebung und Systemische Neurowissenschaften organisierte Symposium soll neue KI-Ansätze im Bereich der Psychiatrie und Nervenheilkunde sowie Methoden zur Verbesserung der Erklärbarkeit von KI-Entscheidungsprozessen vorstellen.
Simon Eickhoff berichtet von Möglichkeiten, individuelle kognitive oder persönlichkeitsbezogene Merkmale aus Bildgebungsdaten abzuleiten. Solche Techniken scheinen für uns heute noch reine Fiktion, nähern sich aber ihrer Anwendung und werfen zahlreiche ethische, rechtliche und gesellschaftliche Fragen auf. Eva Meisenzahl stellt das Verbundprojekt CARE zwischen 40 Erwachsenen- und Kinder- und Jugendpsychiatrischen Partnern sowie drei großen Krankenkassen vor. Klinische, neuropsychologische und Bildgebungsdaten sollen genutzt werden, um KI-basiert das individuelle Risiko für die Entwicklung von Psychosen und das prognostische Funktionsniveau zu messen, um nachfolgend risikoadaptierte individualisierte Behandlungen durchzuführen, mit dem Ziel, den Ausbruch der psychiatrischen Erkrankung zu verhindern oder abzumildern. Kerstin Ritter präsentiert Verfahren zur Visualisierung von Entscheidungsprozessen in künstlichen, neuronalen Netzen und demonstriert beispielhaft deren Anwendung zur Detektion ausgewählter neuropsychiatrischer Erkrankungen. Abschließend stellt Martin Dyrba neue Ansätze für kognitive Architekturen auf Basis neuronaler Netze vor, mit denen direkt aus den Bilddaten diagnostische Erklärungen abgeleitet werden sollen, um algorithmische Entscheidungsprozesse verständlich und nachvollziehbar zu machen.
zugeschaltet: Kognitive Architekturen zur Generierung diagnostischer Erklärungen für Bildgebungsdaten
Martin Dyrba, Rostock (Germany)
Details anzeigen
Autor:in:
Martin Dyrba, Rostock (Germany)
In der kürzlich veröffentlichten Stellungnahme der Zentralen Ethikkommission bei der Bundesärztekammer werden die Chancen und Risiken ärztlicher Entscheidungsunterstützung durch Künstliche Intelligenz (KI) diskutiert. Zentrale Forderungen stellen die Transparenz und Erklärbarkeit des Entscheidungsprozesses von KI-Systemen dar. Eine besondere Herausforderung ergibt sich hierbei in Systemen, die tiefe neuronale Netze mit einer hohen Komplexität in der Informationsverarbeitung verwenden. In dem von der Deutschen Forschungsgemeinschaft geförderten Projekt „Neuronale Netze Systemarchitektur für multimodale Erklärungen“ werden beispielhaft Daten der kraniellen Magnetresonanztomographie analysiert und Hirnveränderungen detektiert, die auf Demenzerkrankungen hinweisen. Hierzu wurden neuronale Netze trainiert, die zuverlässig entsprechende Veränderungen erkennen und gewichtet anhand deren Relevanz markieren. In drei unabhängigen Validierungskohorten mit mehr als 1600 Probanden erreichten die neuronalen Netze eine AUC ≥0,92 für die Unterscheidung von Patienten mit Alzheimer-Demenz und Kontrollprobanden sowie AUC ≥0,73 für Patienten mit leichter kognitiver Störung und Kontrollen. Relevanzkarten für die einzelnen Probanden kennzeichnen vor allem Atrophie im Bereich des Hippocampus und anderen Arealen im lateralen Temporallappen sowie Parietallappen. Vom System hervorgehobene anatomische Veränderungen bestätigten den vorab erwarteten Marker Hippocampusvolumen als wichtigste Informationsquelle für die diagnostische Entscheidung. Relevanz-Scores im Hippocampus wiesen eine hohe Korrelation r = -0,87 mit dessen Volumen auf. Im Verlauf des Projekts werden weitere Demenzformen in den Analysen ergänzt und deren differenzialdiagnostische Merkmale untersucht. Im Vortrag werden neue technische Ansätze für kognitive Architekturen vorgestellt, mit denen in neuronalen Netzen zusätzlich beschreibende Erklärungen abgeleitet werden können, die den Entscheidungsprozess nachvollziehbarer machen.