KI in der Medizin: Interview mit Dr. Valentin Biehal
von Melanie Gau
Über Valentin Biehal
Valentin Biehal folgt seiner Leidenschaft: Der Heilung und dem Studium der menschlichen Psyche - in seinem Beruf als Facharzt für Psychiatrie und Psychotherapeutische Medizin (Dr. med. 2015, Psychotherapeut mit Schwerpunkt Verhaltenstherapie 2021). Neben der medizinischen Perspektive erweitert er heute seinen Erkenntnishorizont durch ein Masterstudium der Medizinischen Informatik (ab WS 2021/22) und engagiert sich für bessere Ressourcen für psychisch Kranke als Vorstandsmitglied im Verein pro mente Wien. Durch seine chronische Neugier und seinen alles andere als geradlinigen Werdegang (Studium der Betriebswirtschaft: Mag. 2007, Psychologie: B.A. 2012, berufliche Tätigkeit in nicht-medizinischem Gebiet und verschiedene Auslandsaufenthalte) forscht er heute an interdisziplinären Schnittstellen - wie dem Thema dieses Interviews - und engagiert sich für Wissensvermittlung und ethisches Hinterfragen.
Abbildung 1: Dr. Valentin Biehal (Quelle: Dr. Valentin Biehal)
Interview am 1. August 2023
Ort: Wien
Melanie Gau, SEQIS: Was ist Ihr Bezug zu KI und Ihr Anwendungsgebiet und wie sind Sie auf das Thema gestoßen?
Dr. Valentin Biehal: Informatik interessiert mich schon seit langem und das war tatsächlich nach der Matura auch meine erste (allerdings damals erfolglose) Studienwahl. Die Fortschritte der letzten Jahre in diesem Bereich, die mit immer mehr Möglichkeiten bei Untersuchungen des Gehirns (Bildgebung, Signalverarbeitung etc.) aber auch vor allem im Bereich der Modellierung neuronaler Prozesse und Funktionen einhergehen, haben mein Interesse für dieses Gebiet wieder sehr verstärkt, zumal ich nun hier eine Chance sehe, die Fachgebiete der Psychiatrie und Hirnforschung mit informatischen Möglichkeiten zu bereichern.
Melanie Gau, SEQIS: Welche Rolle spielt die IT und speziell die KI bereits in der Medizin und der klinischen Praxis?
Dr. Valentin Biehal: Computergestützte Verarbeitung und Analyse von „Biosignalen“ sind schon lange wichtige Themen. Beispielsweise werden bestimmte Parameter von EKG-Aufnahmegeräten bereits in Echtzeit berechnet und auf dem Befund dargestellt. Dies sind noch vergleichsweise simple Tasks und trotzdem sind die Ergebnisse häufig ungenau. Im Bereich der Radiographie (z.B. Röntgen- und CT-Aufnahmen) ist die automatische Bilderkennung (Pattern Matching) mittels KI inzwischen so gut, dass sie manche Aufgaben besser lösen kann als Radiolog:innen.
Bei komplexeren Fragestellungen, wie etwa der Auswertung von EEG-Daten, ist es bereits viel schwieriger zu brauchbaren Ergebnissen zu kommen. Auch hier gibt es aber schon einige Erfolge, wie etwa eine recht robuste Bestimmung von Schlafphasen durch KI. Allerdings zeigt dieses Beispiel gut, wo eine der Herausforderungen von automatischen Auswertungen liegen: Selbst die Expert:innen sind sich für einige Sonderfälle von Schlafphasen uneins und so ist es problematisch die computergenerierten Resultate zu validieren! Hier könnte man also überlegen, ob ein selbstlernender (Deep Learning-)Ansatz eine bessere Herangehensweise ist und ob man anhand eines solchen vielleicht sogar zu einer anderen, sinnvolleren Phaseneinteilung kommen könnte, da die aktuell etablierte offenbar nicht so eindeutig ist. Aber wie wären diese Resultate dann sinnvoll zu validieren?
Ein weiterer Bereich, der weniger mit direkter Anwendung, sondern mehr mit Grundlagenforschung zu tun hat, ist die Bioinformatik und in der Hirnforschung vor allem der Teilbereich Computational Neuroscience. Hier sucht man simulationsgestützt nach mathematischen Modellen, die bestimmte Bereiche bzw. Funktionen des Nervensystems erklären könnten. Dadurch kann die Lücke zwischen der basalen Neurobiologie im Mikrobereich (also z.B. dem Verhalten von Nervenzellen oder deren Innenleben) und der Psychologie, die naturgemäß nur das Verhalten der untersuchten Personen beurteilen/untersuchen kann, geschlossen werden.
Ob die KI allerdings die ärztliche Entscheidung bald ersetzen können wird, ist u.a. für die Frage der Haftung bei Fehldiagnosen nicht so leicht zu beantworten.
Melanie Gau, SEQIS: Sehen Sie die Einführung von KI in den medizinischen Bereich als etwas Positives oder stehen Sie dem eher kritisch gegenüber?
Dr. Valentin Biehal: Ich denke, dass dies zu vielen Verbesserungen und vor allem auch Erleichterungen in der Medizin führen kann (und wird). Es wird vermutlich auch kein Weg daran vorbeiführen. Gerade der heute immer drastischer zu Tage tretende Mangel an Arbeitskräften im Gesundheitswesen wird es zudem dringend nötig machen, andere Wege zu finden, um die Patient:innen-Versorgung weiterhin sicherstellen zu können. KI-gestützte Systeme könnten hier in vielen Bereichen eine entscheidende Unterstützung darstellen, um dem vorhandenen Personal Aufgaben zu erleichtern oder ganz abzunehmen.
Melanie Gau, SEQIS: Kann dies aber nicht auch Gefahren mit sich bringen? Etwa weil die KI ethische Aspekte zu wenig einbeziehen kann oder weil sie ja meist aus bereits vorhandenen, von Menschen generierten Daten lernt und diese einen starken Bias haben können (z.B. Minderheiten, Randgruppen etc. negativer darzustellen)?
Dr. Valentin Biehal: Das sind mit Sicherheit ernstzunehmende Gefahren, auf die bei jeglicher Implementierung ein großes Augenmerk gelegt werden sollte! Natürlich stellt sich hier die Frage, inwieweit man profitorientierte Unternehmen dazu bringen kann, dies auch zu tun. Eine gute staatliche Reglementierung und internationale Zusammenarbeit ist hier sicher vonnöten. Wie weit dies aber überhaupt möglich ist, wird sicher eine wichtige Fragestellung der nächsten Jahre sein.
Umgekehrt kann KI aber die Chance bieten, dass Entscheidungen (etwa im medizinischen Bereich oder im Verkehr) eben objektiver und damit ethisch nachvollziehbarer getroffen werden, da sie, im Idealfall, nicht mehr von der Kompetenz, den Überzeugungen und der Stimmung eines Menschen abhängig sind. So wird zwar (zu Recht) medial viel darüber diskutiert, wie sich ein selbstfahrendes Auto in einer Gefahrensituation „entscheiden“ sollte, es wird hierbei aber gerne vergessen, dass es in jedem Fall schneller reagieren kann als ein:e menschliche:r Fahrer:in, vor allem wenn letzterer beispielsweise übermüdet, abgelenkt oder gar angetrunken ist.
Das oben erwähnte Programm zur Bestimmung von Schlafphasen deutet zudem darauf hin, dass mittels KI möglicherweise bessere Entscheidungen getroffen werden könnten, als es durch menschliche Expert:innen.
Spannend wird in Zukunft aber sicher, wie weit (oder vielleicht eher wie schnell) Large Language Models (vgl. ChatGPT) Einzug in die Medizin finden werden. Dies könnte dann auch für Fachgebiete interessant werden, wo Bilderkennung wenig hilfreich ist, sondern vielmehr das Gespräch eine zentrale Rolle spielt, wie etwa in der Psychiatrie. Erste Studien sind hier bereits im Gange. Hier spielen natürlich menschliche Meinungsverzerrungen in den Grunddaten eine unter Umständen große Rolle und es wird eine große Herausforderung, dem zu begegnen.