Debatte: Erfahrung von Ärzten als Back-up
Künstliche Intelligenz darf Diagnose und Therapie nicht allein beherrschen, betont Joachim Maurice Mielert vom Aktionsbündnis Patientensicherheit. Menschliche Expertise sorgt für Vertrauen.

Bei den Risiken der Einbindung Künstlicher Intelligenz (KI) in medizinische Diagnosen steht menschliches Versagen durch Fehlinterpretation inzwischen gewiss an erster Stelle. Jedes technisch generierte Untersuchungsergebnis muss von Menschen mit entsprechender Expertise geprüft und Inhalte abgewogen werden, bevor Resultate formuliert und medizinische Behandlungen abgeleitet werden. Und es muss am Ende auch so übersetzt werden, dass der Patient die Inhalte versteht und mit entscheiden kann.
Die aktuellen KI-Formate beinhalten ein gewaltiges und sich täglich erweiterndes Potpourri an Trainingsdaten. Der KI-Markt in Fernost und in den USA hat so gewaltige Datenmengen in die Deep-Learning-Systeme gespeist, dass die Frage von Diagnose-Unsicherheiten durch mangelnde Trainingsdaten annähernd obsolet geworden ist.
„Jedes technisch generierte Untersuchungsergebnis muss von Menschen geprüft werden.“
Generalsekretär des Aktionsbündnis Patientensicherheit

Im Hinblick auf die Patientensicherheit ist die Frage von Rechtssicherheit im Haftungssinne essenziell. Hier stehen sowohl die Leistungsgruppen in der medizinischen Versorgung als auch die Patienten im weitgehend unbearbeiteten Raum, weil es noch an regulierenden Grundsatzurteilen mangelt. Indessen kommt zulasten der Patientensicherheit auch die Frage auf, ob und inwieweit technische Prozesse in den Deep-Learning-Oberflächen durch ungesetzliche Einflussnahmen manipulierbar sind und damit Fehlbewertungen möglich werden. Das dürfte ein Themenfeld sein, welches die Experten für Patientensicherheit mit den politisch Verantwortlichen zu besprechen haben. Last but not least eröffnet KI existenzielle technische Abhängigkeit. Deshalb muss es eine Grundbedingung sein, dass Ärztinnen und Ärzte die Anamnese protokollieren und mit den Patientinnen und Patienten interagieren. Es darf nicht zu einem Diagnose- und Behandlungsprozess kommen, der von KI-Komponenten beherrschend durchdrungen wäre.
Bei aller Begeisterung für die technischen Möglichkeiten unserer Zeit müssen Ärzte und Apotheker die Adressaten für Vertrauen und Prozessplanung sein. Die kontrollierte und regulierte, rechtssichere Zuhilfenahme von Deep-Learning-Modellen wird sich als Segen erweisen.
Mitwirkende des Beitrags

Autor