Wenn KI zum Psycho-Ratgeber wird
Immer mehr Menschen, vor allem junge, nutzen Künstliche Intelligenz (KI) bei Fragen zur psychischen Gesundheit. Professor Ulrich Hegerl ordnet Chancen und Risiken ein und erklärt, warum die Debatte weit über die Psychotherapie hinausgeht.
Herr Prof. Hegerl, das aktuelle Deutschland-Barometer Depression zeigt, dass 26 Prozent der erwachsenen Deutschen KI-Programme nutzen würden, um sich über psychische Gesundheit zu informieren und beraten zu lassen. Bei jungen Menschen sind es bereits 46 Prozent. Wie bewerten Sie diese Entwicklung?
Prof. Ulrich Hegerl: Ich sehe die globalen Auswirkungen der KI auf die Menschheit als unheilvoll. Im Einzelnen, Praktischen liegen aber enorme Chancen. Gerade junge Menschen nutzen bereits die großen Sprachmodelle, sogenannte Large-Language-Modelle wie ChatGPT oder Grok, als Psycho-Coach. Bereits jetzt ist das Feedback dieser Modelle meist von hoher Qualität und wird von den Nutzern als „empathisch“ empfunden. Ich würde darauf wetten, dass zukünftige Studien zeigen, dass derartige Modelle gut und oft auch besser abschneiden als klassische Face-to-Face-Psychotherapien. Dann wird jeder, auch die Menschen in armen Ländern, seinen „Psychotherapeuten“ immer in der Tasche haben.
Was macht KI für viele Betroffene so attraktiv?
Hegerl: Viele erleben es als entlastend, dass sie sich nicht unter den Augen eines anderen Menschen psychisch „nackt machen“ müssen. Außerdem ist KI ein permanenter Begleiter: Man kann jederzeit wieder ins Gespräch gehen. Wann immer etwas belastet, lässt sich das unmittelbar ansprechen.
Welche Einwände gibt es?
Hegerl: Ein zentraler Einwand lautet: „Das ist kein Mensch, da fehlt die Seele“, und für viele ist es trostlos, von einer Maschine getröstet zu werden. Ich glaube, dass sich dies verändern wird – vor allem bei einer Generation, die mit KI aufgewachsen ist. Denn letztlich sind Seele oder Bewusstsein etwas, das wir nur bei uns selbst wahrnehmen und anderen nur zuschreiben, unter der Annahme, dass sie ein Innenleben wie wir haben.
Ist die Zuschreibung von Seele historisch wandelbar?
Hegerl: Absolut. Historisch zeigt sich, wie flexibel diese Zuschreibungen sind. Im 16. Jahrhundert wurde im Konzil von Trient erstmals offiziell festgehalten, dass die indigenen Menschen Amerikas eine Seele haben – zuvor war ihnen diese abgesprochen worden. Auch heute gibt es Kulturen, die Bäumen oder Bergen ein Innenleben zuschreiben. Palästinenser wurden als „menschliche Tiere“ bezeichnet. Ob und wem wir Innerlichkeit, eine Seele zusprechen, ist eine kulturelle Konvention.
„Gerade junge Menschen nutzen bereits die großen Sprachmodelle, sogenannte Large-Language-Modelle wie ChatGPT oder Grok, als Psycho-Coach.“
Vorstandsvorsitzender der Stiftung Deutsche Depressionshilfe und Suizidprävention
Warum fällt es vielen schwer, Maschinen eine Art innere Welt zuzuschreiben?
Hegerl: Wir sind stark geprägt von der Vorstellung der Einmaligkeit des Menschseins. Deshalb wirkt es verstörend, wenn Maschinen sich um das Intimste kümmern sollen: um Trost, um seelische Not oder Nähe. Dieses Unbehagen teile ich – aber solche kulturellen Selbstverständlichkeiten sind veränderlich. Eine KI, die besser denkt, dichtet, tröstet, die alles besser kann als wir, warum sollten wir ihr ein Bewusstsein absprechen, nur weil sie aus Silizium und nicht aus Eiweiß und Fett besteht?
Erreicht KI die diagnostische Tiefe eines menschlichen Therapeuten?
Hegerl: In manchen Bereichen der Medizin, zum Beispiel der Radiologie, übertrifft sie diese bereits. Für die Psychiatrie würde ich das verneinen. Der KI fehlen meist visuelle und akustische Informationen. Im direkten Gespräch nehme ich Blick, Gestik, Tonfall wahr. Beim Händedruck zum Abschied überkommt mich nochmal Sorge und beim nochmaligen Nachfragen stelle ich vielleicht fest, dass der Mensch viel gefährdeter ist, als ich bisher gedacht habe. Die Berücksichtigung aller Informationsquellen durch die KI wird aber bald technisch gelöst sein.
Wo stößt KI aktuell noch an ihre Grenzen?
Hegerl: Ein aktuelles Problem ist, dass diese Modelle meist eher positiv, bestärkend auf die Prompts reagieren. Problematische Intentionen hinter den Prompts werden manchmal nicht ausreichend hinterfragt. Zugespitzt gesagt: Jemand äußert Suizidgedanken und erhält eine bestätigende Antwort. Hinzu kommt das sogenannte Halluzinieren, also dass KI bei fehlendem Wissen plausible, aber falsche Antworten gibt. Das sind Kinderkrankheiten dieser Technologie. Diese Probleme werden oder sind schon beseitigt. Gleichzeitig ist die Leistungsfähigkeit dieser Modelle gerade bei komplexen Fragen bereits heute absolut beeindruckend.
„Was mich am meisten umtreibt, ist die Frage: Was macht KI langfristig mit uns als Menschheit?“
Vorstandsvorsitzender der Stiftung Deutsche Depressionshilfe und Suizidprävention
Welche grundsätzliche Dimension hat diese Entwicklung für unser Verständnis von Menschsein?
Hegerl: Verstörend ist, dass wir aus Silizium etwas geschaffen haben, das in allem besser ist als wir Menschen. Ich schreibe gerade einen Roman. Dies geschieht in dem Bewusstsein, dass Grok mit ein paar Prompts in wenigen Sekunden einen spannenden Roman raushauen könnte, für den ich Monate bräuchte, um ihn mir aus den Fingern zu saugen. Ebenso ist es mit dem Dichten, Komponieren, Malen, Programmieren. Was wird dann aus der menschlichen Kultur. Spielt sie wie bei Schach nur mehr in der zweiten Liga?
Wo steht KI aktuell in der psychischen Versorgung?
Hegerl: In den offiziellen Behandlungsleitlinien sind digitale Gesundheitsanwendungen genannt, nicht aber die Large-Language-Modelle wie ChatGPT oder Grok. Der Einsatz beschränkt sich bislang vor allem auf den sekundären Gesundheitsmarkt, etwa auf Psycho-Coaching.
Wann könnte KI Teil der Regelversorgung werden?
Hegerl: Wie schnell das geht, ist schwer vorherzusagen. Die technische Entwicklung ist ungleich schneller als die Anpassungsgeschwindigkeit der Versorgungsregularien. Entscheidend ist, die Perspektive der Betroffenen nicht aus den Augen zu verlieren. Wenn die großen KI-Modelle nachweislich mindestens genauso helfen wie Face-to-face-Psychotherapie, und zudem breit und kostengünstig verfügbar sind, dann ist es unsere Aufgabe, diese Chancen zu nutzen und nicht aus reflexhafter Abwehr zu blockieren.
Welche Hürden sehen Sie dabei?
Hegerl: Natürlich wird es Widerstand geben, insbesondere von meiner und anderen Berufsgruppen, deren Selbstverständnis und Existenzgrundlage betroffen sind. Das kann die Entwicklung verzögern. Gleichzeitig besteht aber die Gefahr, dass ohne gesichertes Wissen über Nutzen und Risiken Menschen die neuen Möglichkeiten anstatt einer regulären Behandlung nutzen. Was mich persönlich aber am meisten umtreibt, ist die größere Frage: Was macht KI langfristig mit uns als Menschheit?
Mitwirkende des Beitrags
Autorin
Datenschutzhinweis
Ihr Beitrag wird vor der Veröffentlichung von der Redaktion auf anstößige Inhalte überprüft. Wir verarbeiten und nutzen Ihren Namen und Ihren Kommentar ausschließlich für die Anzeige Ihres Beitrags. Ihre E-Mail-Adresse wird nicht veröffentlicht, sondern lediglich für eventuelle Rückfragen an Sie im Rahmen der Freischaltung Ihres Kommentars verwendet. Die E-Mail-Adresse wird nach 60 Tagen gelöscht und maximal vier Wochen später aus dem Backup entfernt.
Allgemeine Informationen zur Datenverarbeitung und zu Ihren Betroffenenrechten und Beschwerdemöglichkeiten finden Sie unter https://www.aok.de/pp/datenschutzrechte. Bei Fragen wenden Sie sich an den AOK-Bundesverband, Rosenthaler Str. 31, 10178 Berlin oder an unseren Datenschutzbeauftragten über das Kontaktformular.