Artikel

Auf der Couch zwischen Mensch und Maschine

18.03.2026 Felix Kunz 10 Min. Lesedauer

Statt auf Wartelisten zu verharren, öffnen viele Patienten ihr Innerstes einem Algorithmus. Was schnelle Hilfe verspricht, kann zur riskanten Echokammer werden – und verkennt, wo künstliche Intelligenz die psychische Gesundheit wirklich voranbringen kann.

Illustration: Ein dunkler Raum. In der Mitte ist eine weiß-leuchtende Tür. Auf beiden Seiten stehen Männchen, eins ist schwarz, eins ist weiß.
Begegnung im digitalen Raum: Chatbots simulieren Empathie, können aber eine therapeutische Beziehung noch nicht ersetzen.

Wer zum Erstgespräch bei einem Psychotherapeuten geht, kriegt dort Fragen gestellt wie: „Was führt Sie heute her?“, „Wie ging es Ihnen in letzter Zeit?“, oder „Wann haben Ihre Probleme angefangen?“. Sabine Ritterbusch, Psychotherapeutin in eigener Praxis bei Hamburg, fragt ihre Patienten neuerdings auch: „Wie haben Sie in letzter Zeit künstliche Intelligenz genutzt?“. Sie hat die Erfahrung gemacht, dass immer mehr Menschen sich Rat bei KI-Chatbots wie ChatGPT und Gemini holen, bevor sie zum ersten mal in ihre Praxis kommen. 

„Für viele Patienten gehört KI inzwischen zur Lebensrealität“, sagt Ritterbusch. Dass das nicht nur ein subjektiver Eindruck ist, zeigt eine US-Umfrage von vergangenem Jahr. Dafür wurden 499 Menschen mit psychischen Erkrankungen befragt, wie sie künstliche Intelligenz nutzen. Knapp die Hälfte von ihnen gab an, sich bei KI-Chatbots psychotherapeutischen Beistand zu holen. 

In Deutschland dürfte es ähnlich sein. Denn während hierzulande die durchschnittliche Wartezeit auf einen Psychotherapieplatz fünf Monate beträgt, steht der Chatbot sofort zur Verfügung, jederzeit, kostenlos. Erfahrungsberichten im Internet zufolge fragen Menschen ihn, wie sie sich in einem akuten Angstzustand beruhigen können, holen sich Rat bei Beziehungsproblemen, oder suchen einfach nur einen Gesprächspartner, um sich nicht so einsam zu fühlen. Und glaubt man diesen Erfahrungsberichten, hilft vielen der Austausch mit dem KI-Therapeuten.

Dabei ist der nicht ungefährlich. „KI ist eine Art Realitätskellner“, sagt Sabine Ritterbusch. „Wir bekommen immer genau die Realität serviert, die wir gerade haben wollen.“ Für ihre Patienten hat sie einen Leitfaden entwickelt, wie diese KI therapeutisch nutzen können – und wie besser nicht. Ein Punkt darin: bei Beziehungsproblemen lieber keine KI konsultieren. Ritterbusch: „Die Programme schlagen sich in der Regel auf die Seite des Fragestellers – auch wenn das vielleicht nicht angemessen ist.“

Wahrheit aus der Cloud

Die Tendenz von ChatGPT & Co., uns immer das zu sagen, was wir hören wollen, kann aber auch deutlich schlimmere Folgen haben als eine Beziehungskrise. In den USA haben Eltern eines 16 jährigen Jugendlichen aus Kalifornien Klage gegen den Anbieter von ChatGPT eingereicht, nachdem sich ihr Sohn das Leben genommen hatte. Sie werfen dem Unternehmen vor, der Chatbot habe den Jugendlichen in seinen Suizidgedanken bestärkt und ihm unter anderem Informationen zu Methoden der Selbsttötung und Hilfe beim Formulieren eines Abschiedsbriefs gegeben.

In einem weiteren Fall nahm sich 2024 ein 14 Jähriger aus Florida das Leben, der zuvor über einen längeren Zeitraum mit einer KI Figur namens „Dany“ in einer Chatbot Anwendung kommuniziert hatte. Berichten zufolge entwickelte der Jugendliche eine starke emotionale Bindung an diese Figur und zog sich zunehmend aus seinem sozialen Umfeld zurück.  

Als Reaktion auf derartige Entwicklungen diskutieren verschiedene US Bundesstaaten Regulierungen für den Einsatz von KI im Bereich psychischer Gesundheit. In Illinois verabschiedeten Abgeordnete ein Gesetz, das KI Systemen untersagt, eigenständig psychotherapeutische Leistungen zu erbringen oder klinische Entscheidungen zu treffen. Zulässig ist dort der Einsatz solcher Systeme lediglich zu unterstützenden Zwecken, etwa in der Verwaltung oder Organisation.

Programmierte Empathie

Als die Large Language Models, wie die KI-Chatbots eigentlich heißen, vor ein paar Jahren auf den Markt kamen, waren die Hoffnungen groß – auch in der Psychotherapie. Zahlreiche Studien kamen zu dem Schluss, dass sie sogar besser sein sollen als menschliche Therapeuten. In einer dieser Studien aus dem Jahr 2025 etwa legten Forscher ChatGPT fiktive Szenarien aus Paartherapien vor. Die KI sollte daraufhin möglichst gute Lösungen formulieren. Eine Gruppe von zwölf Psychotherapeuten erhielt dieselbe Aufgabe. 830 Versuchspersonen bewerteten daraufhin die Antworten beider Gruppen. Sie konnten nicht unterscheiden, welche von Menschen und welche aus der Maschine kamen. Und sie bewerteten die Antworten der KI sogar als hilfreicher und empathischer als die aus Menschenhand.

Solche Befunde klingen vielversprechend. Aber: Von einer richtigen Psychotherapie sind die eng umgrenzten Forschungsszenarien bislang weit entfernt. Auch wenn im Internet zahlreiche Erfahrungsberichte kursieren von Menschen, denen der Austausch mit dem Chatbot geholfen habe: Wissenschaftlich belegt ist deren Wirksamkeit im Psychotherapiekontext nicht. Hochwertige Studien dazu, wie ChatGPT in einer echten Therapie gegen echte Therapeuten abschneidet, gibt es keine.

Inzwischen sind auch KI-Bots auf dem Markt, die speziell für Psychotherapie entwickelt wurden. Sie heißen zum Beispiel Wysa, Ash oder Ello und werden von Firmen oder Start-Ups, manchmal auch an Unis, entwickelt. Im Gegensatz zu den frei zugänglichen, allgemeinen Sprachmodellen sind sie oft gegen Bezahlung als App erhältlich. Sie sind auf Psychotherapie zugeschnitten, das heißt oft mit Psychotherapeuten entwickelt und mit Therapie-Datensätzen trainiert. Einige arbeiten zudem mit dem „Human in the Loop“-Prinzip: Im Ernstfall kann über die App ein menschlicher Therapeut kontaktiert werden.

Eine Frau sitzt mit geschlossenen Händen auf einem Sessel. Ihr gegenüber sitzt ein Psychotherapeut und macht sich Notizen.
Begegnung in der realen Welt: Empathie entsteht im persönlichen Austausch.

Evidenz mit Lücken

Aber auch bei diesen Modellen ist die Studienlage durchwachsen. Eine Übersichtsarbeit von vergangenem Jahr vergleicht 31 randomisiert kontrollierte, also hochwertige Studien zum Thema. Das Ergebnis: Die Therapiebots zeigen kurzfristig einen mittleren Effekt bei depressiven Symptomen. Sechs Monate nach der KI-Therapie war der Effekt nur noch klein. Auf Angstsymptome und generellen Stress zeigte sich kein signifikanter Einfluss. Und auch hier gilt: Unter realistischen Bedingungen mit echten Patienten sind die Therapiebots so gut wie gar nicht erprobt. 

Im Gegensatz zu „DiGAs“ – also digitalen Gesundheitsanwendungen, die in der Psychotherapie schon lange zum Einsatz kommen – sind die Therapiebots darum in Deutschland bislang auch nicht als Medizinprodukte zugelassen. Wäre dem so, würden sie laut EU-AI-Act, der hierzulande den rechtlichen Rahmen für KI-Produkte regelt, ab 2027 als Hochrisikoprodukte eingestuft werden – und somit starken Einschränkungen unterliegen. Auch dieser Umstand trägt dazu bei, dass Mental-Health-Bots wie etwa Ello derzeit unter dem Label „Wellnessprodukt“ laufen.

Nach derzeitigem Stand sind KI-Bots für Psychotherapie also nicht nur potenziell gefährlich, sondern auch wenig wirksam. Heißt das, dass KI in der Psychotherapie nichts verloren hat? Paolo Raile, Therapeut in eigener Praxis in Österreich und Autor des Buches „KI in der Psychotherapie(-wissenschaft)“, ist anderer Meinung: „KI kann zum Beispiel genutzt werden, um die Wartezeit auf einen Therapieplatz zu überbrücken, oder um weiterzuarbeiten, wenn der Therapeut im Urlaub ist.“

KI nicht als Psychotherapeut, sondern eher als eine Art Therapiehelfer – das ist Raile zufolge mittelfristig die realistischere Prognose. Therapeuten könnten KI bei der Diagnostik und Therapieplanung zu Rate ziehen, mit ihrer Hilfe Termine organisieren, Arztbriefe schreiben, den eigenen Internetauftritt gestalten. „Jede Minute, die hier gespart wird, kommt am Ende den Patienten zugute“, sagt Raile. Allerdings sei auch hier Fingerspitzengefühl gefragt: Offensichtlich KI-generierte Mails etwa könnten schnell zum Vertrauensverlust auf Patientenseite führen, so Raile.

Assistent im Hintergrund

Potenzial für den Einsatz künstlicher Intelligenz sieht er noch in einem anderen Bereich: der Therapieausbildung. Raile hat dafür einen Patientensimulator entwickelt: einen Chatbot, der nach zahlreichen Kriterien individualisiert werden kann, um bestimmte Therapieszenarien zu erproben. Alter, Diagnose, Charakterzüge, Kooperationsverhalten – angehende Psychotherapeuten können sich hier einen „Patienten“ erstellen, um Therapiegespräche zu simulieren und therapeutische Techniken zu erproben.

Ob das funktioniert, ist noch offen. Der Patientensimulator wird derzeit evaluiert. Aber Das Projekt zeigt: Die Einsatzmöglichkeiten von künstlicher Intelligenz in der Psychotherapie sind vielfältig – und keineswegs auf den Austausch von Patienten mit ChatGPT beschränkt. 

Am Hector Institut für Künstliche Intelligenz in der Psychiatrie (HITKIP) am Zentrum für Seelische Gesundheit in Mannheim untersuchen Forscher verschiedenste Einsatzmöglichkeiten für KI in der Psychotherapie. „Die Stärke künstlicher Intelligenz ist, dass sie Muster in großen Mengen an Daten erkennen kann“, sagt Leiter Emanuel Schwarz. „Wir hoffen, dadurch die Mechanismen hinter psychischen Erkrankungen besser zu verstehen.“
Wenn wir im Alltag von künstlicher Intelligenz sprechen, meinen wir oft sogenannte Large Language Models, also Programme, die in großen Mengen von Textdaten Muster erkennen und davon ausgehend selbst Texte produzieren, die wir von solchen aus Menschenhand kaum unterscheiden können. Aber die Fähigkeit künstlicher Intelligenz, Muster zu erkennen, ist nicht auf Texte beschränkt. KI kann auch mit Diagnosedaten, Hirnscans oder Gensequenzen trainiert werden. Und auch hier findet sie Zusammenhänge, die bisherigen Technologien verborgen blieben.

„Viele psychische Erkrankungen haben eine relevante erbliche Komponente“, sagt Emanuel Schwarz. Ihr biologischer Hintergrund habe jedoch eine komplexe Struktur, bei der viele Gene zusammenspielen. „Die KI ermöglicht, diese Zusammenhänge systematisch zu analysieren und könnte erlauben, individuelle Risikoprofile für bestimmte psychische Erkrankungen zu identifizieren“, sagt Schwarz.

Foto: Eine Frau in hellem Shirt hält ein Smartphone in der Hand, darüber angedeutet stehen Sprechblasensymbole.
Antworten von Chatbots auf einfache Fragen zur gesundheitlichen Prävention weisen gute Qualität auf. Das zeigt eine aktuelle Studie des AOK-Bundesverbandes. Die Ergebnisse erläutert Dr. Thomas Lennefer, Psychologe in der Abteilung Prävention und Studienleiter. Er empfiehlt jedoch, bei komplexen Fragestellungen weiterhin auf fachgeprüfte…
15.12.2025Änne Töpfer5 Min

Statistik statt Spontanurteil

Wissen, das wiederum im klinischen Alltag bedeutsam sein könnte. Denn wenn Behandler voraussehen können, wie sich zum Beispiel eine Depression bei einem Patienten entwickeln wird, können sie ein therapeutisches Angebot für eben diesen Patienten maßschneidern. Stichwort: personalisierte Therapie. Auch für die Prävention könnte diese Forschung nützlich sein. Denn wenn bekannt ist, wer besonders anfällig für beispielsweise eine Angststörung ist, kann zielgerichtet vorgebeugt werden.

Ein Beispiel: die repetitive transkranielle Magnetstimulation (rTMS), ein nicht-invasives Verfahren, bei dem bestimmte Hirnareale mithilfe magnetischer Impulse stimuliert werden. Bei Schizophrenie wird rTMS unter anderem zur Behandlung negativer Symptome erprobt; allerdings sprechen nicht alle Patienten darauf an. Eine Münchner Forschergruppe untersuchte in einer multizentrischen Studie, ob sich das Therapieansprechen mithilfe von KI vorhersagen lässt. Das Modell wurde mit klinischen und soziodemografischen Angaben sowie strukturellen MRT-Daten und genetischen Informationen trainiert. In der untersuchten Stichprobe konnte es mit 94-prozentiger Genauigkeit prognostizieren, welche Patienten auf die Behandlung ansprachen. Die Autoren betonen jedoch, dass solche Modelle vor einem breiten klinischen Einsatz weiter validiert werden müssen.

Befunde wie dieser lassen hoffen, dass KI die Behandlung psychisch kranker Menschen verbessern kann. Bis aber zum Beispiel KI-Diagnostik zum Standard wird, ist es noch ein weiter Weg. Noch ein ganzes Stück weiter ist er wohl für Sprachbots zu Therapiezwecken – zumal deren Einsatz mit deutlich größeren Risiken einhergeht. Dennoch: Einfach „wegignorieren“, lasse sich das Thema nicht, findet Psychotherapeutin Sabine Ritterbusch. „Ich denke, wir als Therapeuten müssen uns mit diesem Thema auseinandersetzen. Die größte Gefahr ist nicht die Technologie selbst, sondern unsere Unwissenheit.“

Spielregeln für digitale Helfer

Mit dem EU-AI-Act gilt seit 2024 ein europaweiter Rechtsrahmen für Künstliche Intelligenz. Systeme, die Diagnosen unterstützen oder Therapieentscheidungen beeinflussen, zählen als Hochrisiko-KI. Ab 2026 gelten verbindliche Vorgaben wie systematisches Risikomanagement, dokumentierte und geprüfte Trainingsdaten, technische Dokumentation, Transparenzpflichten und verpflichtende menschliche Aufsicht. Bei Verstößen drohen Bußgelder bis zu 35 Millionen Euro oder sieben Prozent des weltweiten Jahresumsatzes. Folgt ein KI-Tool einem medizinischen Zweck, greift zusätzlich die EU-Medizinprodukteverordnung (MDR). Dann sind CE-Kennzeichnung, klinische Bewertung und die Prüfung durch eine Benannte Stelle Pflicht. In Deutschland sind Digitale Gesundheitsanwendungen nur erstattungsfähig, wenn sie im Verzeichnis des Bundesinstituts für Arzneimittel und Medizinprodukte gelistet sind – und einen nachweislich positiven Versorgungseffekt zeigen. Der AOK-Bundesverband bewertet KI als Unterstützung, nicht als Ersatz für professionelle Hilfe. „KI-gestützte Angebote können eine sehr gute Ergänzung sein, um Präventionsangebote noch individueller und dadurch effektiver zu gestalten“, sagt Dr. Thomas Lennefer, Psychologe beim AOK-BV.

Mitwirkende des Beitrags

Optionale Felder sind gekennzeichnet.

Beitrag kommentieren

Alle Felder sind Pflichtfelder.

Datenschutzhinweis

Ihr Beitrag wird vor der Veröffentlichung von der Redaktion auf anstößige Inhalte überprüft. Wir verarbeiten und nutzen Ihren Namen und Ihren Kommentar ausschließlich für die Anzeige Ihres Beitrags. Ihre E-Mail-Adresse wird nicht veröffentlicht, sondern lediglich für eventuelle Rückfragen an Sie im Rahmen der Freischaltung Ihres Kommentars verwendet. Die E-Mail-Adresse wird nach 60 Tagen gelöscht und maximal vier Wochen später aus dem Backup entfernt.

Allgemeine Informationen zur Datenverarbeitung und zu Ihren Betroffenenrechten und Beschwerdemöglichkeiten finden Sie unter https://www.aok.de/pp/datenschutzrechte. Bei Fragen wenden Sie sich an den AOK-Bundesverband, Rosenthaler Str. 31, 10178 Berlin oder an unseren Datenschutzbeauftragten über das Kontaktformular.