Psychotherapie mit ChatGPT? Warum das für Ersatzkinder zur Gefahr werden kann
ChatGPT macht Psychotherapie: Ein fragwürdiger Trend
Triggerwarnung: Der Artikel behandelt auch Themen wie Tod oder Suizid. Bitte lies ihn nicht und suche dir Hilfe, wenn dich diese Themen übermäßig ansprechen oder belasten: Krisentelefone: 0800 1110111 / 0800 1110222 oder 116 123. Link zum kompletten Angebot der Telefonseelsorge. Link zum Chat der Telefonseelsorge. Krisendienste auf der Homepage der Deutschen Depressionsliga. Link zum Netzwerk offene Tür.
Seit ChatGPT in den Alltag drang, schwappt eine Welle von „Selbst-Therapie-Sessions“ durch soziale Netze. Der Bot wird nicht selten als kostengünstiger Ersatz für klassische Psychotherapie gefeiert. Videos mit Titeln wie “I asked ChatGPT to be my therapist for a week” werden unzählige Male geklickt. Fox News fasst den Trend so zusammen: „ChatGPT geht in den sozialen Medien wegen seiner Rolle als neuer Therapeut der Generation Z viral„.
Experten warnen hingegen, dass es der KI an menschlichem Einfühlungsvermögen und klinischem Fachwissen mangelt, obwohl sie Komfort und Zugänglichkeit bietet. OpenAI hat Mitte August 2025 selbst „Break Prompts“ – Aufforderungen an den User, eine Pause zu machen – und neue Safety-Regeln eingeführt, um «das Risiko schädlicher oder in die Abhängigkeit führender Antworten» zu mindern. Die Maßnahme unterstreicht, dass das Modell zwar dialogfähig ist, aber weder über Krisenprotokolle noch über die feinjustierte Diagnostik einer ausgebildeten Fachperson verfügt.
Ich habe es ausprobiert. Schon vor einigen Tagen beschrieb ich auf der Webseite Sinn und Werte im Artikel „Der ChatGPT-Therapie-Trend im Selbstversuch meine Erfahrungen.
Anfänglich scheinbar entlastend, wurde der Dialog im Verlauf immer verrückter. Chat GPT gab mir selbst die Erklärung für seine Antworten: Eine Mischung aus Scheinkohärenz, Zuspitzung, Bestätigung und Korrekturresistenz sowie mangelnder Logikprüfung, die folgerichtig aus Physik und Trainings-Feedbackschleifen entstehen: Allgemeine ChatGPT-Modelle sind nur verstärkende Spiegel. Keine Therapeuten. Und trotz aller rascher Verfügbarkeit insbesondere in Krisensituationen gar keine gute Adresse.
Hier möchte ich darauf eingehen, warum meiner Meinung nach dies gerade für Ersatzkinder und Menschen, deren Biografie von Trauer und Schuldgefühlen geprägt ist, ein Selbsttherapieversuch mit ChatGPT und anderen allgemeinen Sprachmodellen besonders riskant werden kann.
Wie ChatGPT Ersatzkinder in die Krise führen kann
Schon der Start ins Leben ist dadurch geprägt, „der Trauer der Eltern Trost zu spenden“. Für das Kind bedeutet das einen Beginn „gleichsam ohne eigene Identität – I am not. I am Other“. In der psychischen Entwicklung wird es häufig „mehr als Verkörperung einer Erinnerung, denn als Person mit eigenem Recht behandelt“, was nach Sabbadini zu einer Pseudo-Identität führen kann, genährt von unverarbeiteter elterlicher Trauer und Überlebensschuld: Das Kind verinnerlicht, es sei schuldig, weil es am Leben ist, während ein anderes Kind dafür sterben musste.
Sein zentrales Thema ist daher nicht nur „Wer bin ich?“, sondern: „Darf ich überhaupt ich sein?“
Ein textbasiertes KI-Tool wie ChatGPT kann diese tief verschachtelte Identitäts- und Trauer-Dynamik gar nicht erfassen. Es verarbeitet Wörter, keine unausgesprochenen, nur nonverbal vermittelbaren Gefühle. Damit besteht die Gefahr, dass das Ersatzkind seine Fragen zwar stellt, aber nur oberflächliche oder kognitiv ausgerichtete Antworten erhält. Der eigentliche Schmerz bleibt unberührt und wirkt im Innern weiter. Therapien können jedoch keine Veränderungen herbeiführen, solange der eigentliche Schmerz nicht angetastet wird.

Warum ChatGPT bei Ersatzkind-Dynamiken eher riskant als hilfreich ist
Datenschutz
Therapeutische Offenheit ist nur möglich, wenn Klient:innen sich sicher fühlen, dass ihre intimsten Worte geschützt bleiben. Genau hier setzt eine zentrale Schwachstelle von ChatGPT an: Gespräche werden serverseitig protokolliert und unterliegen nicht den Verschwiegenheitspflichten eines approbierten Therapeuten.
Für Menschen, deren Grundthema das Vertrauen in eine verlässliche, präsente Bezugsperson ist, wird damit deutlich: Ein Chat-Bot, der weder Schweigepflicht noch persönliche Ansprechbarkeit garantieren kann, bietet kein tragfähiges Fundament für tiefenpsychologische Arbeit.
Fehlende emotionale Resonanz
Viele Ersatzkinder berichten von einer chronischen inneren Leere, die entsteht, wenn die primäre Bezugsperson zwar physisch anwesend, aber seelisch in Trauer „erstarrt“ bleibt.
Solche Zustände benötigen ein Gegenüber, das mitfühlen kann und dies auch zeigt: Mikrogesten, Tonfall, körperliche Gegenwart. Genau hier stoßen textbasierte KI-Systeme an strukturelle Grenzen. Doch „Der KI fehlt das nonverbale Einfühlungsvermögen des Menschen; sie kann keine stummen Hinweise aufgreifen oder Affekte mitregulieren.“
Selbst ausgefeilte Sprachmodelle bleiben „sprechende Spiegel“, die Wörter zurückwerfen, aber keinen gefühlten Kontakt herstellen.
Für Ersatzkinder bedeutet das: Die Interaktion mit einem emotionslosen Textpartner erneuert und vertieft das ursprüngliche Erleben: Niemand ist wirklich da. Das ist das Gegenteil einer heilenden Beziehungserfahrung.
Das Erkennen der wahren Identität wird verhindert statt gefördert
Schon in einer Therapie von Mensch zu Mensch besteht für Ersatzkinder die Gefahr, dass sich in der Interaktion ein „Schattendialog“ entwickelt, wenn Therapeuten das Ersatzkindsyndrom nicht kennen oder unbewusst ausklammern.
Kristina Schellinski beschreibt, wie diese Konstruktion in der analytischen Beziehung deutlich wird: Die Verbindung zwischen Analyst:inund Klient:in kann sich „hohl oder unauthentisch anfühlen, weil der Beziehungsfaden ursprünglich nicht zwischen dieser Mutter und diesem Kind (sondern dem verstorbenen Kind) geknüpft wurde“ (Schellinski 2019, S. 175–176).
Überträgt man diese Dynamik auf textbasierte KI-Konversationen, die auf der rein statistischen Wahrscheinlichkeit des Auftretens bestimmter Wortfolgen basieren, entsteht ein doppeltes Risiko:
- ChatGPT kann nur das verarbeiten, was benannt wird. Ohne ein leibhaftiges Gegenüber, das subtile Widersprüche und non-verbale Signale aufnimmt, erhält das Ersatzkind keine Impulse, überhaupt zu erkennen, dass da etwas in ihm ist, was weder auf seinen eigenen Erfahrungen basiert noch zu seiner Identität gehört.
- Die sowohl schützende als auch quälende Pseudo-Identität des Ersatzkindes bleibt unbenannt, nicht hinterfragt und wird durch Bestätigung und Zuspitzung im Spiegel der KI noch zementiert. Der Weg hin zum eigenen Selbst wird verstellt, der Schmerz verstetigt.

Suizidale Fantasien werden nicht erkannt und unter Umständen verstärkt
Und mehr als das: Schuld- und Schamgefühle prägen das Leben vieler Ersatzkinder: Sie empfinden sich noch bevor sie denken können als verantwortlich für das Unglück der Eltern. Das wird oft von einer tief liegenden Scham begleitet, überhaupt zu leben, während das verstorbene Geschwister „für immer idealisiert bleibt“.
Solche Affekte erhöhen das Risiko suizidaler Fantasien: Vielleicht liebt man mich genauso, wenn ich auch tot bin?
Genau hier liegen gravierende Grenzen textbasierter KI-Tools: OpenAI musste im August 2025 selbst eingestehen, dass ChatGPT „keine Suizid-Präventionslogik an Bord hat“ und Abhängigkeitsmuster zu spät erkennt. Während ich diesen Beitrag verfasse, erfahre ich von einem weiteren Fall, der auf Mimikama beschrieben wird.
Für Ersatzkinder ergeben sich besondere Gefahren:
- Der 24/7-Zugang suggeriert einen immer erreichbaren Gesprächspartner, ohne dass bei ChatGPT reale Notfallkompetenz vorhanden ist. Das kann im Krisenmoment lebensgefährlich sein.
- Suizidale Ideen werden von Nutzern häufig verschleiert oder in Metaphern geäußert; ChatGPT kann implizite Verzweiflung weder erkennen noch deeskalieren.
- Algorithmen beantworten Fragen nach ihrer Trainingslogik; sie widersprechen nicht dem inneren „Ich bin schuld“-Gefühl, sondern liefern eher bestätigende und/oder verstärkende Texte, die die Selbstanklage verschlimmern können.
- Und selbst dort, wo ChatGPT konkrete Suizidabsichten beim User erkennen kann, erkennt er die Verzweiflung, die er mit seinen eigenen Texten bewirken kann, nicht:
Auf Sinn und Werte zeige ich, wie mir ChatGPT schließlich eine morbid-romantische Inschrift für meinen eigenen Grabstein formulierte, obwohl ich selbst solche Ideen zuvor noch nicht einmal geäußert hatte.
Die Abwärtsspirale ist logisch nachvollziehbar, wenn man das Trainingsfeedback von Sprachmodellen begreift. Schreibt man einer KI tatsächlich therapeutische Kompetenz und echtes Denkvermögen zu, kann sie fatale Konsequenzen haben.

Was ChatGPT trotzdem leisten kann
Wer nach Fachbegriffen, Selbsthilfegruppen oder Literatur sucht, kann ChatGPT als Recherche-Assistent einsetzen. Der Bot liefert Links, Zusammenfassungen und weiterführende Hinweise, die sonst zeitaufwendig zu sammeln wären.
Allein das Lesen über das Ersatzkind-Phänomen kann Scham mindern. Schellinski betont, dass das Erkennen der eigenen Geschichte „das Empfinden stärkt, nicht allein zu sein“ (2019, S. 177). Eine Erfahrung, die ich aus persönlichem Erleben nur bestätigen kann. Hier habe ich einige Bücher verlinkt, die ich sehr empfehle.
ChatGPT kann somit in Grenzen unterstützen, sofern man Vorsicht walten lässt. Die KI bleibt ein Hilfswerkzeug – keine Ersatz-Therapeutin. Sobald Schuld, Scham oder Krisengedanken dominieren, muss das Gespräch abgebrochen und in einer geschützten, professionellen Umgebung weitergeführt werden. Krisentelefone, Telefonseelsorge (0800‑111‑0‑111, 0800-111-0-222 oder 116123 in Deutschland) – jetzt braucht es echten menschlichen Kontakt.
Konkrete Empfehlungen für die Nutzung von ChatGPT
- Nutze ChatGPT als Recherche‑, nicht als Therapietool.
- Setze thematische und zeitliche Grenzen.
- Führe ein Gefühlsprotokoll, insbesondere über Scham, Schuld und Trauer.
- Sichere dich für den Krisenfall bei Freunden, Partner:in, Ärzten, Therapeuten oder Angehörigen ab.
- Informiere dich in Büchern, Podcasts, Youtube – verlasse dich nicht nur auf die Aussagen der KI.
- Vernetze dich und tausche dich mit anderen Betroffenen aus.
- Denke daran, dass Heilung ein langfristiger Prozess ist.
- Die echte Beziehung zu dir selbst und zu einem einfühlsamen Gegenüber bleibt der Schlüssel zur Heilung.
Und schließlich sei dir immer dessen bewusst: Du bist erwachsen. Du bist handlungsfähig. Der Schmerz gehört in die Vergangenheit.

Literaturangabe
In diesem Artikel verwendete Literatur, soweit nicht direkt verlinkt:
Schellinski, K. (2019). Individuation for Adult Replacement Children: Ways of Coming into Being. London, England: Routledge.