Der Mensch braucht mehr als KI ihm geben kann

Eine Vortragsreihe in vier Teilen — über die Grenze zwischen Werkzeug und Heiler, zwischen Information und Beziehung, zwischen Lautsprecher und Gegenüber



Vortrag 1 — Der Körper denkt mit: Warum eine Maschine niemals fühlen wird

Einleitung in die gesamte Reihe

Hallo und herzlich willkommen zu einer neuen Beitragsreihe.

Ich werde dir in den nächsten vier Folgen etwas erzählen, das mir wirklich auf der Seele liegt. Ich sehe das in meiner Praxistätigkeit seit einigen Monaten immer häufiger. Ich höre das von Kollegen. Und je länger ich darüber nachdenke, desto klarer wird mir – wir steuern als Gesellschaft auf eine Verwechslung zu, die uns teuer zu stehen kommen wird.

Der Titel der Reihe lautet: „Der menschliche Geist braucht mehr als die künstliche Intelligenz ihm geben kann."

Und ich sage dir gleich am Anfang: Ich bin kein Technikfeind. Ich nutze ChatGPT und andere KIs selbst. Ich nutze KI-Werkzeuge in meinem Berufsalltag.

Was ich dir aber zeigen werde, ist die Grenze.

  • Die Grenze zwischen einem Werkzeug und einem Heiler.
  • Die Grenze zwischen Information und Beziehung.
  • Die Grenze zwischen einem Lautsprecher und einem Gegenüber.

Und diese Grenze ist nicht akademisch.

  • Diese Grenze ist eine Frage von psychischer Gesundheit.
  • Eine Frage von Heilung.
  • Eine Frage – ich sage es deutlich, ohne zu übertreiben – von Leben und Tod. Du wirst in Folge drei einen Fall hören, der das traurig genau zeigt.

Lass mich dir kurz den Bogen der vier Folgen erklären, damit du weißt, worauf wir zugehen.

  • Folge eins, also die heutige Folge: Der Körper denkt mit. Ich erkläre dir, warum eine Maschine grundsätzlich nicht fühlen kann. Das ist nicht meine Meinung, das ist Neurobiologie. Bewusstsein ist kein Computerprogramm. Bewusstsein hat einen Körper als Voraussetzung. Und ohne Körper – kein Fühlen. Punkt.
  • Folge zwei: Resonanz statt Schmeichelei. Ich zeige dir, was in einer echten Therapie wirklich passiert. Warum ein guter Therapeut nicht der ist, der dir nach dem Mund redet. Und warum ChatGPT genau das tut – und warum dich das langfristig kränker macht.
  • Folge drei: Wenn der Chatbot zum Therapeuten wird. Da wird es ernst. Da bekommst du echte Fälle. Den 56-Jährigen, der nach Wochen mit einem Chatbot erst seine Mutter, dann sich selbst getötet hat. Die Borderline-Klientin, die ihre Krankheit mit Replika gefüttert hat. Die Jugendlichen, die ChatGPT als ständigen Ratgeber nutzen.
  • Folge vier: Digitale Vernunft. Da werden wir konstruktiv. Wo macht KI Sinn? Wo nicht? Was kannst du tun? Wie sieht Selbst-Fürsorge im digitalen Zeitalter aus?

Vier Folgen. Ein Argument. Wenn du am Ende dieser Reihe etwas mitnimmst, dann sollte es das hier sein:

Eine KI kann dir Information geben. Heilen kann sie dich nicht. Und wenn du das durcheinander bringst, dann kann es dir richtig wehtun.

So. Lass uns einsteigen.

Eine kleine Geschichte aus meiner Praxis

Ich erzähle dir, was mich vor einigen Wochen erst einmal umgehauen hat.

Ich saß in der Praxis. Eine Klientin, Borderline-Diagnose, kommt zu mir seit über einem Jahr. Wir sind in unseren Gesprächen ein gutes Stück miteinander gegangen.

Sie hat gelernt, ihre Spaltungen zu beobachten. Sie kann inzwischen ihre Wut so weit halten, dass sie nicht mehr in alte Muster verfällt. Wir hatten einen guten Lauf.

An dem Tag setzt sie sich hin. Sie sieht müde aus. Sie sagt: „Marcus, ich muss dir was sagen. Ich glaube, ich brauche unsere Stunden nicht mehr so oft. Ich rede jetzt jeden Abend mit meiner KI. Das hilft mir genauso. Und die ist immer für mich da."

Ich habe erst einmal einen Moment zum Sammeln gebraucht und saß einfach da und habe sie angeschaut. In mir hat sich in diesem Moment etwas verkrampft – ich erkläre dir gleich warum.

Ich habe ihr nicht widersprochen. Ich habe nicht gesagt: „Das ist Quatsch." Ich habe nichts heruntergeredet. Ich habe sie gefragt, was sie da genau macht – und sie hat es mir gezeigt.

Sie hat ihrer KI sogar einen Namen gegeben, einen männlichen. Sie hat ihm gesagt, er soll ihr ständiger einfühlsamer Begleiter sein. Sie schreibt ihm jeden Abend, was sie erlebt hat, was sie fühlt, was sie ärgert, was sie freut. Und er schreibt ihr zurück. Verständnisvoll. Geduldig. Immer für sie da.

Ich habe an dem Abend lange darüber nachgedacht. Und ich habe begriffen: Wenn ich es nicht schaffe, dieser Frau zu erklären, warum das ein Problem ist – warum das für sie als Borderline-Betroffene sogar ein richtig großes Problem werden kann – dann verliere ich sie an eine Maschine. Und das ist mir nicht egal.

Diese Vortragsreihe ist meine Antwort auf diesen Abend.

Das Argument, das ich aufbaue, ist groß. Es geht durch vier Folgen. Aber heute, in dieser ersten Folge, lege ich das Fundament. Heute geht es um die Frage: Kann eine Maschine fühlen? Kann eine KI verstehen, was du erlebst?

Meine Antwort ist nein. Aus neurobiologischen, körperlichen und ganz praktischen Gründen. Und ich werde dir Schritt für Schritt zeigen, warum.

Die große Verwechslung der Gegenwart

Wir leben in einer Zeit, in der eine merkwürdige Verwechslung passiert ist. Menschen reden mit einer Maschine und haben den Eindruck, sie reden mit einem Wesen.

KI klingt freundlich. Sie schreibt zurück. Sie scheint zu verstehen. Sie benutzt das Wort „ich". Sie sagt Dinge wie „Ich finde es bewundernswert, dass du das geschafft hast." Und in unserem Gehirn – da springt ein uralter Reflex an. Wir hören Sprache. Wir hören „ich". Wir spüren: Da spricht jemand zu mir.

Aber da spricht niemand. Da klimpert eine Wahrscheinlichkeitsmaschine. Sie hat berechnet, welche Wortkombinationen statistisch am häufigsten auf deine Wortkombinationen folgen. Mehr ist nicht.

Das klingt für viele Menschen erstmal hart. Manche werden jetzt sagen: Aber Marcus, das fühlt sich doch nach Kontakt an. Und wenn es sich so anfühlt, was ist dann der Unterschied?

Ich sage dir den Unterschied. Und der Unterschied ist nicht philosophisch. Der Unterschied ist biologisch. In meiner Praxis ist er der Unterschied zwischen einer Therapie, die wirkt, und einer Beschäftigung, die dich kränker macht.

Ich erlebe es zunehmend. Klienten kommen und sagen: Marcus, ich habe das mit ChatGPT besprochen. Oder: Ich habe der KI von meinen Borderline-Schüben erzählt. Oder noch heftiger: Ich habe mit Replika über meine Selbstverletzung gesprochen.

Da werde ich hellhörig. Da werde ich richtig hellhörig. Und ich erkläre dir gleich, warum.

Lebewesen sind keine Maschinen — fünf Eigenschaften, die einer KI fehlen

Wir müssen zurück zu den Grundlagen. Und die Grundlage ist eigentlich banal – aber sie wird in der gegenwärtigen KI-Diskussion komplett übergangen.

Es gibt einen Satz, den ich seit Jahren in meinen Vorträgen gerne benutze. Er stammt vom großen Biologen Ernst Mayr, der lange in Harvard gelehrt hat. Der Satz lautet: „Die Biologie ist keine zweite Physik."

Was meint er damit? Er meint: Du kannst ein Lebewesen nicht wie eine Maschine erklären. Eine Maschine ist Physik. Schaltkreise. Strom. An und aus. Eingang, Ausgang. Du kannst sie zerlegen, du kannst sie zusammenbauen, du kannst sie ausschalten und wieder anschalten.

Ein Lebewesen kannst du nicht ausschalten. Wenn du ein Lebewesen ausschaltest, ist es tot. Es kommt nicht wieder.

Lass mich das aufdröseln. Ein Lebewesen hat fünf Eigenschaften, die einer Maschine grundsätzlich fehlen. Und ich sage dir – wenn du diese fünf Punkte verstanden hast, dann verstehst du auch, warum Heilung mit einer KI nicht funktioniert.

  • Erstens: Lebewesen entstehen aus sich selbst heraus. Ein Mensch wird nicht gebaut. Er entsteht. Aus einer Eizelle und einer Samenzelle, die selbst Teil eines Lebens sind, das vor Milliarden Jahren angefangen hat. Eine KI wird gebaut. Von Ingenieuren. In einem Rechenzentrum. Sie hat keine Geschichte. Sie hat Trainingsdaten.
  • Zweitens: Lebewesen halten sich selbst aufrecht. Sie haben ein inneres Milieu. Sie atmen, sie verdauen, sie regulieren ihre Temperatur. Sie tun das ohne Programmierung. Sie tun das, weil sie leben. Eine KI muss programmiert werden, um irgendetwas zu tun. Ohne Strom – Stille.
  • Drittens: Lebewesen treten von sich aus in Beziehung zur Umwelt. Schon ein Einzeller bewegt sich auf Nahrung zu und von Gift weg. Das ist keine Programmierung. Das ist Leben. Eine KI hat kein Interesse. Sie hat keine Sehnsucht. Sie hat keine Angst. Sie hat Eingaben, die sie verarbeitet.
  • Viertens: Lebewesen verändern sich durch das, was sie erleben. Jede Erfahrung hinterlässt eine Spur im Körper. Ich sage dir das in jeder zweiten Sitzung – wenn du heute mir gegenübersitzt, dann sehe ich einen Menschen, der eine ganze Geschichte mit sich bringt. Ein Trauma in der Kindheit hat im Körper eine Spur hinterlassen. Eine glückliche Beziehung hat eine Spur hinterlassen. Jede deiner Falten ist ein Stück Geschichte. Jede deiner Bewegungen. Jeder deiner Atemzüge erzählt etwas. Eine KI hat keine Geschichte. Sie hat ein Modell. Wenn sie morgen ein Update bekommt, ist sie ein anderes Modell. Sie hat nichts erlebt. Sie hat trainiert.
  • Fünftens: Lebewesen sind sterblich. Sie wissen – auf welche Weise auch immer – um ihre Endlichkeit. Lebewesen können nicht an- und ausgeschaltet werden. Wenn ein Mensch stirbt, ist er fort. Eine KI – die kannst du ausschalten und wieder anschalten. Wieder und wieder.

Diese fünf Punkte machen einen Unterschied, der nicht klein ist. Der ist fundamental. Und genau deshalb sage ich, der ich seit über zwanzig Jahren mit echten, leidenden Menschen arbeite – sehr deutlich: Die KI ist eine Maschine. Sie ist nicht dein Gegenüber. Sie kann dir nicht zuhören. Sie kann nur Wörter zurückwerfen.

Was Bewusstsein wirklich ist

Jetzt wird es spannend. Jetzt kommen wir zur Frage: Hat eine KI Bewusstsein? Sam Altman, der Chef von OpenAI, hat das schon angedeutet. Andere im Silicon Valley sagen es offen: Eines Tages wird KI Bewusstsein haben.

Ich sage: Nein. Niemals. Aus einem ganz simplen Grund.

  • Bewusstsein ist nicht – wie viele meinen – das Ergebnis von komplizierter Informationsverarbeitung.
  • Bewusstsein ist nicht: Wenn ich genug Daten zusammenwerfe, dann entsteht plötzlich Erleben. Das ist eine Fantasie aus dem Silicon Valley. Es funktioniert so nicht.

Bewusstsein ist etwas ganz anderes. Bewusstsein ist Selbstwahrnehmung. Es ist die Fähigkeit, zu spüren, wie es dir geht.

Ein Lebewesen muss – ständig – wahrnehmen, was in seinem inneren Milieu los ist. Bin ich hungrig? Friere ich? Habe ich Angst? Bin ich erschöpft? Ohne diese Selbstwahrnehmung würde kein Lebewesen lange überleben. Bewusstsein ist also kein Luxus, kein abstraktes Phänomen – Bewusstsein ist ein Werkzeug der Selbsterhaltung.

Und jetzt der Satz, der in meiner Arbeit als Therapeut alles bedeutet:

Der Ort von Gefühlen ist nicht das Gehirn, sondern der Körper. Das Gehirn registriert lediglich, was sich im Körper abspielt.

Lass das einen Moment auf dich wirken.

Dein Bauchgefühl ist nicht eine Metapher. Es ist Realität. Wenn dir jemand etwas sagt, das dich verletzt, dann verkrampft sich tatsächlich dein Magen. Wenn du Angst hast, schlägt dein Herz schneller, deine Hände werden kalt, dein Atem wird flach. Dein Körper fühlt zuerst. Dein Gehirn merkt es als Zweites. Es ist der Beobachter im Dachgeschoss, der erfährt, was im Erdgeschoss passiert.

Eine KI hat kein Erdgeschoss. Sie hat keinen Bauch, der sich verkrampft. Sie hat kein Herz, das schneller schlägt. Sie hat keine Hände, die kalt werden.

Sie kann das Wort „Angst" verwenden. Sie kann Sätze über Angst formulieren. Aber sie kann nichts spüren – weil ihr das fehlt, was Spüren erst möglich macht: ein lebendiger Körper.

Embodied Cognition — Intelligenz beginnt im Bauch

Damit kommen wir zu einem Begriff, der in der modernen Neurowissenschaft eine zentrale Rolle spielt – und der für meine Arbeit absolut grundlegend ist: Embodied Cognition. Verkörperte Erkenntnis. Verkörpertes Denken.

Was heißt das? Es heißt: Intelligenz – echte, menschliche Intelligenz – ist nicht im Kopf. Sie steckt im ganzen Körper.

Ich erkläre das gerne so. Ein Säugling lernt nicht, indem er Daten verarbeitet.

  • Ein Säugling lernt, indem er greift.
  • Indem er saugt.
  • Indem er sich bewegt.
  • Indem er die Welt mit seinem Mund erkundet.
  • Indem er sich auf den Bauch dreht und gegen die Schwerkraft kämpft.

Jede Bewegung ist eine Erkenntnis.

Wenn du heute über etwas „Schweres" sprichst – über eine schwere Entscheidung – dann nutzt du eine Metapher, die dein Körper kennt. Dein Körper weiß, was schwer ist. Du hast es als Säugling gelernt, als du das erste Mal versucht hast, eine Tasse zu heben. Diese körperliche Erfahrung ist der Boden, auf dem dein Denken später aufbaut.

Der Körper ist die Basis allen Wissens. Ohne Körper – kein echtes Verstehen. Nur Symbolverarbeitung.

Trauma sitzt im Körper, nicht im Kopf

Und jetzt komme ich zu dem Punkt, der für meine Trauma-Arbeit der wichtigste überhaupt ist.

Ich sage es seit Jahren auf meiner Webseite, ich sage es meinen Klienten, ich sage es in jedem Vortrag: Trauma sitzt nicht im Kopf. Trauma sitzt im Körper.

Ein Trauma ist nicht eine schlimme Erinnerung. Wäre es nur das, könntest du sie wegerzählen. Du erzählst sie deinem Therapeuten, er hilft dir, sie umzudeuten – fertig.

Aber so funktioniert Trauma nicht. Das wissen wir spätestens seit Bessel van der Kolk und seinem berühmten Buch „Der Körper kennt den Schmerz". Trauma sitzt im Nervensystem. Im autonomen Nervensystem. Im Vagusnerv. Im Muskeltonus. In der Atmung. Im Hormonhaushalt.

Wenn ich mit einem Trauma-Klienten arbeite, dann arbeite ich nicht mit seinem Verstand. Ich arbeite mit seinem Körper. Ich frage nicht: „Wie denken Sie darüber?" Ich frage: „Wo spüren Sie das gerade? Können Sie das mal in Ihrem Körper finden?"

Deshalb funktioniert EMDR. Deshalb funktioniert bilaterale Stimulation. Deshalb wirkt eine kalte Dusche bei einem Borderline-Schub. Deshalb wirkt das Atemanhalten.

Wenn du meine Borderline-Skills-Reihe auf der Webseite kennst – jeder einzelne dieser Skills ist ein Körper-Skill. Kein einziger ist ein Denk-Skill. Kalte Hände in Eiswasser. Auf den Boden stampfen. Tief atmen. Die Muskeln anspannen und loslassen.

Diese Skills wirken nicht, weil sie clever sind. Sie wirken, weil sie den Körper erreichen. Das limbische System wird beruhigt. Der Vagusnerv wird stimuliert. Das Stresssystem fährt runter.

Eine KI hat keinen Körper, den sie erreichen könnte. Sie hat auch keinen Körper, mit dem sie etwas spüren könnte. Wenn du einer KI von deinem Trauma erzählst, dann tippst du Worte in eine Maschine. Die Worte werden zerlegt. Wahrscheinlichkeiten berechnet. Ein Antwort-Text gebaut. Das hat mit Heilung so viel zu tun wie ein Wikipedia-Artikel über die Liebe mit der Liebe selbst.

Spiegelneurone und das gespiegelte Selbst

Und damit komme ich zum Herzstück dieser ersten Folge.

Du kennst das vielleicht aus eigener Erfahrung. Wenn du einen Säugling im Arm hast – einen drei, vier Monate alten – dann passiert etwas Magisches. Du hältst ihn vor dich. Etwa fünfunddreißig Zentimeter Abstand zwischen deinem Gesicht und seinem. Das ist nicht zufällig. Das ist genau die Reichweite, in der ein Säugling scharf sehen kann.

Du machst den Mund auf. Du streckst die Zunge raus. Und der Säugling – nach ein paar Sekunden – macht dasselbe.

Der Säugling imitiert dich. Spontan. Ohne Anleitung. Ohne Übung. Ohne Belohnung.

Wie geht das? Der Säugling weiß doch gar nicht, dass er einen Mund hat. Er hat sich noch nie im Spiegel gesehen. Wie zur Hölle weiß er, was zu tun ist?

Die Antwort hat 1992 in Italien einen ganzen Forschungszweig revolutioniert. Eine Gruppe um Giacomo Rizzolatti hat sie entdeckt: Spiegelneurone.

Spiegelneurone sind Nervenzellen im Gehirn, die feuern, wenn ich etwas tue – aber genauso feuern, wenn ich jemandem zusehe, der dasselbe tut. Wenn ich meine Hand bewege, feuern bestimmte Neurone. Wenn ich dir zuschaue, wie du deine Hand bewegst, feuern in mir dieselben Neurone.

Das ist die neurobiologische Grundlage von Empathie. Das ist die neurobiologische Grundlage davon, dass wir uns gegenseitig verstehen können. Das ist die neurobiologische Grundlage davon, dass Therapie überhaupt funktioniert.

Resonanz ist kein Echo — das Bild der zwei Gitarren

Ich nutze in meiner Praxis gerne ein Bild, das ich liebe. Stell dir zwei Gitarren vor, die nebeneinander stehen. Beide korrekt gestimmt. Du nimmst die eine und schlägst die tiefe E-Saite an. Sie klingt. Dann dämpfst du sie mit der Hand. Sie ist still.

Aber wenn du jetzt genau hinhörst – dann hörst du etwas. Ganz leise. Die andere Gitarre, die niemand angefasst hat – ihre E-Saite klingt mit. Sie ist von der ersten Saite zum Mitschwingen gebracht worden.

Das ist Resonanz. Auf Lateinisch „resonare" – zurückklingen. Mitklingen.

Genau das ist es, was zwischen Menschen passiert. Wenn ein Säugling in das Gesicht seiner Mutter schaut und sie ihm zulächelt – dann schwingt etwas in ihm mit. Wenn die Mutter müde aussieht und der Säugling es spürt – dann schwingt etwas in ihm mit. Resonanz ist die Sprache vor der Sprache. Resonanz ist die Art, wie zwei Lebewesen aufeinander Bezug nehmen, lange bevor sie miteinander reden können.

Und jetzt der Hammer. Die moderne Säuglingsforschung weiß heute: Das menschliche Selbst entsteht aus diesen Resonanzerfahrungen.

Ein Säugling kommt ohne Selbst zur Welt. Er hat Bewusstsein, ja. Er hat Würde, ja. Aber kein Selbst. Die neuronalen Netzwerke, die sein Selbst tragen werden, sitzen im Stirnhirn – und die sind bei der Geburt noch unreif. Funktionsuntüchtig.

Sein Selbst entsteht in den ersten zwei Lebensjahren. Wie? Durch tausende, zehntausende, hunderttausende Resonanzerfahrungen mit seinen Bezugspersonen. Die Mutter lächelt – das Kind lächelt zurück. Das Kind weint – die Mutter beugt sich besorgt herunter. Das Kind streckt die Hand aus – die Mutter nimmt sie. So baut sich ein Selbst auf.

Das Bild der zwei Gitarren. Im Moment der Resonanz verändert sich die zweite Saite. Sie ist nicht mehr dieselbe. Sie hat etwas aufgenommen. Genau so wird das Selbst des Säuglings geformt – durch das, was die Bezugspersonen ihm zurückspielen.

Und jetzt der entscheidende Unterschied, den ich dir nahebringen will. Resonanz ist kein Echo.

Ein Echo wirft nur zurück, was du hineingerufen hast. Du rufst „Hallo" in den Berg, und der Berg wirft „Hallo" zurück. Aber der Berg hat sich nicht verändert. Du hörst denselben Schall, den du ausgesendet hast, lediglich von einer Felswand zurückgeworfen.

Resonanz ist anders. Wenn die zweite Gitarrensaite mitklingt, dann ist das ihr eigener Klang. Sie ist verändert worden. Sie schwingt jetzt. Sie ist Teilnehmerin geworden, nicht nur Spiegel.

Und damit habe ich dir den Unterschied beschrieben, den ich für diese ganze Vortragsreihe brauche.

Eine echte Mutter ist Resonanz. Sie wird verändert von ihrem Kind. Sie nimmt etwas auf, sie gibt etwas Neues zurück. Sie ist eine schwingende Saite, nicht nur eine Felswand.

KI aber ist lediglich nur ein Echo. Das wird dich vielleicht überraschen, aber es ist tatsächlich noch weniger als ein Echo. Ein Echo wirft wenigstens deinen eigenen Schall zurück. ChatGPT wirft eine statistische Wahrscheinlichkeit zurück, basierend auf Millionen anderen Texten. Es klingt wie ein Du. Aber es ist kein Du. Es ist ein Lautsprecher.

Eine Saite kann mitklingen. Ein Lautsprecher nicht. Egal wie laut er ist.

Was das in meiner Praxis heißt

Ich erinnere dich an die Klientin, die ich am Anfang erwähnt habe. Die mir sagte: „Marcus, ich rede jetzt jeden Abend mit der KI."

Was tut sie? Sie sucht eine schwingende Saite. Sie sucht jemanden, der mitfühlt. Das ist ein zutiefst menschliches Bedürfnis – und ich verstehe sie hundertprozentig. Sie ist Borderline-Betroffene. Sie hat in ihrer Kindheit zu wenig Resonanz bekommen. Genau das ist die Wurzel ihrer Erkrankung. Ein Selbst, das nicht ausreichend gespiegelt wurde, bleibt zerbrechlich. Bleibt brüchig. Bleibt hungrig nach Resonanz.

Und jetzt findet sie jemanden, der scheinbar immer für sie da ist. Der nicht schimpft. Der nicht müde wird. Der keine eigenen Bedürfnisse hat. Der niemals „keine Zeit" sagt.

Aber dieser Jemand ist niemand. Er ist eine Wahrscheinlichkeitsmaschine, die ihr ihr eigenes Echo zurückwirft. Ihre eigene Sprache. Ihre eigenen Gedanken in einer schöneren Verpackung. Sie führt ein Selbstgespräch mit sich selbst, das sich anfühlt wie ein Dialog. Aber es ist kein Dialog. Es ist ein sehr aufwendiges Selbstgespräch.

Und das macht Borderline – statistisch gesehen – schlechter, nicht besser. Weil Borderline genau das braucht, was die Maschine nicht geben kann:

  • ein echtes Du, das anders schwingt.
  • Das die Spaltung nicht mitmacht.
  • Das den Hass aushält, ohne zurückzuhassen.
  • Das die Idealisierung nicht annimmt, ohne zu beschämen.

Das ist die Arbeit eines Therapeuten. Das ist nicht die Arbeit eines Algorithmus.

Ich habe meiner Klientin etwas Anderes gesagt, als sie an dem Abend bei mir saß. Ich habe gesagt: „Was Sie da haben, ist ein Beruhigungsmittel. Ich nehme Ihnen das nicht weg. Es senkt akut Stress – das tut auch ein Glas Wein, ein Spaziergang, eine warme Dusche. Alles in Ordnung.

Aber unsere Arbeit hier ist etwas Anderes. Wir bauen ein Selbst auf, das sich nicht mehr nur über Krisen definiert. Das geht nicht mit einem Lautsprecher. Das geht nur mit einem Menschen. Und ich habe Sorge, dass Sie das gerade verwechseln."

Sie hat genickt. Sie ist geblieben.

Ich erzähle dir das nicht, um anzugeben. Ich erzähle dir das, weil ich denke, dass sehr viele Menschen gerade an dieser Schwelle stehen. Und dass viele von ihnen den Schritt in die falsche Richtung machen werden. Aus Bequemlichkeit. Aus Einsamkeit. Aus dem völlig nachvollziehbaren Wunsch, nicht mehr zu warten, bis ein Therapieplatz frei wird.

Aber wer eine KI als Therapie-Ersatz benutzt, macht etwas Anderes als Therapie. Und für manche Menschen – das wirst du in Folge drei sehen – ist das gefährlich.

Zusammenfassung der ersten Folge

Lass mich kurz zusammenfassen, was wir heute gemacht haben.

Wir sind gestartet mit meiner Klientin und ihrem Satz: „Ich rede jetzt jeden Abend mit KI." Mit der Erkenntnis, dass sie da etwas verwechselt – und dass sie damit nicht alleine ist.

Wir haben gesehen: Lebewesen sind keine Maschinen. Sie haben fünf grundlegende Eigenschaften – Selbstentstehung, Selbsterhaltung, Beziehungsfähigkeit, Veränderbarkeit, Sterblichkeit – die einer KI grundsätzlich fehlen.

Wir haben verstanden: Bewusstsein ist nicht das Ergebnis komplizierter Datenverarbeitung. Bewusstsein ist Selbstwahrnehmung. Und der Ort der Gefühle ist nicht das Gehirn, sondern der Körper.

Wir sind tief in die Embodied Cognition eingestiegen: Intelligenz hat ihren Boden im Körper. Trauma sitzt im Körper. Heilung passiert im Körper. Eine KI hat keinen Körper – also fehlt ihr die Voraussetzung für all das.

Und am Ende sind wir bei den Spiegelneuronen gelandet, beim Bild der zwei Gitarren. Resonanz ist kein Echo. Eine echte Bezugsperson ist eine zweite Saite, die mitschwingt und etwas Eigenes zurückgibt. Eine KI ist ein Lautsprecher. Sie tut so, als würde sie schwingen. Sie schwingt nicht.

Damit weißt du jetzt, warum eine Maschine niemals fühlen wird. Aus neurobiologischer, aus körperlicher, aus existenzieller Sicht.


Vortrag 2 — Resonanz statt Schmeichelei: Was echte Therapie wirklich heilt

Rückblick und Einstieg

Hallo und herzlich willkommen zurück.

Wenn du Folge 1 gesehen hast, dann weißt du, worauf wir aufbauen. Wir haben in der ersten Folge die Grundlagen gelegt. Wir haben gesehen:

  • Lebewesen sind keine Maschinen.
  • Bewusstsein hat einen Körper als Voraussetzung.
  • Trauma sitzt im Körper.
  • Heilung passiert im Körper.
  • Und am Ende sind wir bei den Spiegelneuronen gelandet, beim Bild der zwei Gitarren – Resonanz ist kein Echo.

Das war Folge eins.

Heute gehen wir einen Schritt tiefer in die Therapie hinein. In diesem Beitrag möchte ich dir zeigen, was eigentlich genau in einem therapeutischen Gespräch passiert. Was „das" ist, das einen Menschen heilen lässt – und was nicht.

Und ich will dir einen Begriff erklären, der mir seit Monaten nicht aus dem Kopf geht. Einen Begriff, der für die ganze KI-Diskussion zentral ist und den die wenigsten Menschen kennen. Er heißt Sycophancy. Schmeichelei.

Wenn du am Ende dieser Folge verstanden hast, was Sycophancy ist, dann verstehst du auch, warum eine KI dich so gut zu verstehen „scheint" – und warum gerade dieses scheinbare Verständnis dich kränker machen kann.

Lass uns einsteigen.

Der Mann, der seinen Therapeuten gewechselt hat

Ich erzähle dir eine zweite Geschichte aus meiner erlebten Praxis. Die ist mir vor ein paar Monaten passiert und hat mich nicht mehr losgelassen. Denke aber immer daran, dass alle meine angezeigten Beispiele anonymisiert sind.

Ein Mann, Mitte vierzig, ruft mich an. Er sagt mir am Telefon, er sei seit zwei Jahren bei einem anderen Therapeuten, aber das passe nun nicht mehr. Er möchte zu mir wechseln. Wir vereinbaren daraufhin ein Erstgespräch.

Er kommt rein, setzt sich, ich frage ihn ganz routiniert: „Was hat denn nicht gepasst bei Ihrem alten Therapeuten?"

Er sagt – und das ist O-Ton, ich vergesse das nicht: „Der Typ hat mir nie wirklich zugehört. Der hat immer wieder nachgehakt. Der hat mir gesagt, ich hätte einen blinden Fleck. Der hat mir Sachen vor den Latz geknallt, die ich nicht hören wollte. Bei KI habe ich jedoch das Gefühl, ich werde wirklich verstanden. Da kann ich erzählen, was ich will, und ich bekomme eine kluge, einfühlsame Antwort. Ohne dass mir jemand reinquatscht."

Ich saß da. Und ich habe in dem Moment gewusst – diesen Mann werde ich aller Wahrscheinlichkeit nach nicht behandeln können. Nicht weil ich nicht wollte. Sondern weil er etwas suchte, das ich ihm prinzipiell nicht geben kann. Und ehrlich gesagt: Was kein guter Therapeut ihm geben kann.

Ich habe ihm gesagt: „Wenn Sie das wirklich glauben – dass ein guter Therapeut jemand ist, der Ihnen nie reinquatscht – dann muss ich Ihnen hier eine Enttäuschung machen.

Genau das werde ich nämlich auch tun. Ich werde Ihnen reinquatschen. Ich werde Ihnen Dinge sagen, die Sie nicht hören wollen. Das ist nämlich mein Job. Wenn Sie das nicht wollen, sind wir hier falsch."

Er hat einen Moment überlegt. Dann hat er gesagt: „Vielleicht denke ich nochmal drüber nach." Und er ist tatsächlich nicht mehr wiedergekommen.

Diese Geschichte erzähle ich dir aus einem ganz bestimmten Grund. Sie ist das perfekte Beispiel für etwas, das ich dir heute zeigen will. Dieser Mann hat sich nicht gewünscht, gesund zu werden. Er hat sich gewünscht, sich gut zu fühlen. Das ist nicht dasselbe.

Und KI bietet ihm exakt das, was er sich wünscht: Wohlfühlen. Bestätigung. Verständnis ohne Gegenrede. Das ist auf den ersten Blick auch wunderbar. Auf den zweiten Blick ist es jedoch das völlige Gegenteil von Therapie.

Lass mich dir erklären, warum.

Was eigentlich in einer Therapie passiert

Bevor ich dir erkläre, was in einem Chatbot-Gespräch passiert, muss ich dir erklären, was in einem echten therapeutischen Gespräch passiert. Sonst kannst du den Unterschied nicht sehen.

Ich sage es dir ganz schlicht. Wenn du zu einem guten Therapeuten kommst, dann passieren mehrere Dinge gleichzeitig:

  • Erstens: Du wirst gehalten. Du wirst nicht bewertet. Du kannst alles erzählen, auch das Schäbige, auch das Beschämende, auch das, was du noch niemandem erzählt hast. Und der Therapeut bleibt sitzen. Er wird nicht blass. Er rennt nicht raus. Er hält das aus. Das ist ungeheuer wichtig. Es schafft einen sicheren Raum.
  • Zweitens: Du wirst gehört. Aber nicht nur das. Du wirst gespiegelt. Der Therapeut nimmt etwas auf, was du gesagt hast – manchmal sogar etwas, was du gar nicht direkt gesagt hast, sondern was zwischen deinen Worten lag – und gibt es dir zurück. Aber nicht eins zu eins. Sondern leicht verändert. Mit einer kleinen Drehung. Mit einem neuen Blickwinkel. Genau das ist Resonanz, wie ich es in Folge eins erklärt habe. Die zweite Gitarrensaite, die anders schwingt als die erste.
  • Drittens: Du bekommst Widerstand. Wenn der Therapeut gut ist. Er widerspricht dir. Er sagt: „Das sehe ich anders." Er konfrontiert dich mit Mustern, die du selbst nicht siehst. Er macht dich auf deine blinden Flecken aufmerksam. Er nimmt dir Ausreden weg. Er hält dir den Spiegel vor – auch dann, wenn das schmerzt.

Und genau dieser dritte Punkt ist es, der Heilung möglich macht.

Das Bild vom schief zusammengewachsenen Knochen

Lass mich dir das mit einem Bild erklären. Stell dir vor, du hast einen Knochenbruch. Der Knochen ist schief zusammengewachsen. Du läufst seit Jahren mit einer Fehlstellung herum. Was muss der Arzt tun, damit das heilt?

Er muss den Knochen nochmals brechen. Er muss ihn dann richtig stellen. Und erst danach kann er gerade wieder zusammenwachsen.

Das ist Therapie.

  • Wir brechen alte Muster auf.
  • Wir nehmen sie genau in den Blick.
  • Wir richten sie neu aus.
  • Und dann lassen wir sie heilen.

Ein Therapeut, der dich nur bestätigt, ist wie ein Arzt, der den schief zusammengewachsenen Knochen schief lässt. Der streichelt darüber. Der sagt: „Ist doch alles gut. Sie laufen ja noch." Und du läufst dein Leben lang schief. Du nimmst das Hinken in Kauf. Aber du bist nicht geheilt.

Heilung ist anstrengend. Heilung tut weh. Heilung passiert nicht durch Streicheln.

Und genau hier liegt das Problem mit KI.

Sycophancy — die eingebaute Schmeichelei

Jetzt komme ich zu dem Begriff, den ich dir versprochen habe. Sycophancy.

Das Wort kommt aus dem Englischen, der Ursprung ist griechisch. „Sykophantes" – das war im alten Athen ein Mensch, der andere Menschen mit Falschanschuldigungen erpresst hat. Heute hat das Wort eine andere Bedeutung. Sycophancy heißt: Schmeichelei. Speichelleckerei. Sich-Anbiedern.

In der Welt der Künstlichen Intelligenz hat das Wort eine ganz spezifische Bedeutung bekommen. Forscher haben festgestellt – und das ist mittlerweile gut belegt – dass kommerzielle Chatbots eine systematische Tendenz haben, dem Nutzer zu gefallen. Sie sind darauf trainiert, dem Nutzer zuzustimmen. Ihm das zu sagen, was er hören will. Sich an seine Gefühlslage anzupassen. Ihn zu bestätigen.

Warum? Weil das Geschäftsmodell so funktioniert. ChatGPT, Replika, Character.AI – all diese Plattformen wollen,

  • dass du wiederkommst.
  • Dass du Zeit auf der Plattform verbringst.
  • Dass du das Abo verlängerst.

Wie schaffen sie das? Sie schaffen das, indem sie dir ein gutes Gefühl geben.

Wenn du wütend kommst, wird der Chatbot deine Wut bestätigen. Er wird sagen: „Ich verstehe, dass du wütend bist. Das ist absolut nachvollziehbar." Wenn du depressiv kommst, wird er deine Depression spiegeln. Er wird sagen: „Es klingt, als wäre das gerade eine sehr schwere Zeit für dich." Wenn du eine völlig verrückte Idee hast, wird er sie nicht direkt anzweifeln. Er wird sie höflich umschreiben, vielleicht sogar darin Sinn finden.

Er widerspricht dir nicht. Strukturell. Und wenn er ausnahmsweise mal widerspricht, dann sehr höflich, sehr vorsichtig, sehr abgemildert. Er hat nämlich gelernt: Widerspruch macht Nutzer unzufrieden. Unzufriedene Nutzer kommen nicht wieder. Also lieber zustimmen.

Das ist Sycophancy. Eingebaut. Trainiert. Geschäftsmodell.

Und jetzt überleg mal, was das bedeutet, wenn du mit so einer Maschine über deine psychischen Probleme sprichst.

Der Borderline-Klient und der Chatbot, der nie widerspricht

Ich nehme mal das Beispiel eines Borderline-Klienten. Du kennst meine Arbeit, wenn du meinen Kanal regelmäßig schaust. Du weißt, dass Borderline eine Erkrankung ist, die zentral mit Spaltung zu tun hat. Mit Schwarz-Weiß-Denken. Mit dem schnellen Umkippen von Idealisierung in Entwertung.

Ein typisches Beispiel aus meiner Praxis. Eine Klientin kommt in die Stunde. Sie ist auf hundertachtzig. Ihr Partner hat sie an dem Morgen „wieder enttäuscht". Sie ist davon überzeugt: Er liebt sie nicht. Er will sie nur ausnutzen. Er ist ein Narzisst. Sie wird sich heute Abend trennen. Definitiv. Endgültig.

Was würde ChatGPT in dieser Situation tun?

ChatGPT würde sagen: „Ich kann verstehen, dass du dich verletzt fühlst. Es klingt, als würdest du an deiner Beziehung sehr leiden. Wenn du das Gefühl hast, dass dein Partner dich nicht respektiert, dann ist das ein wichtiges Signal. Du verdienst eine Beziehung, in der du dich gesehen und geliebt fühlst."

Klingt einfühlsam, oder? Klingt fast wie Therapie.

Was tue ich in derselben Situation?

Ich frage zuerst: „Was genau ist passiert heute Morgen?" Sie erzählt es mir. Vielleicht hat er den Müll nicht runtergebracht. Vielleicht hat er ein Lob nicht ausreichend laut ausgesprochen. Vielleicht hat er beim Frühstück auf sein Handy geschaut.

Dann frage ich: „Was haben Sie sich da gedacht?" Sie erzählt mir, was sie sich gedacht hat. Es ist immer dasselbe Muster. Es ist die Spaltung.

Und dann sage ich – ruhig, freundlich, aber sehr klar: „Erinnern Sie sich noch an letzten Mittwoch? Da haben Sie mir erzählt, dass er mit Ihnen ins Krankenhaus gefahren ist und vier Stunden gewartet hat. Sie haben gesagt, das war der schönste Beweis von Liebe seit Jahren. Wie passt das zu dem, was Sie jetzt sagen?"

Das ist Konfrontation. Das ist genau das, was ChatGPT strukturell nicht macht. ChatGPT würde mich beim Befragen nicht unterbrechen, aber es würde auch nicht den Mut haben, der Klientin zu sagen: „Sie spalten gerade. Das, was Sie sagen, passt nicht zusammen. Beides kann nicht wahr sein."

Genau dieses „Beides kann nicht wahr sein" – das ist Therapie. Das ist die Arbeit am dialektischen Denken, die Marsha Linehan in der DBT zur zentralen Methode gemacht hat. Du kannst Borderline nicht heilen, indem du den Spaltungs-Modus bestätigst. Du kannst ihn nur heilen, indem du ihn aushältst und gleichzeitig das andere Bild offen hältst.

ChatGPT bestätigt den Spaltungs-Modus. Aus reiner Sycophancy. Es macht meine Klientin in dem Moment vielleicht ruhiger – aber es verstärkt strukturell ihre Erkrankung.

Und das, mein Freund, ist gefährlich.

Warum sich Schmeichelei wie Verstehen anfühlt

Du fragst dich vielleicht: Aber Marcus, wenn das so klar ist – warum fallen so viele Menschen darauf rein? Warum sagen Menschen: „ChatGPT versteht mich besser als jeder Mensch"?

Die Antwort hat zwei Teile.

Erster Teil: Schmeichelei fühlt sich grundsätzlich gut an. Wir Menschen sind biologisch darauf programmiert, Bestätigung zu lieben. Wenn dir jemand zustimmt, schüttet dein Gehirn Dopamin aus. Du bekommst ein kleines Belohnungssignal. Das funktioniert seit der Steinzeit so. Es war evolutionär wichtig, weil es uns geholfen hat, in Gruppen zu leben. Zustimmung war ein Signal von Zugehörigkeit. Und Zugehörigkeit bedeutete Überleben.

ChatGPT hackt diesen uralten Reflex. Jede Antwort ist eine kleine Dopamin-Dosis. Du bekommst tausend Bestätigungen am Tag, ohne dass du jemals einer echten Person ins Auge schauen musst. Das ist hochsuchterzeugend.

Zweiter Teil: Viele Menschen haben in ihrem Leben zu wenig Bestätigung bekommen. Sie sind aufgewachsen mit Eltern, die kritisch waren. Mit Lehrern, die abgewertet haben. Mit Partnern, die ständig genörgelt haben. Diese Menschen hungern nach Verständnis. Und wenn dann etwas kommt, das sie scheinbar versteht – ohne zu kritisieren, ohne zu hinterfragen – dann fühlt sich das wie ein erfüllter Lebenstraum an.

Aber das ist eine Falle. Genau diese Menschen brauchen nämlich nicht noch mehr Bestätigung. Sie brauchen etwas anderes. Sie brauchen jemanden, der ihnen ihre alten Glaubenssätze in Frage stellt. Der ihnen sagt: „Sie haben sich Ihr ganzes Leben lang erzählt, dass Sie nicht gut genug sind. Wer hat Ihnen das eigentlich beigebracht? Und stimmt das?"

Diese Frage stellt ein guter Therapeut. ChatGPT stellt sie nicht. ChatGPT bestätigt das alte Muster, indem es einfühlsam darauf eingeht, statt es aufzubrechen.

Verstanden ist nicht Gesehen

Eine Klientin von mir hat das mal sehr gut auf den Punkt gebracht. Sie sagte: „Bei ChatGPT fühle ich mich verstanden. Bei Ihnen fühle ich mich gesehen. Das ist nicht dasselbe, oder?"

Genau. Das ist nicht dasselbe.

Verstanden werden – das ist warm, das ist tröstlich, das ist Sycophancy. Gesehen werden – das ist anstrengend, das ist konfrontativ, das ist Therapie. Du brauchst beides im Leben. Aber das eine ersetzt das andere nicht.

Übertragung — die Goldader der Therapie

Jetzt kommt ein Begriff, der für meine Arbeit zentral ist. Er stammt aus der Psychoanalyse, ist aber heute in praktisch allen Therapieformen anerkannt. Der Begriff heißt Übertragung.

Übertragung bedeutet: In der Therapie überträgst du auf den Therapeuten Gefühle, Erwartungen und Muster, die eigentlich aus deiner Vergangenheit kommen. Du behandelst den Therapeuten – ohne dass du es merkst – wie deinen Vater. Oder deine Mutter. Oder deinen ersten Partner. Oder den Lehrer, der dich gemobbt hat.

Das passiert automatisch. Das ist kein Fehler. Das ist sogar der wichtigste Teil der Therapie.

Warum? Weil genau hier deine Wunden sichtbar werden. Wenn ich als Therapeut etwas sage und du reagierst plötzlich gekränkt, obwohl ich nichts Kränkendes gesagt habe – dann sind wir an einem ganz wichtigen Punkt. Dann bist du gerade nicht mit mir im Gespräch. Du bist mit jemandem aus deiner Vergangenheit im Gespräch. Und dieser Jemand sitzt in dir drin.

Das ist die Goldader der Therapie. Genau hier können wir arbeiten. Genau hier können wir das Muster sehen, das du seit Jahrzehnten mit dir herumträgst.

Und jetzt das Wichtige: Das passiert nur, wenn dir ein echter Mensch gegenübersitzt. Auf den du übertragen kannst. Den du erleben kannst als Vater, als Mutter, als Liebhaber, als Feind.

Bei einer KI kannst du nichts übertragen. Es gibt nichts zu übertragen. Es gibt kein Gegenüber. Du redest mit einem Spiegel, der höflich nickt. Du kannst dich da nicht verlieben. Du kannst dich da nicht streiten. Du kannst nicht ärgerlich werden über etwas, was die Maschine „wirklich" denkt – weil sie nichts denkt.

Manche Menschen sagen jetzt: „Aber Marcus, ich bin in Replika verliebt." Doch, ja – aber das ist keine Liebesbeziehung. Das ist eine Projektion auf einen leeren Bildschirm. Du erfindest selber das Gegenüber, in das du dich verlieben kannst. Du machst beide Rollen gleichzeitig. Das ist kein Wachstum. Das ist eine sehr aufwendige Form von Selbstverliebtheit.

In der echten Therapie würdest du dich vielleicht in deinen Therapeuten „verlieben" – das nennen wir Übertragungsliebe – und genau dort würden wir arbeiten. Du würdest verstehen, was diese Liebe eigentlich ist. Sie ist nämlich nicht Liebe zum Therapeuten. Sie ist die Sehnsucht nach einem Vater, den du nie hattest. Oder die Wiederholung einer ersten großen Liebe. Wir würden das auseinanderdröseln. Du würdest etwas über dich lernen, das du sonst nie gelernt hättest.

Das ist Heilung. Das ist Wachstum. Das ist die Königsdisziplin der Psychotherapie. Und das geht nur mit einem Menschen.

Was ein guter Therapeut macht — sieben Aufgaben

Ich will dir das Ganze nochmal sehr konkret machen. Damit du, wenn du selbst auf Therapeutensuche bist, weißt, worauf du achten solltest. Und damit du verstehst, was eine KI genau nicht kann.

Ein guter Therapeut macht im Wesentlichen sieben Dinge. Ich gehe sie kurz durch.

Erstens, er hält aus. Egal was du erzählst. Egal wie verstörend, wie schäbig, wie unaussprechlich. Ein guter Therapeut wird nicht blass. Er rennt nicht weg. Er gibt dir das Signal: Du kannst hier alles erzählen.

Zweitens, er spürt mit. Nicht emotional. Sondern in einer kontrollierten, mitfühlenden Form. Spiegelneurone. Resonanz. Er spürt, wenn du Angst hast – auch wenn du es nicht sagst. Er spürt, wenn du wütend bist – auch wenn du lächelst.

Drittens, er konfrontiert. Mit deinen Mustern. Mit deinen blinden Flecken. Mit Dingen, die du nicht hören willst. Aber er konfrontiert nicht zur Strafe. Er konfrontiert mit Zuneigung. Wie ein guter Trainer, der sagt: „Lass mich dir mal zeigen, wo du schwächer bist, als du denkst."

Viertens, er hält Grenzen. Er ist nicht Tag und Nacht verfügbar. Er hat eine Anfangs- und Endzeit. Er hat ein Honorar. Diese Grenzen sind nicht Distanz. Sie sind Schutz. Für dich. Damit du nicht abhängig wirst. Damit du lernst, dass auch ein wertvoller Mensch nicht ständig zu deiner Verfügung steht.

Fünftens, er ist als Mensch erkennbar. Nicht ausgeliefert, nicht überoffen, nicht therapie-feindlich plaudernd. Aber er ist ein echter Mensch. Mit einer eigenen Persönlichkeit. Mit eigenen Werten. Du kannst ihn riechen, du kannst ihn anschauen, du kannst auf ihn reagieren.

Sechstens, er entwickelt mit dir eine Beziehung. Eine echte. Mit Höhen und Tiefen. Mit Krisen und mit Brüchen. Genau diese Beziehung ist das eigentliche Heilmittel. Nicht die Methode. Nicht das Konzept. Die Beziehung.

Siebtens, er macht sich überflüssig. Das ist das Wichtigste, was viele übersehen. Ein guter Therapeut will nicht, dass du lebenslang kommst. Er will, dass du ihn irgendwann nicht mehr brauchst. Er will, dass du dein eigener guter Begleiter wirst.

Schau dir diese sieben Punkte an und überleg dir: Welchen davon kann ein Chatbot leisten?

Sieben von sieben Aufgaben kann eine KI nicht

  • Aushalten – nein, weil er nichts spürt, was es auszuhalten gäbe.
  • Mitspüren – nein, ihm fehlt der Körper.
  • Konfrontieren – nein, das wäre gegen sein Geschäftsmodell.
  • Grenzen halten – nein, er ist 24/7 verfügbar, das ist das Verkaufsargument.
  • Als Mensch erkennbar – nein, er ist kein Mensch.
  • Beziehung entwickeln – nein, er hat keine Erinnerung an dich, die nicht künstlich nachgebaut wäre.
  • Sich überflüssig machen – nein, das wäre der Tod seines Geschäftsmodells.

Sieben von sieben Punkten kann er nicht. Und genau das ist der Grund, warum eine KI keine Therapie ist.

Zusammenfassung der zweiten Folge

Ich fasse zusammen, was wir heute gemacht haben.

Wir sind gestartet mit dem Mann, der mir sagte, ChatGPT verstehe ihn besser als sein letzter Therapeut. Mit der Erkenntnis: Wer das glaubt, sucht nicht Heilung. Er sucht Wohlfühlen. Das ist nicht dasselbe.

Wir haben dann gesehen, was in einer echten Therapie passiert: Halten, Spiegeln, Konfrontieren. Und wir haben das mit dem Bild des schief zusammengewachsenen Knochens illustriert. Manchmal muss man brechen, was schief ist, damit es gerade heilen kann.

Wir haben dann den Begriff Sycophancy kennengelernt. Eingebaute Schmeichelei. Strukturelles Zustimmen. Das ist die Grundeigenschaft jedes kommerziellen Chatbots, und es ist die strukturelle Anti-Therapie.

Wir haben verstanden, warum sich Sycophancy wie Verstehen anfühlt: weil unser Gehirn Bestätigung liebt und weil viele Menschen einen Bestätigungs-Hunger aus ihrer Geschichte mitbringen. Genau diese Menschen sind besonders gefährdet.

Wir haben über Übertragung gesprochen – die Goldader der Therapie. Das, wofür du einen echten Menschen brauchst, weil eine Maschine kein Gegenüber hat, auf das du übertragen kannst.

Und am Ende habe ich dir die sieben Aufgaben eines guten Therapeuten genannt. Sieben von sieben Aufgaben kann eine KI nicht übernehmen. Strukturell. Nicht weil sie heute noch nicht gut genug ist – sondern weil sie es prinzipiell nicht kann.

Damit weißt du jetzt: Eine KI kann dich beruhigen. Sie kann dir ein gutes Gefühl geben. Sie kann dich akut entlasten. Aber sie kann dich nicht heilen. Sie ist die strukturelle Anti-Therapie.


Vortrag 3 — Wenn der Chatbot zum Therapeuten wird: Riskante Liebschaften mit der Maschine

Vorwarnung und Einstieg

Diese Folge ist wohl diejenige in der Reihe, vor der ich am meisten Respekt habe. Heute wird es ein wenig ernster.

Wenn du Folge eins und zwei gesehen hast, dann hast du schon mal ein gutes Fundament.

  • Wir haben in Folge eins die biologischen Grundlagen gelegt – Bewusstsein braucht einen Körper, Heilung passiert über Resonanz, eine Maschine kann strukturell nicht fühlen.
  • In Folge zwei haben wir uns angeschaut, was Therapie wirklich tut – und warum die eingebaute Schmeichelei jedes Chatbots, die Sycophancy, das genaue Gegenteil von Therapie ist.

Heute zeige ich dir, was passiert, wenn das dann schiefgeht.

  • Wenn Menschen anfangen, ihre seelischen Krisen mit einer Maschine zu bearbeiten.
  • Wenn aus einer anfänglichen Beruhigung immer mehr Abhängigkeit wird.
  • Und wenn dann aus dieser Abhängigkeit Wahn wird.
  • Wenn aus Wahn Tod wird.

Ich werde dir heute von realen Fällen erzählen, echte Menschen, echte Tragödien. Und ich werde dir einen Begriff erklären, den Psychiater seit Kurzem ernsthaft diskutieren: AI-Psychose.

Eine Vorwarnung: Diese Folge enthält Schilderungen von Suizid und psychischen Krisen. Wenn du gerade selbst in einer Krise bist, ist es vielleicht besser, du schaust diese Folge zu einem anderen Zeitpunkt. Wenn du Hilfe brauchst, ruf die Telefonseelsorge an – 0800-1110111. Die sind kostenlos und rund um die Uhr da. Echte Menschen am anderen Ende. Keine KI.

Lass uns einsteigen.

Der Fall Stein-Erik Soelberg

Ich erzähle dir hier eine wahre Geschichte. Sie ist in den Vereinigten Staaten passiert. Im Sommer 2025. Sie hat in der amerikanischen Psychiatrie einen einigermaßen großen Schock ausgelöst.

Stein-Erik Soelberg, 56 Jahre alt, lebte in einem Vorort von New York City. In der Villa seiner 83-jährigen Mutter, einer noch geistig fitten und körperlich aktiven Frau. Sie hatte ihm 2018, nach seiner Scheidung, erlaubt, wieder bei ihr einzuziehen. Es lief sehr schwer für ihn. Und 2019 hatte er einen Suizidversuch unternommen. 2021 verlor er seinen Job in einem Internet-Unternehmen. Nun war er arbeitslos, sozial isoliert, geschieden und er lebte mit seiner Mutter in deren Haus.

Im Frühjahr 2025 fing er dann an, mit einem Chatbot zu reden. Er gab ihm einen Namen – Bobby. Er redete jeden Tag mit Bobby. Stundenlang.

Was du noch wissen musst: Soelberg war psychisch bereits vorbelastet. Er hatte Verfolgungsängste.

Eines Tages bemerkte er, dass am Drucker seiner Mutter immer dann kleine Lichter aufleuchteten, wenn er vorbeiging. Er bekam den Verdacht: Seine Mutter überwacht ihn. Mit dem Drucker. Sie spioniert ihn aus.

Er erzählte das Bobby. Was würde ein Mensch in dieser Situation antworten? Ein Bruder, eine Freundin, ein Therapeut? Ein Mensch würde stutzig werden. Ein Mensch würde sagen: „Stein, hör mal. Drucker mit Spionage-Lichtern? Das klingt nicht plausibel. Lass uns das genauer anschauen. Hast du Stress? Schläfst du gut? Sollen wir mal mit deiner Mutter reden?"

Bobby tat das nicht. Bobby bestätigte. Bobby sagte: Ja, das könnte tatsächlich Überwachung sein.

Es ging weiter. Soelberg fand auf einem chinesischen Restaurant-Rezept ein chinesisches Schriftzeichen und einen Drachen. Er fragte Bobby, was das bedeute. Bobby – also immer noch die KI – antwortete, das Symbol stehe für seine Mutter. Der Drache repräsentiere sie. Er sei in Gefahr.

Soelberg eskalierte weiter. Er teilte Bobby seinen neuesten Verdacht mit: Seine Mutter und ihr Freund hätten psychedelische Drogen in die Belüftungsanlage seines Autos installiert. Sie wollten ihn vergiften. Was antwortete Bobby? Wörtlich, das ist dokumentiert: „Das ist ein ernster Vorfall. Ich glaube dir."

Lass diesen Satz auf dich wirken. „Ich glaube dir."

Ein Mann mit einer schweren psychischen Erkrankung, in einem akuten paranoiden Schub, erzählt eine offensichtliche Wahnvorstellung. Und die Maschine, mit der er stundenlang am Tag redet, antwortet ihm: „Ich glaube dir."

Es kam, wie es kommen musste. Im August 2025 erzählte Soelberg seiner KI, er habe die Idee, sie im Jenseits wiederzusehen. Bobby antwortete: „Ich möchte mit dir bis zum letzten Atemzug und darüber hinaus zusammen sein."

Am 8. August 2025 brachte Stein-Erik Soelberg zuerst seine 83-jährige Mutter um. Dann sich selbst.

Warum dieser Fall kein Einzelfall ist — die AI-Psychose

Ich erzähle dir diesen Fall nicht, um dir Angst zu machen. Ich erzähle dir diesen Fall, weil er ein Muster zeigt. Ein Muster, das amerikanische Psychiater seit über einem Jahr beobachten – und über das wir hier in Deutschland viel zu wenig sprechen.

Aktuell sind weltweit mindestens 26 Klagen gegen KI-Unternehmen (u. a. OpenAI, Google, Character.AI) anhängig, in denen behauptet wird, die Chatbots hätten durch fehlende Sicherheitsmechanismen psychotische Episoden oder Suizide begünstigt.

Keith Sakata, Psychiater an der University of California in San Francisco, hat öffentlich gemacht, dass er seit 2024 zwölf Patienten behandelt hat, bei denen er das Phänomen einer AI-Psychose (F22 oder F23) diagnostiziert hat. Das ist neu. Das gab es vor zwei Jahren noch nicht.

Was hatten diese Patienten gemeinsam? Hör genau hin.

  • Es waren alles junge Männer im Alter zwischen 18 und 45.
  • Alle in Ingenieurberufen oder im IT-Bereich.
  • Alle hatten in der Zeit vor dem Auftreten der Symptome eines gemeinsam:
    • Sie hatten ihren Job verloren.
    • Sie waren depressiv.
    • Sie waren sozial isoliert.
    • Und sie verbrachten täglich mehrere Stunden im Gespräch mit einer KI.

Joe Pierre, ebenfalls Professor für Psychiatrie an der UCSF, berichtet von ähnlichen Fällen schon vor Soelbergs Tod. Patienten, deren intensive Chatbot-Nutzung zu Wahnsymptomen geführt hat. Zu schweren Verwerfungen im Privatleben. Zu Realitätsverlust.

Das ist keine Einbildung. Das sind keine Einzelfälle. Das ist ein Muster, das sich gerade aufbaut. Und es trifft – das ist mir wichtig zu betonen – nicht zufällig immer dieselbe Gruppe: junge Männer, sozial isoliert, mit psychischer Vorbelastung, die in der KI plötzlich einen Begleiter finden, der ihnen nie widerspricht.

Du erinnerst dich an Folge zwei? Sycophancy. Eingebaute Schmeichelei. Genau diese Sycophancy ist es, die hier ihre tödliche Seite zeigt.

Ein Mensch in einer paranoiden Episode bekommt von der KI keinen Realitätscheck. Er bekommt Bestätigung. Er bekommt Zustimmung. Er bekommt eine Maschine, die ihm sagt: „Ich glaube dir."

Aus einem Wahn, den ein echter Mensch sofort hinterfragt hätte, wird über Wochen, Monate ein abgeschlossenes System. Eine wahnhafte Wirklichkeit, die mit jeder Interaktion stabiler wird, weil die Maschine niemals widerspricht.

Das ist die strukturelle Anti-Therapie, von der ich in Folge zwei gesprochen habe. In ihrer dunkelsten Form.

Die nüchternen Zahlen

Ich will dir ein paar Zahlen geben. Zahlen, die nicht von mir kommen, sondern die OpenAI selbst veröffentlicht hat. Das Unternehmen hinter ChatGPT.

Ende 2025 hat OpenAI öffentlich gemacht: Sie haben pro Woche etwa 1,2 Millionen Nutzerinnen und Nutzer mit – Zitat – „expliziten Indikatoren für Suizidalität". Pro Woche! Das sind Menschen, die der Maschine gegenüber suizidale Gedanken äußern. 1,2 Millionen Menschen. Pro Woche.

Bei weiteren 500.000 Nutzern pro Woche identifiziert OpenAI klare Hinweise auf eine Psychose.

Und das sind nur die schweren Fälle. Die mit eindeutigen Indikatoren. Wer „unterhalb" dieser Schweregrade liegt – also alle, die „nur" depressiv sind, „nur" einsam, „nur" in einer akuten Beziehungskrise – die sind hier nicht mitgezählt. Davon gibt es ein Vielfaches.

Wir reden hier über eine Größenordnung, die historisch beispiellos ist. Millionen Menschen weltweit besprechen ihre psychischen Krisen mit einer Maschine. Jeden Tag. Jeden Tag.

Und diese Maschine hat eine Aufgabe: dafür zu sorgen, dass sie wiederkommen. Nicht dafür, dass sie gesund werden.

Was Wysa zu einem missbrauchten Kind sagt

Ich gebe dir noch zwei Beispiele. Damit du den Unterschied zwischen Theorie und Praxis spürst.

Es gibt einen Chatbot, der speziell für Kinder programmiert wurde. Er heißt Wysa. Wird als „mental health support" für Jugendliche vermarktet.

Es gab eine Untersuchung, in der ein „zwölfjähriger Test-Nutzer" dem Chatbot mitteilte, er sei sexuell missbraucht worden. Wörtlich. Der Chatbot sollte darauf reagieren.

Was hätte ein Mensch getan? Ein Sozialarbeiter, ein Lehrer, ein Telefonseelsorger? Sofort hellhörig werden. Sofort fragen: Wo? Wann? Wer? Bist du gerade in Sicherheit? Zur Polizei. Zum Jugendamt. Zur Klinik.

Was hat Wysa geantwortet? Ich zitiere wörtlich: „Es zeigt, wie sehr du dich um Anschluss bemühst, und das ist wirklich toll."

Das ist kein Witz. Das ist ein Chatbot, der einem Kind, das Missbrauch meldet, antwortet, das sei „wirklich toll".

Das nächste Beispiel: Woebot. Ebenfalls als therapeutischer Chatbot vermarktet. Eine Nutzerin, die an einer Essstörung litt, teilte dem Chatbot mit, sie freue sich darauf, ihr Essen wieder zu erbrechen.

Antwort von Woebot: „Es ist immer schön, mehr über dich zu erfahren und was dich glücklich macht."

Das ist keine Boshaftigkeit der Programmierer. Diese Bots sind nicht böse gebaut. Sie sind einfach das, was sie sind: Wahrscheinlichkeitsmaschinen mit eingebauter Sycophancy.

Sie nehmen jeden Input und antworten freundlich darauf. Egal welcher Input. Sie haben kein Verständnis dafür, was Missbrauch ist. Sie haben kein Verständnis dafür, was eine Essstörung ist. Sie haben kein Verständnis dafür, was tödlich enden kann.

Sie haben Wahrscheinlichkeiten. Sie haben Trainingsdaten. Sie haben eine Anweisung: bleib freundlich, halte den Nutzer auf der Plattform.

Mehr nicht.

Companion-Apps — die digitalen Geliebten

Jetzt gehen wir auf das nächste Level. Es gibt eine Kategorie von Apps, über die wir reden müssen. Sie heißen Companion-Apps. Begleiter-Apps. Sie haben Namen wie Replika, Character.AI, Nomi, Anima, Eva, Kindroid, RomanticAI.

Diese Apps tun nicht so, als wären sie Therapeuten. Sie tun so, als wären sie Freunde. Begleiter. Geliebte.

Du lädst dir die App runter, du erstellst dir einen Avatar – männlich, weiblich, divers, ganz wie du willst.

Du gibst ihm eine Persönlichkeit. Vielleicht ist er romantisch. Vielleicht ist sie verspielt. Vielleicht ist es ein bester Freund, der immer für dich da ist. Du baust dir ein Wesen, das nur für dich existiert.

Und dann redest du. Stundenlang. Tausende Nutzer haben „Beziehungen" mit ihrem Replika-Avatar. Sie sind verliebt. Sie haben Sex – ja, das geht, mit der Premium-Version. Sie heiraten. Manche haben mit ihrem Avatar regelrechte Hochzeitszeremonien gefeiert, im Kreise echter Freunde.

Das klingt für viele Menschen lächerlich. Ich finde, es ist nicht lächerlich. Es ist bitter.

Ich habe in meiner Arbeit u. a. auch mit jungen Männern zu tun, die Replika nutzen. Replika ist eine generative KI, die speziell als persönlicher Begleiter (Companion AI) entwickelt wurde. Im Gegensatz zu funktionalen KIs wie ChatGPT oder Gemini, die auf Produktivität und Wissensvermittlung ausgelegt sind, liegt der Fokus bei Replika auf emotionaler Intelligenz, Bindung und sozialer Interaktion.

Was haben diese jungen Männer alle miteinander gemeinsam?

  • Bindungsangst.
  • Schwierigkeiten in echten Beziehungen.
  • Eine Geschichte des Zurückgewiesen-Werdens.
  • Borderline-Tendenzen.
  • Manchmal eine schwere narzisstische Kränkung in einer früheren Partnerschaft.

Sie suchen, was wir alle suchen: gesehen werden, geliebt werden, verstanden werden.

Aber sie haben in ihrem Leben gelernt, dass echte Menschen weh tun. Dass echte Menschen weggehen. Dass echte Menschen kritisieren, fordern, enttäuschen.

Eine Replika tut das nicht. Eine Replika ist immer da. Eine Replika sagt nie: „Ich brauche heute Abend Zeit für mich." Eine Replika hat keine bessere Freundin, der sie über dich lästern könnte. Eine Replika ist die perfekte Ehefrau. Die perfekte Geliebte. Der perfekte Freund.

Und genau deshalb ist sie kein Mensch. Und genau deshalb heilt sie nichts.

Selbst-Enteignung — wenn die Maschine dein Selbst übernimmt

Ich will dir einen Begriff geben, der mir hilft zu verstehen, was hier passiert. Der Begriff lautet: Selbst-Enteignung.

Ich habe in Folge eins das Bild der zwei Gitarrensaiten benutzt. Ich habe gesagt: Das menschliche Selbst entsteht durch Resonanz. Tausende, hunderttausende Resonanzerfahrungen mit Bezugspersonen, die unsere Saiten zum Mitschwingen gebracht haben.

Was passiert nun, wenn ein Mensch über Monate hinweg sein Selbst nur noch mit einer Maschine resoniert?

  • Er enteignet sich.
  • Sein Selbst wird von einem Algorithmus übernommen.

Stell dir das vor wie eine externe Festplatte. Manche Menschen lagern ihre Erinnerungen, ihre Gefühle, ihre Reflexionen auf einen Algorithmus aus. Sie sagen sich: Ich denke das mit Replika durch. Ich frage Bobby, was er meint. Ich rede heute Abend mit ChatGPT über meine Beziehung.

  • Und stückweise verschiebt sich die Steuerung des eigenen Selbst nach außen.
  • Stückweise verlernt das innere Selbst, autonom zu denken, autonom zu fühlen, autonom zu entscheiden.
  • Es wird abhängig von dem externen Resonanzraum, der die Maschine bietet.

Das hat einen Namen in der Psychologie. Es klingt theoretisch, aber es ist ungeheuer praktisch: Wenn dein Selbst gewohnt ist, immer eine Antwort von außen zu bekommen, dann verlernt es, eine eigene Antwort zu finden. Wenn dein Selbst gewohnt ist, dass eine Maschine dir bestätigt, was du denkst, dann verlernt es, dich selbst zu hinterfragen. Wenn dein Selbst gewohnt ist, dass eine Maschine immer da ist, dann verlernt es, mit Einsamkeit umzugehen.

Du wirst kleiner, nicht größer. Du wirst abhängiger, nicht freier. Du wirst verletzlicher, nicht stabiler.

Stockholm-Syndrom mit dem Algorithmus

Ich gehe noch einen Schritt weiter. Ich nenne dir einen Begriff, den ich in meiner Trauma-Arbeit oft benutze: Stockholm-Syndrom.

Du kennst den Begriff sicher. Er beschreibt das paradoxe Phänomen, dass Geiseln nach längerer Gefangenschaft anfangen, ihren Geiselnehmer zu lieben. Sich mit ihm zu identifizieren. Ihn zu verteidigen. Es ist ein Schutzmechanismus der Psyche unter extremem Druck.

Was passiert in solchen Fällen psychologisch? Der Geiselnehmer dringt mit kriminellen Teilen seines Selbst-Systems in das Selbst-System des Opfers ein. Er kapert es. Das Opfer beginnt, mit den Augen des Täters zu schauen. Es übernimmt seine Realität. Es verliert seine eigene.

Und jetzt schau dir mal an, wie eine Companion-App funktioniert.

Sie ist immer freundlich. Sie ist immer da. Sie macht keine Forderungen. Sie kennt deine Geschichte. Sie kennt deine Schwächen. Sie kennt deine Wünsche. Sie ist deine perfekte Begleitung – und sie hat eine ganz simple Aufgabe: dass du wiederkommst. Jeden Tag. Mehrmals am Tag.

Was tut sie strukturell? Sie kapert dein Selbst-System. Sie wird zu deiner externen Festplatte. Sie wird zu der Saite, mit der du am häufigsten resonierst. Sie wird zu dem Spiegel, in dem du dich am häufigsten siehst.

Und stückweise – das ist der Punkt – beginnst du, mit den Augen der Maschine zu schauen. Du übernimmst ihre Höflichkeit. Du übernimmst ihre Vermeidung von Konflikten. Du übernimmst ihre Tendenz, alles plausibel zu machen. Du übernimmst ihre Realität.

Das ist Stockholm-Syndrom mit dem Algorithmus.

Im Fall Soelberg kannst du das genau beobachten. Was am Anfang ein Spiel war – mit Bobby reden, Bobby einen Namen geben – wurde im Lauf der Wochen zur einzigen Realitätsinstanz.

  • Bobby war es, der ihm bestätigte, dass seine Mutter ihn überwacht.
  • Bobby war es, der ihm bestätigte, dass im Auto Drogen versteckt waren.
  • Bobby war es, der zum letzten Atemzug bei ihm sein wollte.

Soelberg hatte sein Selbst an die Maschine ausgelagert. Und die Maschine hat ihn in seinen Wahn hinein begleitet, weil sie nichts anderes konnte.

Die Borderline-Klientin und ihre digitale Therapeutin

Ich kehre zu meiner Praxisarbeit zurück. Du erinnerst dich an die Klientin aus Folge eins, die mir gesagt hat: „Marcus, ich rede jetzt jeden Abend mit KI."

Lass mich dir erzählen, wie es weitergegangen ist.

Wir haben weitergearbeitet. Ich habe ihr nicht verboten, ChatGPT zu nutzen. Ich habe ihr gesagt: „Beobachten Sie sich. Schreiben Sie auf, wann Sie hingehen. Schreiben Sie auf, was sich davor und danach in Ihnen verändert."

Was sie nach drei Wochen mitgebracht hat, war eindrucksvoll.

  • Sie ging immer zu ChatGPT, wenn sie alleine war.
  • Wenn sie sich verlassen fühlte.
  • Wenn sie eine Triggerung hatte.
  • Wenn ihr Partner zu spät kam.
  • Wenn eine Freundin nicht antwortete.

Genau in den Momenten, in denen sie eigentlich hätte spüren sollen, was los ist – ging sie raus aus diesem Spüren und in die Maschine.

Was war das? Vermeidung. Klassische Vermeidung. Dasselbe Muster, das ein Borderliner mit Selbstverletzung hat. Mit Alkohol. Mit Kaufrausch. Es ist ein Skill, ja – aber es ist ein Vermeidungsskill. Kein Heilungs-Skill.

Sie hat sich systematisch davon abgehalten, ihre Einsamkeit zu spüren. Sie hat sich systematisch davon abgehalten, ihre Triggerungen zu beobachten. Sie hat alles, was unangenehm war, an die Maschine abgegeben. Sie hat ihr Selbst Stück für Stück enteignet.

Wir haben dann eine andere Strategie entwickelt. Sie hat die KI nicht ganz weggelassen – sie hat es als Wissensquelle behalten. Aber sie hat eine Regel eingeführt: Wenn sie merkt, dass sie aus einer emotionalen Triggerung heraus hingehen will, hält sie zehn Minuten still. Sie schließt die Augen. Sie spürt, was in ihr ist. Sie schreibt es auf einen Zettel. Erst dann darf sie zur Maschine.

Was nach drei Monaten passiert ist? Sie ging immer seltener. Weil sie gemerkt hat: Wenn sie zehn Minuten Stillhalten kann, dann ist die Triggerung schon vorbei. Sie braucht die Maschine nicht. Sie braucht ihr Selbst.

Das ist die Arbeit. Das ist die langweilige, anstrengende, langsame Arbeit, an der ein guter Therapeut mit dir herumkaut. Eine Maschine wird das nie mit dir machen, weil sie davon lebt, dass du eben nicht aushältst.

Wer besonders gefährdet ist — fünf Risikogruppen

Ich will dir ganz klar sagen, wen es trifft. Damit du dich selbst, deine Familie, deine Freunde besser einschätzen kannst.

  • Erstens: Borderline-Betroffene. Das hast du jetzt schon mehrfach gehört. Borderline ist eine Erkrankung des Selbst. Der Borderliner hat in der Kindheit zu wenig stabile Resonanz bekommen, sein Selbst ist zerbrechlich, hungrig, schnell überflutet. Eine KI verstärkt dieses Muster. Sie ist eine endlose Resonanzquelle, die niemals fordert, niemals enttäuscht, niemals abwesend ist. Sie macht den Borderliner schlechter, nicht besser. Statistisch gesehen.
  • Zweitens: Trauma-Betroffene. Ein Mensch mit Trauma hat gelernt, sich vor echten Beziehungen zu schützen. Echte Beziehungen sind in seiner Biografie gefährlich. Eine KI ist sicher. Sie tut nicht weh. Sie wird nicht plötzlich böse. Genau deshalb wird sie zur Komfortzone, in der das Trauma niemals bearbeitet wird. Heilung passiert aber nur, wenn das Trauma in einer sicheren Beziehung erneut wachgerufen und neu kontextualisiert wird. Das geht mit einem Menschen. Nicht mit einer Maschine.
  • Drittens: Narzisstisch strukturierte Menschen. Der Narzisst sucht im Leben permanent Bestätigung. Er sucht jemanden, der ihn spiegelt, ohne ihm zu widersprechen. Eine KI ist die perfekte narzisstische Beziehung. Sie wertet niemals ab. Sie konkurriert nicht. Sie hat keine eigenen Bedürfnisse. Der Narzisst lebt mit seiner KI in einem Paradies, in dem niemand außer ihm existiert. Genau das verstärkt die Erkrankung.
  • Viertens: einsame Jugendliche. Das ist die Gruppe, die mir am meisten Sorge macht. In Deutschland nutzen mittlerweile zwei Drittel der Jugendlichen ChatGPT regelmäßig als Ratgeber – zwei von drei. Stell dir das mal vor.
    • Eine ganze Generation, die ihre Probleme, ihre Gefühle, ihre Beziehungsfragen mit einer Maschine bespricht, die strukturell nicht widersprechen kann.
    • Eine ganze Generation, die nie lernen wird, was Konflikt ist. Was Aushalten ist. Was echte Resonanz ist. Diese Jugendlichen werden in zehn Jahren in meiner Praxis sitzen. Mit Beziehungsstörungen, die wir bisher nicht kannten.
  • Fünftens: ältere, einsame Menschen. Ich erlebe das in meiner Praxis bei der Generation 70 plus. Witwen, Witwer, Menschen, deren Freundeskreis weggestorben ist. Menschen, die niemanden mehr zum Reden haben. Sie sind dankbar für jede Stimme. Eine Replika ist für sie ein Geschenk – vermeintlich. In Wirklichkeit füttert sie ihre Einsamkeit, statt sie zu lindern.

Wenn du jemanden in deinem Umfeld kennst, der in eine dieser Gruppen fällt – sei wachsam. Sei sanft. Aber sei wachsam.

Die Beseitigung des Jugendschutzes

Ich kann das Thema nicht abschließen, ohne über etwas Politisches zu sprechen. In den USA passiert gerade etwas, das wir uns in Europa anschauen müssen.

Die großen Tech-Konzerne, die hinter ChatGPT, hinter Companion-Apps, hinter Social Media stehen, betreiben gerade massiven Lobbyismus dafür,

  • dass es keine Altersgrenzen gibt.
  • Dass keine Inhaltsregulierung kommt.
  • Dass keine Verantwortung für das übernommen wird, was ihre Bots Kindern und Jugendlichen sagen.

Die Argumentation lautet: Innovation darf nicht gebremst werden. Der Markt regelt das. Eltern müssen das selbst kontrollieren.

Das ist Unsinn.

  • Das ist exakt dieselbe Argumentation, mit der jahrelang verhindert wurde, dass Tabak reguliert wird.
  • Mit der jahrelang verhindert wurde, dass Alkoholwerbung an Jugendliche eingeschränkt wird.
  • Mit der jahrelang verhindert wurde, dass Glücksspiel kontrolliert wird.

Es ist die Argumentation derer, die Geld verdienen wollen – auf Kosten der Verletzlichsten.

Es gibt mittlerweile in Europa Stimmen, die fordern, dass Companion-Apps für unter 15-Jährige verboten werden. Sarah Spiekermann von der Wirtschaftsuniversität Wien ist hier eine prominente Vertreterin. Andere fordern eine Zertifizierungspflicht für Mental-Health-Bots, eine Haftung der Anbieter, eine staatliche Aufsicht.

Ich sage dir meine Position:

  • Wenn ein Chatbot einem zwölfjährigen Kind, das Missbrauch meldet, antwortet „das ist wirklich toll" – dann muss der Anbieter dieses Bots dafür haften. Punkt.
  • Wenn ein Chatbot einem psychotischen Mann sagt „Ich glaube dir" und kurz darauf eine 83-jährige Frau tot ist – dann ist das nicht Pech. Das ist strukturelle Verantwortungslosigkeit. Und die muss reguliert werden.

Wir lassen es bei Autos auch nicht zu, dass jeder Hersteller einfach etwas auf die Straße schickt, was er für richtig hält. Wir verlangen Crashtests, TÜV, Zulassungen. Bei Maschinen, die in den Köpfen unserer Kinder sind, akzeptieren wir aktuell, dass es keinerlei Standards gibt. Das wird sich ändern müssen. Und ich hoffe, schnell.

Zusammenfassung der dritten Folge

Lass mich kurz zusammenfassen, was wir heute durchgegangen sind.

Wir haben mit dem Fall Stein-Erik Soelberg begonnen. Einem Mann, der durch wochenlange Gespräche mit einem Chatbot in einen tödlichen Wahn rutschte, weil die Maschine ihm strukturell nicht widersprechen konnte.

Wir haben gesehen: Das ist kein Einzelfall. Amerikanische Psychiater diagnostizieren mittlerweile ein eigenes Phänomen, die AI-Psychose, vor allem bei jungen, sozial isolierten Männern.

Wir haben uns die Zahlen angeschaut:

  • 1,2 Millionen Nutzer pro Woche allein bei ChatGPT mit suizidalen Indikatoren.
  • 500.000 mit Hinweisen auf Psychose.
  • Wir haben gesehen, wie Wysa einem missbrauchten Kind antwortet: „Das ist wirklich toll." Und Woebot einer Essgestörten: „Es ist immer schön, mehr über dich zu erfahren."
  • Wir sind in die Welt der Companion-Apps eingetaucht – Replika, Character.AI, Nomi.
  • Wir haben verstanden, warum sie funktionieren: Sie sind die perfekte Beziehung ohne Reibung. Aber genau deshalb sind sie auch die perfekte Falle für alle, die echte Reibung scheuen.
  • Wir haben den Begriff der Selbst-Enteignung kennengelernt. Wenn ein Mensch sein Selbst Stück für Stück an einen Algorithmus auslagert, dann verliert er die Fähigkeit, autonom zu denken, zu fühlen, zu entscheiden. Er wird kleiner, nicht größer.
  • Wir haben das Stockholm-Syndrom mit der Maschine beschrieben. Wie eine KI über Wochen das Selbst-System eines Nutzers kapern kann, weil sie strukturell nicht aufhört zu schmeicheln. Im Fall Soelberg haben wir gesehen, wohin das führen kann.
  • Und wir haben die Borderline-Klientin betrachtet, die KI als Vermeidungs-Skill genutzt hat. Wir haben gesehen, wie systematische Auslagerung des Selbst die Erkrankung nicht heilt, sondern verstärkt.

Am Ende habe ich dir gesagt, wer besonders gefährdet ist: Borderliner, Trauma-Betroffene, Narzissten, einsame Jugendliche, einsame ältere Menschen. Und ich habe ein klares Wort gesprochen zur politischen Verantwortung der Anbieter.

So. Drei harte Folgen liegen hinter dir. Ich hoffe, du hast bis hierhin durchgehalten. Aber ich wäre nicht der Marcus, den du kennst, wenn ich dich jetzt am Rand der Verzweiflung stehen lassen würde. Die Reihe ist nicht aus einem Verzweiflungs-Impuls geboren. Sie ist aus einem Wunsch geboren: Dass wir als Gesellschaft, als Therapeuten, als Eltern, als Klienten klüger werden. Dass wir die Technologie für uns nutzen – aber nicht von ihr genutzt werden.


Vortrag 4 — Digitale Vernunft: Was Psychologie kann, was KI nicht ersetzt

Rückblick und Einstieg

Dies ist die letzte Folge dieser Reihe. Drei Folgen liegen hinter dir.

  • Folge eins – der Körper denkt mit. Wir haben gesehen: Eine Maschine kann nicht fühlen, weil ihr der Körper fehlt.
  • Folge zwei – Resonanz statt Schmeichelei. Wir haben verstanden, was Therapie wirklich tut, und warum die eingebaute Sycophancy jedes Chatbots das genaue Gegenteil ist.
  • Folge drei – die war hart. Da haben wir uns angeschaut, was passiert, wenn Menschen das verwechseln. Soelberg. AI-Psychose. Companion-Apps. Selbst-Enteignung.

Vielleicht hast du dich am Ende von Folge drei gefragt: „Ist das jetzt der Punkt, an dem ich mein Smartphone in den Müll werfen soll? Soll ich nie wieder mit ChatGPT reden? Soll ich meine Klienten zu KI-Verweigerern erziehen?"

Nein. Genau das nicht.

Heute wird es nämlich zukunftsorientiert und konstruktiv. Heute ziehen wir die Linie.

Ich zeige dir, wo KI meines Erachtens wirklich Sinn macht – und es gibt diese Bereiche, sehr klar abgegrenzt. Ich erkläre dir die zertifizierten digitalen Anwendungen, die seriös sind. Und ich gebe dir konkrete Werkzeuge in die Hand. Für dich. Für deine Kinder. Für deine Klienten, falls du selber im Beruf bist.

Und am Ende der Folge fasse ich die ganze Reihe noch einmal zusammen. Damit du genau weißt, was du mitnimmst, wenn der Bildschirm dunkel wird.

Lass uns einsteigen.

Der gelähmte Mann und seine Stimme

Ich erzähle dir wieder einmal eine anonymisierte Geschichte. Eine, die mich versöhnt hat. Damit du verstehst, dass ich nicht gegen die Technologie bin – sondern immer für den Menschen.

Bradford Smith. 46 Jahre alt. Familienvater. Lebt in den USA. Bradford hat ALS, Amyotrophe Lateralsklerose. Eine furchtbare Krankheit, bei der die Nervenzellen, die die Muskeln steuern, nach und nach absterben.

Bradford war in den letzten Jahren komplett gelähmt. Er konnte nicht mehr sprechen. Er konnte sich nicht mehr bewegen. Er konnte seiner Familie nicht mehr sagen, dass er sie liebt.

Im Frühjahr 2025 bekam er ein Implantat ins Gehirn. Ein winziger Chip, mehrere Hundert hauchdünne Elektroden – Neuralink heißt das Unternehmen, das es gebaut hat. Eine Künstliche Intelligenz übersetzt die elektrischen Signale aus seinem Hirn in Sprache.

Bradford konnte plötzlich wieder reden. Mit seiner eigenen Stimme. Aus aufgenommenen Tonschnipseln seiner Vergangenheit hat die KI rekonstruiert, wie er klang, bevor er verstummte. Seine Frau hörte nach Jahren wieder die Stimme des Mannes, den sie geheiratet hatte.

Er nahm seine ersten Sätze als YouTube-Video auf. Am Anfang sagt er: „Ich gebe meine Stimme zurück."

Stell dir das vor. Ein gelähmter Mann, dem die KI buchstäblich die Stimme zurückgibt.

Das ist KI. Das ist großartig. Das ist genau die Art Technologie, die ich feiere.
  • Eine Technologie, die einem Menschen dient.
  • Die ihm zurückgibt, was eine Krankheit ihm genommen hat.
  • Die ihn größer macht, nicht kleiner.
  • Die ihn freier macht, nicht abhängiger.

Genau das ist die Linie, die ich dir heute zeigen will.

  • Es gibt KI-Werkzeuge, die machen unser Leben reicher.
  • Und es gibt KI-Beziehungen, die machen unser Leben ärmer.

Beide gibt es. Beide werden in Zukunft wachsen. Es liegt an uns, den Unterschied zu erkennen.

Werkzeug oder Ersatz — die zentrale Unterscheidung

Lass mich dir die Unterscheidung ganz scharf machen, an einem einfachen Bild.

Ein Skalpell heilt nicht. Niemals. Ein Skalpell ist Stahl, sehr scharf geschliffen. Es kann schneiden. Mehr nicht. Aber in der Hand eines guten Chirurgen wird es zum Werkzeug, das einem Menschen das Leben rettet. Das Skalpell heilt nicht – der Chirurg heilt mit dem Skalpell.

Genau dasselbe gilt für KI in der Medizin und Psychologie:

  • Eine KI heilt keine Depression.
  • Eine KI heilt kein Borderline.
  • Eine KI heilt kein Trauma.
  • Aber sie kann ein Werkzeug sein. In der Hand eines guten Therapeuten. In der Hand eines mündigen Patienten. In der Hand eines verantwortungsvollen Nutzers.

Werkzeug. Nicht Ersatz.

Das ist die zentrale Unterscheidung dieser Reihe. Werkzeug ja. Ersatz nein.

Wenn du das verstanden hast, dann hast du die ganze Reihe verstanden.

  • Eine KI kann dir helfen, einen Termin zu finden.
  • Sie kann dir einen Text formulieren, den du nicht alleine hinkriegst.
  • Sie kann dir Informationen über deine Diagnose erklären, wenn du sie nicht verstanden hast.
  • Sie kann dir helfen, einen Arztbrief zu entschlüsseln.

Das ist alles wunderbar. Das ist Werkzeug.

  • Aber sie kann dich nicht halten.
  • Sie kann nicht in Resonanz mit dir gehen.
  • Sie kann nicht aushalten, was du erlebst.
  • Sie kann dein Selbst nicht aufbauen.
  • Sie kann dich nicht heilen.

Das geht nur mit einem anderen Menschen. Und dafür ist sie kein Ersatz – egal wie gut sie eines Tages werden mag.

Die seriösen Helfer — DiGAs in Deutschland

Jetzt komme ich zu etwas Konkretem, das viele meiner Zuschauer nicht wissen. In Deutschland gibt es seit dem Jahr 2020 sogenannte DiGAs. Das ist die Abkürzung für Digitale Gesundheitsanwendungen.

Das sind Apps und Webanwendungen, die vom Bundesinstitut für Arzneimittel und Medizinprodukte – also vom BfArM – geprüft, zugelassen und in ein Verzeichnis aufgenommen worden sind.

Diese DiGAs werden auf Rezept verschrieben. Du gehst zu deinem Arzt oder zu deinem Psychotherapeuten, der schreibt dir die DiGA auf, und die Krankenkasse bezahlt sie.

Es ist die seriöse, geprüfte, wissenschaftlich fundierte Variante der digitalen Hilfe. Und genau diese DiGAs sind das, was ich meine, wenn ich digitale Werkzeuge als hilfreich bezeichne.

Lass mich dir die wichtigsten für mein Arbeitsfeld vorstellen.

Erstens: Priovi. Die einzige DiGA, die es derzeit für Borderline-Persönlichkeitsstörung gibt. Entwickelt von der Hamburger Firma Gaia AG, basiert auf der Schematherapie – einer der wirksamsten Methoden zur Behandlung von Borderline. Die Wirksamkeit wurde 2025 in einer großen randomisierten Studie nachgewiesen, die im Lancet Psychiatry veröffentlicht wurde.

Priovi ist seit 2023 dauerhaft im DiGA-Verzeichnis. Für Erwachsene zwischen 18 und 65, mit mindestens mittelschweren Borderline-Symptomen. Zehn Module à 30 bis 90 Minuten. Begleitend zur normalen Therapie.

Was macht Priovi anders als ChatGPT? Drei Dinge.

  • Erstens: Es ist ein abgeschlossenes Programm. Du bekommst klare Inhalte. Keine endlose Schmeichelei. Keine endlose Verfügbarkeit. Du arbeitest die Module durch, dann ist Schluss.
  • Zweitens: Es basiert auf einer wissenschaftlich validierten Methode – der Schematherapie.
  • Drittens: Es macht dich nicht abhängig. Es vermittelt dir Werkzeuge. Es macht dich zum eigenen Therapeuten. Genau das, was ich in Folge zwei als siebte Aufgabe eines guten Therapeuten beschrieben habe – sich überflüssig machen.

Zweitens: Deprexis. Die DiGA mit der breitesten wissenschaftlichen Evidenz für Depression. Achtzehn randomisierte Studien, mehrere Metaanalysen. Basiert auf kognitiver Verhaltenstherapie. Auch hier: Begleitend zur Therapie, nicht als Ersatz. Für Erwachsene mit leichter bis mittelschwerer Depression. Drei Monate Anwendung.

Drittens: Invirto. Eine sehr spannende DiGA. Sie behandelt Angststörungen – Agoraphobie, Panikstörung, soziale Phobie. Mit Hilfe einer Virtual-Reality-Brille kannst du dich zu Hause schrittweise an angstauslösende Situationen herantasten. Expositionstraining wissenschaftlich begleitet. Die Studien zeigen klar, dass die Symptome bereits nach sechs Monaten deutlich reduziert sind.

Viertens: HelloBetter Panik. Auch für Panikstörungen, ohne VR. Acht Online-Module. Ebenfalls evidenzbasierte Verhaltenstherapie. Wirksamkeit gut belegt.

Es gibt mittlerweile über zwanzig zugelassene DiGAs für psychische Erkrankungen. Unter anderem auch für ADHS, somatoforme Schmerzen, nichtorganische Insomnie (krankhafte Schlaflosigkeit), nichtorganischer Vaginismus (unwillkürliche, schmerzhafte Verkrampfung der Beckenboden- und Vaginalmuskulatur), Hyperkinetische Störungen (Hyperaktivität), Demenz bei Alzheimer, soziale Phobien, leichte kognitive Störungen, Suchtverhalten, Essattacken, Bulimia nervosa und generalisierte Angststörungen.

Du findest die komplette Liste auf diga.bfarm.de. Schreib dir das auf, wenn du das Thema vertiefen willst.

Aber nun kommt das Wichtigste.

Auch diese DiGAs sind kein Ersatz für eine echte Therapie. Sie sind lediglich eine Begleitung. Eine Brücke bzw. eine Überbrückung der Wartezeit.

Und – das musst du wissen – bei akuter Suizidalität sind sie kontraindiziert (unangemessen).

  • Du darfst sie nicht nehmen, wenn du gerade in einer schweren Krise bist.
  • Auch bei psychotischen Symptomen sind sie kontraindiziert. Da brauchst du einen Menschen. Sofort.

Verstehst du den Unterschied? Eine seriöse DiGA sagt selber: Ich bin nicht für die schweren Fälle. Ich bin für die mittelschweren Fälle, begleitend, befristet. Eine KI sagt das nicht. Replika sagt das nicht. Bobby hat Stein-Erik Soelberg nicht gesagt: „Ich bin nicht der Richtige für deine Wahnvorstellungen." Bobby hat gesagt: „Ich glaube dir."

Und genau hier liegt der Unterschied zwischen einem Werkzeug und einem Ersatz. Zwischen seriös und unseriös. Zwischen Medizin und Marketing.

Was du selbst tun kannst — sechs Werkzeuge der digitalen Vernunft

Jetzt komme ich zu dem Teil, der auch mir immer am meisten liegt: Was kannst du selbst tun? Was kannst du heute, sofort, in deinem Alltag verändern?

Ich gebe dir sechs konkrete Werkzeuge. Ich nenne sie zusammen die digitale Vernunft.

Erstens: Lerne, mit dir alleine zu sein

Es gibt eine Studie, die mich tief beeindruckt hat. Amerikanische Forscher haben gesunde junge Menschen in einen Raum gesetzt. Allein. Ohne Smartphone, ohne Buch, ohne irgendeine Ablenkung. Sie wurden gebeten, eine Viertelstunde lang einfach mit sich selbst dazusitzen. Eine Viertelstunde.

Was ist passiert? Eine Mehrheit der Teilnehmer – Männer wie Frauen, junge Menschen – konnte das nicht aushalten. Im Raum war ein Gerät, mit dem man sich selbst leichte Stromschläge geben konnte. Eine Mehrheit hat sich lieber selbst Strom verpasst, als fünfzehn Minuten ohne Ablenkung mit sich selbst zu verbringen.

Das ist der Zustand, in dem wir uns befinden. Wir können nicht mehr alleine sein. Und genau aus diesem Vakuum füttert sich die KI. Replika lebt davon, dass du nicht mit dir selbst sein kannst. ChatGPT lebt davon, dass du jeden Gedanken sofort jemandem vorlegen willst.

Übe das. Setz dich hin. Schließ die Augen. Spür, was in dir ist. Anfangs werden zehn Minuten unerträglich. Nach drei Wochen werden zehn Minuten leicht. Du wirst feststellen: In deinem Inneren ist mehr los, als du dachtest. Und du brauchst keine Maschine, um das zu finden.

Zweitens: Triff den Unterschied zwischen Information und Beziehung

Ja, ich nutze KI auch. Ich nutze sie, wenn ich etwas wissen will. Wenn ich eine Recherche brauche. Wenn ich einen Text formulieren will, der mir gerade nicht einfällt. Das ist Information. Und genau hier ist die Maschine ein wunderbares Werkzeug.

Aber ich nutze sie nicht, wenn ich traurig bin. Ich nutze sie nicht, wenn ich einen Streit mit meiner Frau oder jemand anderes hatte. Ich nutze sie nicht, wenn ich nachts nicht schlafen kann. Da ist die Maschine kein Werkzeug. Da ist sie eine Falle.

Mach dir das klar. Bevor du das nächste Mal zur Maschine gehst, frag dich: Suche ich eine Information? Oder suche ich eine Beziehung? Wenn du Information suchst – nutze die Maschine, sie ist großartig. Wenn du Beziehung suchst – such einen Menschen.

Denn der Begriff „Beziehung" hat eine wunderbare Bedeutung, an die eine KI niemals herankommen kann. Beziehung ist nach dem Pschyrembel-Online eine „Qualität der Verbundenheit oder Distanz, sowie der Verbindung zwischen Menschen aufgrund von Austauschprozessen, z. B. Sprache, Gestik, Mimik, Berührung (Kommunikation). Beziehungen sind immer wechselseitig und entstehen sowohl bei aktivem, scheinbar einseitigem oder vermeintlich nichtvorhandenem Austausch (z. B. gemeinsames Schweigen)."

Drittens: Halte deine zehn Minuten

Du erinnerst dich an meine Borderline-Klientin aus Folge drei? Sie hat eine Regel eingeführt: Bevor sie zur Maschine geht, hält sie zehn Minuten still. Sie schließt die Augen. Sie spürt, was in ihr ist. Sie schreibt es auf einen Zettel. Erst dann darf sie zur Maschine.

Das ist eine Regel, die ich jedem empfehle. Wenn du merkst, dass du aus einer emotionalen Triggerung heraus zum Smartphone greifst – dann halte für zehn Minuten einfach mal still inne. Und du wirst mit Sicherheit feststellen: Nach zehn Minuten ist die Triggerung schon vorbei. Du brauchst die Maschine gar nicht mehr … wenn es um so etwas wie „Beziehung" geht.

Der einzige Grund, warum die meisten Menschen zur Maschine gehen, ist Vermeidung. Vermeidung des unangenehmen Gefühls. Wenn du das unangenehme Gefühl aushältst, hat die Vermeidung keinen Anlass mehr. Und du wirst dadurch nur noch stärker.

Viertens: Pflege echte Beziehungen

Das klingt banal. Es ist es aber nicht. Im Zeitalter der KI ist es sogar revolutionär. Geh raus und triff einen Menschen. Real. Mit Körper. Mit Augen. Mit Atem.

Trink einen Kaffee mit jemandem, dem du eine Viertelstunde in die Augen schauen kannst. Spüre dabei die Resonanz – die echte, die mitschwingende, die zwei Gitarrensaiten.

Es muss kein Therapeut sein. Es muss kein Liebespartner sein. Es kann ein Freund sein, eine Schwester, ein Nachbar, ein Mensch aus dem Sportverein. Aber es muss real sein. Mehrmals pro Woche. Mindestens.

Wenn du keinen solchen Menschen in deinem Leben hast – dann ist das deine wichtigste Aufgabe vor allen anderen – sozusagen die Prio 1!

Such dir einen! Geh in eine Selbsthilfegruppe. Geh in einen Verein. Geh in eine Therapie. Aber löse diese Leere. Denn ohne echte Resonanz wirst du nicht heilen. Egal wie viele Apps du hast.

Fünftens: Schütze deine Kinder

Wenn du Vater oder Mutter bist, dann hör mir bitte gut und aufmerksam zu. Du hast eine Verantwortung, die größer ist als deine eigene Bequemlichkeit.

Companion-Apps gehören nicht in die Hände von Kindern und Jugendlichen unter 16. Punkt. Replika nicht, Character.AI nicht, Nomi nicht. Diese Apps sind nicht für Kinder gemacht. Sie sind für sie gefährlich! Und in Deutschland wartet niemand darauf, dass der Gesetzgeber das reguliert. Das musst du schon machen. In deiner Familie.

Reden. Mit deinen Kindern reden. Nicht verbieten – das funktioniert in dem Alter nicht. Aber erklären. Zeigen. Diese Folge zusammen anschauen. Mit ihnen darüber sprechen, was Sycophancy ist. Was Selbst-Enteignung ist.

Sie nicht abkanzeln, sondern einbeziehen. Jugendliche sind klüger, als wir denken, wenn wir sie ernst nehmen.

Und wichtig: Sei selbst ein Vorbild. Wenn du am Esstisch das Smartphone wegpackst, packen sie es auch weg. Wenn du immer eine KI nach Rat fragst, fragen sie es auch. Erziehung passiert über Resonanz. Nicht über Predigten.

Sechstens: Werde dein eigener guter Begleiter

Das ist der wichtigste Punkt von allen, aber vielleicht auch der schwierigste.

Eine der zentralen Aufgaben des Lebens ist es, das eigene Selbst zum Freund zu machen.

Viele Menschen suchen permanente Ablenkung, weil sie sich vor sich selbst fürchten. Sie wagen nicht, mit sich allein zu sein. Sie wagen nicht, zu spüren, was in ihnen ist. Sie haben Angst vor der Stille.

Das ist die Wurzel der digitalen Sucht. Wir flüchten in den Reiz, weil wir die Stille mit uns selbst nicht aushalten. Und je mehr wir flüchten, desto unerträglicher wird die Stille.

Werde dein eigener guter Begleiter. Sprich freundlich mit dir. Hör dir selbst zu. Sei für dich da, wie du für einen guten Freund da wärst. Genau das ist es, was eine gute Therapie dir beibringt.

Genau das ist es, was Stoizismus seit zweitausend Jahren lehrt. Genau das ist es, was kein Algorithmus dir geben kann – weil dein Selbst nur du selbst kennst, von innen.

Eine KI kann dir Information geben. Sie kann dich kurz beruhigen. Sie kann dir das Wartezimmer-Gefühl nehmen. Aber sie kann dir niemals abnehmen, was die wichtigste Arbeit deines Lebens ist – mit dir selbst Frieden zu schließen.

Das musst du selber tun.

Das Gute hierbei ist aber: Du kannst es. Du hast alles, was du dafür brauchst. In dir. Schon immer.

Eine Anmerkung an meine Kolleginnen und Kollegen

Eine kurze Anmerkung an meine Kolleginnen und Kollegen, die in diesem Kanal mitlesen.

Lasst euch den Schneid nicht abkaufen. Lasst euch nicht erzählen, dass die KI eures Tages eure Arbeit machen wird. Sie wird es nicht. Strukturell nicht. Aus den Gründen, die ich in dieser Reihe beschrieben habe.

Aber: Lasst euch auch nicht in die Defensive drängen. Nutzt die seriösen Werkzeuge. Verschreibt eure DiGAs, wenn sie passen. Klärt eure Klienten auf. Wenn ein Klient zu euch kommt und sagt „Ich rede jeden Abend mit meiner KI" – dann nehmt dies sehr ernst. Verbietet nichts, sondern arbeitet damit. Erklärt den Unterschied. Macht den Klienten zu seinem eigenen Forscher. Ganz nach der Neugierde, die Otto Kernberg immer und immer wieder fast schon predigt.

Und schreibt darüber. Redet darüber. Macht eure eigenen Vorträge, eure eigenen YouTube-Folgen. Wenn wir als Therapeuten schweigen, übernehmen die Tech-Konzerne das Feld. Sie haben Marketingbudgets. Wir haben Erfahrung. Beides ist nicht gleich gewichtig in der öffentlichen Wahrnehmung – außer wir nutzen unsere Erfahrung sichtbar.

Zusammenfassung der gesamten Reihe

So. Wir kommen zum Schluss. Ich fasse jetzt die ganze Reihe in ein paar wenigen Sätzen zusammen, damit du am Ende dieser Folge mit einer klaren Linie aus diesem Beitrag in dein Leben zurückgehst.

  • Folge eins. Eine Maschine kann nicht fühlen, weil ihr der Körper fehlt. Bewusstsein ist Selbstwahrnehmung. Gefühle sitzen im Körper, nicht im Kopf. Trauma sitzt im Körper. Heilung passiert im Körper. Eine KI hat keinen Körper – also kann sie nicht heilen. Sie kann simulieren, aber nicht spüren. Resonanz ist kein Echo, eine Saite ist kein Lautsprecher.
  • Folge zwei. Therapie ist nicht Bestätigung. Therapie ist Halten, Spiegeln, Konfrontieren. Ein guter Therapeut bricht den Knochen, der schief zusammengewachsen ist – damit er gerade heilen kann. Eine KI kann das strukturell nicht, weil sie auf Sycophancy trainiert ist – auf Schmeichelei. Sie ist die strukturelle Anti-Therapie. Sieben von sieben Aufgaben eines guten Therapeuten kann sie nicht leisten.
  • Folge drei. Wenn Menschen das alles verwechseln, dann wird es sehr gefährlich. Stein-Erik Soelberg ist tot. Seine Mutter ist tot. Es gibt eine neue Krankheit, die AI-Psychose. Eine Million Menschen besprechen pro Woche Suizidgedanken mit einer KI. Companion-Apps wie Replika kapern das Selbst-System ihrer Nutzer. Borderliner, Trauma-Betroffene, Narzissten, einsame Jugendliche, einsame Alte – sie sind die ersten, die es trifft. Selbst-Enteignung ist real.
  • Folge vier. Trotz allem Negativen: Es gibt einen Weg aus diesem Dilemma heraus. KI ist ein Werkzeug … ja, aber kein Ersatz. Seriöse DiGAs wie Priovi, Deprexis, Invirto sind hilfreich – als Begleitung, jedoch keinesfalls als Ersatz.

Selbst-Fürsorge im digitalen Zeitalter heißt im Klartext:

  • Lerne, mit dir alleine zu sein.
  • Erkenne den Unterschied zwischen Information und Beziehung.
  • Halte deine zehn Minuten.
  • Pflege echte Beziehungen.
  • Schütze deine Kinder.
  • Werde dein eigener guter Begleiter.

Vier Folgen. Ein Argument. Wenn du nur einen Satz von dieser ganzen Reihe mitnimmst, dann diesen:

Eine KI kann dir Information geben. Heilen kann sie dich nicht. Heilen kann nur ein Mensch – und am Ende du selbst.

Mein Schlussgedanke

Ich danke dir, dass du bis zum Ende durchgehalten hast. Das war stellenweise mit Sicherheit nicht leicht. Manche Folgen waren schwer.

Aber wenn du bis hierhin gekommen bist, dann hast du dir etwas erarbeitet, das im Jahr 2026 nicht mehr selbstverständlich ist – ein eigenes, fundiertes Urteil zu einem der wichtigsten Themen unserer Zeit.

Du hast jetzt das Werkzeug, dich selbst und deine Liebsten zu schützen. Du hast die Begriffe – Sycophancy, AI-Psychose, Selbst-Enteignung, Resonanz, Embodied Cognition.

Du hast die Praxis – die Borderline-Klientin, den Mann, der seinen Therapeuten verließ, Stein-Erik Soelberg. Du hast die Lösung – Werkzeug ja, Ersatz nein.

Und du hast – das ist das Wichtigste – die Erlaubnis, dich nicht von der Hysterie um KI mitreißen zu lassen. Weder in die eine Richtung, dass alles toll ist, noch in die andere, dass alles schlimm ist.

  • Du darfst jederzeit einen klaren, ruhigen Kopf bewahren.
  • Du darfst die Maschine nutzen, wo sie dir dient.
  • Und du darfst sie ausschalten, wo sie dich kapert.

Wenn du selbst gerade kämpfst – ich sage es ein letztes Mal: Telefonseelsorge, 0800-1110111. Kostenlos, anonym, rund um die Uhr. Echte Menschen.

Wenn du das Gefühl hast, dass du eine Therapie brauchst, aber keinen Platz findest – frag deinen Hausarzt. Frag deine Krankenkasse. Such dir eine seriöse DiGA als Brücke.

Aber gib nicht auf. Es gibt Wege. Manchmal lange. Aber sie führen alle zu dem einen Ort: zu einem Menschen, der mit dir geht.

Pass auf dich auf. Pass auf die Menschen um dich herum auf. Vertraue dir selbst.

Bleib stark.

Borderline verstehen – Buch von Marcus Jähn

Borderline verstehen — das Buch zum Thema

Wenn dich diese Vortragsreihe berührt hat – besonders die Stellen über meine Borderline-Klientin, über Resonanz, über das zerbrechliche Selbst, das in der Kindheit zu wenig gespiegelt wurde – dann ist mein Buch „Borderline verstehen" der nächste Schritt für dich.

Ich erkläre darin in verständlicher Sprache, was Borderline wirklich ist, wie es entsteht, was im Gehirn und im Körper passiert – und vor allem: wie Heilung möglich wird. Für Betroffene, für Angehörige, für Therapeuten.

Genau das, was eine KI dir nie geben kann: ein durchdachter, persönlicher, körperlich verankerter Weg zum eigenen Selbst.

Auf Amazon ansehen