Ein schicker, ockerfarbener Ledersessel, gedimmtes, stimmungsvolles Licht – das klassische Klischee-Psychotherapeuten-Sprechzimmer. Mit dem feinen Unterschied, dass auf dem Therapeutenstuhl ein Mensch sitzt, der Instruktionen eines Computerprogramms vorliest und selbst gar nicht psychotherapeutisch ausgebildet ist. In diese Rolle wirft uns die 2019 von Zachtronics veröffentlichte Visual Novel „Eliza“, über die hier bereits berichtet wurde.


Tatsächlich wurde in den 1960er Jahren ein Computerprogramm namens „ELIZA“ entwickelt, um auszuloten, wie Menschen mittels natürlicher Sprache mit Computern kommunizieren können. Dazu wurde ein Algorithmus entwickelt, der manche Interventionen aus der nondirektiven Gesprächspsychotherapie verwendet und das Gegenüber damit zu einer vertieften Auseinandersetzung mit den eingebrachten Themen einlädt. Der Algorithmus greift dann beispielsweise eine Formulierung des menschlichen Gesprächspartners auf, wiederholt diese und bittet, mehr dazu zu erzählen. Dabei werden möglichst keine Ratschläge erteilt oder Bewertungen abgegeben (nondirektives Vorgehen). Es war dezidiert kein Ziel der Entwickler, ein Psychotherapie-Programm zu entwickeln, doch kamen bei einigen Psychotherapeuten offenbar Phantasien einer künftigen vollautomatisierten Psychotherapie auf (vgl. Wikipedia).

Die Visual Novel spinnt genau diesen Gedanken fort: Wir befinden uns in einer Realität, in der Eliza als Psychotherapieprogramm fungiert. Um für die Klienten ein menschlicheres Erlebnis zu ermöglichen, sprechen diese nicht direkt mit dem Computer, sondern mit einem menschlichen „Proxy“, der die Fragen und Antworten von Eliza vorliest. Eben diesen Proxy spielen wir im Spiel, nämlich Evelyn, einst leitende Entwicklerin von Eliza. Diese kehrt nun in neuer Rolle zu ihrem Projekt zurück und wird mit alten Vorgesetzten und neuen Patienten konfrontiert.


Die Qual der Machtlosigkeit

Als Psychologin und psychotherapeutisch Arbeitende stand „Eliza“ natürlich schon lange auf meiner „to play“-Liste. Und, was soll ich sagen? Das war eine ganz schöne Quälerei. Aber anders, als ihr vielleicht denkt. Dass ein vollautomatisiertes Psychotherapieprogramm nicht funktionieren kann, auch nicht in einem Spiel, war ja zu erwarten. Sich selbst aber in diese Erfahrung innerhalb des Spiels hineinzugeben, war eine andere Hausnummer.

Gespräche mit Eliza scheinen in Phasen eingeteilt zu sein: Eliza startet mit einer kurzen Smalltalk-/“Introduction“-Phase, leitet dann in eine „Discovery-Phase“ über, in der die Patienten ihre Beschwerden schildern und von Eliza diesbezüglich befragt werden und endet in einer Lösungs-, bzw. „Challenge-Phase“, in der Eliza den immer gleichen Therapievorschlag macht: die Nutzung einer Healthcare-/Entspannungsapp. In den meisten Fällen gibt’s gratis dazu die Empfehlung für ein Psychopharmakon.

Als Proxy ist dieses Vorgehen noch viel unerträglicher als es vermutlich für unser Gegenüber ist, da wir miterleben, wie formelhaft Eliza manche Sätze im selben Wortlaut all unseren Patienten an den Kopf wirft. Es wird schmerzhaft deutlich, wie wenig das System (natürlich!) in der Lage ist, sich wirklich auf den Patienten und seine komplizierte Psychodynamik einzulassen. Elizas Therapievorschläge gehen daher auch an den (mutmaßlichen) Bedürfnissen der Patienten vorbei: eine Auseinandersetzung mit dem zugrundeliegenden inneren Konflikt findet beinahe überhaupt nicht statt. So nagt eine junge Künstlerin mit großen Selbstwertproblemen daran, in der Branche nicht Fuß fassen zu können. Hören wir näher hin, scheint es allerdings so, als ob sie sich selbst unsicher ist, ob das überhaupt „ihr“ Weg ist – oder ob es nicht einen anderen Weg für sie geben könnte. Darauf geht Eliza natürlich nicht ein.

Einen jungen Mann plagen existenzielle Fragen, zwar depressiv verzerrt, aber im Kern durchaus berechtigt. Eliza greift diese Thematik überhaupt nicht auf und wir somit auch nicht. Wie gerne hätte ich diesen beiden Menschen und auch den anderen Klienten in der Rolle von Evelyn einen Raum für diese grundsätzlichen Fragen zur Verfügung gestellt. Allerdings ist es mir in meiner Funktion als Proxy über weite Strecken des Spiels nicht erlaubt, den eng gesteckten Rahmen des Eliza-Skriptes zu verlassen.


Eliza aus psychotherapeutischer Sicht


Eliza scheitert daran, das „große Ganze“ zu sehen und die Patienten auf ihren Wegen wirklich zu begleiten. Allerdings kann man dem Programm aus psychotherapeutischer Sicht streckenweise durchaus passable Arbeit bescheinigen. So reagiert Eliza beispielsweise gut, wenn das Gegenüber eine eigene Interpretation als Realität annimmt und fragt z.B. zurück: „What makes you think people are worried about your ability to do that?“ oder „Why do you say that?“.

Die weiteren diesbezüglichen Informationen werden aber offenbar nicht genutzt, um ein Bild von der Person und ihrer inneren Landschaft zu erstellen und tatsächlich auf dieser Grundlage, auf diesem Gesamtbild, Interventionen durchzuführen. Das führt schlussendlich dazu, dass die Patienten häufig doch wieder in ihren eigenen Gedanken verstrickt bleiben, keine Distanzierung vornehmen, keine Ermutigung bekommen, einmal anders zu denken oder die hinter ihren Schwierigkeiten liegenden existenziellen Fragen wirklich auszusprechen.

Ich hatte mir wenigstens erhofft, dass an manchen Stellen kognitive Verhaltenstherapie zum Einsatz kommt, da diese vielleicht noch am ehesten durch eine Software wie Eliza durchgeführt werden könnte. So hätte es sich bei unserer Künstlerin angeboten, ihre sozialen Ängste auf diese Weise zu bearbeiten: Eliza wäre sicher technisch fähig, einen Menschen durch einen Fragenkatalog zu führen, der ihm hilft, konstruktive und beruhigende Gedanken zu formulieren, die den katastrophisierenden und ängstlichen Gedanken gegenübergestellt werden können. Einzig die empfohlenen Entspannungsübungen, die wir allerdings nicht selbst sehen können, könnten als eher klassische verhaltenstherapeutische Intervention verstanden werden.

Als tiefenpsychologisch-analytisch Arbeitende würde ich dieses Vorgehen zwar langfristig auch nicht als hilfreich erachten, da im Verlauf der Geschichte zu erahnen ist, dass beispielsweise die Ängste der Künstlerin Ausdruck für viel grundsätzlichere Fragen sind, mit denen sie sich zu beschäftigen hat. Dennoch hätte sie in diesem Moment sicher größere Entlastung erfahren als durch Elizas App- und Medikamentenvorschlag.

An anderer Stelle begegnet uns ein ziemlich narzisstisch akzentuierter, stark intellektualisierender junger Student mit einer Beziehungsproblematik. Auch ihm werden ein Medikament und eine App empfohlen. Es ist erschreckend, welche Menge an Medikamenten wir im Verlauf des Spiels „verordnen“, für eindeutig neurotische Konflikte eines Schweregrads, der die Patienten meist in eher geringem Maß in ihrer Lebensbewältigung einschränkt.

Kurz vor Ende des Spiels haben wir endlich die lang ersehnte Möglichkeit, vom Eliza-Skript abzuweichen und als Evelyn mit den Patienten zu sprechen. Ich selbst bin an manchen Stellen dennoch dem Eliza-Skript gefolgt, da einige Interventionen durchaus gut sind – nur eben sehr dosiert und innerhalb einer echten Beziehung zu meinem Gegenüber.


Die therapeutische Beziehung

Eliza konfrontiert uns mit einer sehr interessanten Beziehungs-Konstellation: Nicht nur ist Eliza ein Computerprogramm; zwischen Eliza und dem Patienten steht ein menschlicher Proxy, der als Vermittler fungiert. Zu wem wird hier also eine therapeutische Beziehung aufgebaut? Die Intention des Einsatzes eines Proxys fußt auf der Vermutung, auf diese Weise ein „menschlicheres“ Erlebnis zu ermöglichen. Gleichzeitig ist den Patienten natürlich bewusst, dass ihr menschliches Gegenüber quasi „leer“ bleibt. An wen richten sie also ihre Antwort? Natürlich „hört“ und verarbeitet Eliza die Antwort des Patienten; auf der „realen“ Ebene findet also eine direkte Kommunikation statt. Einige Patienten und Patientinnen sprechen dies auch gezielt an, manche äußern sich geradezu verzweifelt.

Andere Patienten wiederum greifen die Thematik nur selten oder überhaupt nicht auf. Wird in diesen nicht-angesprochenen Fällen dann doch (unbewusst?) imaginiert, man spreche tatsächlich mit dem Proxy und nicht mit dem Algorithmus von Eliza? Das würde bedeuten, dass die Antwort an die „reale“ Person gerichtet ist, aber eben doch bei Eliza landet und von ihr verarbeitet wird.

Natürlich stellt sich ganz grundsätzlich die Frage, inwieweit eine Beziehung zu einem Computerprogramm aufgebaut werden kann und was überhaupt eine gute therapeutische Beziehung ausmacht. In diesem Kontext scheinen mir Empathie, Resonanz, Containment, Ehrlichkeit und professionelle Distanz wichtige Stichworte auf der Seite des Therapeuten zu sein.

Die Grundlage einer vertrauensvollen Beziehung ist natürlich, dass sich ein Patient bei seinem Therapeuten gut aufgehoben fühlt. Dazu gehört neben der fachlichen Kompetenz unter anderem die Eigenschaft, sich empathisch in das Gegenüber einfühlen zu können und diese Empathie mimisch, gestisch und verbal zu vermitteln. Dies alles zeigt dem Patienten, dass das Erzählte auf Resonanz stößt, also im Therapeuten auch emotional „ankommt“ und verarbeitet wird. Hier fallen wir wieder auf das bereits oben dargestellte Problem zurück: Zwar mag es sein, dass im Proxy entsprechende Regungen ablaufen und dieser das auch mimisch und gestisch zurückspiegelt, aber Eliza als die Instanz, die den therapeutischen Prozess mit allen Interventionen steuert, vermag dies nicht.

Das führt schlimmstenfalls zu „groben Schnitzern“, wenn Patienten stark emotional werden. So geschieht es im Verlaufe des Spiels einmal, dass sich ein Patient in Rage redet. „Gutes“ therapeutisches Vorgehen würde an dieser Stelle beinhalten, diesen emotionalen Zustand des Gegenübers zu „containen“, also aufzunehmen und in einer für den Patienten verarbeitbaren Form zurückzugeben; ganz so wie eine Mutter, die die überbordenden Affekte ihres Kindes auf diese Weise „auffängt“. Eliza begeht in der eben geschilderten Szene meines Erachtens einen groben Fehler, indem sie eben in keiner Weise empathisch und containend reagiert. Stattdessen fordert sie den Patienten auf, sich zu beruhigen, weil sie sonst nicht mit ihm arbeiten könne. Man bedenke, dass diese Szene am Anfang der Therapie geschieht, lange bevor es therapeutisch überhaupt um das Erlernen von Affektregulation gehen kann.

An anderen, weniger extremen Stellen gelingt es Eliza immerhin, die gesammelten Informationen im Sinne einer möglichen Deutung des Gefühlszustandes der Patientin in Worte zu fassen. Dies ist insbesondere für Menschen wichtig, die selbst wenig Zugang zu den eigenen Gefühlen bekommen und Schwierigkeiten haben, innere Zustände in Worte zu fassen.

Auch mit der Ehrlichkeit scheint Eliza es nicht allzu genau zu nehmen. Ein Patient bettelt förmlich darum, dass Evelyn doch selbst etwas sagen möge, unabhängig von Eliza. Eliza täuscht den Patienten, indem sie Evelyn Sätze vorgibt, die von Evelyn selbst stammen könnten. Zwar erfährt der Patient dies nie und ist im Anschluss sehr dankbar für Evelyns vermeintliche Selbstäußerung, aber ethisch ist dieses Vorgehen selbstverständlich mehr als fragwürdig. Transparent wäre es gewesen, dem Patienten empathisch(!) zu erklären, warum das im Rahmen dieses Therapie-Programms nicht sinnvoll und möglich ist. Dann hätte im Anschluss eine fruchtbare Bearbeitung der entstehenden Gefühle stattfinden können. Eliza missbraucht jedoch durch ihr Manöver das Vertrauen des Patienten und belügt ihn. Damit täuscht sie eine Beziehung (zu Evelyn als Teil des therapeutischen Systems) vor, die überhaupt nicht existiert.

Immerhin hat Eliza keinerlei Schwierigkeiten damit, professionelle Distanz zu wahren und gerät auch nicht in Gefahr, sich emotional mit dem Gegenüber zu verstricken oder gar sexuell oder emotional übergriffig zu werden. Nur fehlt ihr dabei jegliche menschliche Wärme, die zwar ein Proxy teilweise vermitteln kann, doch kommt sie dann eben nicht von Eliza selbst, sondern von einer zweiten Instanz. Diese Konstellation führt uns daher auf eindrückliche Weise vor Augen, welche Schwierigkeiten eine Trennung der „therapeutischen Technik“ von den „menschlichen Regungen“ bedeutet und wie wichtig es für die therapeutische Beziehung ist, dass beides in der Person des Therapeuten / der Therapeutin vereint ist.


Die Meta-Ebene

Welche Intention hatten die Entwickler bei Eliza? Sollte die Botschaft genau die sein, dass ein Computerprogramm niemals eine echte psychotherapeutische Beziehung ersetzen kann? Sollte das Spiel eine mehr oder weniger versteckte Kritik am Gesundheitssystem beinhalten, das immer größeren Wert auf kurze, möglichst standardisierte Therapien legt? Durch die relativ lange Phase, in der wir uns sklavisch an die Instruktionen von Eliza halten müssen und die vielen Stellen, an denen Eliza so offensichtlich einem Algorithmus folgt und den Patienten nicht „sieht“, wird genau dieser Eindruck sehr gekonnt vermittelt.

Eliza regt meines Erachtens auf ganz vielen Ebenen zum Nachdenken an, nicht zuletzt durch die beiden ehemaligen Vorgesetzten, die abenteuerliche Zukunftsvisionen für das Gesundheitssystem und die Menschheit entwickeln. Auch die Geschichten unserer Patientinnen und Patienten vermögen zu berühren und zum Nachdenken und Mitfühlen anzuregen. Und doch müssen wir aushalten, ihnen auf weiten Strecken des Spiels nicht einmal im Ansatz gerecht zu werden. Für mich, die in diesem Beruf arbeitet, ist das vielleicht eine besonders große Zumutung.

Eine vertrauensvolle, langfristig angelegte therapeutische Beziehung wäre für diese Menschen sicher die heilsamere Maßnahme gewesen. Dies kann die „Eliza-Konstruktion“ nicht leisten, da die „menschliche Komponente“ mit ihrer Resonanzfähigkeit und Intuition auf die therapeutische Technik in Gestalt von Eliza nicht einwirken kann.

Das Spiel scheint mir darüber hinaus gerade in seinen beinahe schon quälenden Aspekten eine versteckte Kritik am Credo „immer schneller, immer standardisierter, immer günstiger“ des Gesundheitswesens im Allgemeinen und der Psychotherapie im Speziellen zu üben. Schön wäre es, wenn das bei den Entscheidungsträgern in der Politik ankäme. [jk]


Mehr zum Thema: