Interview Wissenschaft

Spar die Therapie, wofür gibt’s ChatGPT?

KI ist mittlerweile normalisierter Bestandteil des Alltags, vor allem das Programm ChatGPT. Doch kann es therapeutische Fachkräfte ersetzen und Hilfesuchenden angemessen beistehen? Eine therapeutische Perspektive.

Das Gespräch führte Miramé Kühlwein; Illustration von Vic Eisen

Im Interview ermöglicht die Leipziger Psychotherapeutin Diana Kunitz einen tieferen Einstieg in die Materie und vor allem einen fachlichen Einblick. Sie hat sich bereits mit der Thematik auseinandergesetzt, als sie unter anderem Teil der Dokumentation Better Than Human? – Leben mit KI war. In dieser schätzt sie die Leistungen von KI im therapeutischen Kontext ein.  

Glauben Sie, es kann zu Konflikten in der Behandlung kommen, wenn sich ein*e Patient*in gleichzeitig Hilfe bei ChatGPT und einem*r Therapeut*in holt?

Zunächst möchte ich dazu sagen, dass ich es generell nicht empfehlen kann, ChatGPT als Therapeut*in zu verwenden. Tiefgreifende therapeutische Prozesse kann man ChatGPT noch nicht zutrauen. Grundsätzlich haben wir in der ambulanten Therapie die Regelung, dass ein*e Patient*in immer nur durch ein*e Therapeut*in in seinem/ihrem Prozess begleitet wird. Therapeut*innen arbeiten unterschiedlich und haben verschiedene Ansätze, die sich im Weg stehen könnten. Dies kann auch bei der parallelen Nutzung von Chat-GPT passieren. Es würde den/die Patient*in womöglich eher irritieren, als nützen. Fragen könnte man sich außerdem: Traut der/die Patient*in seinem*r Therapeut*in nicht zu, dass er dort die notwendige Unterstützung bekommt?

Was denken Sie sind die größten Gefahren daran, sich einer KI anzuvertrauen, anstatt jemandem, der professionell helfen kann?

KI macht z. B. das, was Therapeut*innen nicht machen sollen – ständig Ratschläge geben. Patienten sollen dazu angeleitet werden, selbst Lösungen zu finden, damit diese besser angenommen und umgesetzt werden können. Außerdem verstärkt die KI häufig Voreinstellungen der Nutzer*innen und hinterfragt wenig. Dadurch kann es zum Fehlen einer kritischen Auseinandersetzung mit der Thematik und Fehlentwicklungen kommen.

In welchen Fällen kann ChatGPT Menschen doch auch helfen und bei der Selbsthilfe unterstützen?

Wenn es um klare Sachverhalte geht, um Abläufe, die strukturiert sind, möglicherweise. Aber für reflektive Auseinandersetzungsprozesse kann ich es überhaupt nicht empfehlen. Vielleicht kann es auch mal bei der Generierung von Formulierungen helfen, wenn es beispielsweise darum geht, wie kann ich etwas bei meinem Chef ansprechen, um sich überhaupt zu trauen, über etwas Bestimmtes zu reden. Es bleibt aber immer die Pflicht des*r User*in eine kritische Haltung gegenüber der KI-Antwort einzunehmen, was je nach psychischer Erkrankung jedoch nicht immer gegeben ist.

Ist es ein signifikanter Vorteil im therapeutischen Prozess, dass sich ChatGPT mehr über die Patient*innen merken kann, als ein Mensch es jemals könnte? 

Wofür wäre es ein signifikanter Vorteil? Vielleicht sollte man Therapeut*innen da nicht unterschätzen. Wir üben das tagtäglich uns Sachen zu merken, die Patient*innen erzählen und was wäre so schlimm daran, wenn das Gegenüber nochmal nachfragt: Wie war das denn nochmal?

Was würden Sie sagen sind die elementarsten Aspekte, bei denen eine KI menschliche Therapeut*innen nicht ersetzen kann?

Auf die aktuelle Lage bezogen vor allem empathisches, warmherziges Einfühlen. Die KI kann zudem nur Informationen geben, wodurch Patient*innen Hilfe finden, aber dafür sorgen, dass sie tatsächlich in die Umsetzung der Empfehlungen kommen, kann die KI nicht.

Könnte man ChatGPT jedoch in der Überbrückungszeit nutzen, während man auf einen Therapieplatz wartet? Oder sollte man sich auch in dieser Phase direkt an beispielsweise sozialpsychiatrische Dienste wenden?

Wenn, dann sollte man zertifizierte Gesundheitsanwendungen nutzen, nicht ChatGPT. Beispielsweise Gesundheitsapps, die von der Kassenärztlichen Bundesvereinigung zugelassen sind und von Therapeut*innen empfohlen werden. Diese unterliegen auch Datenschutzmaßnahmen, es wird darauf geachtet, dass sie der DSGVO und dem europäischen AI Act gerecht werden.

Wie wichtig ist Konfrontation in der Therapie? Ein Aspekt, der bei ChatGPT oft fehlt.

Je nach Erkrankungsbild und je nach Thema total wichtig. Das muss ich aber wohldosiert machen. Das ist ein Punkt, den kann ich nicht einfach rüberreichen. Man muss darauf achten, in welchem Moment des therapeutischen Prozesses das gut reinpasst. Aber gerade wenn es um Verhaltensweisen geht, muss man dem Patienten spiegeln, was da passiert.

Gibt es sonst noch etwas, was Sie zu dem Thema sagen möchten?

Vielleicht reflektierende Fragen. Das Argument für die Leute Programme wie ChatGPT zu nutzen ist ja immer, dass es nicht so viele Therapieplätze gibt. Warum investiert man nicht in das Schaffen von mehr Therapieplätzen, anstatt in die Entwicklung immer neuer KI-Anwendungen? Die Entwicklung dieser Programme ist schließlich auch nicht kostengünstig.

Die zweite Frage wäre, warum man KI-Anwendungen allgemein in Praxen verwenden kann – die sollen administrative Prozesse vereinfachen oder die Doku-Zeit verkürzen etc. Da ist für mich die Frage, warum brauchen wir dazu KI, warum können wir nicht die administrativen Prozesse oder die Dokumentationsaufwände reduzieren?

Das sind Punkte, die ich nochmal kritisch hinterfragen möchte.

Vielen Dank für das Gespräch!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert