Digitalisierung und Künstliche Intelligenz in der Psychotherapie
Mit der Digitalisierung haben verschiedene Formen Künstlicher Intelligenz Einzug in Praxen und Behandlungszimmer gehalten. Die verwendeten Systeme reichen vom Einsatz beim Termin- und Patientenmanagement über Datenanalyse zur Unterstützung der Diagnostik und Risikobewertung (z.B. bei bildgebenden Verfahren) bis hin zu Prognosemodellen, Therapieentscheidungen und Qualitätskontrollen. Generative KI kann zum Verfassen von Arztbriefen und Befunden, zur Dokumentation und Transkription eingesetzt werden. Für den Einsatz in der Praxis gilt, dass nur zertifizierte KI-System verwendet werden dürfen, die festgelegte Standards beispielsweise beim Datenschutz erfüllen. Die Digitalisierung hat auch die Heilmittel erreicht: Digitale Gesundheitsanwendungen (DiGAs) können von Ärzt*innen und Psychotherapeut*innen verordnet oder von Versicherten bei ihren Krankenkassen beantragt werden, sofern eine ärztliche oder psychotherapeutische Indikation vorliegt. Als Medizinische Heilhilfsmittel können sie wirksame Unterstützung bieten, sie können gesundheitsförderliches Verhalten stärken, eine erste Annäherung an eine Psychotherapie darstellen oder zur Überbrückung der Wartezeit bis zum tatsächlichen Behandlungsbeginn dienen. DiGAs können KI-Module umfassen, was aber nicht bei allen der Fall ist. Der Einsatz generativer KI – Chatbots ähnlich wie ChatGPT – für psychotherapeutische Gespräche ist momentan in der gesetzlichen Gesundheitsversorgung nicht vorgesehen. Es ist jedoch nicht unwahrscheinlich, dass sich dies in naher Zukunft ändern wird, wie zahlreiche aktuelle Studien zu diesem Thema, gesundheitspolitische Diskussionen und die wirtschaftlichen Interessen der Entwickler der Chatbots vermuten lassen.
Welche Folgen bringt die fortschreitende Digitalisierung für Praxen und Behandlungen mit sich? Bei den dazu geführten Diskussionen innerhalb der Profession, der Forschung und der Gesundheitspolitik werden wiederholt die folgenden Argumente betont: Digitalisierung und KI könnten Ärzt*innen und Psychotherapeut*innen entlasten, so dass ihnen mehr Zeit für ihre Patient*innen bliebe – was auch die Versorgung verbesserte. Gleichzeitig könnten KI-Systeme dabei helfen, Diagnose und Therapieplanung zu verbessern. Die Versorgung der Patient*innen wäre auch verbessert, da digitale Angebote keine Wartezeit hätten und rund um die Uhr verfügbar seien. Manchen Patient*innen falle es leichter, eine DiGA zu nutzen als eine Psychotherapie durchzuführen. DiGAs, welche per Smartphone oder Smartwatch erfasste Daten wie Sprach- oder Aktivitätsmuster überwachten, seien in der Lage, psychische Erkrankungen oder Zustandsverschlechterungen bei bekannten Erkrankungen frühzeitig zu erkennen und Interventionen anstoßen. Und zu guter Letzt: Angesichts klammer Kassen senkten DiGAs und KI die Kosten für Psychotherapie, da sie weniger Kosten verursachten als eine Psychotherapie im persönlichen Kontakt.
Bei all diesen rosigen Zukunftsaussichten und Versprechungen stellt sich die Frage nach den ‚Risken und Nebenwirkungen’ der Digitalisierung von Psychotherapie: Die Verwendung von DiGAs und KI hat Folgen für die Psyche und Beziehungsgestaltung der Nutzer*innen, sie wird die Gesundheitsversorgung vermutlich grundlegend verändern und gesellschaftliche Entwicklungen zu einem quantifizierten und atomisierten Menschenbild wie auch zur Ökonomisierung von Beziehungen (zu sich, zu anderen und zur Umwelt) vorantreiben – und in Konsequenz die zunehmende Vereinzelung weiter befördern. Die verfügbare Technik wird nicht nur den professionellen psychotherapeutischen Bereich prägen, sondern auch Alltag und Beziehungsgestaltung vieler Menschen. Schon jetzt fragen nicht wenige bei emotionalen Problemen einen Chatbot oder lassen sich Vorschläge zum Vorgehen bei interpersonalen Konflikten geben.
Digitale Gesundheitsanwendungen und Psychotherapie
Die Antworten eines Chatbots werden anhand komplexer Algorithmen statistisch errechnet und basieren letztendlich auf der Analyse der Inhalte unzähliger Gespräche und Texte, mit denen die KI zuvor gefüttert wurde, um Antwortwahrscheinlichkeiten zu berechnen. Die so produzierten Antworten des Chatbots simulieren ein denkendes, fühlendes und empathisches Gegenüber, simulieren Beziehung, simulieren vielleicht auch Psychotherapie. Welche Konsequenzen hat es, wenn die therapeutische Beziehung, der wesentliche unspezifische Wirkfaktor erfolgreicher Psychotherapie, nicht mit einem Menschen aufgenommen, sondern von einem Computerprogramm simuliert wird? Auch wenn Chatbots momentan noch nicht heilkundlich für psychotherapeutische Aufgaben eingesetzt werden dürfen, wird dies beispielsweise bereits von der Bundespsychotherapeutenkammer diskutiert (s. deren Curriculum Digitalisierung und ihre Anwendungen in der Psychotherapie vom 13.02.2026). Außerhalb gesetzlicher Regulierung wenden sich immer mehr Menschen bei seelischen Problemen an Chatbots, gerade auch Jugendliche. Welche psychischen Konsequenzen folgen daraus, sich mit seinen Sorgen und Problemen an einen Chatbot zu wenden?
Wer einen Chatbot anwendet, weiß, dass es sich um eine KI handelt, auch wenn diese möglichst menschenähnlich gestaltet wird, vielleicht sogar einen Namen, ein Aussehen oder einen bestimmten Sprachstil erteilt bekommt. Es entsteht die Täuschung eines geduldigen, aufmerksamen und ständig verfügbaren Gegenübers. Die KI erscheint als ideales Objekt, das ständig bekräftigt und nicht verurteilt, das positiv bleibt, nicht frustriert oder Grenzen setzt oder eine differierende Meinung vertritt. Das unter der Kontrolle der Nutzer*innen zu stehen scheint. Negative Erlebnisse und Erfahrungen, deren Wiedererleben und Durcharbeiten wesentlich für einen Therapieerfolg sind, bleiben außen vor und können kaum bearbeitet, kaum in ihrer Bedeutung verändert werden. Der Kontakt zu einem ideal erscheinenden Objekt vermag reale Beziehungen als anstrengender, frustrierender und weniger begehrenswert erscheinen lassen, wodurch sich sozialer Rückzug verstärken kann. Der vermeintliche Vorteil der niedrigen Schamgrenze beim Benutzen von Chatbots verleugnet die Empathielosigkeit dieses Kontakts, wobei noch wenig erforscht ist, welche psychischen Folgen sich daraus ergeben können, eine Maschine für ein empathisches Gegenüber zu halten. Das Wissen, dass es sich um ein Ding und keinen Menschen handelt, wird vergessen, aber gleichzeitig auch gewusst, weshalb keine Scham in der Kommunikation mit dem Bot erlebt zu werden braucht. Sollten eines Tages Chatbots statt Psychotherapeut*innen therapeutische Gespräche im Rahmen der gesetzlichen Gesundheitsversorgung anbieten, könnte dies als Kränkung erlebt werden, es nicht wert zu sein, mit einem realen Mensch zu sprechen.
Im Versprechen der ständigen Verfügbarkeit und Lösungsorientierung liegt die Gefahr, dass Chatbots (und in ähnlicher Weise auch DiGAs) kaum dazu beitragen, innere Strukturen und Fähigkeiten zu verbessern oder innere Konflikte zu bearbeiten, sondern sich bei Schwierigkeiten und Krisen vor allem auf die Anwendungen zu verlassen. Fähigkeiten, z.B. zur Affektregulation, werden nicht aufgebaut, sondern durch die KI oder Anwendung substituiert und dadurch vielleicht sogar vermindert – so wie beim Erkunden einer Gegend die Verwendung eines Navigationssystems dazu führen kann, kein neues geographisches Wissen aufzubauen und die Fähigkeit zur geographischen Orientierung zu verlernen. Gefördert wird so weniger die Zunahme von Autonomie als von Abhängigkeit.
Die von einer DiGA verwendeten Daten können physiologische Messwerte wie Puls oder Blutdruck umfassen, durch Monitoring z.B. des Smartphones erfasste Verhaltens- oder Sprachmuster oder bewusste Äußerungen wie Antworten auf einer Skala zur Stimmungslage. Die daraus errechneten Reaktionen der Anwendung zielen auf bewusst erfahrbare und ausführbare Handlungen ab, z.B. ein spezifisches Verhalten zu tun oder zu unterlassen – beispielsweise keinen Alkohol zu trinken und eine Atemübung durchzuführen. Die unbewusste Bedeutung von Symptomen und Verhalten liegt nicht im Anwendungsbereich. Käme beispielsweise jemand wiederholt zu einer Therapiesitzung verspätet, würde eine DiGA (oder eine KI zum Monitoring des Therapieverlaufs) vielleicht ein Training zur Verbesserung der Pünktlichkeit vorschlagen, nicht jedoch mögliche unbewusste Bedeutungen der Verspätung thematisieren: Ob es vielleicht um Fragen von Autonomie in Beziehungen, die Suche nach haltgebenden Grenzen oder anderen möglichen unbewussten Motiven geht, also um grundlegende Beziehungs- und Erlebensmuster. Es besteht die Gefahr einer Reduktion auf Symptome und bewusste Prozesse und einer Vernachlässigung des Affektiven, unbewusster Konflikte und der dysfunktionalen Beziehungen zu sich und zu anderen, worunter viele Patient*innen leiden. DiGAs und KI sind empathielos. Sie können beispielsweise kein Gefühl dafür entwickeln, warum jemand gerade schweigt – und empathisch darauf eingehen oder vielleicht ebenfalls schweigen.
Eine Psychotherapie beinhaltet, sich verletzlich zu zeigen und über intime Gedanken, Phantasien oder Gefühle zu sprechen, die nicht selten schambesetzt sind und mit Angst oder Schuldgefühlen einhergehen. Um diese Öffnung zu ermöglichen und um Patient*innen zu schützen, ist für die Durchführung einer Psychotherapie ein professioneller Rahmen unumgänglich, zu dem ein geschützter Raum, eine geschützte Beziehung und die Wahrung von Abstinenz gehören. Diese Voraussetzungen werden durch den Einsatz digitaler Produkte faktisch unterlaufen: Gibt es keinen geschützten Raum, kann mit der DiGA oder dem Chatbot auf dem Smartphone überall und jederzeit kommuniziert werden, wodurch gerade Patient*innen gefährdet werden, die aufgrund erlittener Grenzüberschreitungen wenig Bewusstsein dafür haben, sich selbst einen geschützten Raum zu schaffen. Eine geschützte Beziehung setzt ein menschliches Gegenüber voraus, mit dem überhaupt eine Beziehung aufgenommen werden kann, und welches die Schweigepflicht wahrt und nichts aus der Behandlung an Dritte weitergibt. Letzteres kann schon problematisch sein, wenn KI genutzt wird, um Stundenprotokolle oder Berichte zu verfassen, ohne dass die weitere Verwendung der Daten geklärt wäre. Werden die Behandlungsdaten vom Anbieter einer digitalen Anwendung gesammelt – z.B. um die Anwendung weiterzuentwickeln –, kann schon nicht mehr von einer geschützten Beziehung gesprochen werden.
Digitale Anwendungen in der Gesundheitsversorgung
Psychotherapie im System der Gesundheitsversorgung befindet sich im Spannungsfeld zwischen der Ethik einer angemessenen und ausreichenden Behandlung und dem ökonomischen Druck möglichst geringer Behandlungskosten. Vermeintlicher Kostendruck geht zu Lasten der Patient*innen, wenn diese nicht mehr angemessen versorgt werden. Wenn nicht das, was therapeutisch notwendig und sinnvoll, sondern das, was günstig ist, das Handeln bestimmt. Ein Beispiel dafür ist der Honorarzuschlag bei Kurzzeittherapien im Vergleich zu Langzeittherapien, der ökonomisch und nicht therapeutisch begründet ist. Ob eine therapeutisch unangemessene Kurzzeittherapie tatsächlich Kosten spart, wenn nicht nur die Kosten einer Kurzzeittherapie betrachtet werden, ist fraglich. Eine nicht ausreichend behandelte Erkrankung kann erneut auftreten, so dass wieder Behandlungskosten anfallen, wie möglicherweise auch indirekte Kosten aufgrund von Arbeits- und Erwerbsunfähigkeit oder Frühverrentung.
s steht zu befürchten, dass die Digitalisierung in der Gesundheitsversorgung gesundheitspolitisch dazu genutzt werden könnte, den Zugang zu Psychotherapie im persönlichen Kontakt zu erschweren. Es ist noch nicht geklärt, ob das im Koalitionsvertrag der Bundesregierung vereinbarte Primärarztsystem auch im Bereich der Psychotherapie umgesetzt wird und damit das Erstzugangsrecht zu Psychotherapeut*innen für Patient*innen abgeschafft wird. Diskutiert wird auch, dass Hausärzt*innen oder andere dazu eingesetzte Instanzen beurteilen sollen, ob eine behandlungswürdige psychische Erkrankung vorliegt, welche Schwere diese aufweist und welche Maßnahmen zu ergreifen sind. In einem Stufenmodell wäre bei vermeintlich leichteren Erkrankungen der Zugang zu Face-to-Face Psychotherapie verwehrt und digitale Gesundheitsanwendungen wären Teil eines ersten Angebots an Maßnahmen. Dabei besteht zum einen die Gefahr, dass unzutreffende Diagnosen und Behandlungsindikationen gestellt werden. Ein Beispiel dafür wären tiefgreifende Beziehungs- oder Erlebensstörungen, die bei einer Überanpassung oder einer ausgeprägten Leistungsorientierung mit nur wenigen Symptomen einhergehen und fälschlicherweise als ‚leicht‘ eingestuft werden würden. Darüber hinaus kann das Angebot digitaler Anwendung gesundheitspolitisch dazu dienen, die Honorierung psychotherapeutischer Leistungen zu drücken, da erstere vordergründig günstiger erscheinen. DiGAs werden in einem fast track Verfahren geprüft, bei dem es ausreicht, plausibel darzulegen, dass durch ihre Verwendung eine Verbesserung eintreten kann – üblicherweise durch den Vergleich mit einer Gruppe, die die DiGA im selben Zeitraum nicht genutzt hat. Die DiGA wird anschließend ins Verzeichnis des Bundesinstituts für Arzneimittel und Medizinprodukte (BfArM) aufgenommen und kommt für 2 Jahre in eine Erprobungsphase. Eine Wirksamkeit der Anwendung wird durch dieses Verfahren jedoch nicht nachgewiesen. Trotzdem werden sie als verschreibungspflichtige Medizinische Heilhilfsmittel deklariert, die ärztlich und psychotherapeutisch verschrieben werden können und deren Nutzung von den gesetzlichen Krankenkassen finanziert wird. Schließlich stellt sich bei digitalen Anwendungen die Frage der Verantwortlichkeit: Wie könnte eine KI feststellen, dass sie einen Fehler gemacht hat, und wer haftet bei Behandlungsfehlern?
Ein mehrstufiges System psychotherapeutischer Versorgung kann dazu beitragen, dass Psychotherapie im persönlichen Kontakt zur gleichen Zeit und am selben Ort nicht nur die Frage einer vermeintlich objektiven Indikationsstellung ist, sondern bevorzugt Personen vorbehalten bleibt, die es sich finanziell leisten können oder anderweitig privilegierten Zugang erhalten. Das mehrstufige System wäre dann ein Zwei-Klassen-System.
Digitale Gesundheitsanwendungen als Ware
DiGAs sind Produkte von Unternehmen, die der Marktlogik unterworfen sind und damit Gewinne erwirtschaften möchten. Wie aktuell auch bei anderen KI-Technologien werden weltweit große Summen in die Entwicklung von Anwendungen im Bereich psychischer Gesundheit investiert. Die Entwicklungskosten sollen sich für die Unternehmen rechnen und Rendite erbringen. Dies ist erstmal nicht grundlegend anders als bei Pharmaunternehmen, die mit ihren Medizinprodukten ebenfalls Gewinn erzielen möchten. Problematisch wird es, wenn Profitorientierung und das Ziel einer angemessenen Krankheitsbehandlung in Widerspruch geraten. Es entspricht dem Interesse des Unternehmens, seine digitalen Anwendungen möglichst häufig zu verkaufen, sowohl an möglichst viele Personen als auch wiederholt an dieselbe Person. Um dies zu erreichen, spielt die Akzeptanz des Produkts eine wichtige Rolle. Beim Design einer Anwendung besteht die Gefahr, dass Programminhalte vermieden werden, die Frustration, Angst, Ärger, Schmerz oder Unlust auslösen könnten. Das kommerzielle Interesse des Anbieters, Nutzer*innen möglichst dauerhaft an ihr Produkt zu binden, steht dann im Widerspruch zum Behandlungsauftrag, wenn Konfrontationen, Begrenzungen oder andere notwendige Interventionen durch die DiGA nicht ausreichend getätigt werden. Wie oben beschrieben besteht das Risiko, dass bei Anwendungen, die Elemente der Selbststeuerung übernehmen – die beispielsweise Patient*innen mit Depression zu Bewegung anhalten – durch die Nutzung zwar Aktivitäten aufgebaut werden, die Fähigkeit zur Selbststeuerung aber abnimmt. Smartwatches oder ähnliche Geräte, die physiologische Parameter überwachen, können bei medizinischen Risiken sehr hilfreich sein, sie können aber auch dazu beitragen, immer mehr das Gefühl für den Zustand des eigenen Körpers zu verlieren und sich immer mehr auf die Smartwatch zu verlassen, um den eigenen Zustand ablesen zu können – statt ihn zu spüren. Die Abhängigkeit von einer Anwendunge würde zunehmen, je mehr psychische Funktionen diese für eine Person übernähme.
Daten und Datenschutz bei digitalen Gesundheitsanwendungen
Bei der Verwendung von DiGAs fallen enorme Mengen an Daten an, für die sich die Fragen stellen, was mit ihnen weiter geschieht, wem sie gehören und ob sie sicher vor dem Zugriff Dritter sind. Nicht zuletzt die elektronische Patientenakte und die Telematikinfrastruktur geben immer wieder Anlass zur Sorge um die Sicherheit der verarbeiteten Daten – wie sieht es dann bei den von einer KI oder App erfassten persönlichen und gesundheitlichen Daten aus? Wesentlich dabei ist, ob die erfassten Daten – wie Messdaten, Eingaben und Reaktionen der Nutzer*innen oder Therapieprotokolle – vom Anbieter gesammelt und weiterverwendet werden. Art. 9 Abs. 1 der Datenschutz-Grundverordnung (DSGVO) verbietet die Verarbeitung von Gesundheitsdaten, lässt dies aber zu, wenn eine Einwilligung freiwillig und für einen bestimmten Zweck erfolgt, wie beispielsweise Forschungszwecke. Die automatische Sammlung von Gesundheitsdaten durch einen Anbieter zu kommerziellen Zwecken wäre damit im Wesentlichen ausgeschlossen, müsste jedoch für jede zugelassene Anwendung genau kontrolliert werden. Die Verarbeitung von Gesundheitsdaten mithilfe generativer KI, beispielsweise um Berichte oder Stundenprotokolle zu erstellen, verstieße in vielen Fällen gegen die DSGVO, wenn die genutzte Anwendung diese Daten sammelt und für Zwecke des Herstellers weiterverwendet und wenn die verarbeitenden Server nicht vor Fremdzugriffen geschützt sind. Auch wenn die Nutzung von Gesundheitsanwendungen oft von Krankenkassen finanziert wird, kann es zu einer Privatisierung der Daten durch die Hersteller kommen, die damit ihre Anwendungen weiterentwickeln und dann erneut verkaufen. Damit ginge auch die öffentliche und demokratische Kontrolle über die erhobenen Daten und deren Verarbeitung verloren.
In vielen Fällen ist unklar, auf welche Weise die Daten weiterverarbeitet werden. Dies gilt schon für klassische KI-Modelle zur Analyse von Daten, wenn die verwendeten Algorithmen nicht veröffentlich werden, und umso mehr für generative KI, deren Algorithmen auf statistischen Wahrscheinlichkeiten beruhen und nicht auf theoretischen Modellen. Die Verarbeitung von Daten durch eine KI kann zu eindrucksvollen Resultaten führen, die beispielsweise bei bildgebenden Verfahren in der Medizin sehr hilfreich sein können. Werden diese Leistungen jedoch auf andere Bereiche verallgemeinert, droht damit die Idealisierung der KI zu einer gottähnlichen Instanz, die alle Probleme zu lösen verspricht, wenn ihr nur genügend Daten zur Verfügung stehen – und gleichzeitig eigenes Wissen und Fähigkeiten verloren gehen, wenn sich auf die Fähigkeiten der KI verlassen wird. Es ist jedoch eine Fehlannahme, dass sich alle Fragen in der Medizin und Psychotherapie – und darüber hinaus – über Daten abbilden ließen; es ist reduktionistisch anzunehmen, alles ließe sich numerisch darstellen. Was sich nicht in Daten überführen lässt, wird ausgeblendet. Für das Menschsein, und damit für Psychotherapie, so wesentliche Bereiche wie Leiblichkeit und Sinnlichkeit, Zwischenmenschlichkeit, Erfahrung und Erleben, Sinn und Bedeutung spielen in der digitalen Welt keine Rolle, weil sie nicht quantifiziert werden können. Der Mensch wird zum Homo Numericus.
Wird ihnen keine Bedeutung gegeben, sind Daten nutzlos, dies gilt schon für eine rote Ampel. Annahmen, Konzepte und Interpretationen sind notwendig, um die Resultate einer KI verstehen zu können. Algorithmen können statistisch Wahrscheinlichkeiten und Korrelationen von Daten in imposanter Weise berechnen, dabei gehen jedoch die Modelle und Theorien verloren, die erklären können, was wie und warum zusammenhängt. Eine Korrelation ist keine Erklärung. Auch können statistische Zusammenhänge nur bedingt etwas über den Einzelfall aussagen – dass Hunde größer als Katzen sind, sagt mir nichts über die Größe eines spezifischen Hundes. Algorithmen können vielleicht oft passende Empfehlungen geben, sie ‚verstehen‘ aber nichts von dem, was sie empfehlen. Eine menschliche Beziehung, ein empathisches und resonantes Gegenüber, ist notwendig, um Datenpunkte nicht nur miteinander zu verknüpfen, sondern um ihnen Sinn und Bedeutung zu geben, damit Patient*innen anfangen können, sich (selbst) besser zu fühlen. Bei einer DiGA gibt es niemanden, der mitfühlen könnte.
Ausblick auf die Psychotherapie in einer digitalen Welt
Psychotherapeutische Organisationen wie die Psychotherapeutenkammer sind aufgrund ihrer Expertise in außerordentlicher Weise gefordert, auf die Auswirkungen der Digitalisierung aufmerksam zu machen. Der Nutzung von DiGAs und KI im Bereich der Psychotherapie müssen Forschung und Diskussionen zu den damit verbundenen individuellen psychischen Folgen, zu den Konsequenzen für die Psychotherapie als Heilmethode, zu Veränderungen in der gesetzlichen psychotherapeutischen Versorgung und zu dadurch vorangetriebenen gesellschaftlichen Entwicklungen vorausgehen.
Insbesondere bei Kindern und Jugendlichen führt der Umgang mit digitalen Kommunikationsmedien dazu, dass unmittelbare soziale Begegnungen abnehmen, Rückzugstendenzen, Vereinzelung und Einsamkeit zunehmen. Damit einher geht die Zunahme medizinischer Beschwerden – Einsamkeit ist als ernstzunehmende Ursache körperlicher wie seelischer Erkrankungen bekannt. Diesen Entwicklungen mit digitalen Gesundheitsanwendungen und Chatbots zu begegnen ist kontraindiziert, wenn Kinder, Jugendliche und Erwachsene nicht weniger, sondern mehr an persönlicher Beziehung und Begegnung brauchen.
Die Digitalisierung befördert eine Vorstellung, in der Menschsein nicht integrativ und mit anderen verbunden, sondern kompartmentalisiert, kybernetisch, algorithmisch und nicht zuletzt warenförmig gedacht wird. Erst durch dieses Menschenbild wird es möglich, Psychotherapie ebenso kompartmentalisiert zu betrachten, als Anwendung von Techniken und Algorithmen, die nur einzelne Elemente wie Symptome verändern sollen und nicht den gesamten Menschen behandeln. Erst auf dieses Verständnis aufbauend kann die Idee einer digitalen Psychotherapie entstehen. Verleugnet werden die einer technischen Vernunft nicht zugänglichen Aspekte des Menschseins wie die grundlegende Beziehungsorientierung und Verbundenheit mit anderen, die Integration von Körper und Seele, der Einfluss unbewusster Kräfte und Konflikte. Die Entfremdung von sich selbst ist die Folge: Werden psychische Erkrankungen beispielsweise als Regulationsstörungen von Neurotransmittern verstanden, sagt dies nichts darüber aus, was es bedeutet und wie es sich anfühlt depressiv zu sein. Die wesentliche Ebene, auf der eine Depression erlebt und erfahren wird, wird durch das Bild der Neurotransmitter nicht berührt, das einem Bild von außen entspricht und nicht dem inneren Empfinden. Wie soll darüber die Verbindung zu jemanden entstehen, der oder die mitfühlen, verstehen und berühren könnte? Wie soll darüber ein Empfinden des Gehalten- und Verstandenwerdens entstehen? Wie soll sich darüber jemand selbst besser verstehen, sich selbst besser fühlen können?
Die Umgestaltung von Psychotherapie zu einer planbaren und standardisierten Gesundheitstechnik spiegelt die Veränderung menschlicher Beziehungen und der individuellen Psyche wider, wie sie sich unter einem neoliberalen Kapitalismus vollzieht. Die Psychoanalytikerin Sally Weintrobe beschreibt, wie die Anforderungen einer neoliberalen Gesellschaft das „gleichgültige Selbst“ (uncaring self im Original) in uns fördern, das von einer rücksichtslosen Anspruchshaltung getrieben vor allem das größte Stück vom Kuchen für sich möchte. Gehemmt wird das „fürsorgliche Selbst“ (caring self) in uns, das Mitgefühl empfinden und nicht nur sich, sondern auch andere sehen kann. Das gleichgültige Selbst kümmert weder Klimawandel noch die zunehmende Bedrohung von Demokratie und Menschlichkeit, so dass es umso wichtiger ist, das fürsorgliche Selbst zu stärken.
