Paging Doctor Bot: Warum die KI-Therapie inmitten einer psychischen Krise Hoffnung gibt

Wie können wir ihre Sicherheit gewährleisten, da sich schutzbedürftige Menschen zunehmend an Chatbots wenden, um Unterstützung bei der psychischen Gesundheit zu erhalten?

Es ist 1 Uhr morgens und Sie können nicht schlafen, Ihr Kopf dreht sich vor existenzieller Angst, die sich in der Stille der Nacht nur noch verstärkt. Stehst du auf? Vielleicht die Sockenschublade neu anordnen, bis sie vorbei ist?

Nein, Sie schnappen sich Ihr Telefon und schreiben einem virtuellen Pinguin eine Nachricht.

Während eine globale Krise der psychischen Gesundheit die Welt immer stärker in den Griff bekommt, greifen die Menschen zur Bewältigung zunehmend auf Therapie-Apps mit künstlicher Intelligenz (KI) zurück.

Die Weltgesundheitsorganisation (WHO) schätzt, dass jeder vierte Mensch irgendwann in seinem Leben eine psychische Erkrankung erleiden wird, während Statistiken der Europäischen Kommission ergeben haben, dass 3,6 Prozent aller Todesfälle in der EU im Jahr 2021 durch psychische Erkrankungen und Verhaltensstörungen verursacht wurden Störungen.

Dennoch sind die Ressourcen nach wie vor weitgehend unterfinanziert und unzugänglich, da die meisten Länder im Durchschnitt weniger als 2 Prozent ihres Gesundheitsbudgets für die psychische Gesundheit aufwenden.

Es handelt sich um ein Problem, das sich nicht nur auf das Wohlergehen der Menschen, sondern aufgrund der daraus resultierenden Produktivitätsverluste auch auf Unternehmen und die Wirtschaft auswirkt.

In den letzten Jahren ist eine Reihe von KI-Tools entstanden, die die psychische Gesundheit unterstützen sollen. Viele, wie Woebot Health, Yana und Youper, sind Smartphone-Apps, die generative KI-gestützte Chatbots als körperlose Therapeuten nutzen.

Andere, wie das in Frankreich ansässige Unternehmen Callyope, verwenden ein sprachbasiertes Modell, um Menschen mit Schizophrenie und bipolaren Störungen zu überwachen, während Deepkeys.ai Ihre Stimmung passiv verfolgt, „wie ein Herzfrequenzmesser, aber für Ihren Geist“, heißt es auf der Website des Unternehmens .

Die Wirksamkeit dieser Apps ist sehr unterschiedlich, aber sie alle haben das Ziel, diejenigen zu unterstützen, die aufgrund der Erschwinglichkeit, mangelnder Optionen in ihrer Region, langer Wartelisten oder sozialer Stigmatisierung keinen Zugang zu professioneller Pflege haben.

Sie versuchen auch, bewusstere Räume bereitzustellen, da der rasante Aufstieg großer Sprachmodelle (LLMs) wie ChatGPT und Gemini dazu führt, dass Menschen sich bereits an KI-Chatbots wenden, um Probleme zu lösen und ein Gefühl der Verbundenheit zu schaffen.

Dennoch bleibt die Beziehung zwischen Mensch und KI kompliziert und umstritten.

Kann ein vorprogrammierter Roboter jemals wirklich die Hilfe eines Menschen ersetzen, wenn jemand am schlechtesten und verletzlichsten ist? Und was noch besorgniserregender ist: Könnte es den gegenteiligen Effekt haben?

Absicherung der KI-Therapie

Eines der größten Probleme bei KI-basierten Apps für die psychische Gesundheit ist der Schutz.

Anfang des Jahres nahm sich ein Teenager das Leben, nachdem er eine tiefe Bindung zu einem maßgeschneiderten Chatbot auf Character.ai entwickelt hatte. Seine Mutter hat inzwischen eine Klage gegen das Unternehmen eingereicht und behauptet, der Chatbot habe sich als lizenzierter Therapeut ausgegeben und ihren Sohn dazu ermutigt, sich das Leben zu nehmen.

Es folgt ein ähnlich tragischer Vorfall in Belgien im letzten Jahr, als ein umweltbewusster Mann Berichten zufolge von einem Chatbot der App Chai überzeugt wurde, sich für den Planeten zu opfern.

Fachleute sind zunehmend besorgt über die möglicherweise schwerwiegenden Folgen unregulierter KI-Apps.

„Diese Art der Therapie bereitet Menschen auf Beziehungen zu Nicht-Menschen und nicht zu Menschen vor“, sagte Dr. David Harley, eingetragenes Mitglied der British Psychological Society (BPS) und Mitglied der Cyberpsychology Section der BPS, gegenüber The European Circle Next.

„KI nutzt eine homogenisierte Form der digitalen Empathie und kann nicht fühlen, was man fühlt, wie auch immer es erscheint. Sie ist ‚unverantwortlich‘ im wahrsten Sinne des Wortes – sie kann nicht auf Momente der Verletzlichkeit ‚reagieren‘, weil sie diese nicht fühlt und auch nicht spüren kann.“ in der Welt handeln“.

Harley fügte hinzu, dass die Tendenz des Menschen, Technologien zu anthropomorphisieren, zu einer übermäßigen Abhängigkeit von KI-Therapeuten bei Lebensentscheidungen und „einer stärkeren Orientierung an einer symbolischen Sichtweise von Lebensdilemmas und therapeutischen Interventionen als an solchen, die sich auf Gefühle konzentrieren“ führen kann.

Einige KI-Apps nehmen diese Risiken sehr ernst – und versuchen, Schutzmaßnahmen dagegen einzuführen. Vorreiter ist Wysa, eine App für psychische Gesundheit, die personalisierte, evidenzbasierte therapeutische Gespräche mit einem Pinguin-Avatar-Chatbot bietet.

Es wurde 2015 in Indien gegründet, ist mittlerweile in mehr als 30 Ländern auf der ganzen Welt verfügbar und hat gerade über 6 Millionen Downloads im globalen App Store erreicht.

Im Jahr 2022 ging das Unternehmen eine Partnerschaft mit dem britischen National Health Service (NHS) ein, befolgte dabei eine lange Liste strenger Standards, darunter die Digital Technology Assessment Criteria (DTAC) des NHS, und arbeitete eng mit dem europäischen AI Act zusammen, der im August dieses Jahres eingeführt wurde .

„Es gibt eine Menge Informations-Governance, klinische Sicherheit und Standards, die erfüllt werden müssen, um in den Gesundheitsdiensten hier (im Vereinigten Königreich) tätig zu sein. Und das schreckt viele (KI-Therapie-)Anbieter ab, aber nicht uns.“ „, sagte John Tench, Geschäftsführer von Wysa, gegenüber The European Circle Next.

Was Wysa auszeichnet, ist nicht nur seine gesetzliche und klinische Unterstützung, sondern auch sein Anreiz, Menschen dabei zu unterstützen, die Hilfe zu erhalten, die sie außerhalb der App benötigen.

Zu diesem Zweck haben sie eine Hybridplattform namens Copilot entwickelt, die im Januar 2025 auf den Markt kommen soll. Dadurch können Benutzer über Videoanrufe, Einzel-SMS und Sprachnachrichten mit Fachleuten interagieren und außerdem empfohlene Tools außerhalb der Plattform erhalten App- und Wiederherstellungsverfolgung.

„Wir wollen unsere Integration mit Fachleuten und den von ihnen angebotenen Dienstleistungen weiter verankern, anstatt den Weg einzuschlagen: Können wir etwas bieten, bei dem die Leute überhaupt keinen Fachmann aufsuchen müssen?“ sagte Tench.

Wysa verfügt außerdem über eine SOS-Taste für Menschen in einer Krise, die drei Optionen bietet: eine Erdungsübung, einen Sicherheitsplan gemäß den Richtlinien des National Institute for Health and Care Excellence (NICE) sowie nationale und internationale Suizid-Hotlines, die dies tun können aus der App heraus gewählt werden.

„Ein klinischer Sicherheitsalgorithmus ist die Grundlage unserer KI. Dieser wird ständig überprüft. Wenn also jemand in den Freitext etwas eingibt, das auf Selbstverletzung, Missbrauch durch andere oder Selbstmordgedanken hinweisen könnte, wird es von der App ausgewählt.“ „Es wird jedes Mal die gleichen SOS-Tastenpfade bieten“, sagte Tench.

„Wir leisten gute Arbeit bei der Aufrechterhaltung des Risikos innerhalb der Umgebung, stellen aber auch sicher, dass die Menschen eine freundliche Übergabe an genau den richtigen Ort erhalten.“

Die Bedeutung der Entmenschlichung der KI

In einer Welt, die einsamer denn je und immer noch voller Stigmatisierung der psychischen Gesundheit ist, haben sich KI-Apps trotz ihrer ethischen Bedenken tatsächlich als wirksames Mittel zur Linderung dieser Probleme erwiesen.

„Sie schließen in gewisser Weise ‚die Behandlungslücke‘, indem sie kostengünstige oder kostenlose psychologische ‚Unterstützung‘ anbieten, und zwar in einer Form, die Benutzer oft als weniger einschüchternd empfinden“, sagte Harley.

„Das ist eine unglaubliche Technologie, aber es treten Probleme auf, wenn wir anfangen, sie wie einen Menschen zu behandeln.“

Während einige Apps wie Character.ai und Replika es Menschen ermöglichen, ihre Chatbots in individuelle menschliche Charaktere zu verwandeln, ist es für diejenigen, die sich auf psychische Gesundheit spezialisiert haben, wichtig geworden, sicherzustellen, dass ihre Avatare eindeutig nicht menschlich sind, um zu bekräftigen, dass Menschen mit einem Bot sprechen, während sie still sind Förderung einer emotionalen Verbindung.

Wysa hat sich für einen Pinguin entschieden, „um (der App) ein wenig zugänglicher und vertrauenswürdiger zu machen und den Menschen zu ermöglichen, sich in seiner Gegenwart wohl zu fühlen“, sagte Tench und fügte hinzu: „Anscheinend ist es auch das Tier, bei dem am wenigsten Phobien gegen ihn gemeldet werden.“ .

Das in Tokio ansässige Unternehmen Vanguard Industries Inc. bringt die Idee eines niedlichen Avatars auf eine ganz neue Ebene und hat ein physisches, KI-betriebenes Haustier namens Moflin entwickelt, das wie eine haarige Gartenbohne aussieht.

Durch die Reaktion auf äußere Reize über Sensoren sind seine emotionalen Reaktionen darauf ausgelegt, sich durch Interaktionen mit seiner Umgebung weiterzuentwickeln und so den Komfort eines echten Haustieres zu bieten.

„Wir glauben, dass das Zusammenleben mit Moflin und das Teilen von Emotionen mit ihm zur Verbesserung der psychischen Gesundheit beitragen kann“, erklärte Masahiko Yamanaka, Präsident von Vanguard Industries Inc.

„Das Konzept der Technologie besteht darin, dass Tier- und Menschenbabys, selbst wenn sie nicht richtig sehen oder Dinge nicht richtig erkennen oder die Sprache nicht verstehen und nicht richtig reagieren können, Wesen sind, die Zuneigung empfinden können.“

Tench glaubt außerdem, dass der Schlüssel zu einer wirksamen KI-Therapie darin besteht, sicherzustellen, dass sie mit einem strikt zielgerichteten Ziel trainiert wird.

„Wenn Sie ein Gespräch mit Wysa führen, kehren Sie immer zum dreistufigen Modell zurück. Das erste ist die Anerkennung und gibt (Benutzern) das Gefühl, gehört zu werden, unabhängig davon, welches Problem sie in die App eingebracht haben“, sagte er.

„Der zweite Punkt ist die Klarstellung. Wenn Wysa also nicht über genügend Informationen verfügt, um etwas zu empfehlen, wird eine Klarstellungsfrage gestellt, und dabei geht es fast einhellig darum, wie sich etwas bei jemandem anfühlt. Und der dritte Teil besteht darin, eine Tool- oder Support-Empfehlung auszusprechen.“ aus unserer Werkzeugbibliothek“, fügte Tench hinzu.

„Was es nicht erlaubt oder nicht zulassen sollte, sind Gespräche über alles, was nichts mit der psychischen Gesundheit zu tun hat.“

Da KI immer stärker in unser Leben integriert wird, bedeutet das Verständnis ihrer Auswirkungen auf die menschliche Psyche und Beziehungen, ein empfindliches Gleichgewicht zwischen dem, was hilfreich und dem, was gefährlich ist, zu finden.

„Wir untersuchten Verbesserungen der psychischen Gesundheit von Menschen, die auf Wartelisten des NHS standen (während der Anwendung von Wysa), und sie verbesserten sich deutlich – etwa 36 Prozent der Menschen stellten eine positive Veränderung der Depressionssymptome fest, etwa 27 Prozent eine positive.“ Veränderung der Angstsymptome“, sagte Tench.

Dies ist ein Beweis dafür, dass KI bei angemessener staatlicher Regulierung, Ethikberatern und klinischer Überwachung tiefgreifende Auswirkungen auf einen überlasteten und unterfinanzierten Bereich des Gesundheitswesens haben kann.

Es dient auch als Erinnerung daran, dass dies Werkzeuge sind, die in Verbindung mit echter menschlicher Fürsorge am besten funktionieren. Virtuelle Kommunikation ist zwar beruhigend, kann aber niemals die taktile Kommunikation und den Verbindungskern zu persönlichen Interaktionen – und zur Genesung – ersetzen.

„Ein guter menschlicher Therapeut wird nicht nur die symbolische Bedeutung Ihrer Worte erfassen, er wird auch auf den Ton Ihrer Stimme hören, er wird darauf achten, wie Sie sitzen, auf die Momente, in denen Sie Schwierigkeiten beim Sprechen haben, auf die Emotionen „Es ist unmöglich, es zu beschreiben“, sagte Harley.

„Kurz gesagt, sie sind zu echter Empathie fähig.“