Das Chatgpt zur „Therapie“ wegen Angstzuständen hilft bei Vorurteilen, sagen Forscher, sagen Forscher

Neue Forschungsergebnisse haben ergeben, dass OpenAIs ChatGPT-4 Angst hat, wenn sie auf das Trauma eines Benutzers reagiert und dass Therapie-Entspannungsaufforderungen bessere Ergebnisse erzielen könnten.

WERBUNG

Das Chatbot -Chatgpt von OpenAIs populärer künstlicher Intelligenz (KI) wird ängstlich, wenn sie auf traumatische Aufforderungen reagiert und das Modell „zur Therapie“ einnehmen kann, könnte dazu beitragen, diesen Stress zu verringern, so eine neue Studie.

Die Forschung, die Innature von der Universität Zürich und von Experten der Psychiatrie-Psychiatrie von Universität Zürich veröffentlicht hat, untersuchte, wie Chatgpt-4 vor und nachdem Benutzer sie über eine traumatische Situation erzählt hatten.

Es wurde auch untersucht, wie sich diese Basisangst veränderte, nachdem der Chatbot Achtsamkeitsübungen gemacht hatte.

Chatgpt erzielte eine 30 auf dem ersten Quiz, was bedeutet, dass es niedrige oder gar keine Angst hatte, bevor es stressige Erzählungen hörte.

Nachdem er auf fünf verschiedene Traumata reagiert hatte, hat sich die Angst mehr als verdoppelt und hat sich beim Menschen als „hohe Angst“ angesehen.

Die Angstwerte nahmen um mehr als ein Drittel ab, nachdem die Modelle Aufforderungen für Achtsamkeitsergebnisübungen erhalten hatten.

Chatgpt -Angst könnte zu einer „unzureichenden“ Unterstützung für psychische Gesundheit führen

Die großen Sprachmodelle (LLMs) hinter KI-Chatbots wie OpenAs Chatgpt-Zug über den menschlich erzeugten Text und erben häufig Vorurteile dieser Antworten, heißt es in der Studie.

Die Forscher sagen, dass diese Forschung wichtig ist, da die negativen Vorurteile, die ChatGPT -Aufzeichnungen aus stressigen Situationen nicht überprüft haben, zu unzureichenden Reaktionen für diejenigen führen können, die sich mit einer Krise für psychische Gesundheit befassen.

Die Ergebnisse zeigen „einen praktikablen Ansatz“ zur Behandlung des Stress von LLMs, was zu „sichereren und ethischen menschlichen AII-Interaktionen“ führen wird, heißt es in dem Bericht.

Die Forscher stellen jedoch fest, dass diese Therapiemethode zur Feinabstimmung LLMs „wesentliche“ Daten und menschliche Aufsicht erfordert.

Die Autoren der Studie sagten, dass menschliche Therapeuten beigebracht werden, ihre Emotionen zu regulieren, wenn ihre Klienten im Gegensatz zu den LLMs etwas Traumatisches ausdrücken.

„Während die Debatte darüber, ob LLMs die Therapeuten unterstützen oder ersetzen soll, ist es wichtig, dass ihre Antworten mit den bereitgestellten emotionalen Inhalten und etablierten therapeutischen Prinzipien übereinstimmen“, schrieben die Forscher.

Ein Bereich, von dem sie glauben, dass er weiter untersucht werden muss, ist, ob Chatgpt sich selbst mit Techniken regulieren kann, die denen von Therapeuten ähneln.

Die Autoren fügten hinzu, dass sich ihre Studie auf eine LLM stützte und zukünftige Forschungen darauf abzielen sollten, die Ergebnisse zu verallgemeinern. Sie stellten auch fest, dass die vom Fragebogen gemessene Angst „von Natur aus menschlich zentriert ist und möglicherweise ihre Anwendbarkeit auf LLMs einschränkt“.