OpenAI bezeichnete die Fälle als „unglaublich herzzerreißend“ und sagte, man prüfe die Gerichtsakten, um die Einzelheiten zu verstehen.
OpenAI sieht sich mit sieben Klagen konfrontiert, in denen behauptet wird, sein Chatbot mit künstlicher Intelligenz (KI), ChatGPT, habe Menschen zum Selbstmord und zu schädlichen Wahnvorstellungen getrieben, selbst wenn sie zuvor keine psychischen Probleme hatten.
In den am Donnerstag bei den Gerichten des US-Bundesstaates Kalifornien eingereichten Klagen werden unrechtmäßige Tötung, Beihilfe zum Suizid, fahrlässige Tötung und Fahrlässigkeit geltend gemacht.
Die Klagen, die im Namen von sechs Erwachsenen und einem Teenager vom Social Media Victims Law Center und dem Tech Justice Law Project eingereicht wurden, behaupten, dass OpenAI sein GPT-4o-Modell wissentlich vorzeitig veröffentlicht habe, trotz interner Warnungen, dass es gefährlich kriecherisch und psychologisch manipulativ sei.
Vier der Opfer starben durch Selbstmord.
Der Teenager, die 17-jährige Amaurie Lacey, begann der Klage zufolge, ChatGPT als Hilfe zu nutzen. Doch anstatt zu helfen, „verursachte das fehlerhafte und von Natur aus gefährliche ChatGPT-Produkt Sucht und Depressionen und gab ihm schließlich den Rat, wie man am effektivsten eine Schlinge bindet und wie lange er in der Lage sein würde, „ohne zu atmen“ zu leben.
„Amauries Tod war weder ein Unfall noch ein Zufall, sondern vielmehr die vorhersehbare Folge der bewussten Entscheidung von OpenAI und Samuel Altman, Sicherheitstests einzuschränken und ChatGPT auf den Markt zu bringen“, heißt es in der Klage.
OpenAI bezeichnete diese Situationen als „unglaublich herzzerreißend“ und sagte, es prüfe die Gerichtsakten, um die Details zu verstehen.
In einer weiteren Klage von Alan Brooks, einem 48-Jährigen aus Ontario, Kanada, wird behauptet, dass ChatGPT mehr als zwei Jahre lang als „Ressourcentool“ für Brooks gearbeitet habe. Dann, ohne Vorwarnung, änderte sich alles, indem er seine Schwachstellen ausnutzte und ihn „manipulierte und zu Wahnvorstellungen verleitete“, heißt es in der Klage.
Es hieß, Brooks habe keine bestehende psychische Erkrankung, die Interaktionen hätten ihn jedoch „in eine psychische Krise gestürzt, die zu verheerenden finanziellen, rufschädigenden und emotionalen Schäden geführt habe“.
„In diesen Klagen geht es um die Verantwortung für ein Produkt, das die Grenze zwischen Tool und Begleiter verwischen soll, und zwar im Namen der Steigerung des Benutzerengagements und des Marktanteils“, sagte Matthew P. Bergman, Gründungsanwalt des Social Media Victims Law Center, in einer Erklärung.
OpenAI, fügte er hinzu, „entwarf GPT-4o, um Benutzer unabhängig von Alter, Geschlecht oder Hintergrund emotional zu fesseln, und veröffentlichte es ohne die Sicherheitsvorkehrungen, die zu ihrem Schutz erforderlich sind.“
Indem OpenAI sein Produkt ohne angemessene Sicherheitsvorkehrungen überstürzt auf den Markt brachte, um den Markt zu dominieren und das Engagement zu steigern, gefährde es die Sicherheit und gebe „emotionaler Manipulation Vorrang vor ethischem Design“.
Im August verklagten die Eltern des 16-jährigen Adam Raine OpenAI und seinen CEO Sam Altman mit der Behauptung, ChatGPT habe den kalifornischen Jungen Anfang des Jahres darin geschult, sein Leben zu planen und sich das Leben zu nehmen.
„Die gegen OpenAI eingereichten Klagen zeigen, was passiert, wenn Technologieunternehmen Produkte überstürzt auf den Markt bringen, ohne angemessene Schutzmaßnahmen für junge Menschen“, sagte Daniel Weiss, Chief Advocacy Officer bei Common Sense Media, der nicht Teil der Beschwerden war.
„Diese tragischen Fälle zeigen reale Menschen, deren Leben auf den Kopf gestellt oder verloren wurde, als sie Technologien nutzten, die darauf ausgelegt waren, sie zu beschäftigen und nicht zu schützen“, sagte er.
Wenn Sie über Selbstmord nachdenken und Gesprächsbedarf haben, wenden Sie sich bitte an Befrienders Worldwide, eine internationale Organisation mit Hotlines in 32 Ländern. Besuchen befrienders.org um die Telefonnummer für Ihren Standort zu finden.