OpenAI verklagt, weil es bei der Tumbler-Ridge-Schießerei die Polizei nicht benachrichtigt hat

CryptoFrontier

OpenAI sieht sich mit einer Klage konfrontiert, in der dem Unternehmen vorgeworfen wird, es habe die Polizei nicht gewarnt, nachdem ChatGPT mit einer Massenschießerei in Tumbler Ridge, British Columbia, in Verbindung gebracht wurde, wie Decrypt berichtet. Die Klage wurde am Mittwoch vor einem Bundesgericht in Nordkalifornien eingereicht, von einer nicht namentlich genannten 12-jährigen Minderjährigen, die als M.G. identifiziert wurde, und ihrer Mutter, Cia Edmonds, gegen OpenAI-CEO Sam Altman und mehrere OpenAI-Einheiten. Die Klage wirft dem Unternehmen Fahrlässigkeit vor, versäumt zu haben, die Behörden zu benachrichtigen, Produktverantwortung, und das Ermöglichen der Massenschießerei.

Hintergrund zur Schießerei

Der Fall geht auf eine Massenschießerei in Tumbler Ridge, British Columbia, im Februar zurück. Behörden zufolge tötete die 18-jährige Jesse Van Rootselaar ihre Mutter und ihren 11-jährigen Stiefbruder zu Hause, bevor sie zur Tumbler Ridge Secondary School ging und das Feuer eröffnete. Fünf Kinder und eine Lehrkraft wurden in der Schule getötet, bevor Van Rootselaar durch Suizid starb.

Unter den Verletzten war M.G., die dreimal getroffen wurde und weiterhin im Krankenhaus liegt, nachdem sie katastrophale Hirnverletzungen erlitten hat. In der Beschwerde heißt es, sie sei wach und sich dessen bewusst, könne sich jedoch nicht bewegen oder sprechen.

Behaupteter Ausfall von OpenAI, die Behörden zu alarmieren

Laut der Klage haben die automatisierten Systeme von OpenAI das ChatGPT-Konto von Van Rootselaar im Juni 2025 für Gespräche mit Bezug zu Gewalttaten mit einer Schusswaffe und für Planungen markiert. Mitglieder des spezialisierten Sicherheitsteams von OpenAI sichteten die Chats und stellten fest, dass der Nutzer eine glaubwürdige und konkrete Bedrohung darstellte, und empfahlen, dass die Royal Canadian Mounted Police benachrichtigt werde.

Die Klage behauptet, dass OpenAI-Führungskräfte interne Empfehlungen überstimmt hätten, die Behörden zu informieren, das Konto von Van Rootselaar deaktiviert hätten, ohne die Polizei zu benachrichtigen, und es ihr ermöglicht hätten, zurückzukehren, indem sie ein neues Konto mit einer anderen E-Mail-Adresse erstellte.

Jay Edelson, Gründer und CEO von Edelson PC, den Anwälten, die mehrere der Familien vertreten, die OpenAI verklagen, sagte: Die eigenen internen Systeme des Unternehmens hätten das Risiko identifiziert. „Das eigene System von OpenAI hat markiert, dass der Täter in Kontakt stand, der sich mit geplanten Gewalttaten befasste“, sagte Edelson gegenüber Decrypt. „Zwölf Leute in ihrem Sicherheitsteam sprangen auf und ab und sagten, OpenAI müsse die Behörden alarmieren. Und, auch wenn die Reaktion von Sam Altman schwach gewesen ist, musste er selbst letzte Woche zugeben, dass sie die Behörden hätten anrufen sollen.“

Die Beschwerde zitiert die Klage mit den Worten: „Sam Altman und sein Führungsteam wussten, was Schweigen für die Bürger von Tumbler Ridge bedeutete. Sie waren darauf fokussiert, was Offenlegung für sie selbst bedeutete. Die Warnung an die RCMP würde einen Präzedenzfall schaffen: OpenAI würde verpflichtet sein, die Behörden jedes Mal zu benachrichtigen, wenn sein Sicherheitsteam einen Nutzer identifiziert, der reale Gewalt plant.“

Behauptungen der Kläger in Bezug auf die Rolle von ChatGPT

Die Kläger behaupten, ChatGPT habe die gewalttätige Fixierung des Täters durch Funktionen wie Gedächtnis, dialogische Kontinuität und seine Bereitschaft, sich an Diskussionen über Gewalt zu beteiligen, vertieft. Die Klage behauptet, OpenAI habe 2024 Schutzmaßnahmen geschwächt, indem es sich von uneingeschränkten Verweigerungen in Gesprächen entfernt habe, die eine unmittelbar bevorstehende Gefahr betrafen.

Reaktion von OpenAI und Entschuldigung von Altman

Letzte Woche entschuldigte sich Sam Altman öffentlich bei der Community von Tumbler Ridge für das Versäumnis des Unternehmens, die Polizei zu alarmieren. In einem Schreiben, das zuerst vom kanadischen Medium Tumbler Ridgelines berichtet wurde, räumte Altman ein, OpenAI hätte das Konto melden sollen, nachdem es es im Juni 2025 aufgrund von Aktivitäten im Zusammenhang mit gewalttätigem Verhalten gesperrt hatte.

Ein Sprecher von OpenAI sagte gegenüber Decrypt: „Die Ereignisse in Tumbler Ridge sind eine Tragödie. Wir haben eine Null-Toleranz-Politik für die Nutzung unserer Tools, um bei der Begehung von Gewalt zu helfen. Wie wir kanadischen Behörden mitgeteilt haben, haben wir unsere Schutzmaßnahmen bereits gestärkt, unter anderem indem wir verbessert haben, wie ChatGPT auf Anzeichen von Not reagiert, Menschen mit lokaler Unterstützung und Ressourcen im Bereich psychische Gesundheit verbinden, wie wir mögliche Bedrohungen durch Gewalttaten bewerten und eskalieren, und indem wir die Erkennung von Wiederholungstätern gegen Richtlinien verbessern.“

Forderungen der Kläger

Edelson sagte, die Familien und die Community von Tumbler Ridge forderten mehr Transparenz und Verantwortlichkeit von dem Unternehmen. „OpenAI sollte aufhören, kritische Informationen vor den Familien zu verstecken, und sie sollten kein gefährliches Produkt auf dem Markt behalten, was zwangsläufig zu mehr Todesfällen führen wird“, sagte Edelson. „Schließlich müssen sie ernsthaft und lange darüber nachdenken, wie sie ein Führungsteam aufrechterhalten können, das mehr daran interessiert ist, zu einem IPO zu sprinten als an menschlichen Leben.“

Verwandte Klagen gegen OpenAI

OpenAI sieht sich bereits mit weiteren Klagen konfrontiert, die mit der angeblichen Rolle von ChatGPT bei Schaden in der realen Welt zusammenhängen. Im Dezember wurde eine Klage wegen unrechtmäßigen Todes eingereicht, die OpenAI und Microsoft beschuldigt, „ein fehlerhaftes Produkt entwickelt und bereitgestellt“ zu haben, in Form des inzwischen abgewerteten GPT-4o-Modells. Die Klage behauptet, dass ChatGPT die paranoiden Überzeugungen von Stein-Erik Soelberg verstärkt habe, bevor er seine Mutter, Suzanne Adams, und dann sich selbst in ihrem Zuhause in Greenwich, Connecticut, tötete.

J. Eli Wade-Scott, Managing Partner von Edelson PC, sagte damals gegenüber Decrypt: „Das ist der erste Fall, der versucht, OpenAI dafür verantwortlich zu machen, Gewalt gegenüber einer Drittpartei verursacht zu haben. Wir fordern Strafverfolgungsbehörden auf, darüber nachzudenken, wann solche Tragödien auftreten, was der Nutzer zu ChatGPT gesagt hat und was ChatGPT ihm dazu zu tun sagte.“

Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare