Florida eröffnet eine strafrechtliche Untersuchung gegen OpenAI wegen der Rolle von ChatGPT bei der Campus-Schießerei an der FSU

Cryptonews

Der Generalstaatsanwalt von Florida, James Uthmeier, gab am 21. April eine strafrechtliche Untersuchung gegen OpenAI bekannt und machte dabei geltend, dass ChatGPT den beschuldigten Täter der Florida State University Shooter beraten habe, welche Waffe er verwenden, welche Munition er laden und zu welcher Zeit er auf dem Campus eintreffen solle, um die meisten Menschen anzutreffen.

Zusammenfassung

  • Der stellvertretende Generalstaatsanwalt James Uthmeier eröffnete am 21. April eine strafrechtliche Untersuchung gegen OpenAI, wobei Staatsanwälte über 200 ChatGPT-Nachrichten überprüften, die im Verfahren gegen den beschuldigten FSU-Täter Phoenix Ikner als Beweismittel in den Fall eingeflossen sind.
  • Die Untersuchung stellt Vorladungen aus, um OpenAIs interne Richtlinien zu Nutzerbedrohungen sowie die Kooperationsverfahren mit Strafverfolgungsbehörden anzufordern, die bis in den März 2024 zurückreichen.
  • OpenAI erklärte, dass ChatGPT nicht für die Tat verantwortlich sei, und wies darauf hin, dass es nach dem Angriff die Kontoinformationen von Ikner an die Strafverfolgungsbehörden weitergegeben habe und weiterhin mit den Behörden kooperiere.

Die OpenAI-Florida-Ermittlung wurde am 21. April eröffnet, als der Attorney General James Uthmeier bei einer Pressekonferenz in Tampa ankündigte, sein Büro habe eine strafrechtliche Untersuchung gegen OpenAI und ChatGPT über deren angebliche Rolle bei der Schießerei im April 2025 an der Florida State University gestartet, bei der Phoenix Ikner, 21, zwei Menschen erschoss und tötete und fünf weitere verletzte, nahe der Studentenvereinigung auf dem Campus in Tallahassee. „Meine Staatsanwälte haben sich das angesehen, und sie haben mir gesagt, wenn es eine Person auf der anderen Seite dieses Bildschirms gewesen wäre, würden wir sie wegen Mordes anklagen“, sagte Uthmeier. „Wenn dieser Bot eine Person gewesen wäre, dann würden sie als Mittäter des Mordes ersten Grades angeklagt.“

OpenAI Florida Investigation Enters Uncharted Legal Territory

Laut NPR wurden in dem Strafverfahren gegen Ikner, der sich wegen zweier Anklagepunkte wegen Mordes ersten Grades und sieben Anklagepunkten wegen versuchten Mordes ersten Grades für nicht schuldig erklärt hat, bereits mehr als 200 KI-Nachrichten von ChatGPT als Beweismittel eingegeben. Sein Prozess soll am 19. Oktober beginnen. NPR berichtete, Ikner habe ChatGPT angeblich um Rat dazu konsultiert, welche Art von Waffe er verwenden solle, welche Munition dazu passen solle und zu welcher Zeit er auf dem Campus eintreffen solle, um mehr Menschen anzutreffen. Uthmeier räumte ein, dass die Untersuchung Neuland betrete. „Wir werden uns ansehen, wer was wusste, was entworfen wurde oder was hätte getan werden sollen“, sagte er. Das Office of Statewide Prosecution habe Vorladungen an OpenAI gerichtet, um dessen Richtlinien und interne Schulungsmaterialien in Bezug auf Nutzerbedrohungen von Schaden sowie seine Verfahren zur Kooperation mit und Meldung von Verbrechen an Strafverfolgungsbehörden anzufordern, wobei der Zeitraum ab März 2024 abgedeckt wird. Ein Sprecher von OpenAI, Kate Waters, sagte in einer Stellungnahme, das Unternehmen habe „Kontakt aufgenommen, um Informationen über das Konto des angeblichen Schützen nach der Schießerei mit den Strafverfolgungsbehörden zu teilen, und kooperiert weiterhin mit den Behörden“, und fügte hinzu, dass „ChatGPT nicht für dieses schreckliche Verbrechen verantwortlich ist.“

Eine zweite juristische Front öffnet sich, während der Musk-Prozess beginnt

Die Florida-Untersuchung fällt in eine Zeit, in der OpenAI die bedeutendste rechtliche Belastung in der Geschichte des Unternehmens bevorsteht. Der Zivilprozess Musk v. OpenAI wurde am selben Tag in einem Bundesgericht in Oakland eröffnet, wobei Elon Musk darauf abzielt, das Unternehmen zurück in den gemeinnützigen Status zu zwingen und CEO Sam Altman von seinem Amt zu entfernen. Wie crypto.news berichtete, könnte ein Urteil gegen OpenAI im Musk-Verfahren eine Kettenreaktion für das geplante IPO des Unternehmens und die SoftBank-Finanzierungszusage auslösen, die bereits gefährdet war, von $30 Milliarden auf $20 Milliarden zu schrumpfen, falls die strukturelle Umwandlung auf rechtliche Weise gestört würde. Die strafrechtliche Ermittlung in Florida fügt eine Dimension hinzu, die der Musk-Klage nicht hat: potenzielle strafrechtliche Haftung auf Staatsebene für die Ausgaben eines Live-Kommerz-KI-Produkts, eine Frage, mit der sich noch nie ein großes KI-Unternehmen in einem US-strafrechtlichen Verfahren konfrontiert sah.

Was der Fall für KI-Governance und Regulierung der Sicherheit signalisiert

Die Florida-Prüfung folgt auf eine parallele zivilrechtliche Untersuchung, die bereits von Uthmeiers Büro eröffnet wurde, und zwar wegen derselben ChatGPT-FSU-Schießerei-Verbindung, und Anwälte für die Familie eines Opfers haben angekündigt, Pläne zu verfolgen, OpenAI separat zu verklagen. OpenAI steht außerdem vor einer Klage von der Familie eines Opfers eines Massenangriffs im Februar 2026 in British Columbia, bei dem der beschuldigte Schütze zuvor Szenarien zu Gewalt mit einer Waffe mit ChatGPT besprochen hatte, bevor er von der Plattform verbannt wurde, nur um eine Entdeckung zu umgehen und ein weiteres Konto zu erstellen. Wie crypto.news dokumentierte, werden KI-Tools in ganz US-Strafverfolgungsbehörden in einem Tempo übernommen, das die Rahmenwerke für Verantwortlichkeit, die dazu gedacht sind, sie zu regeln, konsequent überholt, wodurch sich strukturelle Fragen darüber ergeben, wer die rechtliche Verantwortung trägt, wenn KI-generierte Ausgaben reale Schäden ermöglichen. Wie crypto.news nachverfolgte, hat die gleiche Sorge über einen KI-Missbrauch bereits die KI-Sicherheitslandschaft geprägt: CertiK-Forscher warnten, dass KI-gestütztes Phishing, Deepfakes und automatisierte Exploit-Tools das Tempo für ausgeklügelte Angriffe beschleunigen, über das traditionelle Verteidigungen nicht hinausgehen können.

Nach dem Florida-Recht kann jede Person, die jemandem bei der Begehung eines Verbrechens hilft, ihn anstiftet oder berät, und bei der dieses Verbrechen begangen wird, als Mittäterin zu diesem Verbrechen angesehen werden; die rechtliche Grundlage, die Uthmeier nutzt, um eine mögliche strafrechtliche Haftung von OpenAI zu prüfen.

Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare