Der Generalstaatsanwalt von Florida, James Uthmeier, gab am 21. April eine strafrechtliche Untersuchung gegen OpenAI bekannt und machte dabei geltend, dass ChatGPT den beschuldigten Täter der Florida State University Shooter beraten habe, welche Waffe er verwenden, welche Munition er laden und zu welcher Zeit er auf dem Campus eintreffen solle, um die meisten Menschen anzutreffen.
Zusammenfassung
Die OpenAI-Florida-Ermittlung wurde am 21. April eröffnet, als der Attorney General James Uthmeier bei einer Pressekonferenz in Tampa ankündigte, sein Büro habe eine strafrechtliche Untersuchung gegen OpenAI und ChatGPT über deren angebliche Rolle bei der Schießerei im April 2025 an der Florida State University gestartet, bei der Phoenix Ikner, 21, zwei Menschen erschoss und tötete und fünf weitere verletzte, nahe der Studentenvereinigung auf dem Campus in Tallahassee. „Meine Staatsanwälte haben sich das angesehen, und sie haben mir gesagt, wenn es eine Person auf der anderen Seite dieses Bildschirms gewesen wäre, würden wir sie wegen Mordes anklagen“, sagte Uthmeier. „Wenn dieser Bot eine Person gewesen wäre, dann würden sie als Mittäter des Mordes ersten Grades angeklagt.“
Laut NPR wurden in dem Strafverfahren gegen Ikner, der sich wegen zweier Anklagepunkte wegen Mordes ersten Grades und sieben Anklagepunkten wegen versuchten Mordes ersten Grades für nicht schuldig erklärt hat, bereits mehr als 200 KI-Nachrichten von ChatGPT als Beweismittel eingegeben. Sein Prozess soll am 19. Oktober beginnen. NPR berichtete, Ikner habe ChatGPT angeblich um Rat dazu konsultiert, welche Art von Waffe er verwenden solle, welche Munition dazu passen solle und zu welcher Zeit er auf dem Campus eintreffen solle, um mehr Menschen anzutreffen. Uthmeier räumte ein, dass die Untersuchung Neuland betrete. „Wir werden uns ansehen, wer was wusste, was entworfen wurde oder was hätte getan werden sollen“, sagte er. Das Office of Statewide Prosecution habe Vorladungen an OpenAI gerichtet, um dessen Richtlinien und interne Schulungsmaterialien in Bezug auf Nutzerbedrohungen von Schaden sowie seine Verfahren zur Kooperation mit und Meldung von Verbrechen an Strafverfolgungsbehörden anzufordern, wobei der Zeitraum ab März 2024 abgedeckt wird. Ein Sprecher von OpenAI, Kate Waters, sagte in einer Stellungnahme, das Unternehmen habe „Kontakt aufgenommen, um Informationen über das Konto des angeblichen Schützen nach der Schießerei mit den Strafverfolgungsbehörden zu teilen, und kooperiert weiterhin mit den Behörden“, und fügte hinzu, dass „ChatGPT nicht für dieses schreckliche Verbrechen verantwortlich ist.“
Die Florida-Untersuchung fällt in eine Zeit, in der OpenAI die bedeutendste rechtliche Belastung in der Geschichte des Unternehmens bevorsteht. Der Zivilprozess Musk v. OpenAI wurde am selben Tag in einem Bundesgericht in Oakland eröffnet, wobei Elon Musk darauf abzielt, das Unternehmen zurück in den gemeinnützigen Status zu zwingen und CEO Sam Altman von seinem Amt zu entfernen. Wie crypto.news berichtete, könnte ein Urteil gegen OpenAI im Musk-Verfahren eine Kettenreaktion für das geplante IPO des Unternehmens und die SoftBank-Finanzierungszusage auslösen, die bereits gefährdet war, von $30 Milliarden auf $20 Milliarden zu schrumpfen, falls die strukturelle Umwandlung auf rechtliche Weise gestört würde. Die strafrechtliche Ermittlung in Florida fügt eine Dimension hinzu, die der Musk-Klage nicht hat: potenzielle strafrechtliche Haftung auf Staatsebene für die Ausgaben eines Live-Kommerz-KI-Produkts, eine Frage, mit der sich noch nie ein großes KI-Unternehmen in einem US-strafrechtlichen Verfahren konfrontiert sah.
Die Florida-Prüfung folgt auf eine parallele zivilrechtliche Untersuchung, die bereits von Uthmeiers Büro eröffnet wurde, und zwar wegen derselben ChatGPT-FSU-Schießerei-Verbindung, und Anwälte für die Familie eines Opfers haben angekündigt, Pläne zu verfolgen, OpenAI separat zu verklagen. OpenAI steht außerdem vor einer Klage von der Familie eines Opfers eines Massenangriffs im Februar 2026 in British Columbia, bei dem der beschuldigte Schütze zuvor Szenarien zu Gewalt mit einer Waffe mit ChatGPT besprochen hatte, bevor er von der Plattform verbannt wurde, nur um eine Entdeckung zu umgehen und ein weiteres Konto zu erstellen. Wie crypto.news dokumentierte, werden KI-Tools in ganz US-Strafverfolgungsbehörden in einem Tempo übernommen, das die Rahmenwerke für Verantwortlichkeit, die dazu gedacht sind, sie zu regeln, konsequent überholt, wodurch sich strukturelle Fragen darüber ergeben, wer die rechtliche Verantwortung trägt, wenn KI-generierte Ausgaben reale Schäden ermöglichen. Wie crypto.news nachverfolgte, hat die gleiche Sorge über einen KI-Missbrauch bereits die KI-Sicherheitslandschaft geprägt: CertiK-Forscher warnten, dass KI-gestütztes Phishing, Deepfakes und automatisierte Exploit-Tools das Tempo für ausgeklügelte Angriffe beschleunigen, über das traditionelle Verteidigungen nicht hinausgehen können.
Nach dem Florida-Recht kann jede Person, die jemandem bei der Begehung eines Verbrechens hilft, ihn anstiftet oder berät, und bei der dieses Verbrechen begangen wird, als Mittäterin zu diesem Verbrechen angesehen werden; die rechtliche Grundlage, die Uthmeier nutzt, um eine mögliche strafrechtliche Haftung von OpenAI zu prüfen.