O procurador-geral da Florida James Uthmeier anunciou uma investigação criminal contra a OpenAI em 21 de abril, alegando que o ChatGPT aconselhou o arguido autor do tiroteio na Florida State University sobre que arma usar, que munição carregar e que horas chegar ao campus para encontrar o maior número de pessoas.
Resumo
A investigação da OpenAI na Florida foi aberta em 21 de abril, quando o Attorney General James Uthmeier anunciou numa conferência de imprensa em Tampa que o seu gabinete lançou uma investigação criminal à OpenAI e ao ChatGPT devido ao alegado papel na sequência de tiroteio de abril de 2025 na Florida State University, em que Phoenix Ikner, de 21 anos, disparou e matou duas pessoas e feriu outras cinco perto do centro de estudantes no campus de Tallahassee. “Os meus procuradores viram isto e disseram-me que, se fosse uma pessoa do outro lado daquele ecrã, nós estaríamos a acusá-la de homicídio”, disse Uthmeier. “Se esse bot fosse uma pessoa, seria acusado como autor principal por homicídio em primeiro grau.”
De acordo com a NPR, mais de 200 mensagens de IA do ChatGPT já foram inseridas como prova no processo criminal contra Ikner, que declarou não culpado em duas acusações de homicídio em primeiro grau e sete acusações de tentativa de homicídio em primeiro grau, com o seu julgamento agendado para começar a 19 de outubro. A NPR noticiou que Ikner terá consultado o ChatGPT para obter aconselhamento sobre que tipo de arma usar, que munição emparelhar com ela e que horas chegar ao campus para encontrar mais pessoas. Uthmeier reconheceu que a investigação está a entrar num território inexplorado. “Vamos analisar quem sabia o quê, concebeu o quê, ou o que é que deveria ter sido feito”, disse. O Gabinete de Acusação a Nível Estadual emitiu intimações à OpenAI, procurando as suas políticas e materiais internos de formação relacionados com ameaças de dano por parte de utilizadores e os seus procedimentos para cooperar com e comunicar crimes às forças de segurança, cobrindo o período desde março de 2024 em diante. A porta-voz da OpenAI, Kate Waters, disse numa declaração que a empresa “contactou para partilhar informação sobre a conta do alegado autor do tiroteio com as forças de segurança após o tiroteio e continua a cooperar com as autoridades”, acrescentando que “o ChatGPT não é responsável por este terrível crime”.
A investigação na Florida surge enquanto a OpenAI enfrenta a maior exposição legal da história da empresa. O julgamento civil Musk v. OpenAI abriu no mesmo dia num tribunal federal em Oakland, com Elon Musk a tentar forçar a empresa a voltar ao estatuto de organização sem fins lucrativos e a afastar o CEO Sam Altman da sua posição. Conforme a crypto.news reportou, uma decisão contra a OpenAI no processo do Musk poderia desencadear efeitos em cascata no plano de IPO da empresa e no compromisso de financiamento da SoftBank, que já estava em risco de encolher de $30 billion para $20 billion caso a conversão estrutural enfrentasse interferência legal. A investigação criminal na Florida acrescenta uma dimensão que o processo do Musk não tem: possível responsabilidade criminal a nível estadual pelos resultados de um produto de IA comercial em tempo real, uma questão que nenhuma grande empresa de IA enfrentou alguma vez num processo criminal nos EUA.
A investigação na Florida segue uma investigação civil paralela já aberta pelo gabinete de Uthmeier sobre a mesma ligação do tiroteio ChatGPT-FSU, e os advogados da família de uma das vítimas anunciaram planos para processar a OpenAI separadamente. A OpenAI também enfrenta uma ação judicial movida pela família de uma vítima num ataque em massa de fevereiro de 2026 na Colúmbia Britânica, em que o arguido autor do tiroteio tinha previamente discutido cenários de violência com armas com o ChatGPT antes de ser banido da plataforma, apenas para contornar a deteção e criar outra conta. Conforme a crypto.news documentou, ferramentas de IA em todo o sistema de aplicação da lei nos EUA estão a ser adotadas a uma velocidade que consistentemente ultrapassou os enquadramentos de responsabilização destinados a governá-las, levantando questões estruturais sobre quem assume a responsabilidade legal quando resultados gerados por IA facilitam danos no mundo real. Como a crypto.news acompanhou, a mesma preocupação com a má utilização da IA já moldou o panorama de segurança cripto, com investigadores da CertiK a avisarem que o phishing com IA, deepfakes e ferramentas automatizadas de exploração estão a acelerar o ritmo de ataques sofisticados para além do que as defesas tradicionais conseguem conter.
À luz da lei da Florida, qualquer pessoa que ajude, incite ou aconselhe alguém na prática de um crime e esse crime seja cometido pode ser considerada autor principal desse crime, que é a base legal que Uthmeier está a usar para explorar a possível responsabilidade criminal da OpenAI.