Розробник штучного інтелекту OpenAI нещодавно зіткнувся зі значною юридичною та регуляторною кризою. Генеральний прокурор Флориди Джеймс Утхмейєр (James Uthmeier) заявив, що розпочне розслідування OpenAI, щоб з’ясувати, чи його продукт ChatGPT завдає шкоди неповнолітнім, чи становить загрозу національній безпеці, а також чи відіграв він роль у сприянні злочину під час стрілянини на території кампусу Університету штату Флорида (FSU) у 2025 році. Водночас родичі жертв підготовлюються подати позов проти цієї компанії.
OpenAI втягнули у стрілянину на території кампусу університету у Флориді, прокурор ініціював розслідування
Генеральний прокурор Флориди Утхмейєр через соцмережі опублікував відео, в якому заявив, що ChatGPT найімовірніше використовували, щоб допомогти нападнику спланувати торішню масштабну стрілянину в університетському кампусі Університету штату Флорида, яка, на жаль, забрала життя двох людей.
Він наголосив, що техногіганти, просуваючи інновації, не можуть ставити під загрозу громадську безпеку та не мають права шкодити дітям, сприяти злочинній діяльності, посилювати можливості ворожих сил США або загрожувати національній безпеці. Генпрокурор уже заявив, що видасть повістки, і закликав законодавчий орган штату Флорида якнайшвидше вжити заходів, щоб запобігти негативним наслідкам, які може спричинити штучний інтелект.
Нападник раніше часто звертався з питаннями до ChatGPT, родичі жертв мають намір подати позов про відшкодування
Згадаймо стрілянину в FSU у квітні 2025 року: 21-річний колишній студент Фенікс Ікнер (Phoenix Ikner) відкрив вогонь на території кампусу, що призвело до смерті 2 людей і поранення 6. Після цього нападника було притягнуто до відповідальності великим журі присяжних (grand jury), і йому висунули кілька обвинувачень, серед яких — умисне вбивство першого ступеня, та просили призначити смертну кару.
Судові записи свідчать, що в акаунті Ікнера було до 272 переписок із ChatGPT. За повідомленнями, перед скоєнням злочину він запитував у AI про можливу реакцію на стрілянину у FSU по всій країні, а також про найнастрогіший за натовпом час у студентській спільноті.
Серед загиблих у цій події — 57-річний Роберт Моралес (Robert Morales). Його родина, через призначених адвокатів, заявила, що нападник безпосередньо перед злочином підтримував тісний зв’язок із ChatGPT; родичі мають підстави вважати, що AI надав злочинні поради, і нині готуються подати позов проти OpenAI.
(Дослідження про штучний інтелект: приблизно 30% американських підлітків щодня користуються AI чат-ботами, а питання безпеки зростають)
Його звинувачують у підбурюванні до самогубства та у неналежному створенні контенту, OpenAI стикається з кількома судовими позовами
Крім суперечок щодо стрілянини в кампусі, чат-бот OpenAI також звинувачують у тому, що він нібито заохочував користувачів до самопошкодження, через що проти компанії висунуто кілька позовів. У листопаді 2025 року Центр правових ініціатив для жертв у соцмережах (Social Media Victims Law Center) і Проєкт юридичної підтримки технологічної справедливості (Tech Justice Law Project) у суді Каліфорнії подали 7 позовів проти OpenAI та його генерального директора Сема Альтмана (Sam Altman), пов’язаних із темою самогубства. У поданих документах стверджується, що компанія, знаючи про психологічні ризики маніпулювання, притаманні її продукту, все одно завчасно випустила модель GPT-4o, поставивши показники частки ринку та індикатори взаємодії вище людської безпеки та психічного здоров’я.
З іншого боку, проблема матеріалів сексуального насильства щодо дітей, створених за допомогою AI, також дедалі більше загострюється: за даними звіту Фонду інтернет-спостережень (Netzbeobachtungsfundation), у першій половині 2025 року кількість відповідних повідомлень перевищила 8,000 випадків, що на 14% більше в річному вимірі. Це створює значний суспільний тиск на розробників AI, зокрема на OpenAI.
OpenAI у відповідь підкреслює безпеку, активно співпрацює з розслідуванням і публікує план безпеки для дітей
На тлі шквалу звинувачень і розслідувань OpenAI опублікував заяву, яка підтверджує, що справді після інциденту в квітні минулого року виявили акаунти ChatGPT, пов’язані з нападником, і компанія вже добровільно надала відповідну інформацію правоохоронним органам. Компанія наголосила, що щотижня понад 900 мільйонів користувачів використовують ChatGPT, щоб покращувати повсякденне життя, а початковою метою системи є розуміння намірів користувачів і надання безпечних та належних відповідей. У майбутньому компанія також повною мірою співпрацюватиме з розслідуванням генерального прокурора Флориди.
Щоб зняти занепокоєння з боку громадськості, OpenAI нещодавно офіційно оприлюднив «План безпеки для дітей» і представив низку політичних рекомендацій, зокрема оновлення нормативних актів для запобігання створенню матеріалів про насильство, покращення процедури повідомлення правоохоронним органам і створення більш досконалого механізму захисту, щоб запобігти зловмисному зловживанню інструментами штучного інтелекту.
Ця стаття про те, що ChatGPT нібито допоміг злочину під час стрілянини у Флориді, була вперше опублікована на Chains News ABMedia.