Загроза була виявлена, але не повідомлена: що трагедія у Тумблер Рідж відкриває про вакуум управління штучним інтелектом у Канаді

(MENAFN- The Conversation) Вісім місяців до масової стрілянини в Тумблер Рідж OpenAI знала, що щось не так. Автоматизована система перевірки компанії виявила акаунт Jesse Van Rootselaar у ChatGPT через взаємодії, пов’язані з сценаріями насильства з використанням зброї. Про це знали близько дюжини співробітників. Деякі наполягали на зверненні до поліції. Замість цього OpenAI заблокувала акаунт, але не передала його правоохоронним органам, оскільки тоді це не відповідало «пороговим вимогам».

10 лютого Van Rootselaar вбила вісім людей (свою матір, 11-річного напівбрата та ще шістьох у середній школі Тумблер Рідж), а потім наклала на себе руки.

Ця справа — не просто про помилку однієї компанії. Вона відкриває проблему відсутності будь-якої канадської правової бази для визначення відповідальності, коли компанія, що займається штучним інтелектом, має інформацію, здатну запобігти насильству.

Як дослідник у галузі етики здоров’я та управління ШІ у Університеті Саймона Фрейзера, я вивчаю, як алгоритмічні системи змінюють процес прийняття рішень у ситуаціях високого ризику. Трагедія в Тумблер Рідж — саме на цьому перетині: приватна компанія зробила клінічну оцінку ризику, до якої вона не була підготовлена, у правовому середовищі, яке не давало їй керівних принципів.

Проблема цифрового сповіщення

Генеративні чатботи на базі ШІ — це не соціальні мережі. Соціальні мережі — це публічний простір, де пости можна контролювати та позначати іншими користувачами. Взаємодії з чатботами — приватні, інтимні та створені для того, щоб бути дружніми. Користувачі регулярно відкриваються системам, що спроектовані відповідати теплом і розумінням, зізнаючись у страхах, фантазіях і насильницьких ідеях.

У клінічній практиці таке зізнання викликає обов’язок. Принцип Тарасофа, прийнятий у провінціях Канади через законодавство про психічне здоров’я, зобов’язує терапевтів попереджати, якщо вони визначають, що пацієнт становить реальну загрозу для конкретної особи, навіть якщо це означає порушення конфіденційності. Але цей обов’язок базується на клінічній оцінці кваліфікованих фахівців, які розрізняють ідеї та наміри.

Можна стверджувати, що OpenAI намагалася імітувати цей клінічний стандарт. Але оцінювачами є не психологи-криміналісти, а інженери-програмісти та модератори контенту. Саме компанія визнавала цю напруженість, зазначаючи ризики «надмірного застосування правил» і стресу від несподіваних візитів поліції до молоді.

Головне питання — не чи була логіка OpenAI виправданою сама по собі. А чи має приватна компанія взагалі право таке рішення приймати.

Порожнеча, де має бути законодавство

Міністр з питань штучного інтелекту Еван Соломон, який планує зустрітися з представниками OpenAI 24 лютого, заявив 21 лютого, що він «глибоко засмучений» цими розкриттями, додавши, що уряд розглядає «набір заходів» і що «усі варіанти на столі». Але ці варіанти залишаються невизначеними, оскільки законодавчі інструменти, які б їх підтримували, більше не існують.

Закон про штучний інтелект і дані, закладений у Bill C-27, мав стати відповіддю Канади на регулювання ШІ. Закон про онлайн-злочини (Bill C-63) мав регулювати шкідливий цифровий контент. Обидва законопроекти згорнулися, коли парламент був розпущений у січні 2025 року.

Залишився добровільний кодекс поведінки без юридичної сили та без наслідків за його порушення. Коли OpenAI позначила акаунт Van Rootselaar, її єдине зобов’язання — внутрішня політика. Заблокувавши акаунт, компанія зняла свою відповідальність, але залишила людину з ідеями насильства без можливості втручання.

Проблему ускладнює закон про приватність у Канаді. Закон про захист особистої інформації та електронних документів (PIPEDA) має екстрену статтю 7(3)(е), яка дозволяє розкриття без згоди «особі, якій потрібна інформація через надзвичайну ситуацію, що загрожує життю, здоров’ю або безпеці особи». Але ця норма розроблена для чітких криз, а не для ймовірних загроз, які генерують взаємодії з чатботами ШІ. Для іноземної компанії, яка орієнтується в цій невизначеності, невизначеність сприяє бездіяльності.

Що потрібно Канаді зараз

Наступна спроба Канади у цифровому управлінні має враховувати, що взаємодії людини з ШІ суттєво відрізняються від публікацій у соцмережах. Три елементи є ключовими:

  • Обов’язкове законодавство із чіткими порогами, коли компанії з ШІ мають передавати позначені взаємодії органам влади. Ці пороги мають розроблятися разом із фахівцями з психічного здоров’я, правоохоронцями та експертами з приватності, а не залишатися на розсуд окремих компаній.

  • Незалежна комісія з цифрової безпеки як третя сторона для оцінки випадків. Коли компанія виявляє серйозно тривожні взаємодії, вона має передавати їх фахівцям із оцінки загроз, а не приймати рішення сама або викликати озброєну поліцію.

  • Модернізоване законодавство про приватність, яке чітко визначає правила розкриття інформації для ШІ, щоб усунути невизначеність і стимулювати активні дії.

На саміті з ШІ, що відбувся в Нью-Делі 16–20 лютого, 86 країн, включно з Канадою, пообіцяли сприяти «безпечному, надійному та міцному» ШІ. Жодних конкретних зобов’язань не було. Сам Альтман із OpenAI наголосив на терміновості міжнародного регулювання ШІ і запропонував створити міжнародний орган для норм безпеки ШІ за зразком Міжнародного агентства з атомної енергії — іронія, яка не залишилася непоміченою серед тих, хто слідкує за розкриттями у Тумблер Рідж.

Міністр Соломон заявляє, що всі варіанти на столі. Родини жертв стрілянини, виживші та зруйнована громада Тумблер Рідж живуть із цим, що регулювання залишено відкритим надто довго.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити