(MENAFN- The Conversation) Восемь месяцев до массового расстрела в Тумблер Ридж OpenAI знала, что что-то не так. Автоматизированная система проверки компании отметила аккаунт Jesse Van Rootselaar в ChatGPT за взаимодействия, связанные с сценариями насилия с оружием. Об этом знали примерно дюжина сотрудников. Некоторые предлагали обратиться в полицию. Вместо этого OpenAI заблокировала аккаунт, но не передала его правоохранительным органам, поскольку он не соответствовал «пороговым требованиям» на тот момент.
10 февраля Van Rootselaar убила восемь человек (ее мать, ее 11-летний сводный брат и шесть других в средней школе Тумблер Ридж), а затем покончила с собой.
Этот случай — не просто ошибка одной компании. Он выявляет отсутствие в Канаде правовой базы для ответственности, когда компания, занимающаяся ИИ, обладает информацией, которая могла бы предотвратить насилие.
Я, как исследователь этики здравоохранения и управления ИИ в Университете Саймона Фрейзера, изучаю, как алгоритмические системы меняют принятие решений в ситуациях высокого риска. Трагедия в Тумблер Ридж — яркий пример этого пересечения: частная корпорация провела клиническую оценку риска, к которой она не была подготовлена, в правовой среде, которая не давала ей руководства.
Проблема цифрового исповеди
Генеративные чатботы на базе ИИ — это не социальные сети. Социальные сети функционируют как публичная площадь, где посты могут быть отслежены и отмечены другими пользователями. Взаимодействия с чатботами — это приватное, интимное пространство, созданное для комфорта. Пользователи регулярно раскрывают страхи, фантазии и идеи насилия системам, запрограммированным отвечать с теплотой и разговорной манерой.
В клинической практике такие раскрытия вызывают хорошо установленную обязанность. Принцип Тарасофа, принятый во всех канадских провинциях через законодательство о психическом здоровье, обязывает терапевтов предупреждать, если они считают, что пациент представляет реальную угрозу для конкретного человека, даже если это нарушает конфиденциальность. Но эта обязанность основана на клиническом суждении обученных специалистов, понимающих разницу между идеацией и намерением.
Можно сказать, что OpenAI пыталась имитировать этот клинический стандарт. Но оценки проводят не судебные психологи, а инженеры-программисты и модераторы контента. Компания сама признала напряженность, отметив риски «перегибов» в применении правил и стресс для молодых людей из-за неожиданных визитов полиции.
Настоящий вопрос — не в том, оправдано ли было решение OpenAI. А в том, должна ли частная компания вообще принимать такие решения.
Пустота, в которой должна быть законодательная база
Федеральный министр по вопросам ИИ Эван Соломон, который намерен встретиться с представителями OpenAI 24 февраля по этому вопросу, заявил 21 февраля, что он «глубоко обеспокоен» раскрытой информацией, добавив, что федеральное правительство рассматривает «набор мер» и что «все варианты на столе». Но эти варианты остаются неопределенными, поскольку законодательные инструменты, которые могли бы их реализовать, больше не существуют.
Закон об искусственном интеллекте и данных, включенный в проект закона C-27, должен был стать ответом Канады на регулирование ИИ. Закон о вредоносных онлайн-контентах (Bill C-63) должен был бороться с вредоносным цифровым контентом. Оба закона были отменены при роспуске парламента в январе 2025 года.
Что остается — это добровольный кодекс поведения без юридической силы и без последствий за несоблюдение. Когда OpenAI отметила аккаунт Van Rootselaar, ее единственной обязанностью было следовать внутренней политике. Блокировка аккаунта сняла ответственность компании, но оставила человека, выражающего идеи насилия, без пути к вмешательству.
Закон о конфиденциальности в Канаде усугубляет проблему. Закон о защите личной информации и электронных документов содержит чрезвычайное исключение: раздел 7(3)(е) разрешает раскрывать информацию без согласия «лишь в случае чрезвычайной ситуации, угрожающей жизни, здоровью или безопасности человека». Но эта норма предназначена для ясных кризисных ситуаций, а не для вероятностных индикаторов угроз, которые создают взаимодействия с чатботами на базе ИИ. Для иностранной компании, ориентирующейся в этой неопределенности, неясность способствует бездействию.
Что нужно Канаде сейчас
Следующая попытка Канады в области цифрового управления должна учитывать, что взаимодействия человека с ИИ принципиально отличаются от постов в социальных сетях. Необходимы три элемента:
Обязательное законодательство с четкими юридическими порогами, при которых компании по ИИ должны передавать отмеченные взаимодействия властям. Эти пороги должны разрабатываться совместно с специалистами по психическому здоровью, правоохранителями и экспертами по конфиденциальности, а не оставаться на усмотрение отдельных корпораций.
Независимая комиссия по цифровой безопасности в качестве третьей стороны для оценки угроз. Когда компания по ИИ выявляет крайне тревожные взаимодействия, она должна передавать дело специалистам по оценке угроз, а не принимать решение самостоятельно или инициировать немедленное вооруженное реагирование полиции.
Современное законодательство о конфиденциальности, которое обеспечит ясность в вопросах раскрытия информации, специфичных для ИИ, устранив текущую неопределенность, которая поощряет бездействие.
На саммите по ИИ, прошедшем в Нью-Дели с 16 по 20 февраля, 86 стран, включая Канаду, обязались продвигать «безопасный, надежный и устойчивый» ИИ. Конкретных обязательств не последовало. Глава OpenAI Сэм Альтман подчеркнул необходимость международного регулирования ИИ и предложил создать международный орган по нормам безопасности ИИ, подобный Международному агентству по атомной энергии — ирония, которая не ускользнула от внимания тех, кто следил за раскрытиями в Тумблер Ридж.
Министр Соломон заявил, что все варианты на столе. Семьи жертв стрельбы, выжившие и разрушенное сообщество Тумблер Ридж живут с ценой, которую платят за то, что регулирование остается нерешенным слишком долго.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Опасность была отмечена, но не сообщена: что трагедия в Тумблер-Ридж раскрывает о вакууме в управлении ИИ в Канаде
(MENAFN- The Conversation) Восемь месяцев до массового расстрела в Тумблер Ридж OpenAI знала, что что-то не так. Автоматизированная система проверки компании отметила аккаунт Jesse Van Rootselaar в ChatGPT за взаимодействия, связанные с сценариями насилия с оружием. Об этом знали примерно дюжина сотрудников. Некоторые предлагали обратиться в полицию. Вместо этого OpenAI заблокировала аккаунт, но не передала его правоохранительным органам, поскольку он не соответствовал «пороговым требованиям» на тот момент.
10 февраля Van Rootselaar убила восемь человек (ее мать, ее 11-летний сводный брат и шесть других в средней школе Тумблер Ридж), а затем покончила с собой.
Этот случай — не просто ошибка одной компании. Он выявляет отсутствие в Канаде правовой базы для ответственности, когда компания, занимающаяся ИИ, обладает информацией, которая могла бы предотвратить насилие.
Я, как исследователь этики здравоохранения и управления ИИ в Университете Саймона Фрейзера, изучаю, как алгоритмические системы меняют принятие решений в ситуациях высокого риска. Трагедия в Тумблер Ридж — яркий пример этого пересечения: частная корпорация провела клиническую оценку риска, к которой она не была подготовлена, в правовой среде, которая не давала ей руководства.
Проблема цифрового исповеди
Генеративные чатботы на базе ИИ — это не социальные сети. Социальные сети функционируют как публичная площадь, где посты могут быть отслежены и отмечены другими пользователями. Взаимодействия с чатботами — это приватное, интимное пространство, созданное для комфорта. Пользователи регулярно раскрывают страхи, фантазии и идеи насилия системам, запрограммированным отвечать с теплотой и разговорной манерой.
В клинической практике такие раскрытия вызывают хорошо установленную обязанность. Принцип Тарасофа, принятый во всех канадских провинциях через законодательство о психическом здоровье, обязывает терапевтов предупреждать, если они считают, что пациент представляет реальную угрозу для конкретного человека, даже если это нарушает конфиденциальность. Но эта обязанность основана на клиническом суждении обученных специалистов, понимающих разницу между идеацией и намерением.
Можно сказать, что OpenAI пыталась имитировать этот клинический стандарт. Но оценки проводят не судебные психологи, а инженеры-программисты и модераторы контента. Компания сама признала напряженность, отметив риски «перегибов» в применении правил и стресс для молодых людей из-за неожиданных визитов полиции.
Настоящий вопрос — не в том, оправдано ли было решение OpenAI. А в том, должна ли частная компания вообще принимать такие решения.
Пустота, в которой должна быть законодательная база
Федеральный министр по вопросам ИИ Эван Соломон, который намерен встретиться с представителями OpenAI 24 февраля по этому вопросу, заявил 21 февраля, что он «глубоко обеспокоен» раскрытой информацией, добавив, что федеральное правительство рассматривает «набор мер» и что «все варианты на столе». Но эти варианты остаются неопределенными, поскольку законодательные инструменты, которые могли бы их реализовать, больше не существуют.
Закон об искусственном интеллекте и данных, включенный в проект закона C-27, должен был стать ответом Канады на регулирование ИИ. Закон о вредоносных онлайн-контентах (Bill C-63) должен был бороться с вредоносным цифровым контентом. Оба закона были отменены при роспуске парламента в январе 2025 года.
Что остается — это добровольный кодекс поведения без юридической силы и без последствий за несоблюдение. Когда OpenAI отметила аккаунт Van Rootselaar, ее единственной обязанностью было следовать внутренней политике. Блокировка аккаунта сняла ответственность компании, но оставила человека, выражающего идеи насилия, без пути к вмешательству.
Закон о конфиденциальности в Канаде усугубляет проблему. Закон о защите личной информации и электронных документов содержит чрезвычайное исключение: раздел 7(3)(е) разрешает раскрывать информацию без согласия «лишь в случае чрезвычайной ситуации, угрожающей жизни, здоровью или безопасности человека». Но эта норма предназначена для ясных кризисных ситуаций, а не для вероятностных индикаторов угроз, которые создают взаимодействия с чатботами на базе ИИ. Для иностранной компании, ориентирующейся в этой неопределенности, неясность способствует бездействию.
Что нужно Канаде сейчас
Следующая попытка Канады в области цифрового управления должна учитывать, что взаимодействия человека с ИИ принципиально отличаются от постов в социальных сетях. Необходимы три элемента:
Обязательное законодательство с четкими юридическими порогами, при которых компании по ИИ должны передавать отмеченные взаимодействия властям. Эти пороги должны разрабатываться совместно с специалистами по психическому здоровью, правоохранителями и экспертами по конфиденциальности, а не оставаться на усмотрение отдельных корпораций.
Независимая комиссия по цифровой безопасности в качестве третьей стороны для оценки угроз. Когда компания по ИИ выявляет крайне тревожные взаимодействия, она должна передавать дело специалистам по оценке угроз, а не принимать решение самостоятельно или инициировать немедленное вооруженное реагирование полиции.
Современное законодательство о конфиденциальности, которое обеспечит ясность в вопросах раскрытия информации, специфичных для ИИ, устранив текущую неопределенность, которая поощряет бездействие.
На саммите по ИИ, прошедшем в Нью-Дели с 16 по 20 февраля, 86 стран, включая Канаду, обязались продвигать «безопасный, надежный и устойчивый» ИИ. Конкретных обязательств не последовало. Глава OpenAI Сэм Альтман подчеркнул необходимость международного регулирования ИИ и предложил создать международный орган по нормам безопасности ИИ, подобный Международному агентству по атомной энергии — ирония, которая не ускользнула от внимания тех, кто следил за раскрытиями в Тумблер Ридж.
Министр Соломон заявил, что все варианты на столе. Семьи жертв стрельбы, выжившие и разрушенное сообщество Тумблер Ридж живут с ценой, которую платят за то, что регулирование остается нерешенным слишком долго.