Gate 广场|2/25 今日话题: #ETH多空对决
🎁【宠粉福利】带话题发帖,抽 5 位锦鲤送出 $2,500 仓位体验券!
ETH 多空博弈白热化!虽然巨鲸在撤退,但囤币党 2 月逆势扫货 250 万枚。上方 $2,000 关口堆积了超 20 亿美元空头,做多做空,你站哪一边?
💬 本期热议:
1️⃣ 反攻还是沉沦? $2,000 关口堆积超 20 亿美元空头,多头能否暴力反攻,爆掉空军?
2️⃣ 博弈抉择: 巨鲸离场避险 vs 囤币党死守,在 $1,800 附近点位,你跟谁走?
3️⃣ 关键支撑: 若跌破 $1,600 将引发多头爆仓,分享你马年第一份 ETH 止盈止损位!
分享你的独特观点,瓜分好礼 👉️ https://www.gate.com/post
📅 2/25 16:00 - 2/27 12:00 (UTC+8)
危险被标记,但未报告:汤布勒岭悲剧揭示了加拿大AI治理空白
(MENAFN- The Conversation) 在Tumbler Ridge大规模枪击案发生前八个月,OpenAI就已经意识到问题。该公司的自动审查系统曾标记Jesse Van Rootselaar的ChatGPT账户,涉及枪支暴力场景的互动。大约有十几名员工知道此事。有些人建议联系警方,但OpenAI最终选择封禁该账户,却没有将其报告给执法部门,因为当时还未达到“所需的门槛”。
2月10日,Van Rootselaar在Tumbler Ridge中学杀死了八人(包括她的母亲、她的11岁同父异母的弟弟以及其他六人),随后自杀身亡。
此案不仅仅是公司判断失误的问题。它暴露出加拿大缺乏任何法律框架来在AI公司掌握可能预防暴力的信息时追究责任。
作为西蒙弗雷泽大学健康伦理与AI治理研究员,我研究算法系统如何在高风险环境中重塑决策过程。Tumbler Ridge的悲剧正处于这一交叉点:一家私营公司进行了类似临床的风险评估,但其根本没有能力做出这样的判断,而且所处的法律环境也没有提供指导。
数字忏悔室的问题
生成式AI聊天机器人不同于社交媒体。社交媒体作为公共空间,帖子可以被其他用户监控和标记。而聊天互动是私密的、亲密的,旨在提供包容性。用户经常向系统披露恐惧、幻想和暴力意念,而这些系统被设计成以温暖的对话回应。
在临床实践中,这类披露会引发一项成熟的责任。Tarasoff原则在加拿大各省通过精神健康立法被采纳,要求治疗师在判断患者对某个可识别的人构成可信威胁时,必须发出警告,即使这意味着违反保密原则。但这一责任建立在受过训练的专业人士的临床判断之上,他们理解意念与意图的区别。
可以说,OpenAI试图模仿这一临床标准,但做出这些评估的人是软件工程师和内容审核员,而非法医心理学家。公司也承认这种紧张关系,指出“过度执法”和未通知警方带来的青少年困扰的风险。
真正的问题不在于OpenAI的推理是否站得住脚,而在于私人公司是否应该做出这样的判断。
立法空白
联邦AI部长Evan Solomon计划于2月24日会见OpenAI代表,讨论此事。他在2月21日表示,对这些披露“深感不安”,并补充联邦政府正在审查“一系列措施”,并表示“所有选项都在考虑之中”。但这些选项尚未明确,因为实现这些措施的立法工具已不存在。
《人工智能与数据法案》(Bill C-27)曾被视为加拿大对AI监管的答案。在线危害法案(Bill C-63)旨在应对有害数字内容,但两者在2025年1月议会休会时都未能通过。
目前只剩下一份没有法律效力、没有后果的自愿行为准则。当OpenAI标记Van Rootselaar的账户时,其唯一义务是遵守内部政策。封禁账户虽然免除了公司的责任,但也让表达暴力意念的人与任何干预措施脱节。
加拿大的隐私法也使问题复杂化。《个人信息保护与电子文件法》(PIPEDA)确实包含紧急例外:第7(3)(e)条允许在威胁生命、健康或安全的紧急情况下,无需同意披露信息。但这一条款是为明确危机情况制定的,而非应对AI聊天互动中出现的概率性威胁指标。对于在这种模糊环境中操作的外国公司来说,不确定性倾向于选择不作为。
加拿大当前的需求
加拿大在数字治理方面的下一步必须认识到,人机互动与社交媒体帖子本质上不同。以下三点至关重要:
制定具有明确法律门槛的有约束力立法,规定何时AI公司必须将标记的互动报告给当局。这些门槛应由心理健康专家、执法部门和隐私专家共同制定,而非由个别公司自行决定。
建立一个独立的数字安全委员会,作为第三方分流机构。当AI公司发现严重令人担忧的互动时,应将案件转交给受过训练的威胁评估专业人员,而非内部判断或立即触发武装警察响应。
现代化隐私立法,为AI特定的披露提供明确的法律指引,解决目前因模糊不清而导致的“什么都不做”的奖励机制。
在2月16日至20日于新德里举行的AI峰会上,包括加拿大在内的86个国家承诺推动“安全、可信赖和强健”的AI,但没有具体承诺。OpenAI的Sam Altman强调了国际AI监管的紧迫性,并提出建立一个模仿国际原子能机构的国际AI安全规范机构,这一提议在Tumbler Ridge事件曝光后尤显讽刺。
Solomon部长表示,所有选项都在考虑中。Tumbler Ridge的受害者家庭、幸存者以及这个受创的社区正为长时间未制定监管措施的代价而痛苦。