微软短暂阻止其员工使用 ChatGPT,将错误归因于系统测试

奔跑财经

一位发言人表示,该公司在测试端点控制时无意中禁止了所有员工的内部访问。

据 CNBC 同日报道,微软于11 月 9 日短暂阻止其员工使用 ChatGPT 和其他人工智能 (AI) 工具。

CNBC 声称看到了一张屏幕截图,显示人工智能驱动的聊天机器人 ChatGPT 当时在微软的企业设备上无法访问。

微软还更新了其内部网站,表示出于安全和数据方面的考虑,“许多人工智能工具不再可供员工使用。”

该通知提到了微软对 ChatGPT 母公司OpenAI的投资以及 ChatGPT 自己的内置保护措施。然而,它警告公司员工不要使用该服务及其竞争对手,消息继续写道:

“ChatGPT是……第三方外部服务……这意味着由于隐私和安全风险,您必须谨慎使用它。这也适用于任何其他外部人工智能服务,例如 Midjourney 或 Replika。”

CNBC 表示,微软在通知中也简短地命名了人工智能驱动的图形设计工具 Canva,但后来从消息中删除了这句话。

微软意外阻止了服务

CNBC 表示,微软在发布该事件的报道后恢复了对 ChatGPT 的访问。微软的一位代表告诉 CNBC,该公司在测试旨在遏制安全威胁的端点控制系统时无意中激活了对所有员工的限制。

该代表表示,微软鼓励其员工使用 ChatGPT Enterprise 和自己的 Bing Chat Enterprise,并指出这些服务提供了高度的隐私和安全性。

这一消息发布之际,美国和国外对人工智能的隐私和安全存在广泛担忧。虽然微软的限制性政策最初似乎表明该公司对人工智能安全现状的不满,但实际上该政策似乎是一种可以防范未来安全事件的资源。

免责声明:本页面信息可能来自第三方,不代表 Gate 的观点或意见。页面显示的内容仅供参考,不构成任何财务、投资或法律建议。Gate 对信息的准确性、完整性不作保证,对因使用本信息而产生的任何损失不承担责任。虚拟资产投资属高风险行为,价格波动剧烈,您可能损失全部投资本金。请充分了解相关风险,并根据自身财务状况和风险承受能力谨慎决策。具体内容详见声明
评论
0/400
暂无评论