AI 合规困境:信任仍然属于人类

Roman Eloshvili 是 XData Group 的创始人兼首席执行官,这是一家企业对企业软件开发公司。在那里,他领导银行业人工智能的发展,同时管理投资者关系并推动业务扩展。他也是英国监管科技初创公司 ComplyControl 的创始人,该公司专注于为银行提供尖端技术解决方案。


发现顶级金融科技新闻和活动!

订阅 FinTech Weekly 的新闻通讯

由摩根大通、Coinbase、贝莱德、Klarna 等高管阅读


全球的银行和金融科技公司都在寻找多种方式利用人工智能:加快运营速度、降低成本、改善客户互动等等。然而,在合规方面——可以说是金融中最具挑战性和耗时的部分——大多数公司仍然在观望。

2025年初进行的一项调查显示,实际上只有极少数(不到2%)的公司已将人工智能完全整合到其工作流程中。然而,大多数仍处于探索和试用的早期阶段。实际上,是否采用,仍未定论。

对企业来说,跟上监管变化的压力依然存在,并且在不断增加。那么,为什么合规在采用人工智能方面如此缓慢,而人工智能又能带来巨大帮助呢?

让我们试着找出原因。

人类的眼睛依然重要

首先也是最重要的一点是,合规不仅仅是遵守清单。它关乎在常常模糊的情况下做出判断。金融决策的世界很少是非黑即白的。法规在不同司法管辖区存在差异,对规则的解释也不总是直截了当。

人工智能擅长高速处理数据和发现异常。但虽然它可以根据预设模式标记可疑交易,这并不意味着它能清楚解释其结论背后的“原因”。更重要的是,它在细微差别上表现不佳。人类合规官可以判断客户行为是否异常但无害。而AI则更可能在没有上下文的情况下发出警报。

这也是为什么合规领导者犹豫是否将决策权交给机器。机器当然可以提供帮助,但大多数人仍然更信任人类能看到更全面的局势并做出判断。

效率与监管和声誉风险

AI实时分析数千笔交易的能力,是任何手动操作的合规团队都无法匹敌的。从效率角度来看,没有人会否认它是一个极佳的辅助工具,能减轻工作负担,让人类员工专注于更具战略性和细致的任务。

但合规并非仅靠速度取胜的领域。如果AI系统判断失误,可能导致罚款、声誉受损或监管审查。这些都可能对企业造成极大伤害——甚至是毁灭性的。因此,许多企业自然希望避免引入这些风险。

大多数监管机构也同意,在基于AI的决策中,必须有人保持责任。如果AI模型误封合法交易或忽略欺诈行为,最终责任仍在公司。由人类合规官承担这一责任。

这就形成了一种自然的谨慎:合规领导者必须权衡更快监控带来的好处与可能的监管处罚风险。在AI系统变得更具可解释性和透明性之前,许多公司可能会不愿让它们自主决策。

如何负责任地推进AI应用

从上述内容可以得出一个非常重要的教训:合规领导者的犹豫并不意味着他们反对AI。实际上,许多人对AI的未来持乐观态度。关键在于找到正确的前进方式。

我认为,最自然且有前景的路径是采用混合模式。人类与AI合作,让人工智能承担繁重的工作——扫描交易、标记异常活动或生成报告。而当最终结果准备好后,人类可以审查、解读AI决策的背景,并做出最终判断。

但要实现这种模式,企业必须确保其AI系统具有可解释性。合规不仅仅是检测风险,更是证明决策的公平性。这也是为什么市场需要更多能够用通俗易懂的方式解释其输出的AI工具。

这不是“人机对抗”

说实话,我不认为AI会让合规官变得多余。更可能的是,他们的角色会发生变化——从执行者转变为管理者。合规官将减少亲自检查的时间,而更多地复核AI的决策,处理机器尚未能完全胜任的灰色区域。

本质上,合规是一项人类的事业。虽然AI可以让合规团队更快、更高效,但它无法承担伴随而来的道德和监管责任。

因此,我坚信,未来的合规不会是“人对机器”,而是“人携机器”——共同合作,维护金融体系的安全与公平。

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
0/400
暂无评论
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)