MAS推AI风险手册:5步搞定供应商透明化

24家金融机构联合发布AI风险管理手册
新媒网跨境了解到,在当今人工智能(AI)技术飞速发展的背景下,金融机构对AI运用的责任尤为关键。无论是自行开发的AI系统,还是外部采购的AI产品,机构都需要对其部署的AI行为承担责任。然而,随着AI产品更新机制的不透明性,这些机构面临着可能触发的网络安全风险、技术风险和品牌声誉风险。有鉴于此,24家银行、保险及资本市场领域的金融巨头,以及科技企业与咨询公司,如AWS、谷歌云和NVIDIA等参与了由新加坡金融管理局(MAS)牵头的Project MindForge,共同推出了一份《MindForge AI风险管理运营手册》(以下简称“手册”),以应对AI风险。
AI供应商合约中的潜在风险
不少金融从业者应该都有感触,当供应商对现有的AI产品或服务进行更新时,常常不会及时通知使用方。这些更新可能造成“暗影AI”的引入——例如原先非AI系统中加入了AI模块,或者对现有的AI功能进行了修改。一旦这些“突如其来”的变化出现,将严重影响机构的数据保密性,并可能引发AI“幻觉”、决策失误等复杂问题。
手册清楚地指出,目前的合约条款往往没有对AI产品更新通知的明确要求,而一旦问题发生,使用方依旧需要承担相应的后果。这种不对称的风险结构,给金融机构敲响了警钟。
现有管理框架为何难以应对AI?
新媒网跨境认为,传统的供应商管理框架在AI领域表现实则“捉襟见肘”,原因有以下两点:
- 透明性欠缺:与传统软件不同,AI产品的底层模型、更新机制大多“深藏不露”。这给采购过程增加了很大的不确定性。
- 持续性的变化:AI在部署后仍可能自我迭代而不通知使用方,这种动态特性进一步放大了风险。
因此,金融机构亟需在合约、管理、技术等多层面升级,对AI风险有更高水平的掌控能力。
如何把控AI供应商风险?
手册中建议了一系列行之有效的风险把控方法,从不同维度帮助机构更好应对AI技术带来的不确定性。
1. 防御性赔偿条款虽重要,非治本之策
部分供应商会通过赔偿条款来替代对底层数据或模型的披露。虽然这种方式能一定程度上补偿经济损失,但它对机构声誉、市场信任可能带来的危害却无济于事。因此,对于关键业务相关的AI产品,披露仍然是最优选择。
2. 对AI产品进行测试
机构可通过针对性测试来验证AI产品的表现。例如,模拟不同场景下AI的决策过程,尽量挖掘潜藏的风险。
3. 借助外部审核保障安全
如果供应商无法提供完整的透明性,机构可以引入第三方审计机构对产品进行独立审核,确保合规性与产品安全性。
4. 风险管理贯穿全生命周期
从产品采购到持续使用,AI风险管理都应渗透其中。机构需要定期对AI系统进行法律及风险评估,确保其价值观与合规性始终一致。
利用现有体系的改造与前瞻
新媒网跨境认为,机构要把AI管理能力落到实处,未必需要“推倒重来”。通过对现有采购框架及网络安全体系的改造升级,也能取得显著成效。以下是手册提出的几项建议:
1. 明确AI相关条款
在续约或重新谈判时,主动要求供应商披露产品中的AI部分及可能存在的影响。
2. 采用统一的披露模板
应用与MAS发布的AI披露卡模板类似的统一方式,提高沟通效率和透明度。
3. 完善决策路径
为处理供应商披露不足的情况建立备用方案,例如引入赔偿条款或第三方核查制度。
4. 更新合约条款
督促供应商在产品更新时主动通知参与方,将相关条款写入合约中,以确保各方利益。
结语
无论技术如何先进,AI毕竟是被人类设计和使用的工具,而金融机构需承担起因技术风险产生的责任。新媒网跨境认为,只有通过完善的风险管理和监管体系,才能让AI更好地释放其商业价值,同时保障机构的可控性与稳定性。《MindForge AI风险管理运营手册》为行业提供了实战指引,希望成为机构应对AI风险的工具利器。
新媒网(公号: 新媒网跨境发布),是一个专业的跨境电商、游戏、支付、贸易和广告社区平台,为百万跨境人传递最新的海外淘金精准资讯情报。
本文来源:新媒网 https://nmedialink.com/posts/mas-ai-risk-handbook-5-steps-clear.html


粤公网安备 44011302004783号 












