新加坡发布全球首个代理型AI治理框架!企业部署更负责。

新加坡推出全球首个《代理型人工智能治理框架模型》,旨在为企业负责任地部署代理型人工智能(Agentic AI)提供全面指导。这一框架的发布,标志着新加坡在推动AI技术安全与伦理发展方面迈出了重要一步。
新加坡数字发展与信息部长杨莉明在世界经济论坛上公布了这项举措,并指出该框架的开发工作由新加坡资讯通信媒体发展局(IMDA)牵头完成。此模型在新加坡2020年发布的《人工智能治理框架模型》基础上进行了深化与拓展,其核心在于专门应对代理型人工智能系统所带来的独特挑战与考量。
代理型人工智能:特性与潜在影响
与传统的AI或生成式AI不同,代理型人工智能系统具备更高程度的自主性,能够进行推理,并代表用户采取实际行动。例如,这些系统可以自主更新数据库、处理交易或执行支付等操作,其能力范围远超仅能生成内容或提供分析的AI。
这种技术特性,使其在自动化日常工作流程、显著提升生产力方面展现出巨大潜力。然而,伴随高自主性而来的是一系列潜在风险。新媒网跨境了解到,IMDA在报告中提及,这些风险包括对敏感数据的访问、未经授权的操作以及在系统高度自主运行下,如何有效保持人工监督的挑战。具体而言,例如,代理型AI若拥有访问客户个人数据或企业财务信息的权限,一旦出现漏洞或误操作,可能导致严重的数据泄露或经济损失。未经授权的交易执行,则可能引发法律纠纷和信誉危机。此外,IMDA还强调了“自动化偏见”的风险,即用户可能因为系统过去表现良好而对其产生过度信任,从而忽视了潜在的风险点。
框架核心:风险管理与人工问责
该框架的设计目标,是通过结合技术与组织层面的措施,协助企业全面理解并有效管理代理型人工智能所固有的风险。框架明确强调,无论AI系统自主性多高,人类始终是AI代理行为的最终负责人。因此,在AI系统的整个生命周期中,保持有意义的人工控制至关重要。
此框架面向所有部署代理型AI的机构,无论这些系统是内部自行开发,还是采用第三方解决方案。框架明确了四个关键的关注领域,旨在构建一个结构化的风险管理体系:
事前风险评估与范围限定: 机构需在部署前对代理型AI的潜在风险进行深入评估,并根据评估结果,审慎选择其应用场景。同时,有必要对系统的自主操作范围进行明确限定,确保其活动始终在预设边界内。例如,可以限制AI对特定类型数据或业务流程的访问权限。
人工审批检查点: 对于可能产生不可逆转后果的关键操作,例如金融支付、合同签署或重要数据删除等,框架要求必须设置明确的人工审批环节。这意味着在AI做出最终决策或执行此类操作前,必须获得人类操作者的确认和授权。
技术控制措施: 框架倡导实施一系列技术保障措施,以确保AI系统的安全性与可靠性。这包括进行基线测试,以验证系统在各种条件下的性能表现;限制AI系统对特定白名单服务的访问权限,以防止其与未经授权的外部系统交互;以及通过加密、访问控制等手段保护AI处理的数据。
终端用户责任的赋能: 为确保用户能够负责任地使用代理型AI系统,框架强调透明度、教育和培训的重要性。机构应清晰地向用户说明AI系统的能力、限制及其操作逻辑,并通过提供充分的培训,帮助用户理解如何正确地与AI交互,并识别潜在的风险。
动态演进与国际合作
资讯通信媒体发展局(IMDA)指出,该框架是在新加坡政府机构与私营部门组织的共同参与下开发而成。它被定位为一个“活文件”,意味着框架将随着代理型人工智能技术的发展、新应用场景的涌现以及新的风险考量的出现而持续更新和完善。IMDA目前正积极邀请各机构提交关于负责任部署代理型AI的反馈意见和实际案例研究,以期不断丰富框架的内涵与实践指导。
新媒网跨境获悉,IMDA还计划在现有针对大型语言模型(LLM)应用的测试入门套件基础上,发布更多专注于代理型AI应用安全性和可靠性测试的指南,为企业提供更具体的操作指引。
此项举措是新加坡构建可信赖人工智能生态系统宏大愿景的重要组成部分。在国际层面,新加坡正通过人工智能安全研究所(AI Safety Institute)等平台,与区域和国际伙伴紧密合作。同时,新加坡还积极牵头东盟人工智能治理工作组,旨在推动区域内AI治理标准的协同发展。在国内,除了上述框架外,新加坡还拥有一系列本土工具和相关测试框架,如AI Verify,共同构成了其全面的AI治理体系。
新媒网(公号: 新媒网跨境发布),是一个专业的跨境电商、游戏、支付、贸易和广告社区平台,为百万跨境人传递最新的海外淘金精准资讯情报。
本文来源:新媒网 https://nmedialink.com/posts/singapore-unveils-first-agentic-ai-framework.html


粤公网安备 44011302004783号 











