AI索赔百亿!保险巨头集体拒保,企业恐裸奔!

当前,全球科技浪潮中最引人注目的无疑是人工智能。这项日新月异的技术,正以惊人的速度渗透进我们生活的方方面面,从智能助理到工业生产,从医疗诊断到金融服务,无不闪耀着AI的光芒。然而,随着AI的广泛应用,一个不容忽视的问题也日益凸显:它带来的潜在风险,该由谁来承担?
新媒网跨境获悉,当前全球科技界最炙手可热的焦点——人工智能,正经历一场前所未有的蓬勃发展。然而,就在各行各业争相拥抱这项先进技术的同时,一个关键的“幕后角色”——保险业,却开始对其可能引发的巨额索赔风险表现出前所未有的警惕,甚至寻求将部分AI相关责任排除在承保范围之外。
随着数十亿美元索赔风险攀升,保险公司撤出人工智能相关承保

多家保险公司正积极寻求监管机构的许可,希望能够明确限制由人工智能代理和智能聊天机器人等AI工具所引发的责任。这背后,是保险行业对未来可能出现数十亿美元索赔的深切担忧。
美国国际集团(AIG)、大美洲保险(Great American)和WR伯克利(WR Berkley)等多家知名保险公司,近期已向美国监管机构递交了申请。他们的目的很明确:希望能够提供包含明确条款的保险产品,将企业因使用智能聊天机器人、AI代理等人工智能工具所产生的相关责任,排除在传统的承保范围之外。
这无疑给全球企业敲响了警钟。一方面,企业争先恐后地将这项前沿技术整合到其业务流程中,以期提升效率、优化服务。但另一方面,保险业对于提供全面的AI风险保障却持谨慎态度。这种矛盾局面,正促使行业重新审视AI带来的潜在冲击。
WR伯克利公司提出的一个除外条款引人注目,它试图排除任何涉及“实际或被指称使用人工智能”的索赔,甚至包括由采用该技术的公司所销售的任何产品或服务。这意味着,如果一个企业的产品或服务,哪怕只是间接使用了AI,其引发的风险也可能不在传统保单的保障之列。
美国国际集团(AIG)在回应伊利诺伊州保险监管机构的问询时也明确指出,生成式AI是一项“范围广泛的技术”,其引发未来索赔事件的可能性“很可能会随着时间推移而增加”。这表明,大型保险公司已经预见到AI技术所带来的风险将是长期且不断增长的趋势。
尽管美国国际集团向外媒表示,目前提交这些生成式AI免责条款,但“目前无意实施这些条款”,更多的是为未来可能出现的局面做好准备。一旦获得批准,他们就拥有了日后选择实施这些条款的权力,这无疑是一种深谋远虑的风险管理策略。而WR伯克利公司和大美洲保险公司则选择对相关事宜不予置评,但其行动本身已足以说明问题。
莫赛克公司欧洲网络保险负责人丹尼斯·贝特拉姆先生一针见血地指出,保险公司普遍认为人工智能模型的输出结果过于不可预测,其内部运作也如同“黑箱”一般不透明,这使得承保这些风险变得异常困难。我们很难预知AI何时会出错,错在哪里,以及会造成多大的影响,这种不确定性是保险业最大的挑战。
即使是像伦敦劳合社市场中经营的专业保险商莫赛克公司,通常会为部分AI增强型软件提供保险,但面对像ChatGPT这类大型语言模型所带来的风险,他们也选择了退避三舍。其原因在于,大型语言模型的复杂性和广泛应用范围,使得任何单一错误都可能导致连锁反应,风险难以估量。
人工智能保险与审计初创公司Artificial Intelligence Underwriting Company的联合创始人拉吉夫·达塔尼先生一语道破玄机:“一旦出了问题,没人知道该由谁负责。”这种责任归属的模糊性,正是阻碍保险公司全面承保AI风险的关键症结。是算法开发者、模型提供者,还是最终用户?在目前的法律和技术框架下,这个问题没有清晰的答案。
这些举动并非空穴来风,它们出现在一系列由AI主导的知名失误事件之后。这些事件不仅造成了直接的经济损失,也引发了公众对AI技术可靠性的深思。
例如,美国太阳能公司Wolf River Electric就以诽谤罪名起诉了谷歌公司,并索赔至少1.1亿美元。他们声称,谷歌的“AI概览”功能错误地宣称该公司正被明尼苏达州司法部长起诉,这给公司声誉和业务造成了严重损害。这起事件凸显了AI“幻觉”——即模型生成虚假或不准确信息——可能带来的法律和商业风险。
与此同时,去年一起引人关注的仲裁案,加拿大航空被裁定必须履行其客户服务聊天机器人“捏造”的折扣承诺。这个案例表明,AI聊天机器人虽然能提高效率,但其自主生成的信息可能产生法律约束力,一旦出错,企业可能要为之买单。
更令人震惊的是,去年英国工程企业奥雅纳(Arup)遭遇了一场精心策划的视频会议诈骗。不法分子利用高科技手段,通过数字克隆高级经理的形象和声音下达资金转账指令,导致公司损失了高达2亿港元(约合2500万美元)。这不仅暴露了AI技术被滥用的风险,也给企业的安全防范提出了新的挑战。这类利用AI进行深度伪造(deepfake)的诈骗,其隐蔽性和欺骗性远超传统手段,对企业财务安全构成了巨大威胁。
怡安公司网络安全主管凯文·卡利尼奇先生指出,保险业或许能承受因某一家公司部署代理型人工智能而导致定价错误或医疗诊断失误,进而造成4亿或5亿美元的损失。这种损失虽然巨大,但仍被视为单个事件。
然而,他补充道:“他们真正承受不起的,是一旦某家AI提供商出现问题,造成一千乃至一万起损失——那就是系统性、相关性、聚集性的风险。”卡利尼奇先生强调的正是AI风险的“聚集性”特点。一旦核心算法或训练数据存在缺陷,其影响可能波及数千乃至数万个依赖该AI服务的客户,从而引发巨额的连带索赔,这才是保险公司面临的真正梦魇。这种系统性风险,是传统保险模式难以有效应对的。
值得注意的是,AI“幻觉”这类风险通常不在标准网络保险的保障范围内。标准网络保险通常只针对因网络安全漏洞或数据隐私泄露而触发的赔付。而专门针对技术类“差错与疏漏”的保单,原本可能覆盖部分AI失误,但如今,新的除外条款可能会进一步收窄其保障范围,使得企业在面临AI风险时,缺乏足够的保障。
苏黎世保险首席信息官埃里克森·陈先生分析道,保险公司在评估其他技术驱动的错误时,往往能够“轻松界定责任”。例如,软件故障的责任通常归咎于软件开发商。然而,AI风险却可能牵涉到开发者、模型构建者、数据提供方以及最终用户等多方主体,责任链条复杂且模糊。因此,他认为,AI驱动的风险对整个保险市场的潜在影响“可能呈指数级增长”,因为单个问题可能会在整个生态系统中迅速放大。
新媒网跨境了解到,保险业正试图通过多种策略来应对。一些保险公司已经通过所谓的“附加条款”——即对现有保单的修订,来明确界定与AI相关的风险。这些条款旨在消除法律上的不确定性,但也需要企业仔细审查,因为它们在某些情况下会导致保障范围的显著缩小。
例如,昆士兰保险集团(QBE)的一项批注,虽然将部分保障范围扩展至欧盟《人工智能法案》(AI Act)下的罚款和其他处罚,该法案被视为全球最严格的AI规范之一,这体现了保险公司对全球监管趋势的响应。
然而,据一家大型经纪商透露,QBE的这项附加条款——此后也引得其他保险公司纷纷效仿——将因使用人工智能而产生的罚款的赔付额度,限定为保单总限额的2.5%。这意味着,即使企业购买了高额保单,因AI引发的罚款赔付也可能有严格的上限,这无疑是对企业风险敞口的一种限制。昆士兰保险集团向外媒表示,他们正在“弥补其他保险政策可能未覆盖的[与AI相关风险]潜在缺口”,这反映了行业在探索新风险领域的积极尝试。
在经纪人与保险公司的谈判中,总部位于瑞士的安达保险公司(Chubb)已同意涵盖部分人工智能风险的条款,但明确排除了“广泛性”的人工智能事件。例如,如果某个AI模型出现系统性问题,同时影响到众多客户,这类大规模的、聚集性的风险将不在承保范围之内。安达保险公司拒绝就此置评,但其立场再次印证了保险业对系统性AI风险的担忧。
与此同时,另一些保险公司则推出了针对狭义界定的AI风险的附加条款,例如专门针对聊天机器人“失控”所造成的损失。这表明保险业正试图将复杂的AI风险进行细分,以便更精确地评估和承保。然而,这种碎片化的保障方式,也可能给企业带来更多的投保困惑和保障盲区。
保险经纪人和律师们普遍表达了担忧,他们认为一旦由人工智能驱动的损失大幅增加,保险公司将不可避免地在法庭上抗辩理赔。这意味着企业在未来可能需要面对漫长而复杂的法律诉讼,以争取应有的赔偿。
律师事务所斯图尔特律师事务所(Stewarts)的保险纠纷团队负责人亚伦·勒·马尔克尔先生预测道:“可能需要发生一次重大的系统性事件,保险公司才会说,等等,我们从未打算承保这类事件。”他的话语揭示了一个残酷的现实:只有当AI风险真正爆发并造成不可承受的损失时,保险业才会彻底收紧其承保策略,甚至可能导致某些AI风险完全无法获得保险保障。
总而言之,AI技术正以其前所未有的潜力和风险,重新定义着各行各业的运作模式。对保险业而言,这既是挑战也是机遇。面对AI带来的不确定性,保险公司正在积极探索新的风险评估模型、设计更具针对性的保险产品,并与科技公司、监管机构共同努力,以期建立一个更完善的AI风险管理体系。
新媒网跨境认为,AI与保险业的博弈并非终点,而是新一轮创新与协作的起点。在未来,我们有理由相信,随着AI技术的不断成熟、责任归属的逐渐清晰以及相关法律法规的完善,保险业将能够更好地拥抱AI,为这项伟大技术的稳健发展提供坚实的风险保障。同时,企业也应提高风险意识,审慎评估AI应用可能带来的潜在风险,并积极寻求多方合作,共同构建一个安全、可信、高效的AI生态系统。
新媒网(公号: 新媒网跨境发布),是一个专业的跨境电商、游戏、支付、贸易和广告社区平台,为百万跨境人传递最新的海外淘金精准资讯情报。
本文来源:新媒网 https://nmedialink.com/posts/ai-claims-billions-insurers-pull-cover.html


粤公网安备 44011302004783号 













