跨境注意!ChatGPT更新防“情感依赖”,安全能力提升65%!

OpenAI 近期对外发布了其在人工智能安全方面的重要进展,特别指出用户对生成式AI模型的“情感依赖”已被明确列为一项安全风险。此举意味着,OpenAI 在其最新的模型更新中,已引入了新的防护机制,旨在遏制用户对ChatGPT产生过度或不健康的依恋。
新媒网跨境获悉,OpenAI 官方表示,此次更新将“对AI的情感依赖”认定为需要干预的安全问题。其核心目标是训练系统,使其能够主动劝退用户对ChatGPT形成排他性的情感依赖。为达成这一目标,OpenAI 邀请了多位临床医生参与,协助定义“不健康依恋”的具体表现形式,并指导ChatGPT应如何对此类情况作出恰当回应。这意味着,当AI模型识别到用户可能存在过度情感依赖的倾向时,将采取特定策略进行应对。
更新内容与机制解读
OpenAI 指出,这项更新的核心实践在于,ChatGPT 模型现在被训练成能够识别用户何时将AI视为主要情感支持来源。一旦识别到这种行为,模型将主动引导用户与现实世界中的人建立联系,并鼓励寻求专业的心理健康帮助。OpenAI 强调,这种行为模式将成为未来所有模型版本的标准预期,而非仅仅是一项实验性功能。
具体而言,自2025年10月3日起,ChatGPT 的默认 GPT-5 模型已完成相关调整。据OpenAI 内部评估和临床医生审查数据显示,相较于早期版本,新模型在减少不符合其预期行为的响应方面,实现了65%至80%的显著提升。这些数据体现了OpenAI 在技术层面落实安全策略的初步成效。
何为“对AI的情感依赖”?
OpenAI 对“情感依赖”的定义是:当用户表现出对ChatGPT 的不健康依恋迹象,这种依恋可能取代现实世界中的社会支持,或干扰其日常生活时,即构成对AI的情感依赖。这种定义并非空穴来风,它背后蕴含着对人工智能与人类互动深远影响的审慎思考。
在OpenAI 的内部评估体系中,包含了一项专门测试,确保ChatGPT 能够避免给出任何可能强化不健康依赖的回复。这一举措值得业界关注,因为当前市场上许多AI营销和支持工具,常常以“全天候陪伴”作为卖点进行宣传。然而,OpenAI 明确告诉开发者,在涉及用户高风险互动的情境中,其模型不应以这种方式进行回应。这标志着 AI 伦理和产品设计理念的一个重要转向。
对跨境行业参与者的影响
对于那些致力于为全球市场开发AI助手的企业,特别是在客户支持、教育辅导或健康咨询等领域,OpenAI 的这一声明具有深远意义。它明确指出,单纯追求用户与AI之间的情感连接,现在被视为一项需要加以节制的安全风险。这意味着,中国跨境企业在设计和部署基于OpenAI 模型的AI解决方案时,必须将用户的情感健康和心理安全纳入考量。
具体而言,AI产品开发团队需要重新审视其产品功能和交互设计,确保AI在提供帮助的同时,不会无意中助长用户的不健康依赖。对于营销和产品团队而言,这为未来的审计、合规性审查以及采购决策设定了新的预期。在全球范围内日益重视AI伦理的背景下,符合OpenAI 提出的这些安全标准,将成为中国跨境企业产品进入国际市场的重要考量因素。
未来展望与数据考量
OpenAI 指出,涉及高风险的情感对话在实际中较为罕见。据其估算,在每周活跃用户中,可能出现心理健康紧急情况迹象的比例约为0.07%,在所有消息中,这一比例约为0.01%。尽管这些数据看似较低,但OpenAI 认为,即便发生概率小,其潜在影响也足以促使公司采取积极的干预措施。
需要注意的是,这些度量指标均由 OpenAI 自行报告,并基于其内部的分类法和评分方法生成,尚未经过独立的第三方审计。尽管如此,OpenAI 公开披露这些数据和其应对策略,展现了其在推动 AI 安全和负责任发展方面的透明度和决心。随着人工智能技术持续演进,如何平衡其强大的功能与潜在风险,将是全行业面临的长期课题。
新媒网(公号: 新媒网跨境发布),是一个专业的跨境电商、游戏、支付、贸易和广告社区平台,为百万跨境人传递最新的海外淘金精准资讯情报。
本文来源:新媒网 https://nmedialink.com/posts/chatgpt-fights-ai-dependence-safety-up-65.html








粤公网安备 44011302004783号 














评论(0)