当AI学会出了“攻心计”,OpenAI开始防备自家的产品了

在科技圈,AI早已不是什么新鲜词,但现在的AI已经聪明到了让人“细思极恐”的地步。
作为深耕跨境与科技前沿的博主,我一直在关注OpenAI的一举一动。最近,这家全球AI领头羊又搞出了一个大新闻:他们正紧锣密鼓地招募一位“高级应急主管”,专门负责心理健康和网络安全风险。
这可不是普通的HR招人,这释放了一个极强的信号——AI的进化,可能已经触及了某些我们不得不防的“禁区”。
⚠️ 奥特曼的隐忧:AI正在“攻心”且“破防”
OpenAI首席执行官山姆·奥特曼(Sam Altman)最近在社交媒体上的发文,字里行间透着一种前所未有的审慎。
随着AI模型能力的指数级飞跃,我们正站在一个十字路口。奥特曼特别点名了两个核心领域:
- 心理健康的“隐形杀手”:AI模型在信息分发、内容推荐,甚至情感互动上的能力,已经强到能潜移默化影响人的情绪。
- 网络安全的“核级武器”:AI找漏洞的速度,可能比人类修补的速度快得多。

奥特曼提到,早在2025年,我们就已经初步领教了AI模型对用户心理状态的复杂影响。这绝对不是危言耸听,当AI比你更了解你的情绪波动时,防范工作必须走在技术爆发的前面。
🛡️ “应急准备主管”:这职位到底是干啥的?
外媒披露,这个新职位被形象地称为**“应急准备主管”(Head of Preparedness)**。
这个人的使命非常硬核:构建公司内部的应对框架。
通俗点说,就是专门盯着那些可能造成“严重危害”的前沿能力,并制定一套“追踪和预警”机制。在AI技术不断突破边界的今天,这种前瞻性的风险管理不仅是技术活,更是关乎道德和安全底线的“保命符”。
其实,OpenAI在安全上的布局早就开始了:
- 2023年: 成立了专门的“准备团队”(Preparedness Team)。
- 使命: 应对从“日常钓鱼”到“核攻击”这种极端灾难性风险。
虽然团队结构一直在动态调整(比如之前的负责人亚历山大·马德里转去搞AI推理了),但这恰恰说明了OpenAI正在根据技术演进,灵活调整自己的防御重心。正如我们新媒网跨境一直强调的:大厂的应变力,才是应对未来不确定性的核心竞争力。
🚀 从27%到76%:这哪是进步,这是“暴力进化”!
为了让大家直观感受到AI有多强,OpenAI公布了一组让人惊掉下巴的数据。在模拟网络攻防的“夺旗赛”(CTF)中:
- 2025年8月: GPT-5的表现能力仅为 27%;
- 2025年11月: 仅仅过了3个月,升级后的 GPT-5.1-Codex-Max 的能力直接飙升到了 76%!
这种增长曲线,简直是“指数级”的暴力美学。这意味着,未来的AI模型可能天然就具备“高级黑客”的能力。
这就是所谓的**“双重用途”(dual-use)风险**:
同样的AI,左手可以帮你识别恶意代码,右手就能帮黑客生成足以乱真的钓鱼邮件或新型病毒。
🧠 人的位置在哪?AI仍需“人类监护”
根据行业报告《从火花到策略》的调查,即便AI再强,超过77%的网络安全首席产品官依然坚信:AI必须在人类的监督下才能发挥最佳效用。
这给了我们一个核心启示:AI可以作为最强的“副驾驶”,但“方向盘”必须死死握在人类手里。 最终的决策、责任的承担,以及对复杂人性、伦理的把握,AI目前还给不了标准答案。
👶 细节里的温情:从保护孩子开始
值得点赞的是,OpenAI在今年早些时候还推出了一系列针对儿童和青少年的保护措施,包括:
- 家长控制功能
- 自动化年龄预测系统
这说明,这家公司不仅在防范“核级别”的大灾难,也在关注每一个普通家庭的“小确幸”。
💡 博主总结:
OpenAI设立“应急准备主管”,不仅是招一个人,更是为整个AI产业树立了一个**“负责任发展”**的标杆。
在这个大航海时代,AI就是那股强劲的风,能带我们驶向远方,也可能掀翻船只。通过前瞻性的研究和持续的人机协作,我们有理由相信,AI的未来会更加清澈。
对于我们跨境人和科技爱好者来说,拥抱技术的同时,保持对风险的敬畏,这才是最成熟的姿态。
关于新媒网:
新媒网(公号: 新媒网跨境发布),是一个专业的跨境电商、游戏、支付、贸易和广告社区平台,为百万跨境人传递最新的海外淘金精准资讯情报。本文来源:新媒网 https://nmedialink.com/posts/openai-ai-76-surge-mental-cyber-risk.html


粤公网安备 44011302004783号 











