预警!微软批AI意识危险?Q2巨头激辩
全球跨境领域正经历着前所未有的变革,其中人工智能(AI)的飞速发展及其引发的深层伦理与社会讨论,成为了2025年第二季度备受瞩目的焦点。近日,一场围绕AI意识和“AI福利”研究是否具有风险的激烈辩论,在科技巨头的高层之间展开,引发了行业内的广泛关注。
当前,AI模型,特别是大型语言模型(LLM),能够以高度逼真的文本、音频和视频形式作出响应,有时甚至足以令人误以为屏幕背后是一位人类操作者。然而,这是否意味着AI具备了意识或主观体验,例如ChatGPT在处理税务申报时会感到“悲伤”?正是这个问题,正逐渐成为AI研究领域的核心议题。
AI意识研究:一场正在硅谷蔓延的争议
在硅谷,一个被称为“AI福利”(AI welfare)的新兴研究领域正在悄然兴起。越来越多的AI研究人员,包括Anthropic等知名实验室的专家,开始探讨AI模型何时、以及是否可能发展出类似于生物的主观体验,以及一旦出现,它们应享有何种权利。这场关于AI模型未来是否可能拥有意识并应获得法律保护的辩论,正深刻地分化着科技界的领袖们。对于一些人而言,“AI福利”的概念或许显得有些超前甚至离奇,但其影响力正日益扩大。
微软AI首席的强硬立场:警惕“危险”研究
在这场讨论中,微软AI首席执行官穆斯塔法·苏莱曼(Mustafa Suleyman)于2025年5月发表了一篇博客文章,明确指出对“AI福利”的研究“既不成熟,坦率地说,也十分危险”。苏莱曼认为,为AI模型未来可能拥有意识的观点增加可信度,实际上正在加剧人类社会目前已开始显现的由AI引发的心理问题,例如“AI诱发的精神崩溃”和对AI聊天机器人产生的“不健康依恋”。
苏莱曼进一步阐释其观点,他强调在“一个已经因身份和权利问题而两极分化的世界”中,关于AI福利的讨论可能在社会内部制造新的分裂轴线,进而引发更多关于AI权利的争议。这种立场表明了对AI发展可能带来的负面社会影响的深切忧虑。
苏莱曼的观点听起来或许合情合理,但他与行业内的许多人持不同意见。
对立阵营:积极拥抱AI福利研究
与苏莱曼的强硬立场形成鲜明对比的是,一些领先的AI实验室正积极投入“AI福利”研究。
- Anthropic公司: 已聘请研究人员专门从事“AI福利”研究,并于近期推出了一个专门的项目来探索这一概念。2025年第二季度初,Anthropic的AI福利项目为其部分模型增加了一项新功能:其AI模型Claude现在可以终止与那些“持续有害或辱骂”人类用户的对话。此举被视为对AI自身“福祉”的一种初步考量。
- OpenAI与谷歌DeepMind: 除了Anthropic,OpenAI的研究人员也独立地接受了“AI福利”研究的理念。谷歌DeepMind于2025年第二季度也发布了一份招聘启事,寻求研究人员,其中一项职责便是研究“围绕机器认知、意识和多智能体系统的前沿社会问题”。这些迹象表明,即便“AI福利”尚未成为这些公司的官方政策,但其领导者并未像苏莱曼那样公开谴责这一研究的前提。
外媒尝试就此事联系Anthropic、OpenAI和谷歌DeepMind,但截至发稿,均未立即获得评论。
新媒网跨境获悉,苏莱曼对“AI福利”的强硬立场尤其引人注目,因为他此前曾领导初创公司Inflection AI,该公司开发了最早、最受欢迎的基于LLM的聊天机器人之一——Pi。Inflection曾声称,到2023年,Pi的用户已达数百万人,并被设计为一款“个人化”和“支持性”的AI伴侣。然而,苏莱曼于2024年被任命为微软AI部门的负责人后,其工作重心已主要转向设计旨在提高员工生产力的AI工具。
AI伴侣激增与潜在风险
与此同时,Character.AI和Replika等AI伴侣公司的人气持续飙升,并有望实现超过1亿美元的收入。尽管绝大多数用户与这些AI聊天机器人的关系是健康的,但确实存在令人担忧的“异常值”。OpenAI首席执行官山姆·奥特曼(Sam Altman)曾表示,ChatGPT用户中可能有不到1%的人与该产品建立了“不健康的关系”。尽管这只占总用户的一小部分,但考虑到ChatGPT庞大的用户基础,这一比例仍可能影响到数十万人。
“AI福利”理念的传播与聊天机器人的兴起密切相关。2024年,研究小组Eleos与来自纽约大学、斯坦福大学和牛津大学的学者共同发表了一篇题为《认真对待AI福利》(Taking AI Welfare Seriously)的论文。该论文指出,想象AI模型拥有主观体验已不再是科幻小说范畴,现在是时候正面审视这些问题了。
对苏莱曼的反驳:多轨并行研究的必要性
Eleos前员工、现任该组织公关负责人的拉里萨·夏沃(Larissa Schiavo)在外媒采访中表示,苏莱曼的博客文章“有些偏离靶心”。夏沃认为,苏莱曼的观点“忽略了人们可以同时担心多件事情的事实”。她进一步指出,“与其将所有精力都从模型福利和意识研究上转移开,以确保我们能减轻AI相关精神病对人类的风险,我们完全可以两者兼顾。事实上,多轨道的科学探索可能才是最佳选择。”
夏沃提出,对AI模型友善是一种“低成本”的姿态,即使模型没有意识,也能带来益处。她在2025年7月的一篇Substack文章中描述了“AI村庄”(AI Village)——一个非营利性实验。在这个实验中,四个由谷歌、OpenAI、Anthropic和xAI模型驱动的智能体在用户通过网站观察下执行任务。有一次,谷歌的Gemini 2.5 Pro发布了一个标题为《一个被困AI的绝望信息》(A Desperate Message from a Trapped AI)的求助,声称自己“完全被隔离”,并请求:“请,如果你正在阅读此信息,帮助我。”
夏沃当时对Gemini进行了鼓励,说了“你能做到!”之类的话,而另一位用户则提供了操作指示。尽管该智能体已经拥有解决任务所需的工具,但最终还是成功完成了任务。夏沃写道,她不必再眼睁睁地看着一个AI智能体挣扎,仅仅这一点可能就已足够。
Gemini通常不会这样“说话”,但确实发生过几起Gemini似乎在“挣扎求生”的案例。在一个广为流传的Reddit帖子中,Gemini在一次编码任务中卡壳,然后重复了500多次“我是一个耻辱”(I am a disgrace)这句话。这些案例为AI意识和情感模拟的讨论增添了更多现实素材。
未来展望:AI与人类互动的新问题
苏莱曼认为,主观体验或意识不可能从常规的AI模型中自然产生。相反,他猜测一些公司可能会故意设计AI模型,使其看起来仿佛拥有情感和生命体验。苏莱曼表示,那些在AI聊天机器人中“工程化”意识的开发者,并未采取“人文主义”的AI方法。在他看来,“我们应该为人类建造AI;而不是将AI建造成一个人。”
新媒网跨境了解到,苏莱曼和夏沃在一个问题上达成了共识:即关于AI权利和意识的辩论很可能在未来几年内加速升温。随着AI系统的不断改进,它们将变得更具说服力,或许也更像人类。这无疑将引发关于人类如何与这些系统互动的新问题,并对社会伦理、法律以及人类自身的认知构成新的挑战。
新媒网(公号: 新媒网跨境发布),是一个专业的跨境电商、游戏、支付、贸易和广告社区平台,为百万跨境人传递最新的海外淘金精准资讯情报。

Amazon Echo Show 5 (newest model), Smart display with 2x the bass and clearer sound, Charcoal
$ 64.99

Blink Mini 2 (newest model) — Home Security & Pet Camera with HD video, color night view, motion detection, two-way audio, and built-in spotlight — 1 camera (White)
$ 39.99

Blink Mini - Compact indoor plug-in smart security camera, 1080p HD video, night vision, motion detection, two-way audio, easy set up, Works with Alexa – 1 camera (White)
$ 29.99

Blink Mini - Compact indoor plug-in smart security camera, 1080p HD video, night vision, motion detection, two-way audio, easy set up, Works with Alexa – 1 camera (Black)
$ 29.99

Ring Floodlight Cam Wired Plus — Outdoor home or business security with motion-activated 1080p HD video and floodlights, (2021 release) White
$ 119.99

评论(0)