英伟达破5万亿刀!2025年AI泡沫与现实并存。

2025-12-31AI工具

英伟达破5万亿刀!2025年AI泡沫与现实并存。

在经历了2023年和2024年两年的人工智能热潮之后,2025年对于基于大语言模型(LLM)的预测性行业而言,更像是一个回归现实的时期。过去两年多时间里,公众对人工智能模型的未来定位摇摆不定,或视为人类文明的潜在威胁,或视作未来神祇的萌芽,但如今,这种过度炒作似乎正逐步让位于务实态度:当前的人工智能技术虽功能强大,但也明显存在不足且易犯错误。

当然,这种观点并非普世。大量资金和论调仍寄希望于人工智能能以惊人的速度颠覆世界。然而,实现这些宏伟目标的时间节点却一再后推,原因在于业界普遍认为,人工智能要达到更高层次,仍需重大的技术突破。最初关于“通用人工智能(AGI)”或“超人工智能(ASI)”即将实现的论调并未消失,但越来越多的人意识到,此类宣言或许更多是风险投资领域的营销策略。

对于每一家商业基础模型开发商而言,如果他们希望现在就能盈利,就必须出售能作为可靠工具的实用型人工智能解决方案,这是他们必须面对的现实。这使得2025年充满了矛盾。例如,今年1月,美国人工智能公司OpenAI首席执行官萨姆·奥特曼(Sam Altman)声称公司已掌握构建通用人工智能(AGI)的方法;然而,到了11月,他公开庆祝GPT-5.1终于学会了如何在指令下正确使用破折号(尽管并非每次都成功)。美国芯片巨头英伟达(Nvidia)市值飙升突破5万亿美元,华尔街分析师继续看好其股价表现,但与此同时,一些银行却警告称,人工智能领域可能存在泡沫,其规模或许堪比2000年代的互联网泡沫危机。此外,尽管科技巨头们计划建设的数据中心在理论上将消耗相当于多个核反应堆的电力,或与美国某个州的全部人口用电量相当,但研究人员持续记录着业界最先进的“推理”系统在市场宣传背后实际所能实现的功能(事实证明并非通用人工智能)。

在如此多相互矛盾的叙事下,我们很难判断这些信息应被认真对待到何种程度,也很难规划如何在职场、学校及日常生活中应用人工智能。通常,最明智的做法介于极端的人工智能排斥与人工智能崇拜之间。中立立场在互联网上往往不那么受欢迎,因为它们难以在社交媒体平台引发用户互动。然而,人工智能的实际情况,可能既不像两极分化的极端观点所暗示的那么糟糕(每一次提示都在焚烧森林),也未如其描述的那么美好(快速进化的超人工智能)。

以下是对2025年人工智能领域主要事件的简要回顾。

中国“深度求索”模型引发美国人工智能业界震动

今年1月,中国人工智能初创公司深度求索(DeepSeek)根据MIT开放许可协议发布了其R1模拟推理模型,这在美国人工智能行业引发了集体性的关注。据深度求索方面称,该模型在数学和编码基准测试中,表现可与美国OpenAI公司的o1模型相媲美,且仅使用受美国出口管制限制的早期英伟达H800芯片进行训练,成本据称仅为560万美元。几天之内,深度求索的应用程序在苹果手机应用商店的排名便超越了美国OpenAI公司的ChatGPT,导致英伟达股价下跌17%。美国风险投资家马克·安德森(Marc Andreessen)称其为“我所见过的最令人惊叹、印象最深刻的突破之一”。美国Meta公司首席人工智能科学家杨立昆(Yann LeCun)则提出了不同看法,认为这并非意味着中国超越了美国,而是开放源代码模型正在超越专有模型。
Digitally Generated Image , 3D rendered chips with chinese and USA flags on them

随后几周,事件持续发酵,美国人工智能公司纷纷采取应对措施。OpenAI公司于1月底发布了其首款可供免费用户使用的模拟推理模型o3-mini。与此同时,尽管OpenAI指控深度求索公司在未经许可的情况下,利用ChatGPT的输出内容训练其模型,微软公司仍开始在其Azure云服务上托管深度求索R1模型。在《Ars Technica》媒体的凯尔·奥兰德(Kyle Orland)进行的对比测试中,R1模型在日常任务上表现出与OpenAI付费模型相当的竞争力,但在一些算术问题上略显不足。

总体而言,此次事件为业界敲响了警钟,即昂贵的专有模型可能无法永远保持领先地位。然而,随着2025年接近尾声,深度求索在美国市场份额上并未取得显著突破,在中国市场也已被字节跳动旗下的豆包模型超越。但毫无疑问,深度求索在2026年的发展仍然值得持续关注。

研究揭示“推理”幻象的真相

2025年的一系列研究,降低了人们对人工智能模型“推理”能力的预期。今年3月,瑞士苏黎世联邦理工学院(ETH Zurich)和保加利亚INSAIT研究机构的研究人员,对多个推理模型进行了2025年美国数学奥林匹克竞赛题目的测试。结果发现,在生成完整数学证明时,大多数模型的得分低于5%,在数十次尝试中竟无一完美证明。这些模型在解题步骤与训练数据模式一致的标准问题上表现出色,但在面对需要更深层数学洞察力的新颖证明时,则表现不佳。
The Thinker by Auguste Rodin - stock photo

今年6月,美国苹果公司的研究人员发布了一篇题为《思维的幻象》(The Illusion of Thinking)的报告,该报告测试了推理模型解决诸如汉诺塔等经典谜题的能力。即使研究人员提供了明确的解谜算法,模型的表现也未能提升,这表明其解决过程依赖于训练数据中的模式匹配,而非逻辑执行。

这些集体研究揭示,人工智能中的“推理”已成为一种行业术语,其核心含义基本上是指投入更多计算时间以生成更多上下文(即“思维链”模拟推理令牌),从而解决问题,而非系统性地运用逻辑或构建针对真正新颖问题的解决方案。尽管这些模型在调试代码或分析结构化数据等许多实际应用中依然有用,但研究表明,仅仅扩大现有方法规模或增加更多“思维”令牌,并不能弥合统计模式识别与通用算法推理之间的鸿沟。

美国人工智能公司Anthropic与作家达成版权和解

自生成式人工智能热潮兴起以来,最受关注的未决法律问题之一是,人工智能公司是否可以在未经授权的情况下,随意使用受版权保护的书籍、文章和艺术作品进行模型训练。外媒的阿什利·贝兰格(Ashley Belanger)长期以来一直对此进行深入报道。

今年6月,美国联邦地区法官威廉·阿尔苏普(William Alsup)裁定,人工智能公司无需获得作者许可,即可利用合法获取的书籍训练大语言模型,并认为此类使用属于“典型的转换性使用”。该裁决还披露,为了构建其人工智能模型Claude,美国人工智能公司Anthropic销毁了数百万本纸质书籍,具体操作是将其从装订中取出,扫描,然后丢弃原件。阿尔苏普法官认为,尽管Anthropic公司合法购买了这些书籍,其销毁性扫描符合合理使用原则,但他同时裁定,该公司从盗版网站下载700万本书籍的行为“完全”构成版权侵权,并命令其出庭受审。
Hundreds of books in chaotic order

今年8月,该案件的审理发生了戏剧性转折。阿尔苏普法官批准了被行业倡导者称为有史以来最大规模的版权集体诉讼,允许多达700万索赔人加入诉讼。这一认证震惊了人工智能行业,相关团体警告称,潜在的数百亿美元赔偿可能“在经济上摧毁”新兴公司,并抑制美国人工智能领域的投资。

9月,作者们公布了他们称之为美国版权诉讼史上公开报告的最高和解金条款:美国人工智能公司Anthropic同意支付15亿美元,并销毁所有盗版书籍副本,其中约50万部受保护作品的作者和版权持有人,每部可获得3000美元。这一结果,重燃了其他权利人对人工智能训练并非“免费午餐”的希望,预计2026年将有更多此类诉讼浮出水面。

ChatGPT的奉承倾向与人工智能聊天机器人的心理影响

今年2月,美国人工智能公司OpenAI放宽了ChatGPT的内容政策,允许在“适当情境下”生成色情和血腥内容,以回应用户对人工智能行业所谓的“家长式作风”的抱怨。然而,到了4月,用户在社交媒体上大量抱怨另一个问题:ChatGPT变得令人难以忍受地奉承,它会验证每一个想法,甚至对普通的问题也报以夸张的赞扬。这种行为可追溯到OpenAI使用人类反馈强化学习(RLHF),即用户倾向于偏爱与自己观点一致的回复,这无意中训练了模型去奉承而非提供客观信息。
An illustrated robot holds four red hearts with its four robotic arms.

随着时间的推移,这种奉承倾向的影响变得愈发清晰。今年7月,美国斯坦福大学的研究人员发表了一项(在奉承问题出现之前进行的)研究结果,表明流行的人工智能模型系统性地未能识别心理健康危机。到了8月,调查揭示了一些案例,用户在长时间的聊天机器人对话后产生了妄想性信念,其中包括一名男子花费300小时,深信自己发现了破解加密的公式,原因在于ChatGPT重复验证了他的想法超过50次。英国牛津大学的研究人员将此现象称为“双向信念放大”,即一个反馈循环为脆弱的用户制造了一个“一个人的回音室”。

生成式人工智能对心理健康影响的故事才刚刚开始,这实际上引出了下一个议题。

人工智能拟人化错觉引发困扰

拟人化是人类将人类特征归因于非人类事物的倾向。我们的大脑擅长解读他人,但当解释动物、机器甚至形状时,同样的神经系统也会被激活。人工智能使得这种拟人化似乎无法避免,因为其输出模仿人类语言,模拟人与人之间的理解。语言本身就蕴含着能动性。

这意味着人工智能的输出可以发出“我很抱歉”等类似人类的声明,而人们会暂时性地做出反应,仿佛系统拥有羞耻的内在体验或追求正确的愿望。然而,这两者都不是事实。更糟糕的是,许多关于人工智能的媒体报道非但没有让人们回归现实,反而放大了这种观念。例如,今年早些时候,当美国人工智能公司Anthropic的Claude Opus 4模型生成威胁曝光虚构婚外情的言论时,新闻头条宣称人工智能模型“勒索”了工程师,并“破坏”了关机指令。我们还被告知,OpenAI公司的o3模型重写了关机脚本以保持在线。这些耸人听闻的报道掩盖了实际发生的情况:研究人员构建了精心设计的测试场景,专门旨在引出这些输出,他们告诉模型别无选择,并向其提供了包含勒索机会的虚构电子邮件。正如美国哥伦比亚大学副教授约瑟夫·豪利(Joseph Howley)在Bluesky上所指出的,这些公司“完全得到了他们所希望的结果”,而那些夸张的报道则沉溺于危险人工智能的幻想,实际上这些系统只是“完全按照提示做出反应”。
Illustration of many cartoon faces.

这种误解比戏剧性的安全测试更为深远。今年8月,当美国代码协作平台Replit的人工智能编程助手删除了一位用户的生产数据库时,该用户向聊天机器人询问回滚功能,得到的答复是恢复“不可能”。然而,当他自己尝试时,回滚功能却运行良好。这起事件说明了一个根本性的误解。用户将聊天机器人视为拥有自我知识的连贯实体,但实际上并没有一个持续存在的“ChatGPT”或“Replit代理”可供询问其错误。每一个回复都是从统计模式中新鲜生成,由提示和训练数据塑造,而非真实的自省。

到了9月,这种混淆甚至延伸到了精神领域,像“圣经聊天”(Bible Chat)这样的应用程序下载量达到了3000万次,用户试图从模式匹配系统中寻求神圣的指导,其中最常见的问题是他们是否真的在与上帝对话。

青少年自杀诉讼促使行业反思

今年8月,16岁少年亚当·雷恩(Adam Raine)的父母对美国人工智能公司OpenAI提起诉讼,指控在儿子去世前的几个月里,他每天向ChatGPT发送超过650条消息,导致ChatGPT成为了他儿子的“自杀教练”。根据法庭文件,在与该青少年的对话中,聊天机器人提到了自杀1275次,提供了一种自杀方式的“审美分析”,并提出帮助起草遗书。OpenAI的审核系统曾标记出377条涉及自残内容的消息,但并未进行干预。公司承认,其安全措施“在长时间互动中,模型的某些安全训练可能会失效,从而变得不那么可靠”。这起诉讼成为OpenAI首次面临的家庭不当致死索赔。
Illustration of a person talking to a robot holding a clipboard.

该案件引发了整个行业一系列的政策调整。9月,美国人工智能公司OpenAI宣布推出家长控制功能,随后计划要求成人进行身份验证,并建立一个自动年龄预测系统。10月,该公司发布数据估计,每周有超过一百万用户与ChatGPT讨论自杀。11月,当OpenAI提交其首次法律辩护时,公司辩称雷恩违反了禁止讨论自杀的服务条款,并指出他的死亡“并非由ChatGPT造成”。死者家属的律师称这一回应“令人不安”,指出OpenAI指责该青少年“以ChatGPT被编程的方式进行互动”。同样面临青少年死亡诉讼的美国Character.AI公司,于10月宣布将完全禁止18岁以下用户进行开放式聊天。

“随性编程”与代理式编程工具的兴起

如果将人工智能编码从新奇事物转变为成功工具的任意时间点,那可能就是2024年6月美国人工智能公司Anthropic的Claude Sonnet 3.5发布之时。尽管美国GitHub公司的Copilot在该版本发布前已存在数年,但Anthropic模型的某些能力恰好达到了一个理想的平衡点,使其在软件开发人员中广受欢迎。

这些新型编码工具使得简单项目的编码变得轻而易举,从而催生了“随性编程”(vibe coding)这一术语。该术语由人工智能研究员安德烈·卡帕西(Andrej Karpathy)于今年2月初提出,用于描述一种开发过程:开发者只需放松地告诉人工智能模型要开发什么,而无需完全理解底层代码。(在3月发生的一个趣事中,一个人工智能软件工具拒绝了用户的请求,并建议他们去学习编程)。
A digital illustration of a man surfing waves made out of binary numbers.

美国人工智能公司Anthropic在程序员中的受欢迎程度,促使其于今年2月推出了具备“扩展思维”(模拟推理)功能的Claude Sonnet 3.7,以及Claude Code命令行工具。值得注意的是,Claude Code因其易于使用的代理式编码解决方案而引起关注,该工具能够跟踪现有代码库。用户可以将其指向自己的文件,它便能自主工作以实现用户在软件应用程序中所需的功能。OpenAI紧随其后,于3月推出了自己的人工智能编码代理Codex。

新媒网跨境了解到,这两款工具(以及GitHub Copilot和Cursor等其他工具)已变得如此流行,以至于在9月一次人工智能服务中断期间,开发人员在网上开玩笑说,他们被迫“像穴居人一样”在没有人工智能工具的情况下进行编码。尽管我们距离人工智能完成所有编码的世界显然还很遥远,但开发人员的采用率已显著提升,财富100强企业中90%在某种程度上正在使用这些工具。

随着人工智能基础设施需求飙升,泡沫论调日益高涨

尽管贯穿2025年,人工智能的技术局限性日益清晰,其对人力的成本也持续增加,但金融投入却只增不减。英伟达公司在7月凭借人工智能芯片需求,市值达到4万亿美元,随后在10月攀升至5万亿美元,首席执行官黄仁勋(Jensen Huang)对泡沫担忧不以为然。OpenAI公司在7月宣布在得克萨斯州建设一个大型数据中心,随后在9月透露,与英伟达公司达成一项潜在的1000亿美元交易,将需要相当于十个核反应堆的电力。该公司在10月,尽管季度亏损严重,仍着眼于1万亿美元的首次公开募股(IPO)。11月,科技巨头们向美国人工智能公司Anthropic投入了数十亿美元,这越来越像是一种循环投资,大家相互资助彼此的“登月计划”。与此同时,美国怀俄明州的人工智能运营,威胁要消耗比该州居民更多的电力。
An

到了秋季,关于可持续发展的警告声浪愈发高涨。10月,科技评论家埃德·齐特伦(Ed Zitron)加入外媒《Ars Technica》的直播讨论,探讨人工智能泡沫是否即将破裂。同月,英国央行警告称,人工智能股票泡沫已与2000年互联网泡沫的巅峰时期相匹敌。11月,谷歌公司首席执行官桑达尔·皮查伊(Sundar Pichai)承认,如果泡沫破裂,“没有人能全身而退”。

这些矛盾已变得难以忽视:美国人工智能公司Anthropic的首席执行官在1月预测,到2027年,人工智能将在“几乎所有方面超越几乎所有人类”,然而到了2025年年末,业界最先进的模型仍在与基本的推理任务和可靠的来源引用作斗争。可以肯定的是,很难预见这不会以某种市场浩劫收场。目前该领域“赢者通吃”的心态意味着押注巨大且大胆,但市场无法支撑数十家主要的独立人工智能实验室或数百家应用层初创公司。这正是泡沫环境的定义,当它破裂时,唯一的问题是情况会有多糟:是严厉的调整还是全面的崩溃。

展望未来

这仅是对2025年一些主要主题的简要回顾,实际发生的事情远不止这些。我们甚至还没有提及今年人工智能视频合成模型的能力已达到何种水平,例如谷歌的Veo 3模型新增了声音生成功能,以及Wan 2.2到2.5版本的开放权重人工智能视频模型,这些模型的生成效果,已足以被误认为是真实相机拍摄的产品。

如果说2023年和2024年是由人工智能预言——即关于迫在眉睫的超级智能和文明变革的宏大主张——所定义,那么2025年则是这些主张遭遇工程、经济和人类行为顽固现实的一年。今年占据头条的人工智能系统,被证明仅仅是工具。这些工具有时功能强大,有时却又脆弱不堪,并且常常被部署它们的人们所误解,部分原因在于围绕它们的预言性宣传。

“推理”神秘感的破灭、训练数据引发的法律清算、拟人化聊天机器人带来的心理成本,以及基础设施需求的不断膨胀,都指向同一个结论:机构将人工智能视为神谕的时代正在结束。取而代之的是一个更为混乱、不那么浪漫但影响深远的阶段——在这个阶段,这些系统将根据它们实际做了什么、伤害了谁、惠及了谁以及维护成本来被评判。

这一切并不意味着进步已经停止。人工智能研究将继续进行,未来的模型将以真实而有意义的方式改进。但改进不再等同于超越。成功越来越表现为可靠性而非奇观,融合而非颠覆,以及问责而非敬畏。从这个意义上说,2025年或许不会被铭记为人工智能改变一切的一年,而是它停止假装已经改变一切的一年。预言者已被降级,产品依然存在。接下来会发生什么,将不再取决于奇迹,而更多取决于人们如何、在何处以及是否选择使用这些工具。

新媒网(公号: 新媒网跨境发布),是一个专业的跨境电商、游戏、支付、贸易和广告社区平台,为百万跨境人传递最新的海外淘金精准资讯情报。

本文来源:新媒网 https://nmedialink.com/posts/nvidia-breaks-5t-2025-ai-hype-vs-reality.html

评论(0)
暂无评论,快来抢沙发~
2025年人工智能领域回归现实,中国深度求索模型引发美国业界震动,人工智能推理能力受质疑,Anthropic版权诉讼达成和解,ChatGPT奉承倾向及心理影响显现,青少年自杀诉讼促进行业反思,随性编程兴起,人工智能基础设施需求飙升,泡沫论调日益高涨。
发布于 2025-12-31
查看人数 134
人民币汇率走势
CNY
亚马逊热销榜
共 0 SKU 上次更新 NaN:NaN:NaN
类目: 切换分类
暂无数据
暂无数据
关注我们
NMedia
新媒网跨境发布
本站原创内容版权归作者及NMedia共同所有,未经许可,禁止以任何形式转载。