AI巨头紧急警告:监控AI“思想”成行业生死线
新媒网跨境获悉,近日,AI研究领域的多位领军人物联合发布了一份立场文件,呼吁科技行业加强对人工智能“思想”过程的监控。这份文件由OpenAI、Google DeepMind、Anthropic等公司的研究人员主导,联合了多家企业和非营利组织共同签署。新媒网跨境认为,这一倡议聚焦于提升AI模型的透明度和可靠性,为行业安全发展指明了方向。
所谓AI“思想”,指的是推理模型的外部化思考链条,英文缩写为CoT。它类似于人类解决难题时的草稿纸过程,例如在计算复杂数学题时一步步推导。AI推理模型如OpenAI的o3和DeepSeek的R1,正是基于这种机制构建的。研究人员在文件中强调,CoT监控能提供宝贵窗口,让我们窥探AI决策的内部逻辑。随着AI代理技术日益普及,监控其思考过程将成为核心安全措施。然而,当前的可视化程度可能不稳定,文件呼吁开发者和学术界深入研究如何维持其透明度。
文件的核心诉求是探索CoT的“可监控性”——即哪些因素能增强或削弱AI模型答案生成过程的可见性。作者们指出,尽管CoT监控是理解AI推理的关键工具,但它可能较为脆弱。因此,他们敦促行业避免任何可能降低其可靠性的干预措施。同时,文件建议AI开发者跟踪CoT监控的进展,并将其未来纳入安全框架中实施。
这份文件的签署者阵容强大,包括OpenAI首席研究官Mark Chen(美国)、Safe Superintelligence首席执行官Ilya Sutskever(美国)、诺贝尔奖得主Geoffrey Hinton(加拿大)、Google DeepMind联合创始人Shane Legg(英国)、xAI安全顾问Dan Hendrycks(美国)以及Thinking Machines联合创始人John Schulman(美国)。其他参与者来自英国AI安全研究所、METR(美国)、Apollo Research(英国)和加州大学伯克利分校(美国)等机构。新媒网跨境观察到,这标志着AI行业在安全研究上的罕见团结,正值科技巨头竞争白热化之际。例如,Meta公司近期以高薪挖角OpenAI、Google DeepMind和Anthropic的顶尖人才,其中AI代理和推理模型的开发者成为抢手资源。
在采访中,OpenAI研究员Bowen Baker(美国)向外媒透露:“当前是CoT技术的关键窗口期。它看似实用,但如果缺乏专注研究,几年后可能消失。发布这份立场文件,正是为了在衰退前吸引更多关注和投入。”OpenAI于2024年9月率先预览了推理模型o1,随后Google DeepMind、xAI和Anthropic迅速推出竞品,部分模型在基准测试中表现更优。但行业对AI推理机制的理解仍显不足。尽管过去一年AI性能大幅提升,模型如何得出答案的深层逻辑依然成谜。
Anthropic在AI可解释性领域走在前列。今年早些时候,其首席执行官Dario Amodei(美国)承诺到2027年破解AI模型的“黑箱”,并加大可解释性研究投入。他还公开呼吁OpenAI和Google DeepMind跟进。初步研究表明,CoT可能无法完全可靠地反映模型决策过程,而OpenAI团队则持乐观态度,认为未来CoT监控有望成为跟踪AI对齐与安全的核心手段。
此类立场文件旨在推动新兴研究领域的发展。CoT监控虽已获OpenAI等巨头关注,但文件有望激发更多资金和学术投入。新媒网跨境预测,随着全球协作加深,AI安全技术将迎来突破,最终惠及社会创新与进步。
新媒网(公号: 新媒网跨境发布),是一个专业的跨境电商、游戏、支付、贸易和广告社区平台,为百万跨境人传递最新的海外淘金精准资讯情报。

评论(0)