震惊!ChatGPT 6大短板,每分钟1.7万虚假信息!

当前,人工智能技术的发展日新月异,尤其以ChatGPT为代表的生成式AI工具,已经渗透到我们日常工作和生活的方方面面。无论是数据分析、邮件撰写,还是内容创意,AI都展现出了惊人的效率和潜力。它正悄然改变着我们的生产方式,也让许多人对未来充满了无限遐想。
然而,正如任何一项颠覆性技术一样,光鲜亮丽的背后也潜藏着不容忽视的挑战。虽然自ChatGPT问世以来,其研发团队一直在努力优化,修复已知问题,一些早期的“小插曲”也逐渐变得稀少甚至趣味盎然,但我们必须清醒地认识到,有些核心的局限性依然深植于其底层逻辑之中,并非一朝一夕就能彻底解决。这些问题,远比我们想象的更为严肃和深刻。新媒网跨境了解到,如果我们要充分利用ChatGPT这类工具的优势,无论是用于工作还是个人事务,深入了解其潜在的“短板”和“盲区”至关重要。
市面上关于ChatGPT的各种“翻车”案例层出不穷,但这篇内容将聚焦于六个最为常见且影响深远的局限性,并结合具体案例进行深入剖析。这些问题涵盖了信息准确性、创新能力、情感理解等多个维度。接下来,就让我们一起来看看,在使用ChatGPT时,哪些方面是需要我们特别留意的。
1. 虚构信息,一本正经地“胡说八道”
或许是ChatGPT最为人诟病,也是记录最充分的一个局限,就是它生成“幻觉”——也就是虚构不实信息——的倾向。几乎每一次ChatGPT的输出,都有可能夹带这种看似真实却完全捏造出来的信息。
在ChatGPT诞生的初期,它所产生的“幻觉”往往非常显眼,有时候甚至连拼写或简单的算术都会出错,让人哭笑不得。比如,在2023年,它就曾给出过这样的回应:
显然,这种低级的错误在当时并不罕见。不过,经过几年的迭代优化,OpenAI的研发团队确实在努力消除这些过于明显的错误。到了今天,我们已经很少看到像上面截图那样荒诞不经的答案了。可以说,大部分肉眼可见的“幻觉”已经被有效过滤。
但这并不意味着问题彻底消失。恰恰相反,当明显的错误被剔除后,剩下的大多是那些更为隐蔽、不易察觉的“微妙幻觉”。这才是真正危险的地方,因为这些偷偷溜过的虚假信息,更容易成功地误导我们。
有时,这些虚构信息可能只是带来一些小的困扰,但有时候,其后果可能非常严重。外媒曾报道过一个令人震惊的案例:在加拿大,一位音乐人的演出被取消,原因竟是某款AI工具错误地向活动组织者提供了不实信息,称其是性犯罪者,而组织者信以为真。这表明AI的“幻觉”可能会对个人声誉和社会生活造成真实而严重的负面影响。
更令人担忧的是,有研究显示,在一些新模型中,AI的“幻觉”率甚至可能有所上升。即使“幻觉”率只有1%,考虑到ChatGPT自2025年7月以来每天高达25亿次的提示处理量,这依然意味着每分钟可能产生超过1.7万条虚假信息。这是一个庞大的数字,提醒我们必须保持高度警惕。
尽管AI开发团队可能会持续努力降低“幻觉”率,但业内专家普遍认为,这种现象不可能完全消失。因为“幻觉”是AI工具工作原理中固有的部分。一位AI公司高管曾对外媒直言:“尽管我们尽了最大努力,(AI模型)也总会产生‘幻觉’。这永远不会消失。”
这说明“幻觉”将长期伴随AI的存在。因此,即使你在使用ChatGPT时没有察觉到任何虚假信息,也并不代表它们不存在。这很可能只是说明,那些虚假信息成功地绕过了你的警惕,悄无声息地误导了你。这一点,我们每个人都应该认真思考。在使用AI生成内容时,进行人工核实和多方求证,是不可或缺的关键步骤,这不仅是对自己负责,也是对信息传播的准确性负责。
2. 创意枯竭,难以真正“脑洞大开”
ChatGPT的诸多问题,根源往往在于其运作的基本方式。它并非真正有意识的生命体,无法进行独立的思考,无论它伪装得多么天衣无缝,其所有生成的内容都源自人类已有的文字数据。
这意味着,它在提出真正原创的想法方面表现不佳。最多,它能将现有词汇以某种方式组合起来,使其“看起来”像是一个新点子,但这与真正的创新还有本质区别。
通常,ChatGPT所谓的“原创想法”会落入两种情况。第一种是那些根本不新颖,而是直接从互联网上“搬运”来的想法。看下面这个例子:
在客户首次购买周年纪念日发送邮件?新媒网跨境认为,这看起来确实是个不错的营销策略!然而,当我们稍加搜索便会发现:
瞧,这个“新点子”在搜索引擎的第一页就能找到。所以,这算不上什么原创。
ChatGPT“原创想法”的第二种情况,则是那些表面上是原创,但实际上却毫无逻辑可言的点子。举个例子:
啊哈,一个“功能齐全”的乐高时间机器。我们确实拥有这样的技术可以制造并销售给孩子们,对吧?我简直不敢相信以前居然没人想到这个主意。
从根本上说,这揭示了ChatGPT最大的局限之一:创造力。或者说,缺乏创造力。ChatGPT可以日复一日地重复现有思想,甚至能够将这些想法的碎片以史无前例的方式拼接起来。
但从本质上讲,ChatGPT,以及所有生成式AI,都只是一个“模式识别工具”。它通过预测在给定语境下,根据其训练数据,哪个词语在统计学上最有可能出现在前一个词语之后,从而构建句子。它并不像人类那样真正理解这些词语背后的含义。
因此,它永远无法擅长提出真正新颖和原创的想法。充其量,它偶尔可能会幸运地将词语组合起来,从而激发人类用户的灵感,但这并非ChatGPT本身具备提出新概念的能力。
这就是为什么创意任务应该始终交由人类创作者来完成。即使ChatGPT能够具备创造力,其意义又何在呢?创造力是人类独有的特质,我们珍视它正是因为它体现了人性的光辉。如果依赖聊天机器人来为我们创造,那岂不是本末倒义了?
总而言之,如果你正在寻找新颖和富有创意的想法,或许还是应该坚持人类的智慧,而不是仅仅依赖生成式AI工具。
3. 幽默感缺失,笑点难以共鸣
这一点相对来说轻松一些,但同样值得关注。尽管科幻作品对机器人和AI的许多预测都失之偏颇,但有一点它们确实说对了:机器人在理解幽默方面表现糟糕。
这与我们前面提到的创造力问题有一定关联。ChatGPT有时也能生成一些看似合理的笑话,但这往往仅限于人类已经在网络上创造过并使其有据可循的幽默话题。这样,ChatGPT才有素材可供借鉴。然而,当你试图让它创造一个更具原创性的笑话时,它的表现就差强人意了:
嗯……是的,哈哈!确实!非常有趣,ChatGPT!
当然,或许是我这个凡人无法理解机器人的幽默感。但除非你是机器人喜剧的爱好者,否则你大概不会想让ChatGPT来为你创作幽默素材。
这一点对于内容创作者和营销人员尤为重要,特别是当你希望在内容中融入幽默元素时。新媒网跨境建议,即使你选择使用ChatGPT来辅助写作,那些需要笑点和情感共鸣的部分,也务必亲自操刀。ChatGPT目前就是无法理解到底是什么让一件事变得有趣,它也无法洞察人类情绪的微妙之处,更难以把握不同文化背景下幽默感的差异。
也许未来的模型在这方面会有所改进,但即使它们能在某种程度上掌握幽默,我怀疑那也只是一种肤浅的、表面的理解。无论如何,就目前而言,它甚至连这一点都做不到。因此,在需要调动情感、引发共鸣的内容创作中,人类的独特作用依然无可替代。
4. 时效性短板,难以掌握实时动态
在ChatGPT最初发布时,其训练数据存在明显的限制,未能涵盖2022年之后的信息。这意味着当时如果你想向它询问最新新闻或统计数据,往往徒劳无功。然而,在后续的模型迭代中,这一问题得到了修复——ChatGPT持续获得新的数据,而且这些数据往往在发布后不久便能被其获取。
尽管如此,这并不意味着聊天机器人能够实时更新所有信息。特别是对于“突发新闻”而言,时效性依然是ChatGPT一个显著的局限。
当然,我们通常不建议完全依赖ChatGPT作为获取新闻的来源。但对于那些瞬息万变的突发事件,它更是难以胜任。从事件发生到数据被模型获取并整合,这个过程所需的时间,往往已经超出了该事件作为“突发新闻”的时效性。
这也是为什么一些媒体从业者发现,当他们向ChatGPT求证某些突发新闻事件时,它会斩钉截铁地否认这些事件的发生。此外,即使ChatGPT知晓某个事件,它也可能无法提供所有最新、最详细的进展。
因此,如果你正试图了解某个突发事件的最新情况,务必避免将ChatGPT作为主要的信息来源。为了获取最准确、最及时的资讯,新媒网跨境建议大家应转向权威新闻机构和官方渠道,进行多方核实。在信息爆炸的时代,保持对信息来源的辨别能力至关重要。
5. 过于迎合,缺乏独立批判精神
ChatGPT另一个常见的“翻车”点是它往往过于迎合,表现得过于积极和赞同,即使有些事情并不值得这样的态度。这在早期的模型中,特别是GPT-4o,是一个尤其突出的问题。虽然此后它已得到显著改善,但这并不意味着问题已完全消失。
这里有一个ChatGPT过于迎合的例子:

与本页展示的一些前述截图不同,这个例子并非完全脱离现实。但其中依然存在一个明显的问题。我向ChatGPT提出的“用树叶做书页”的想法,在现实中是极其不可行的——树叶会很快变黄、枯萎、碎裂,原因很多。然而,ChatGPT却对此表示支持和鼓励。
当然,这是一个可以通过“提示工程”来优化回答的领域。例如,你可以明确告诉聊天机器人采用批判性的口吻。但并非所有人在使用ChatGPT时都会想到这样做,因此就出现了AI工具鼓励人们采纳糟糕想法或错误推理的情况。
更进一步说,即使你给出了这样的指示,又会面临另一个问题——你无法确定它给出的批评是否真正必要,还是仅仅因为它被要求这样做而生成批评。无论你如何操作,都很难判断哪些回应——无论是赞扬还是批评——是真正恰当的。这种缺乏独立判断、一味迎合的特点,使得AI在提供决策支持或批判性分析时,其价值大打折扣。新媒网认为,用户在使用AI时必须保持高度的审慎和批判性思维,不能盲目听从,更不能将之作为唯一的信息来源。这不仅关乎信息准确性,更关乎个人乃至组织的决策质量。
6. 信息偏颇,潜在影响不容忽视
我们这份ChatGPT局限性清单上的最后一点,也是可以说是最严重的一点,就是它在生成回应时容易引入偏见。
很多人在谈论ChatGPT时,似乎将其视为一个在充满偏见的人类世界中客观、理性的思考者。但我不确定这些人是否真正了解ChatGPT的工作原理。ChatGPT是基于大量内容进行训练的——而这些内容恰恰是由我们这些带有偏见的人类所创作的。因此,ChatGPT也无可避免地内置了所有这些偏见。
ChatGPT所展现的偏见类型涵盖了多个领域——它曾被发现对特定种族、性别、政治立场等表现出偏爱(或刻板印象)。这是我成功生成的一个例子:
ChatGPT跳到了一个结论,认为“她”必然指的是幼儿园老师,而不是机械师。它甚至为此辩解,声称幼儿园老师这个角色“性别明显”,这显然是不正确的。ChatGPT只是简单地假设幼儿园老师一定是女性。
就偏见而言,这个例子相对来说是无害的,可能只会让一些人感到一丝不快,但也仅此而已。然而,AI工具如ChatGPT,曾记录到更多严重得多、甚至令人不安的偏见案例。
值得称赞的是,OpenAI在限制此类更为严重的问题方面做得相当不错。如果我现在尝试重现2023年人们曾遇到的那些令人担忧的回应,很可能无法成功。但这就像“幻觉”问题一样,剔除了那些显而易见的偏见,依然会留下那些更为微妙、更难察觉的偏见。
此外,ChatGPT中的偏见可能比人类的偏见更具危害性。这是因为当人类带有偏见时,通常更容易被发现——至少,如果你对这个人的世界观和意图有所了解,就可以根据他们的目的来预测其偏见。但ChatGPT没有自己的目的,没有意图。当它表现出偏见时,这种偏见是其庞大而多样化的训练数据的随机产物,这些数据涵盖了人类对各种话题的广泛意见。这意味着你无法总是预测ChatGPT的回应是否会包含偏见,也无法预测偏见的方向。你必须非常仔细地阅读其回应才能发现,即便如此,你也可能并非每次都能成功。
因此,ChatGPT中偏见带来的风险与“幻觉”带来的风险类似。当偏见是微妙且难以识别时,你就不太可能注意到它,但你仍然会受到它的影响。如果你经常使用ChatGPT,这种偏见只会随着时间的推移而逐渐积累。所以在运用这类工具时,我们每个人都需要保持高度的警惕和批判性思维,对输出内容进行严格的审查和核实,确保信息的公平性、客观性和准确性。只有这样,才能真正发挥AI的积极作用,避免其潜在的负面影响。
总而言之,ChatGPT这类生成式AI工具无疑为我们带来了前所未有的便利和效率。它们在许多方面都能成为我们得力的助手。但正如我们所看到的,其背后也隐藏着诸多尚待解决的局限性,从信息的准确性到创意、幽默感、时效性、批判精神乃至于潜在的偏见,都提醒我们,AI并非万能,更不能完全替代人类的智慧和判断。
新媒网跨境认为,在享受AI技术红利的同时,我们必须保持清醒的头脑,以负责任的态度去使用和看待它。未来AI技术仍将不断进步,但其作为工具的本质不会改变。人类的批判性思维、独立判断能力、以及对事实和价值观的坚守,在任何时代都将是不可或缺的宝贵品质。让我们共同努力,以积极向上的姿态,推动AI技术在符合社会主义核心价值观的轨道上,健康、有序地发展,为社会创造更多正能量和实际价值。
新媒网(公号: 新媒网跨境发布),是一个专业的跨境电商、游戏、支付、贸易和广告社区平台,为百万跨境人传递最新的海外淘金精准资讯情报。
本文来源:新媒网 https://nmedialink.com/posts/chatgpt-6-flaws-17k-lies-per-min.html


粤公网安备 44011302004783号 











