大语言模型的「神话」与「现实」

时间:2025-04-26 15:48:03 来源:淘折扣  阅读:(7) 收藏
转载:

这是ChatGPT横空出世时带给很多人的感受。两年后,大语言模型DeepSeek仍然是信息流中的高频词。

大语言模型的「神话」与「现实」

“足够先进的技术与魔法无异”。这是ChatGPT横空出世时带给很多人的感受。

两年后,大语言模型DeepSeek仍然是信息流中的高频词。每一次算法升级或模型迭代,都被打上“革命性”的标签,无数条“王炸”内容,都在重复着一个相似的剧本:

媒体蜂拥报道,资本争相入局,公众则在“被取而代之”的职业焦虑与“奇点临近”的技术狂热间摇摆。

大语言模型的「神话」与「现实」

这种“爆火”的技术确实带着“魔法”的光环:因为几乎在一夜之间,它便无处不在。「AI大模型+一切」成为商业叙事的时尚标签,似乎是无所不能的最优解。

然而,光环背后,一个矛盾的现实开始浮现——大语言模型既是效率的象征,又是幻觉的制造者;既被视为智能的巅峰,又暴露出认知的局限。

这种矛盾不仅存在于技术本身,更深植于人类对它的期待与现实之间的错位中。随着模型愈发“聪明”,这种错位并未弥合,反而可能逐渐扩大。

效率神话

我们最好非常确信,给机器置入的目的正是我们真正想要的目的。——Norbert Wiener(控制论创始人)

在界面简洁的对话框背后,思考、推理、深度研究,这些复杂且多维度的大脑认知活动,被打包成唾手可得的服务。

大语言模型的「神话」与「现实」

大语言模型的「神话」与「现实」

大语言模型的「神话」与「现实」

大语言模型的「神话」与「现实」

大语言模型的「神话」与「现实」

只需敲下几行文字,一个“博士级”的数字大脑便开始运转,屏幕上闪动的“思维链条”仿佛再现了人类大脑的神经脉动。毫秒之间,人类数千年积淀的知识被提炼为一个“工整”的回答。

这就是大语言模型许下的效率承诺:人类无需费力攀登思维的高塔,只需按下回车键,就能直抵认知的彼岸。

然而,对话框下面那些并不显眼的提示,无意中暴露了效率神话的脆弱性。生成式AI始终处于一种随机性与约束性紧张而微妙的关系之中。

大语言模型的「神话」与「现实」

在大多数情况下,用户期待的是可靠、稳定的输出,而非随机生成虚构或错误“幻觉”的系统。但这种缺陷通常都被另一种功能的宣传所掩盖,那就是提示(prompt)的作用——强调用户可以通过对系统施加特定的控制从而影响生成的效果。由此还催生了一个新兴职业:提示工程(Prompt Engineering),通过精心设计的指令优化模型的输出。

提示工程的兴起恰恰揭示了效率神话的悖论:为了得到准确输出,用户需要投入大量时间和精力学习、调整提示语以“驯服”模型,这是否抵消了它节省的成本?

大语言模型的「神话」与「现实」

对提示语的过分强调,还会让用户产生进一步的误解,即认为大语言模型是在检索信息,而非在庞大的语料库中构建词语关联。大语言模型的响应其实是基于统计可能性而非事实准确性,提示工程有效的一个隐含前提是,统计上可能的词语搭配会产生用户所寻求的信息的可靠参考。

此外,即使提示词已经做到尽善尽美,输出的准确性仍无法保证。更麻烦的是,越先进的模型越擅长伪装专业性,其错误甚至需要专家才能识别。

大语言模型的「神话」与「现实」

人们习惯于用熟悉的视角看待新兴技术,比如将大语言模型当作一个求真求实的搜索引擎。然而,一个犯错更快的AI并不是完美的解决方案,而是以光速传播的问题。

Upwork的一项研究显示,“96% 的企业高管认为AI会提高员工的工作效率,而 77% 的员工却表示AI增加了他们的工作量。”

智能神话

智力并非单一的量度。问题的空间是巨大的,而且……任何智能系统都只会在其中极小的一部分问题上表现出色。——Yann LeCun(图灵奖得主)

在讨论大模型的智能之前,可以肯定的一点是,它们都是比人类更强的做题家。

每逢新模型发布,或是现有大模型更新迭代、性能提升,厂商都会亮出一张张耀眼的成绩单高调亮相,宣称模型在某领域专业考试中击败人类,已经达到或超出该领域专家水平的智能。这种基于测试的智能测试看似直观,却暗藏误导。

这里的问题是混淆了AI系统的输出与系统实现该输出的机制。用专项技能评估人类智能之所以有效,是因为高分通常能够反映底层通识能力的强弱。但机器学习并不遵循这一逻辑。

大语言模型的“学习”,本质上是统计优化:通过分析海量数据,归纳模式并针对特定任务强化表现。如果存在捷径,它们会毫不犹豫地抄近路,因为这就是模型被设定的目标。于是,考试高分与其说是智能的证明,不如说是训练目标的副产品。

在竞争的环境下,追求高分数的优绩主义会使得测试失去意义(古德哈特定律,Goodhart's law)。基于技能测试的智能神话,正是建立在这样一种误解上,即认为机器学习(包括大语言模型)学习某种技能需要发展出一种底层的智能。

大语言模型的「神话」与「现实」

此外,大语言模型依赖的数据质量决定了其上限,到目前为止,它还无法真正依靠自身力量实现自我提升。而数据的来源——人类的智慧、创造与历史——并非无限。一旦它“吃光”了图书馆、互联网等现有资源,模型的能力就可能达到一个巅峰,即便这个巅峰很高。

大语言模型的「神话」与「现实」

另一种更糟糕情况是,如果模型未来的训练数据中持续掺杂AI生成的新网页、论文、艺术作品、报告等,一种类似于人类“近亲繁殖”的退化效应将无法避免:模式混乱、错误频出,直至完全崩溃。这不仅戳破了智能的神话,也动摇了效率的承诺。

一篇2024年发表于《Nature》的论文中,剑桥大学和牛津大学的研究者就证实了这一点。

大语言模型的「神话」与「现实」

大语言模型的「神话」与「现实」

当模型不断从自身生成的数据中采样进行训练和迭代时,每一代都会放大错误和偏差,在模型尚未完全崩溃之前,常见词汇就会变得越来越普遍,而较少提及的信息则会逐渐丢失。如果训练数据最终主要由AI合成的数据构成,那么崩溃将无法避免。

大语言模型的「神话」与「现实」

类似的情况在图像生成模型中同样存在。另一篇论文中将这种现象称为“模型自噬障碍”Model Autophagy Disorder (MAD),并与疯牛病进行类比。

大语言模型的「神话」与「现实」

随着AI合成内容大量涌现并不断累积,区分人类创作和AI生成的文本变得越来越困难,模型会在不经意间被越来越多的合成数据所训练,其“智能”难免会受影响。

AGI神话

“与之前的每个人工智能的春天一样,我们当下的这个春天也是以专家预测通用人工智能(AGI)将会很快出现为特点。”——《AI 3.0》Melanie Mitchell(计算机科学家)

大语言模型的「神话」与「现实」

正如计算机科学家Melanie Mitchell所言。虽然每次AI热潮都有各自的主题,但所有预测似乎都呈现出一个共同点:“条条大路通AGI”。大语言模型也不例外。

随着模型性能的提升和算力的扩张,一些专家基于缩放定律(Scaling Law)断言:只要数据和算力到位,AGI将水到渠成。于是,科技巨头们投入巨资,打造专用芯片池,追逐这一“圣杯”。

这里面隐含的假设是:智能是一维的连续体,单项技术的进步终将突破人类极限。

但是,将狭窄的任务上的渐进式突破视为最终能通向“解决一切问题”的终极智能,好比试图搭梯子登月。AGI的神话与其说是科学推演,不如说是科幻叙事的延续,迎合了人类对一劳永逸的单一解决方案的渴望。

大语言模型的「神话」与「现实」

大语言模型的崛起无疑是技术史上的里程碑。然而,当模型能够以闪电般的速度生成答案,却无法辨别真伪,也不知“真相”为何物时,信息噪音的污染也许会比想象中严重。

如果大模型的“思考”和“推理”能力让人类觉得可以将思考完全外包给AI,将是危险的误判。

在一个“答案”触手可及的世界里,真正的稀缺资源不是速度,而是提出关键问题,以及理解问题背后的本质。

每一次创新技术的狂欢都会折射出人类的期待与局限。人类作为最终的决策者和执行者,最大的优势仍然在于个体主动的探索、独特的体验、经验与心智的灵活性——构建模型、洞察变量、验证假设。而这些正是人类不能丢失的基本防线。

免责声明:在任何情况下,本文的内容、信息及数据或所表述的意见并不构成对任何人的投资建议。本文作者及所属机构不对任何人因使用本文的任何内容所导致的任何损失负任何责任。

大语言模型的「神话」与「现实」

标签:

热门排行

猜你喜欢

热门标签

扫描二维码打开

周一至周六

9:00-22:00                  

淘折扣  滇ICP备2023000592号-3  滇公网安备53230102000530号   统一社会信用代码:91532300MAC2D0R706 Copyright © 2010 - 2025 https://www.bgaw.cn/ All Rights Reserved