Post

警惕大语言模型的根本局限

在深度使用LLM之前,我们必须警惕它的根本局限,以及了解它可能带来的问题。

警惕大语言模型的根本局限

2022 年 11 月 ChatGPT 诞生以来,大语言模型(LLM)大大颠覆了我们的工作方式,重塑了知识与创造的范式。它不仅是一个提高效率的工具,更是一种重构人类获取、创造和传播知识方式的力量。

传统的搜索引擎,如谷歌,解决了信息索引(Indexing)的问题,让我们能从海量数据中“找到”相关的文档。这是一个“人找信息”的过程。而 LLM 则开启了知识合成(Synthesis)的时代。它不仅能找到信息,而是能够理解、消化、提炼、重组海量的知识,并以高度定制化、符合人类自然语言习惯的方式,生成你需要的答案、摘要、分析或创见。

例如,一个高中生想理解“相对论”,过去他需要在海量网页和视频中艰难筛选。现在,他可以要求 LLM “用一个16岁学生能听懂的比喻,解释狭义相对论的核心思想,并说明它和GPS导航的关系”。LLM 提供的将是一个高度整合、量身定制的知识包,而非一堆链接。

此外,LLM 像是“认知外骨骼”,让非专业人士也能完成专业任务。不会编程的人能让 AI 生成代码,不会画画的人也能快速视觉化创意。它还能陪你头脑风暴、写大纲、突破固有思维,是一个永不疲倦的灵感伙伴。

在教育领域,LLM 使得大规模的个性化教育成为可能。它像一位全天候的私人教师,根据每个人的节奏和兴趣量身教学。从基础知识到深入讨论,它都能引导你思考、即时答疑、模拟场景,真正做到因材施教,支持终身学习。

在科研领域,研究者不再孤军奋战。LLM能够快速阅读、理解和总结海量的科学文献、实验数据和专利,从中发现人类研究者可能忽略的关联和模式,从而加速假设的提出与验证。在新药开发、基因研究、材料设计等复杂领域,AI 的加入正加快突破的速度。

LLM 不是人类的替代者,而是人类智慧的放大器。它将人类从重复性认知劳动中解放,更专注于创新、战略与情感等高阶活动,开启了人机协同的新篇章。

然而,在深度使用 LLM 之前,我们必须警惕它的根本局限,以及了解它可能带来的问题。

当前 LLM 的根本局限

大语言模型学什么,取决于它看了什么——它学不到“真理”,只能学到“常见”。

缺乏真正的语义理解与意识

当前主流的大语言模型,如 GPT、Claude、Gemini,基于大规模语言建模目标训练,它们通过预测下一个 token 来生成文本,并非通过对世界的真实建模来实现“理解”。

它们掌握的是“形式上的语义对齐”而非“心智模型中的语义建构”,例如它们能“像人类一样”说出某句话,但并不具备意图识别、实体间关系建模或跨情境的深层推理能力。

大语言模型并不会“知道”哪个事实是真的,它只是从统计角度选择“看起来合理”的输出。如果某个错误的说法在训练集中频繁出现,它就可能认为那是“高概率”的答案。

具体体现

  • 语义对齐≠语义理解:语言模型仅模拟“说话方式”,不理解“说话意义”。
  • 缺乏因果图式建构能力:无法进行反事实推理、事件追溯或意图建模。
  • 无自我模型:不具备状态监测、自我修正、自我意识等元认知能力。

比如,在面对“如果小明没有生病,会发生什么?”这类问题时,模型只能复述常见模式,无法推演因果路径。

当前缓解策略:

  • 结构辅助建模(Structured Prompting / Schema Injection):通过引入结构化提示(如事件图、角色框架、意图模板),增强模型对语义角色和因果关系的识别能力,提升其在复杂语义任务中的表现。
  • 自我监督对齐(Self-consistency and Reflexive Decoding):利用自我一致性解码(self-consistency decoding)等机制,在生成过程中引入多路径评估,以提高生成语义的一致性与合理性。

这些方法虽能在局部任务中提升语义推理质量,但并未从根本上赋予模型“意识”或“语义理解”的机制。本质上,语言模型仍是高度统计驱动的系统,其“理解”仍停留在模拟层面,缺乏内在的语义构建与意识映射能力。

幻觉(Hallucination)问题无法根除

语言模型的核心机制是通过预测下一个token的概率生成文本序列,它不具备事实验证能力,也不天然约束生成内容为“真实的”。

具体体现

  • “语言相关性”替代了“事实有效性”:只要句子符合语言惯例,模型就可能生成幻觉。
  • 幻觉为结构性产物:并非偶然错误,而是语言建模本身的副作用。
  • 训练数据缺乏事实标签或真伪判断机制:无法自发过滤伪信息。

比如,模型“编造”不存在的学术文献或引用,形式规范但内容虚构。对用户提问“某人得过哪些奖”时凭空捏造荣誉。

当前缓解办法:

  • RAG(检索增强生成):引入外部知识库降低幻觉率。
  • RLHF(人类反馈强化学习):通过人工惩罚幻觉输出。
  • 工具调用(Toolformer/Function calling):模型通过函数调用去获取真实数据。

幻觉问题无法彻底根除,只能通过技术手段降低,但始终存在生成不确定内容的可能性。

缺乏稳定的价值判断能力和一致性

大语言模型的价值判断源自训练语料与有限的人类反馈(如RLHF),但现实世界的价值体系是高度多元、动态、文化依赖的,难以规范。模型无法自主形成适用于多情境的价值标准,因此永远可能出现偏差或歧义。

具体体现

  • 价值偏差无法避免:模型可能学习并放大训练数据中存在的性别、种族、地域偏见。
  • 伦理判断不一致:同一个问题,在不同提示和上下文下可能给出截然相反的立场。
  • 难以内建可解释的价值框架:缺乏类人“规范演化”能力。

比如,在不同提示下,对同一伦理问题(如堕胎、死刑)给出左右摇摆的立场。回答中性敏感议题时偏向某种政治倾向,影响公正性。

当前应对方法:

  • 设定系统提示(system prompt)引导语境中的价值观
  • 建立“宪法式训练”(如Anthropic的 Constitutional AI)
  • 多模态 RLHF(基于价值的强化学习)

但所有这些方法仍然基于人类人为注入的“外部规则”,模型本身没有元伦理能力。

这些挑战——从缺乏真正的语义理解到固有的幻觉问题,再到价值判断的不稳定性——并非可以通过简单的模型迭代或数据规模的增加就能一劳永逸地解决。它们是当前技术范式的根本性问题,构成了人工智能研究的前沿阵地。

放眼全球前沿实验室,一场深刻的架构性变革正在酝酿。众多研究领域正汇聚成一股强大的合力,共同勾勒出一幅全新的、更为稳健的智能架构蓝图。

LLM 未来的演进方向

当前在 LLM 架构领域涌现的四大前沿范式:

  • 状态空间模型(State Space Models, SSMs)
  • 世界模型(World Models)
  • 贝叶斯深度学习(Bayesian Deep Learning, BDL)与概率编程(Probabilistic Programming)
  • 因果建模(Causal Modeling)

状态空间模型(以Mamba为代表) 的核心价值在于效率。它通过借鉴经典控制理论,并结合现代硬件感知设计,成功地将序列建模的计算复杂度从二次方降低到线性级别,同时在语言等核心任务上保持了与 Transformer 相当的性能,为处理超长序列的应用打开了大门。

世界模型的核心价值在于规划与接地(grounding)。它通过构建一个内部的环境模拟器,赋予智能体“想象”和预见未来的能力,旨在实现更像人类的、基于模型的规划,从而摆脱无模型强化学习的低效,并让 AI 的智能植根于对世界动态的理解之中。

贝叶斯深度学习与概率编程的核心价值在于不确定性。它提供了一个严谨的数学框架,使模型能够量化并区分自身的“无知”(认知不确定性)和数据固有的“噪声”(任意不确定性),这对于提升模型的可靠性、安全性和可解释性至关重要。

因果建模的核心价值在于真正的推理。它直面当前AI“只会关联,不懂因果”的根本缺陷,试图通过引入因果层级、因果图和反事实推理等工具,让模型从“因果鹦鹉”蜕变为能够理解世界背后作用机制的、真正的推理者。

人工智能架构研究正从对单一、庞大、端到端模型的痴迷,转向对更加结构化、可解释和专业化的认知架构的探索。

这一转变的背后,是研究界日益形成的共识:智能的不同侧面——如高效的模式识别、扎实的物理世界规划、严谨的因果推理和审慎的不确定性表达——可能需要由不同且专门化的计算原语(computational primitives)来承载。未来的突破,将属于那些能够巧妙地将这些原语组合在一起,构建出既博学又深刻的 AI 系统

This post is licensed under CC BY 4.0 by the author.