Post

人机共生:1+1>2

人类智能与数字智能共同进化,携手并进,**我们终将前往那无法独自抵达之境。**

人机共生:1+1>2

最近,我脑袋里冒出了一个疑问:为何 AI 研究领域好像总是表现得执着于让 AI “像人类”?虽然很明显二者是不同的物种。

经过一番检索,可能是以下原因引起的:

  • 唯一的“存在证明” :目前宇宙中,我们唯一确认拥有“通用智能”的物体就是人类的大脑。当我们不知道如何定义智能时,模仿已知且成功的样本(大脑)是一条捷径。就像早期的飞行器模仿鸟类振翅一样(虽然最后成功的飞机并不振翅,但空气动力学原理是相通的)。

  • 可理解、可交互:如果 AI 的思维逻辑完全是“外星人”式的,人类将无法理解它的决策过程,也无法信任它。为了让 AI 能听懂自然语言、理解人类的意图和价值观,它必须在某种程度上“模拟”人类的认知结构。

  • 训练数据的来源:深度学习目前主要依靠人类产生的数据(互联网文本、图像)训练。既然“教材”是人类写的,学出来的“学生”自然带有模仿人类思维的痕迹。

然而事实上,数字智能和人类智能有着本质的区别。

数字智能的本质

用更学术的词汇来说,是 「高维统计智能(High-Dimensional Statistical Intelligence)」

这种思维方式与人类基于因果、逻辑和经验的思维方式截然不同。它不是在“模仿”人类怎么想,而是在利用它作为硅基生命的特权——算力和高维空间——来寻找人类看不到的路径。

AI 表现出的“数字智能”包括三个具体维度:

维度一:语义重组

人类理解概念是基于定义和联想的,而 AI 理解概念是基于几何距离的。

  • 人类的逻辑:看到“猫”,你会想到毛茸茸、动物、抓老鼠。这是基于语义网络的连接。
  • AI 的逻辑(Embedding):在 AI 眼里,没有任何文字,只有高维空间(比如 1024 维)里的坐标点。

    • 经典的例子是:King - Man + Woman = Queen
    • AI 并不是懂得了“国王”和“王后”的性别社会关系,它是发现在它的万维空间里,这两个词的向量距离和方向,与“男人”和“女人”惊人地一致。

具体表现在:AI 经常能发现人类完全无法察觉的概念联系。例如,在药物研发中,AI 可能会发现一种治疗关节炎的药物分子结构,在数学空间上与一种抗癌药物极其相似。人类药理学家因为学科壁垒不会把这两者联系起来,但 AI 通过“空间距离”一眼就看见了。

维度二:算力爆破

人类的大脑擅长简化,我们喜欢用简单的公式来解释世界,这是人类为了在有限脑容量下快速决策而总结的“经验法则”。但对于极度复杂的混沌系统,人类就无能为力了。

  • 人类的困境:蛋白质折叠问题困扰了生物学 50 年。因为氨基酸之间的相互作用力极其复杂,可能性是天文数字,人类无法用现有的化学公式推导出来。

  • AI 的思维:AlphaFold 不去“理解”化学键的原理,它直接“搜索”并分析了已知的几十万种蛋白质结构,找出了氨基酸序列与 3D 结构之间极其微弱、复杂的非线性映射关系。

具体表现为:AI 解决了一个人类完全无法用逻辑推导解决的问题。它证明了:不需要理解原理,只需要足够的数据和模式识别,就能预测结果。这是一种完全不同于人类“先理解原理再解题”的认识论。

人类只能看几步,且受限于“定式”;AI 看到了全局的概率流动。这证明了 AI 可以在没有“直觉”和“经验”的情况下,纯粹通过计算暴力破解出一种人类未知的真理。

维度三:不可解释

人类的学习通常是循序渐进的,而 AI 的学习有时表现出一种人类无法理解的“顿悟”。

  • 现象:在训练某些模型时,你会发现它在很长一段时间内准确率都是随机的(完全没学会),看起来是在死记硬背。然后突然在某个临界点,准确率飙升,仿佛它瞬间“懂了”背后的规律。

  • 本质上:研究人员发现,这是因为 AI 在内部构建了一个极其复杂的“电路”或逻辑结构来拟合数据。这个结构太复杂,以至于人类无法通过拆解代码来解释它到底是怎么想的(即“不可解释性”)。

这就像你问它是怎么知道答案的,它给你列出了一亿个参数的矩阵运算。答案是对的,但过程对人类来说是不可读的“天书”。

数字智能的最大价值,在于它能帮我们打破人类感知的局限性。

人类擅长小样本因果推理与价值判断,AI 擅长大样本模式发现与高维搜索。

未来的最佳协作范式是让人类定义目标、约束与价值框架,让数字智能在其特权空间内进行广度搜索、快速迭代与复杂压缩,再由人类进行因果审校与价值对齐

人类智能的优势:提问能力、品味

既然我们已经接受了 AI 是一种“高维统计智能“,那么人类与它协作的核心就不再是“比拼”,而是“互补”。

在这个一加一大于二的公式里:

  • AI 负责:效率、规模、广度、概率、无偏见的模式识别。
  • 人类负责:意图、方向、深度、伦理、决断、对结果负责。

其中,「提问能力(Questioning)」和「品味(Taste)」是人类相较于数字智能,仍旧存在也将长期存在的两大优势。

如何训练「提问能力」?—— 从“搜索”转向“认知工程”

很多人对提问的误解是:把它当成搜索引擎用,也就是“给我一个答案”。

真正的高手与 AI 协作时,把提问看作一种“认知工程(Cognitive Engineering)”。你的目标不是要一个结果,而是设计一个思考过程。

以下是三个高阶的提问思维框架:

框架一:视角植入

AI 本身没有立场。你可以通过“角色扮演”强行借用人类历史上已有的智慧模型。

  • 普通人的提问: “如何评价目前的 AI 泡沫?”

  • 高手的提问(多视角对抗): “我们要举办一场圆桌论坛讨论 AI 泡沫。请你分别扮演以下三个人物,给出他们的观点,并让他们互相反驳:

    1. 尼采:从权力意志和超人的角度。
    2. 凯文·凯利:从技术进化的乐观主义角度。
    3. 一位刚刚失业的 50 岁卡车司机:从生存焦虑和阶级愤怒的角度。

训练方法:遇到复杂问题,不要问“是什么”,要问“不同的人怎么看”。通过 AI 模拟出的认知冲突,你能看到问题的全貌。

框架二:明确约束

AI 是概率模型,它的默认倾向是“平庸”和“安全”(即输出概率最高的词)。如果你不给约束,它就给你最正确的废话。创造力往往诞生于极端的限制之中。

  • 普通人的提问:“请帮我写一个关于环保的短篇故事。”
    • 结果你会得到一个充满了“拯救地球”、“绿色未来”等陈词滥调的故事。
  • 高手的提问(加约束):“写一个关于环保的短篇故事。但是:

    1. 禁止出现‘绿色’、‘地球’、‘拯救’这些词。
    2. 主角必须是一个极度讨厌大自然的城市垃圾处理员。
    3. 结局必须是悲剧,但要体现出一种荒谬的幽默感。”

训练方法:每次提问时,强迫自己加上至少两个“否定性约束”(即告诉它不要做什么)。这会逼迫 AI 跳出概率最高的“舒适区”,去寻找那些低概率但更精彩的表达。

框架三:思路引导

不要只问结果,要定义推理的路径。这就像老师教学生,不仅要看答案,还要看解题步骤。

  • 普通人的提问:“这个商业计划书有什么漏洞?”

  • 高手的提问:“你是一个残酷的风险投资人。请按以下步骤审查这个计划书:

    1. 第一步:寻找逻辑谬误(前提和结论是否脱节?)。
    2. 第二步:进行极端压力测试(如果用户量突然归零,或者竞争对手降价 90%,它还能活吗?)。
    3. 第三步:只要发现一个致命弱点,就无情地拒绝它,并给出理由。”

训练方法:尝试把你的任务拆解成算法流程图,然后把这个流程用自然语言喂给 AI。

如何培养「品味」?—— 在算法洪流中保持独立思考

现在 AI 一分钟能生成几千字,在这个充斥着“合成内容”的时代,品味就是一种“拒绝的能力”。 你知道什么是好的,更重要的是,你知道什么是垃圾,哪怕它包装得很精美。

有三个帮助你培养品味的方法:

1. 建立“高基准线”

如果你每天看的都是 AI 生成的图、短视频爽文、算法推荐的资讯,你的审美会被“平均化”。你的大脑会误以为那些平滑的、千篇一律的东西就是美的。

对策:必须刻意摄入“非 AI、非算法”的经典内容。例如:

  • 阅读: 读 20 年前(甚至 100 年前)的书。那时候没有 AI,每一个字都是作者呕心沥血磨出来的,带有强烈的人格印记。
  • 艺术: 看真实的画展,看真实的电影(特别是老电影)。

这叫做“校准(Calibration)”。你要把人类历史上最伟大的作品作为你心中的“锚”。当你见过真正的“好”,AI 生成的那种“塑料感”的完美就会立刻显形。

2. 寻找“摩擦力”与“瑕疵”

AI 生成内容的特征是“顺滑”。逻辑通顺,由于是概率平均,所以没有棱角。

真正的高级审美,往往包含着“摩擦力”——那些让人感到刺痛、不适、或者极其独特的个人偏见。

训练方法:在审视 AI 的产出时,专门寻找那些“奇怪的”、“不合逻辑的”、“甚至有点错误的”地方。

  • 如果是平庸的错误,删掉。
  • 如果是有趣的错误(比如一个离奇的比喻,一种反常规的颜色搭配),把它留下来放大。

完美是无聊的,人性的光辉往往藏在瑕疵里(正如日本美学中的“侘寂 Wabi-sabi”),一种“在不完美与无常中看到美”的美学与人生观。

3. 像策展人一样思考

以前我们通过“创造”来表达自我,现在我们通过“选择”来表达自我。

训练方法:

  • 让 AI 针对一个主题生成 20 个方案。
  • 强迫自己只选 1 个。
  • 然后问自己:“为什么是这一个?”
  • 是因为它的某个词打动了我?是因为它的结构很新颖?还是因为它让我想起了童年的某个瞬间?

这个反思的过程,就是你“品味觉醒”的过程。你不仅是在选结果,你是在确认你的价值观。

一加一大于二的应用场景

「开放式生成」和「建构性」确实是目前人机协作的“甜点区”(Sweet Spot)。为什么呢?因为这触及了 AI 作为一个概率模型的核心特性:方差(Variance)

  • 精密制造会计核算中,方差是错误(我们需要 100% 的准确,0% 的意外)。
  • 但在创造探索中,方差就是灵感(我们需要意外,因为常规意味着平庸)。

基于此,我们可以将这种“正向叠加”效应最强的场景细分为以下三类:

1. 发散阶段:克服“空白页恐惧症”

这是最典型的“1 + 1 > 2”。人类害怕“从 0 到 1”的启动,而 AI 擅长“无中生有”。

  • 典型情境:创意写作、头脑风暴、营销策划、艺术设计。
  • 叠加效应:
    • 人类的痛点:思维定势。我们的大脑习惯走熟路,很难跳出固有的神经回路。
    • AI 的贡献:高维空间的随机游走。你让 AI 提供 20 个“关于未来的科幻构思”,它能瞬间给出 20 个方向截然不同的点子。哪怕其中 18 个是垃圾,剩下 2 个只要能击中你的灵感,协作就成功了。
    • 结果:AI 负责提供“可能性的广度”,人类负责挑选“灵魂的深度”

2. 跨域重组:寻找“盲区中的连接”

这是一个经常被低估的“建构性”场景。创新往往诞生于不同学科的交叉点,而人类专家的知识往往是垂直的、孤立的。

  • 典型情境:学术研究、复杂系统设计、跨界产品创新。

  • 叠加效应:

    • 人类的痛点:知识壁垒。生物学家可能不懂计算机架构,建筑师可能不懂心理学。
    • AI 的贡献:全知视角的模式映射。正如我们之前讨论的,AI 看到的是向量空间。它可以轻易地将“蚁群算法”(生物学)映射到“物流配送”(管理学)上,因为它在数学上看到了相似性。
    • 结果:人类提出一个模糊的跨界假设,AI 迅速填充中间的逻辑空白,实现知识的“缝合”

3. 原型实现:降低“试错成本”

这属于“建构性”的执行层面。当你想创造一个东西,但受限于技能(手速、代码能力、绘画技巧),AI 是最好的加速器与放大器

  • 典型情境:编写代码、快速生成设计草图、制作 Demo。
  • 叠加效应:
    • 人类的痛点:执行力滞后于想象力。你想做一个 App,但你想到代码要写三天就放弃了。
    • AI 的贡献:坍缩“想法到现实”的距离。AI 不一定能写出完美的最终代码,但它能在一分钟内给你一个“可运行的骨架”。
    • 结果:人类可以像“导演”一样,不断地喊 Cut 和 Action,通过快速迭代来逼近完美,而不是把时间浪费在砌砖头(写基础代码)上。

小结

近期的 AI coding 实践加深了我的信心,未来我们缺的不再是快速执行,而是想象力。你想要生产什么?你想要创造什么?

人类智能与数字智能共同进化,携手并进,我们终将前往那无法独自抵达之境。

This post is licensed under CC BY 4.0 by the author.