我们正处在一个人工智能大爆发的时代。在时代的喧嚣中已很少有人了解,人工智能最核心的观念均源自上世纪的控制论思想;而更少有人了解,如今对人工智能认知上的巨大混乱,同样源自控制论思想。
《控制论与科学方法论》(以下简称为《控制论》)在2025年由广东人民出版社再版了。这是一本40多年前的书,金观涛和华国凡两位作者开始写作这本书的时候,都还是二三十岁年纪、初露锋芒的青年学者。我自己初次接触控制论是源自对管理学的思考,我写作《“理解”供应链——系统论视角下的供应链概念》一书时,在众多的控制论与系统论参考书之中,引用最多的就有《控制论》,此外还有金先生其他几本重要著作——它们是对我的影响最大的作品。今天,在这个人工智能风起云涌的时刻,当我重读《控制论》,竟发现人工智能的研究领域和我当时研究的管理学领域,正在面对相同的方法论问题,也进入了相同的认识论迷雾。重读《控制论》再次把我的思考带回方法论思想的原点。而控制论整个学科最初的问题意识,也恰恰是从对“智能”的思考开始的。
控制论最基本的发现是认识到这种在“有组织系统”层面表现出来的“智能”,其背后的原理是基于维纳所说的反馈结构,或者是基于艾什比所说的多层次自耦合结构的稳态。所谓的“学习”能力,正是基于这种寻找稳态的机制。艾什比有一本非常成功的著作直接命名为《大脑设计》。表面上非常神奇的各种“智能”,甚至是大脑的各种机制都可以被归为某个非常简单的机械结构。这是一个“从机器中赶走鬼魂”的过程。

《控制论与科学方法论》
在当下最先进的大语言模型中,负反馈结构仍然是整个模型的最核心部分,也是构成其“学习”能力的基础架构。值得一提的是,与在控制论思想指导下所形成的各种工程领域一样,“神经网络”“深度学习”等工程概念越来越为人熟知,而过去老派的“控制论”概念却逐渐被人遗忘。
人工智能的发展过程中一个始终悬而未决的问题是“主体性”问题。这有时被称为“强人工智能”问题,后来讨论较多的则是一个稍弱的版本——通用人工智能(AGI)问题。在2017年AlphaGo战胜柯洁时,就曾掀起一个围绕这一问题讨论的小高潮。而更大规模的观念冲击则出现在2022年,在这一年的年末ChatGPT诞生了。不同于以往所有的人工智能,ChatGPT所代表的大语言模型可以处理自然语言的符号串,能和人进行无障碍的沟通。
在此,我无意就大语言模型能否具有主体性的问题问题做过多展开,在这里,我们只讨论当重读《控制论》这本书时让我体会到的一个问题:我们如何回到控制论的起点去看待这个认识论危机?有一个视角可能还未曾有人提出过,那就是当控制论观念在人工智能和管理学这两个不同的领域中得到充分发展贯彻时,各自的遭遇和结局。
为什么我能够将管理学和人工智能这两个看起来八竿子打不着的领域放在一起比较呢?因为一旦我们将这两方面的研究共同回溯到最初控制论的方法论,就会发现,这两个领域都在思考同一个控制论的核心问题:什么是组织(机器)的智能?而这个问题在进一步贯彻时,必将遭遇的一个新问题是智能与主体性的关系问题。
自泰勒的“科学管理”以及福特的流水线实践以来,生产和企业组织越来越被等同为某种“机器”,而人则是“机器的附属物”。控制论的理论体系一旦进入管理学领域,很自然地就会将企业和各种机构视作一种“组织”——即功能耦合体,继而思考某种“组织智能”的问题。控制论视角下的机器与“科学管理”的机器有所不同。控制论高度重视其中的系统功能耦合结构,相对于科学管理对因果长链的线性控制,控制论更重视互为因果,即因果网络的结构。从而在过去科学管理“一次性调节”的“机器”观念上更进一步,产生了基于“反馈调节”的“智慧组织”和“学习型组织”等全新的“机器”观念。管理学控制论的开创者,如斯塔福德・比尔等人,提出过针对这种智能(他表达为“有活力”)的具体规划(如可行系统模型)。这些模型看似高度复杂,但从控制论的方法论视角来看,其基本观念都非常简单——都是构造类似的负反馈与多层次自耦合结构。
上世纪四五十年代,控制论甫一出现就立即作为一种新方法被运用到了社会学和管理学领域。杰伊弗雷斯特的系统动力学在某种程度上是这一领域的集大成者。他的学生彼得圣吉,则在畅销书《第五项修炼》中将系统动力学中的核心观念,包括很多的分析与仿真工具,全方位引入了管理学领域。所谓的五项修炼中最关键的“第五项”——“系统思考”,所说的正是控制论的一些基本观念。
管理学模型与人工智能模型虽然在控制论视角下完全类似,或者说同构,但有一个方面存在明显的差异:管理学模型中包含人,而人工智能的模型中只有冰冷的数据。这个差异导致管理学模型中的控制论要比人工智能更早地面对我们前面说的问题——智能和主体性的关系问题。主体性问题是控制论这一方法在贯彻时必定会遭遇的认识危机。这一危机最近出现在了人工智能领域,但在管理学领域早有预演。当我们重读《控制论》,可以明显意识到,这是老派控制论学者未曾认真处理的问题。甚至我们可以认为,无论是维纳还是艾什比,他们宁可将这两者混为一谈。
我们回到前面的讨论,来看圣吉对这一问题的处理。他将其老师弗雷斯特的“心智模型”观念纳入讨论,作为他所说的“修炼”之一。多数人在读圣吉的《第五项修炼》时,对他所说的“心智模型”基本是不得要领的。弗雷斯特本人是这样描述由他所提出的心智模型的概念的:“人类使用有限的感官感知世界,并基于这些感知建立起一个内部的、简化的世界模型。我们所做的决策和行动都是基于这个内部模型。”
当下人工智能领域在认识论层面讨论最为热烈的概念之一是“世界模型”,这被很多人工智能专家视作实现通用人工智能的一个先决条件。人工智能领域所说的“世界模型”,实际上正是弗雷斯特的“心智模型”。因此大家不必感到惊讶,首先在组织智能中讨论“世界模型”的,并不是人工智能,而是管理学。
在人工智能中,对世界模型的讨论涉及模型是否真正“理解”我们这个现实世界的问题。这是一个模型能否做出准确的“推理”和“规划”的结构性基础;是从基于概率相关性的“经验试错”式的学习,经由Judea Pearl所说的“因果之梯”上升为“因果推断”的必要条件(特别是需要其提供“反事实”的可能性)。它也是“真实性扩张”的基础,这种真实性扩张在人工智能领域通常用“泛化”,“通用”等概念来表达。
梅拉妮米歇尔的这段描述比较全面,我们可以作为参考:“现有的人工智能系统似乎缺乏人类智能中的一个关键要素:关于外部世界的丰富的内在模型。现代认知科学的一条原则是,人类并不仅仅是条件反射机器;相反,我们在脑海中构建了针对物理世界和社会世界的抽象模型,这些模型反映了事件发生的原因,而非仅仅是事件间的相关性……更进一步说,我们不仅拥有关于外部世界和他人的心智模型,还有对自我本身的心智模型,使得我们可以评估并解读自己的推理和决策过程。虽然关于这些模型如何在大脑中实现存在许多争议,但无可置疑,它们是构成人类智能的基础。”
本文无意去探讨“世界模型”这个目前为止仍然高度含混的概念的认识论本质。我们暂且仅仅将其当作某种比较研究的素材。为什么在管理学和人工智能这两个看似不相关的领域,都在讨论心智模型问题?回到控制论的方法论,双方其实都认识到了以下这两个问题。所谓心智模型,它看起来似乎难以在“经验试错”的学习中获得,正如前面提到的圣吉的说法,这是“从经验(反馈)学习的错觉”;对于真正“类人”的智能(在AI领域这涉及“理解”、推理、反事实、泛化等,而在管理学领域则涉及创新、领导力、观念、沟通等)而言它似乎又不可或缺,无论这种智能是一个试图实现通用人工智能的AI模型,还是某个“学习型组织”。说白了,它看起来与人的“主体性”息息相关。
圣吉给他自己的书取名叫《修炼》,这个中文译名挺有意思,一眼看上去好像可以拆成两个意思:训练和修身。目前相当一部分的人工智能专家仍然认为,随着机器学习模型的不断改进,在大模型中还是可以“训练出”世界模型的。根据我们前面的讨论,这其实源自控制论从一开始就埋下的、对于“智能”与“主体性”的混淆。而圣吉似乎意识到,一旦“心智模式”涉及人的“主体性”,或者说某种观念系统,就不是某种实然的训练过程所能掌控的,而是要把目光转向具有高度人文性的“修身”。圣吉在这一点上超越了以往管理学理论仅仅在所谓“行为科学”以及“社会心理学”等实然层面去讨论“人的问题”的理论局限。但这个超越是否取得了认识论上的真正突破呢?遗憾的是,和人工智能领域的认知科学一样,他们并没能真正迈出这一步。
修身和训练之间真正的微妙差别,必须在具备了对科学和人文这两个领域相当深刻的洞察之后才能真正了解。虽然圣吉努力想从“东方哲学”中汲取资源来克服这一认知危机,但最终,他的管理学还是和人工智能研究一样,掉入同一个认识论漩涡——“超级对齐”(Super Alignment)。心智模型,作为某种价值(观念)体系的一部分,和其它诸如“共同愿景”之类一起,最后都成为组织的某种“群体修身”的对象。与儒生或佛教徒在纯化其超越视野所规定的价值追求时所做的修身活动不同,当被作为一个群体而不是个体看待时,主体性则再次泯灭。
无论是“超级对齐”还是群体修身,其本质都是试图把主体性再次纳入到一个机器(组织)的智能之内——不管是称之为“组织学习”也好,还是训练也好。OpenAI公司超级对齐项目主页上的这段话表明了其最核心的问题意识:“我们如何确保远比人类聪明的AI系统遵循人类意图?”这形成了一种吊诡的状态:智能和主体的混淆使人产生了人工智能具备主体性的想象;与此同时,又试图将一个被认为具备了主体性的对象纳入到一个价值控制函数之中。
控制论被称为是一门边缘学科,其对自然科学、社会科学甚至是艺术和文学创作都产生过极为深远的影响。在《控制论》一书中我们可以感受到它作为一种普适性方法论的巨大威力。但在各个不同的专业领域,控制论的观念发展到后期,都逐渐被各种更为专业化和碎片化的工程概念所取代,以至于控制论思想的主干脉络几乎销声匿迹。也许作为一种深刻的思想体系,当其核心思想在各个不同的专业领域被充分消化吸收之后,原本的主干脉络逐渐消退也是正常的现象。这也从侧面体现了一个理论体系的完备性和一致性。但是,控制论的核心思想真的在完备性和一致性方面已经发展殆尽了吗?我想不是的。人工智能本是控制论的直系后代,现在的人工智能专家很少提及控制论,然而人工智能遇到的认知困境却根植在这个正在被遗忘的观念系统之中。管理学控制论的困境也同样如此。因此,在当下这个人工智能炙手可热的时刻,重读《控制论》有着深刻的意义,这可以让我们回到原点,去找寻克服当下这一最为深刻的认知危机的哲学路径。
历史上重大的理论突破,总是和重大的认知危机相生相伴。人工智能的认知危机也必定会推动包括控制论在内的各理论体系获得重大突破。但首先,我们必须对这个危机本身获得最深刻的洞察。我结合人工智能和管理学两个领域所做的粗浅的比较分析,也只是想表明,这个内在冲突本身有着深远的历史背景,当下的人工智能热潮只是让这个危机暴露得更加明显而已。20世纪的哲学革命曾经扫荡了几乎所有的传统哲学,控制论作为一种哲学思想幸存了下来。但作为一种哲学,其和逻辑经验论、语言学、以及分析哲学之间的内在关系,尤其是内在冲突,很少有真正透彻的分析。对当下的认知危机如果要获得最深刻的洞察,就必须重回哲学革命和控制论思想,去寻找这其中隐藏最深的“观念偏见”。
要回答什么是“主体性”的问题,克服当下认知科学和语言学在大语言模型冲击下的认知危机,我们必须回到控制论思想的原点,重新思考什么是智能,什么是学习,以及什么是知识。《控制论》书中对黑箱认识论的思考提出了知识可靠性判别标准的问题。而知识的可靠性问题直接和“真实性”有关。当我们回顾逻辑经验论对于“真实性”的思考,就必须重新反思什么是“符号”的问题,从而在包含符号与经验双重真实性的结构中去重新定位“主体性”,去回答什么是主体,什么是主体的自由。这正是金观涛先生的“真实性哲学”为我们开辟的一条实现理论突破的路径。在大模型时代,我们重读《控制论》,可以让我们回到控制论思想的原点,把握从控制论到真实性哲学的思想脉络,去体会哲学家对这其中种种内在矛盾的最为深刻的洞察和思考。
还没有评论,来说两句吧...