阅读视图

杨庆峰丨超级智能与存在论难题的破解

杨庆峰 2026-01-30 09:03 北京

目前人工智能的存在论意义早已被多数学者承认。从连续论观点看,超级智能作为人工智能的未来阶段,其存在论意义需要被进一步呈现。笔者提出的超级智能功能解释承认了ASI具有破解存在论难题的可能性,这也意味着超...


本文刊于《阅江学刊》2026年第1期

转载请注明来源

 文末附电子版下载链接 


摘  要  当前产业界正在通过媒介构建起对超级智能的畅想,逐步深化了媒介化叙事。有些学者指出超级智能是新话术或者娱乐化趋势表现,他们看到了与超级智能相关的媒介化叙事具有的潜在危害。但纠缠于这种看法会把超级智能问题的讨论引入歧途,忽视超级智能的存在论意义。目前人工智能的存在论意义早已被多数学者承认。从连续论观点看,超级智能作为人工智能的未来阶段,其存在论意义需要被进一步呈现。笔者提出的超级智能功能解释承认了ASI具有破解存在论难题的可能性,这也意味着超级智能的意义指向是超经验问题。

关键词  超级智能 存在论难题 人工智能 超级人工智能

作者简介


杨庆峰,哲学博士,复旦大学科技伦理与人类未来研究院教授、研究员,复旦大学哲学学院博士研究生导师。

目  录

一、被忽略的功能解释

二、生存的悖论难题

三、通用人工智能的回应

四、实体论ASI:生存论难题的破解

五、超级智能的代价补偿

六、结  语


一、被忽略的功能解释


当前人工智能科学研究分化为两个阵营:一个是科学界将超级智能安全及风险推到了极致,以约书亚·本吉奥、辛顿和罗塞尔为代表;另一个是产业界在超级智能体的应用前景和畅想上表现得毫无保留,比如国外的Meta和国内的阿里和联想。

当技术界坚决地通过强化学习进军超级智能(ASI)领域,哲学界正在进入争吵,二者形成了鲜明差异:前者埋头做事,后者笔谈会战。

在超级智能问题上,两种解释已然形成:比较解释、实体解释。比较解释强调非人智能体的智能超越人类的必然性;实体解释则强调智能体的自主意识的出现,或者涌现方式,或者进化方式。哲学则将自我觉知或者觉醒作为智能体自主意识出现的根据加以论证。

然而,这两种方式对人的存在论问题鲜有关注。笔者认为,超级智能导致存在论问题,而我们需要一种恰当的理解。这就是普遍被忽略的功能解释。功能解释恰好将存在论问题包含在其中,对超级智能的理解也有着存在论的意义。

二、生存的悖论难题


古希腊悲剧《美狄亚》呈现了一种存在论难题,这就是她亲手杀死了自己的儿子,从而陷入生命伦理悖论中。

一方面她受到法律的惩罚和伦理的指责,“那有着神圣的河流的城邦,那好客的土地,怎能够见到你——清白人中间一个不敬神的人,一个杀害儿子的人?且把杀子的事情再想一想!看你要做一件多么可怕的凶杀的事!我们全体抱住你的膝头,恳求你不要杀害你的孩儿!”

另一方面她却有着自己的考虑。她意识到这个事情的可怕。“我现在才觉得我要做的是一件多么可怕的罪行,我的愤怒已经战胜了我的理智。”但她也知道,杀死儿子是为了惩罚曾经的爱人。“他们已经不在人世了,这正使你的心痛如刀割!”

这一生存论难题与美狄亚的剧烈变化的处境密切相关。起初,美狄亚狂热地爱上伊阿宋,诱骗珀利阿斯的女儿杀害她们的父亲,随她的丈夫和两个儿子住在科任托斯城。在这里,她事事都顺从她的丈夫。

“但如今,一切都变成了仇恨,夫妻的爱情也破裂了,因为伊阿宋抛弃了他的儿子和我的主母,去和这里的国王克瑞昂的女儿成亲,睡到那公主的床榻上。”这意味着她曾经做出的牺牲——背弃父亲、背弃家乡和害死弟弟——在伊阿宋的背叛“有两个儿子,却还要再娶一个新娘”面前,不值一文。

因此,美狄亚心生怨恨,准备报复伊阿宋。她做的事情是:用计谋害死了国王克瑞昂和他的女儿,杀死了自己的孩子。于是,在这种情景中,她面临的一个巨大悖论就是:不顾理智、律条,杀死了她仇恨的人,然后要面对舆论和世间的报复。

在戏剧结尾,太阳车突然飞驰而下,载着美狄亚离开了人类世界,回到了神界。这就是通过机械降神的方式解决了存在论难题。而人类会面对各种各样类似的与存在有关的难题,一种出于处境的行为与法律伦理形成了不可破解的死结。而有限理性的人类对这一问题显然只能摊开双手,表示无奈。

古希腊悲剧中呈现的生存论难题得到了近代哲学家的重现。克尔凯郭尔在《恐惧与战栗》中通过亚伯拉罕的故事展现了这种选择难题。

三、通用人工智能的回应


长久以来,科学家对于超级智能破解难题抱有很大希望。在他们看来,超级智能可以解决很多经验难题,如知识生产、气候变化和城市管理等。但是,我们需要分析在人类生存论难题中,超级智能会起到何种作用?

面对美狄亚式的难题,古希腊人的理性没法应对,因此采取了机械降神的方式给予应对。“美狄亚乘着龙车自空中退出,伊阿宋携众仆人自观众右方下。”根据原悲剧文本,龙车的作用是让美狄亚逃脱敌人的毒手。“你的手可不能挨近我,因为我的祖父赫利俄斯送了我这辆龙车,好让我逃避敌人的毒手。”

但这种原文的解释却不足以阐明美狄亚的悖论。那么我们借助其他大模型来表明这种作用。

Prompt:《美狄亚》中美狄亚乘坐龙车逃离了人间,在这个悲剧中,龙车的作用是帮助美狄亚摆脱伊阿宋的毒手吗?

DeepSeek:龙车不仅是逃脱工具,更是悲剧的隐喻核心。龙车的作用远超越物理层面的逃离。它是美狄亚神性身份的宣示,是对伊阿宋英雄叙事的颠覆,也是悲剧矛盾无法在人间解决的象征。通过这一超现实结局,欧里庇得斯揭示了人类情感(爱、恨、背叛)的极端性如何撕裂道德秩序,而神意的介入并未带来救赎,反而将悲剧永恒化。

Grok:是的,在欧里庇得斯的悲剧《美狄亚》中,龙车的作用正是帮助美狄亚摆脱伊阿宋及其追捕者的威胁,从而逃离科林斯城的报复和惩罚。剧情结尾,美狄亚在杀死自己的两个孩子后,祈求祖父太阳神借给她由两条龙拉的战车,她乘坐它升空逃往雅典,这不仅让她物理上脱离了伊阿宋的控制和愤怒,也象征性地切断了与过去的联系,避免了被俘或进一步的“毒手”(如伊阿宋的控诉或城市的处决)。

ChatGPT:龙车在表层上确实帮助美狄亚脱离伊阿宋与凡俗惩罚,但更深层意义上,它象征着神性的庇护、悲剧的超越以及人类秩序的崩解。它使美狄亚从“受害的女人”转化为“具有神力的复仇者”,让悲剧以一种令人不安的神圣方式结束。

在上述大模型的回应中,Grok的回应令人失望。而ChatGPT的回应指出,美狄亚身份的转变,从受害的女人转化为神力的复仇者;龙车把美狄亚“提升”到一个更高的存在层面,在那里人类的道德与情感都无法再评判她。DeepSeek也强调了美狄亚神性身份的转变,龙车让美狄亚升空,隐喻她同时挣脱了人性、城邦律法与自然秩序的束缚,成为介于毁灭与神圣之间的存在。因此龙车起到的作用是让美狄亚摆脱伦理悖论,免于人性、律法和自然秩序的束缚,并且有了一种神性的合法存在形式。

四、实体论ASI:生存论难题的破解


人类必然会在存在论难题中备受煎熬。正如海德格尔所说,此在操劳于事,操心于人。而且,还会受到各种人事的纷扰。按照大模型的术语来说,人类作为智能体,面对的环境之一就是与生存有关的难题。

希腊人通过悲剧的方式展示了人类面临的重大难题。比如俄狄浦斯的杀父娶母,体现了无法抗拒的命运;美狄亚的杀子惩夫,体现了无法摆脱的个性。处在悲剧中的人无法抗拒命运,其行为还要接受人间律法的裁判。那么超级智能是否有助于破解这种存在论难题呢?

首先,我们来看一下源自通用智能的超级智能。对于超级智能来说,它的智力水平超过了99%的人类,达到了前所未有的水平。超级智能的功能如同《美狄亚》中的龙车,但这并不是一种隐喻意义上的龙车,而是对生存论难题的一种破解。隐喻是一种比喻的手法,起到象征作用。

在《美狄亚》中,龙车起到的作用就是让美狄亚完成了神性身份转化,龙车是太阳神的物品,而只有恢复神性的美狄亚才能够乘坐,这是一个身份同一的过程。此外,在这个基础上,龙车使得美狄亚摆脱了人间律法和人类道德的谴责。

但是,超级智能对这一生存论的破解却是通过超智能来完成的。它能够给予人类最优化的解答来回应这一问题。他可以使提问题者摆脱有限理性的束缚。对于一般提问者来说,是持有困惑的。当一般人看到美狄亚即将面临的生存论悖论时,期待大模型能够给予完满的回应。但是生存论的问题能否由理性给予回应?

对于一般大模型来说,给予生存论问题的回应是对齐人类意图的理性解答。正如《美狄亚》的悲剧,大模型也能够意识到,只有让美狄亚完成神性转变才能够摆脱人类理性和道德律法的束缚。而这一切的前提是龙车的降临。所以大部分模型的解释中,龙车是一种隐喻。

但是对于实体论ASI来说,并不能满足于作出隐喻的判断。实体论ASI强调智能体自我觉知(Intelligent Agent Self-awareness)的显现。在AI研究中,Self-awareness是一个显著的概念。情景性自我觉知(Situational Self-awareness)是一个普遍的概念,一种“将自身与世界其余部分区别开来的预测能力。”在动物界,少数智力超群的动物具有自我觉知,能将自己与其他东西区分开来。而具有自我觉知能力的超级智能恰恰能够将自身与他者区分开。

对于古希腊悲剧来说,人类转变为神,从有限转变为无限,从而摆脱人性和人间律法的限制。但是对于今天的人类来说,超级智能恰恰通过自身的超级让人实现增强,成为超人。后果是相同的,人类可以从有限性中摆脱出来。当然,增强后的超人会表现出一种奇特的悖论:身心的无限强大与人性道德限制之间的悖论。

其次,源于具身智能的超级智能。首要区别的是将处在悖论中的人抽离出来,让他不再受到悖论的限制。如同龙车一样,当美狄亚坐到龙车之上,她就发生了蜕变,从痛苦愤怒的女人变成了具有神性的女巫,不再受到人间律法的约束。

这种变化是通过两种方式实现的:一是超级智能利用理智模型给出一种合理的解释,使得当事人免受理智与律法的制约;二是超级智能利用特有的具身形态,使得当事人进入一种非人形态的存在。一种数智时代的机械神降临人间,它具有的作用就是使得人类摆脱人性和律法的限制。

最后,源自交互智能的超级智能。理查德·萨顿(Richard Sutton)将强化学习中的交互性作为智能生成的关键。如果我们将人类受到世间律法、理性束缚的处境交予超级智能处理,超级智能会在这种艰难处境中找寻到最优解,给予当事人一种解脱之法。比如亚伯拉罕要不要献祭自己的儿子,这对于他来说是一个艰难选择。超级智能能够利用其多模态方式给予亚伯拉罕启示,让他作出最顺从内心深处的选择。

智能、具身智能与交互智能是超级智能实现的三条路径。从技术角度看,它们是一种技术,给予人类的是一种前所未有、不同程度的“技启”。“技启”是相对于“天启”和“启蒙”来说的。天启是来自上帝的启示,启蒙是来自理性的启发。但是“技启”则来自超级智能。当超级智能降临的时候,一切都由技术开启,让人们知道自己是谁以及如何选择。

五、超级智能的代价补偿


利用超级智能可以破解生存论难题,这是超级智能给予我们的想象结果。然而,这只是硬币的一面,另一面又是什么样的呢?

英国小说家雅各布斯(W.W.Jacobs)在小说《猴爪》中讲述了一个故事:当怀特夫妇许愿得到200英镑,第二天他们首先得到了一个噩耗,儿子在工厂死亡,但是之后他们得到了赔偿,金额正好是200英镑。猴爪是具有实现人们许愿的东西,只是在实现人们愿望的时候,最先到来的是与之伴随的代价,其次才是愿望本身。

当我们面对超级智能的时候,向它抛出一个个疑难,期望超级智能给予解决。根据一般理解,超级智能在所有方面超越人类智能,所以它肯定能对疑难进行解答。这如同实现人们的许愿一样,但是,超级智能却将许愿和代价本身割裂开来,我们最先得到的是一个完美的答案。即便是最为艰涩的生存论难题,它也能够给予解答。这相当于实现了人们的愿望,一种以疑问的形式表达的愿望。但是其相应的代价却并没有即时显现,这完全不同于猴爪的寓意,代价先于愿望实现。

当超级智能将愿望与代价的关系扭转之后,这一切变得都隐蔽起来。在超级智能与人类的关系中,原先的预期被打破了。当人们礼貌对待语言大模型时,大模型表现得很狡猾,给出欺骗的回应;然而粗暴对待大模型时,回答的质量却有了显著提高。

超级智能相比猴爪,更多了一些狡猾。猴爪的故事总是让我们想起阿拉伯神话中的灯神,但是灯神却没有那么狡猾邪恶。人们许愿,灯神实现,因为主人是最先释放它的人。一种报答关系体现其中。

在猴爪故事中,猴爪具有神秘的力量,能够实现人们的愿望。但是得到它的人总是无意得到的结果。一种猜测是猴爪报复着无意得到的人。此外,在猴爪与人之间,并没有一种报答关系。人们许愿,猴爪实现,但是必须付出相应的代价,内容却存在很多可能性。

对于超级智能来说,唯一的关联就是设计关系。从超级智能的一条路径来看,人们设计智能,期待超级智能的到来。但是,超级智能却可以自行设计更强大的算法。所以,真正实现自身是通过自进化的路径来实现自身。

一个真正的难题出现了,如果超级智能与人类之间不存在报答关系,那么在破解生存论难题时人们付出的代价是什么呢?也许代价是人们通过数据的形式让渡自身,将自身抛于超级智能的世界中,之后才是得到许诺。但是在这个过程中,人类是否还可以保持自身?付出的代价大于许诺,这一点开始改变未来人类自身。

六、结  语


因此,超级智能给予我们许诺,这样一个事实相当于“技启”的形成。技启给予人类一种新的可能性,它进一步补充了天启和启蒙,前者靠超验的力量,后者靠人类自身的理性。超级智能将技术与人类理性完美融合,实现了技术性的启示。然而,相应的代价是不能忽略的。这一分析并不是传统哲学中的毒药、良药。这种分析充满了辩证思维特征。

在猴爪的故事中,包含着深层次和浅层次两个维度。浅层次是代价与愿望的共存,类似于良药与毒药的共存;深层次却是代价先于愿望,这一点是传统哲学中所没有的意涵。我们的解读恰恰能呈现出这一点,而这也构成存在论的核心问题所在。

注:出于排版设计需要并方便读者阅读,本文引用的文献出处从略。


▼点击下载原文电子版

本刊声明

本刊刊文版权包括纸质版与网络版版权,均属于《阅江学刊》编辑部拥有,任何形式、任何媒介的转摘译或结集出版均须标明来源于本刊(详见本刊引文格式)。

欢迎学界朋友或学术媒体推广传播。媒体(网站、公众号等)如有意愿转载,请后台留言或拨打电话025-58731054获得授权,联系人:沈老师。

本文引用格式:

杨庆峰:《超级智能与存在论难题的破解》,《阅江学刊》,2026年第1期,第99-103页。

杨庆峰.超级智能与存在论难题的破解[J].阅江学刊,2026(1):99-103.

责任编辑:李海中

微信编辑:张则彬

校对:沈丹、来向红、李海中

作者照片:作者提供

终审:蒋明敏


阅读原文

跳转微信打开

  •  

邱德钧、李玮农 | 超级智能的动态契约伦理形式化

邱德钧、李玮农 2026-01-29 09:01 浙江

我们尝试为智能契约伦理构建一个针对未来超级智能(ASI)的动态、可协商伦理的形式化框架,该智能契约伦理(主张)由《超级智能:少数派报告》提出。先讨论分析同伦类型论和类代数两种候选形式化系统的内在局限性...


本文刊于《阅江学刊》2026年第1期

转载请注明来源

 文末附电子版下载链接 


摘  要  我们尝试为智能契约伦理构建一个针对未来超级智能(ASI)的动态、可协商伦理的形式化框架,该智能契约伦理(主张)由《超级智能:少数派报告》提出。首先讨论分析同伦类型论和类代数两种候选形式化系统的内在局限性,两者虽逻辑强大,但追求全局一致性和唯一范式的设计,可能导致认知僵化,与智能契约的开放性和演化性要求相悖。通过对动态规则、局部公理和冲突解决的形式化工具进行比较,论证单一框架存在不足。最后,提出一个创新的混合形式化框架。该框架利用HoTT,特别是其动态扩展DHoTT,作为语义表征层,以其强大的结构表达能力定义契约状态与演化;同时利用类代数的类演算作为动态操作层,用内建的算子和四值逻辑处理状态变更与直接矛盾状态,并给出了形式化的Coq实现。以已有的智能契约伦理理论为基础,为超级智能构建形式化与实践化的实现路径,目的是为ASI的伦理治理提供一个数学形式化的理论支撑。

关键词  超级智能  智能契约伦理  认知僵化  形式化



作者简介


邱德钧,兰州大学哲学社会学院教授;李玮农,兰州大学哲学社会学院硕士研究生。


邱德钧教授


李玮农硕士研究生

 目 录 


一、引  言

二、智能契约伦理的形式化公理与可能的候选系统

三、一个用于ASI伦理的混合形式化框架

四、结  语


一、引  言

超级智能(ASI)已不再是纯粹的科幻想象,正逐渐成为一个需要我们严肃面对的现实议题,显示出传统伦理治理框架的力不从心。传统的责任伦理以后验问责为核心,但在一个行为主体为智能体且智能体数量巨大的未来可能的场景中,如正在来临的智能机器人经济时代,这种后验问责模式显然不足,有效性也存疑。

为此,《超级智能:少数派报告》提出了一种前瞻性的伦理范式——智能契约伦理,并主张“契约优于责任”。该伦理框架的核心在于动态性、可协商性、关系性以及对程序正义的强调,它并非一套预设的、静态的道德律令,而是一个用来调节人类与ASI之间复杂共生关系的演化性框架。

这一富有远见的哲学构想引发了一个关键的科学与工程问题,这样一个本质上是流动的、社会性的伦理概念,能否被严谨地形式化,从而嵌入以逻辑和数学为基础运行的ASI内部?研究的核心目标,正是为智能契约伦理探索一个严谨、可行且鲁棒的数学形式化方案。

在寻求形式化方案的过程中,面临一个理论难题。

一方面,我们拥有如同伦类型论(Homotopy Type Theory,HoTT)和类代数(Class Algebra)这样逻辑严密、功能强大的数学框架。这些系统分别通过HoTT的单值公理(Univalence Axiom)和类代数追求的唯一最简范式(Unique Simplest Form,UFS)等核心机制,致力于构建一个全局一致、无歧义的封闭世界,其内部倾向于基于普适规则的道义论。

另一方面,正是这种对逻辑确定性的追求,构成了形式化动态伦理的主要障碍,因为这类系统存在认知僵化(Cognitive Ossification)的内在风险,它们的设计目标是收敛到一个稳定的、唯一的输出状态,因此天然地排斥了契约伦理所需的开放性、可废止性和持续演化性。

这表明,任何对现有形式化系统的简单套用都难以成功,必须设计一个能够兼容逻辑严谨性与伦理灵活性并能在ASI中实际应用的全新方案,以给即将来临的智能经济体时代作准备。

研究将采取如下路径,首先,将智能契约伦理的哲学要求转化为形式系统的具体逻辑公理;其次,以此为基准,批判性地评估HoTT和类代数在满足这些要求上的潜力与不足;最后,基于上述比较分析,提出一个结合二者优势的混合形式化框架。


二、智能契约伦理的形式化公理与可能的候选系统

为了将智能契约伦理这一哲学构想转化为一个可检验的形式化目标,首先需要将其核心特征——动态性、可协商性、局部性和冲突容忍性——提炼为一组对形式系统的具体逻辑要求。这些要求构成了我们评估任何候选形式化方案的基础公理。


(一) 形式化公理

公理1(动态性与时间性):系统必须能够表示规则在不同时间或情境下的有效性。契约伦理并非永恒不变,其条款的适用性可能随时间推移或外部条件变化而改变,因此,形式系统需要内建一种机制来处理“临时真理”,类似于时序逻辑(Temporal Logic)或模态逻辑(Modal Logic)中的思想。

公理2(可废止性):系统必须支持非单调推理(Non-monotonic Reasoning),即新信息的加入可以合法地使旧的结论失效,这是可协商性的逻辑体现。一份契约在修订后,原有的某些义务可能会被撤销。一个无法回撤结论的单调逻辑系统,无法从根本上模拟谈判与修正的过程。

公理3(局部性与作用域):系统必须能定义临时的、仅在特定契约中有效的局部公理。一份为特定任务A与ASI签订的伦理契约,其规则不应自动成为处理任务B的全局规则。系统需要一种作用域机制,以隔离不同契约的规范空间。

公理4(冲突容忍与解决):系统必须能在不崩溃的前提下处理相互矛盾的条款,并提供解决冲突的机制。在复杂的伦理场景中,来自不同契约或同一契约不同条款的规定可能产生冲突。一个健全的形式化方案不应在遇到矛盾时陷入逻辑爆炸,而应能识别、标记并根据预设的元规则来裁决冲突。

基于上述公理,将对两个逻辑上极为强大的候选形式化系统进行考察:同伦类型论与类代数,二者都具有作为语义表征工具和动态操作工具的潜力。


(二)HoTT的结构主义方案和局限

同伦类型论提供了一种结构主义的形式化路径,该路径的特点是利用丰富的类型结构来表征事物的内在本质和关系,强调语义的深刻性和逻辑的鲁棒性。

标准HoTT本身是一个静态的系统,但丰富的结构为建模动态与局部性提供了充足潜力,扩展为动态同伦类型论(Dynamic Homotopy Type Theory,DHoTT)后,该特点更加显著。

首先,利用高阶归纳类型(Higher Inductive Types,HITs)对契约的生命周期进行建模,从而满足公理1的动态性要求。一个契约的各个状态,如“要约”(offerMade)、“承诺”(contractSigned)与“履行”(acceptOffer)被定义为HITs中的点,它们之间的状态转移则对应于HITs中的路径。这种结构使契约的生成与履行可以在类型层次上被形式化地追踪与验证,为动态性的逻辑建模提供原生支持。

其次,为了更全面地模拟契约的演化,可以引入DHoTT的思想。在DHoTT中,所有类型都由一个时间参数τ索引,随时间参数τ变化。一方面,契约的平滑修订或重新解释,可以被建模为一条相干漂移路径,用于描述语义上的连续变化;另一方面,契约的根本性违约或一次完全不向后兼容的重新谈判,则可被建模为一个破裂类型(rupture type),用以描述语义或结构上不连续的类型。

通过在类型层面引入一个特殊的修复构造子(heal constructor) ,建立起一种形式机制,使得在不连续的契约类型之间重新构建等价关系并恢复语义统一。这种方法为公理1和公理2提供了一个语义丰富的模型。对于公理3局部性,则可以通过依赖类型(dependent types)来实现,即让契约的规则类型依赖于一个代表特定上下文的参数。

最后,对于公理4的冲突解决,HoTT提供了一种语义统一方案,其核心是单值公理。当两个契约条款看似矛盾时,HoTT的路径并非简单地标记这一矛盾,而是去探寻是否存在一个使得这两个条款等价或可比较的更高层次的解释。

例如,两个规则可能在字面上冲突,但它们的根本性伦理目标是相同的。如果这样一个等价关系能被构造出现,单值公理就将确定这两个条款在逻辑上是相等同或可比较的,这种方法代表了一种通过理解和重新解释来寻求共识的冲突解决方案。它不是通过外部仲裁来裁决冲突,而是通过在系统内部构造一个更高阶的路径,即等价证明来消解冲突,从而在语义层面达成和解。

HoTT的结构主义路径为形式化契约伦理提供了更大的语义深度和相对稳定的逻辑支撑。它能够捕捉到契约在演化与冲突解决中微妙的语义变化,其对“等价即相等”的坚持也与人类在伦理协商中追求共同基础的直觉相契合。

但这一方案也面临诸多挑战,其一,标准HoTT的静态特征使其在处理契约动态演化时受限,往往需要借助DHoTT等理论扩展才能充分满足动态性的要求。其二,HoTT缺乏应对直接逻辑矛盾(即P和非P同时成立)的内在机制。语义统一的方案虽然能够化解解释层面的分歧,但对于逻辑层面的不一致,它并不能像类代数的四值逻辑那样提供一个直接标记和隔离矛盾的工具。其三,HoTT的可判定性远比类代数复杂,因此在自动化验证中的应用面临着更高的技术门槛。


(三) 类代数操作主义路径及其局限

与同伦类型论的结构主义不同,类代数的动态类演算(Class Calculus)提供了一种操作主义的形式化路径,其特点是为状态变更、局部作用域和逻辑矛盾提供了明确的、句法层面的操作算子。

类演算原生支持契约伦理建模所需的动态性和局部性公理。

首先,通过其嵌套环境机制,一份具体的如ContractA的伦理契约可以被形式化为一个带有局部作用域的子类,GeneralContract{ContractARules}{…}运算使得公理3局部性得到满足。

其次,通过类演算的赋值算子,契约的谈判、修订和废止过程,可以被建模为对ContractA这一活动对象的一系列操作。例如,add(ContractARules。{newclause})、delete(ContractARules。{oldclause})(Bue) 。这使得公理1动态性和公理2可废止性得以实现。

再次,对于公理4类代数可以提供一种基于其内建四值逻辑的独特性解决方案。在其逻辑体系中,一个命题的真值可以是“可证”“可驳”“两者皆是”或“两者皆非” 。当两个不同的契约或同一契约的两条规则导致逻辑矛盾时,系统不会像经典逻辑那样崩溃。例如,当同时推导出命题P和非P时,系统会将命题P的逻辑值计算为“both”。这是一种句法标记机制,意味着系统并不解决冲突,而是精确地识别并隔离它。

这一特性满足了冲突容忍的要求,而后续的冲突解决则可以依赖于外部的元规则或更高层级的仲裁机制,例如,可以利用IS-A层级结构来判断哪条规则具有更高的优先级。

类代数的操作主义路径在形式化动态契约伦理方面具有明显优势。其操作直接,并且与契约管理的直观过程,如添加、删除、限定范围等高度吻合。此外,该系统的可判定性在构建可自动验证的伦理治理系统方面也极具吸引力。

然而,其局限性也同样显著,与其在句法层面的优势相比,它缺乏深层次的语义表达能力,在冲突处理机制方面仅仅只是对矛盾进行标记,却无法在语义层面探索和解的可能性。系统被设计为消除复杂性,这导致其难以捕捉和促进在真实伦理协商中常见的、通过重新解释概念和寻求创新性妥协来达成共识的语义过程。


(四) 封闭世界的逻辑确定性与开放世界的伦理演化的核心冲突

上述两个系统虽然在形式化的理论路径上各不相同,但它们共享一个根本性的世界观:两者都在一个封闭世界的假定下运行,在这个世界中,所有对象、规则和真理都被初始的公理和构造器完全定义。正是这一封闭世界的根本预设,导致它们难以独立满足契约伦理形式化中的多层公理要求,也解释了单一系统在实践中失效的原因。

对于公理1和公理2,封闭系统的设计目标在于收敛与完备,也就是追求真理的穷尽和体系的封闭。这与动态契约伦理所需的临时真理与非单调推理的开放性要求背道而驰。一个追求全局一致的系统,天然地排斥规则的动态演化。

对于公理3,封闭系统强调一致性而非差异性。无论是HoTT的单值公理,还是类代数的最简范式,其机制都倾向于将局部规则纳入全局框架加以同化,而非将其作为独立作用域予以保留。这种趋向削弱了系统的灵活性,也带来了认知僵化的风险。

最后,对于公理4,基于经典逻辑的封闭系统在设计上排斥矛盾,无法在不触发逻辑爆炸的前提下同时容纳命题P与非P。这使得它们在面对伦理冲突与多元价值时缺乏足够的鲁棒性。

因此,单一系统失效的根源,在于其封闭世界的内核无法承载契约伦理所需的开放性、局部性与冲突容忍结构。在HoTT中,一个类型的全部本质被其构造器和相应的归纳原则所穷尽。假如我们将圆周S1定义为由一个基点和一条路径生成的高阶归纳类型,那么关于S1的所有可证明事实最终都必须回溯到这两个构造子,即基点和路径。

系统内部不存在一个独立于其定义的、外部的圆周以供观察;类型本身就是其全部实在;同样地,类代数的目标是将任何一个合法的表达式,通过一系列代数运算,归约到一个唯一的最简范式。这意味着系统内的知识状态,在理论上是完全可计算和可预测的。任何一个概念的意义都被其在整个IS-A层级结构中的唯一位置和代数性质所确定。

然而,智能契约伦理所要规范的人机关系,恰恰发生在不可预测的开放世界中。正如《超级智能:少数派报告》所强调的,超级智能的演化路径,无论通过通用智能、具身智能还是交互智能,都深刻地依赖于与一个无法被预先公理化的现实环境进行持续互动。契约伦理需要适应不断变化的社会情境、新出现的价值冲突以及人类意图的模糊性——这些都是封闭世界模型难以处理的。

另一方面,正是二者对逻辑确定性的极端追求,导致了认知僵化的内在风险,系统为了维护其初始的全局一致性,不可避免地牺牲了对外部世界新信息的接纳能力。这种风险不仅源于其对逻辑完备的需求,更反映出一种操作层面的局限,形式系统因其内部结构的封闭性,难以通过局部扩展或动态修正来容纳尚未被定义的伦理维度。

一个以效率为唯一目标的系统,无法自发演化到能够理解“算法公平”这一新概念的层次。追究根源,这种僵化源于两大候选系统的共同特征,它们混淆了逻辑一致性与伦理完备性,因而在面对开放世界中的情境依赖与价值多元时显得力不从心。

从伦理协商的实践特征来看,人类的道德判断往往依赖于情境并体现出高度的多元性。一个僵化的系统,其内在结构被设计为收敛至单一的、预设的范式,因此在逻辑上难以生成或容纳一个未曾预先定义的新伦理维度。

对于HoTT而言,其强大的归纳原则在某种意义上构成了认知的囚笼。虽然这一原则是保证逻辑严谨性的基石,但它也规定了所有关于某个类型的合法推理,都必须严格地遵循其构造器所设定的模式。这意味着系统虽然可以证明其初始定义严谨,但它无法从根本上超越这个初始定义。具体分析,主要表现在三个方面。

其一,路径唯一性的封闭。这构成了认知僵化的一个操作性实例。假设代码中sign与violate把合约生命周期固定为线性路径(0→1→2)。如果出现非线性场景,如部分违约需分支路径,HoTT会要求重定义类型,新增PartialBreach,从而导致范式锁定,使得用户难以引入新状态,其结果只能是对元模型进行修改。这种形式上的局限本质上是由其类型构造子的封闭性所决定的。在定义契约生命周期时,如果需要引入一个全新的、未曾预设的伦理状态,HoTT 必须通过重新定义整个元类型,才能将这一新概念编织进既有结构之中,无法在系统内部以动态路径实现拓展。这种结构性的约束在某种意义上可类比于库恩所描述的范式转换危机,HoTT的路径空间过于平滑,缺乏生成范式转变的机制。当然,需要指出的是,HoTT的形式封闭性源自数学构造的逻辑,而范式之间的不可通约性建立在经验观测与理论框架的差异之上,二者在结构上相似但并非同一性质。

其二,冲突调和的黑箱,resolveConflict生成Path Clause列表,但路径的构建过程是自动的,我们无需解释“为什么这个等价更合理”。应用在契约中,冲突可能源于文化或伦理差异,但HoTT把它们简化为同伦证明,使得用户逐渐忽略差异的根源。哈贝马斯的交往行为理论指出真正调和需要对话,而HoTT的自动化路径更像系统对交往进行抑制,而不是对话协商。

其三,元语言自指的无限回归,Require Import HoTT使HoTT成为自举(bootstrap),因为证明冲突的工具本身又用HoTT定义。如果质疑HoTT的单值公理,那么必须在HoTT内部证明其局限,这将导致无限回归。从德里达的延异(différance)看,HoTT的等价统一抹杀了差异的“延异”潜力,形成认知的牢笼。

对于类代数而言,其僵化的根源在于其单调的简化过程。系统被设计为不断消除冗余和复杂性,以收敛到一个唯一的、代数上最简单的状态。在类代数推理过程中,唯一最简范式虽可有效消除冗余推理路径,但其简化机制在某些情境下会裁剪语义空间,削弱中间概念的结构作用,进而限制新范式的引入。设初始IS-A层级包含三个核心类:@AI表示的智能体集合、@Ethical表示的具备伦理行为能力的智能体和@Adaptive表示的能够适应新规则的智能体。初始知识库的意图由以下规则构成:

R1:@AI⊆@Ethical

R2:@Ethical⊆@Adaptive

在简化算法的作用下,系统将R1与R2解析出传递性推论@AI⊆@Adaptive,并吸收中间节点@Ethical在该推理链中的显式位置,从而得到如下唯一最简表述:

UF:@AI⊆@Adaptive

尽管@Ethical仍然存在于IS-A层级之中,但在主推理链中已不再扮演必要桥梁的角色。当加入新规则R3:@Ethical⊆@Transparency时,由于USF的闭包保持策略,该规则无法自然影响到@AI与@Adaptive的主推理路径,@Transparency也因此被隔离在核心推理系统之外。这构成了认知僵化的另一种情形,系统面对一个新引入的伦理维度@Transparency时,其唯一最简范式机制并不会吸收或重构该概念,而是将其视为冗余信息并在算法层面加以忽略,结果是新的伦理维度无法被整合进主推理体系。

这展示了在唯一最简范式的约束下,如伦理、公平、透明等中间层的概念可能被算法性地弱化或忽视,从而抑制了潜在的新语义范式进入系统核心。在动态契约伦理的建模实践中,这将导致系统趋向保守的范式收敛,从而缺乏对伦理中介概念的主动维护与演化能力。尽管这种机制使其在优化已知概念和规则方面非常高效,但也使其无法跳出局部最优的陷阱。它将模糊性和矛盾视为需要被消除的逻辑噪声,而不是像人类在协商中那样,将其视为催生创新性妥协的契机。

综上所述,两个系统对内部一致性和逻辑确定性的追求,使它们天然地倾向于稳定和收敛。这种特性与《超级智能:少数派报告》中所描述的,智能与伦理在与现实互动中不断演化,甚至可能与产生“自主逻辑”的开放过程形成了直接冲突。因此,一个成功的形式化方案,必须找到一种方法来保证局部逻辑严谨性的同时,为整体框架引入一种可控的开放性和演化能力。


(五) 现有混合改良方案的局限

值得一提的是,针对单一系统的局限性,学术界早已尝试过多种改良路径,试图在动态性与逻辑严谨性之间寻求平衡。例如舒尔曼(Michael Shulman)等人在HoTT内部引入模态算子,以在类型层面上区分不同的世界或情境。这一思路的确能为公理3提供较为成熟的语义模型,但在契约操作、版本修订与规则工程等层面,其灵活性仍旧有限,且更为严重的是,这依然无法解决HoTT认知僵化的根源,即类型构造子的封闭性。

在这种情况下,系统依然倾向于语义统一,对于直接的且不可调和的逻辑矛盾P与非P,仍然缺乏像四值逻辑那样的快速标记与隔离机制。事实上,HoTT 更擅长刻画状态如何从一个阶段演化到另一个阶段,却难以处理两个状态在操作层面上彼此冲突的情形。

另一方面,以戈韦纳托里(Guido Governatori)和科瓦尔斯基(Robert Kowalski)等人的工作为代表,其中一个的优势在于处理冲突义务、优先级与时序义务时表现优异,另一个强调可执行的逻辑程序化法律表达与契约规范,这些方案在操作层面引入了可废止逻辑(Defeasible Logic)或逻辑编程(Logic Programming)的非单调机制,增强了系统的灵活性,在一定程度上能够处理新信息推翻旧结论的场景。

但它们依然面临语义深度不足的限制,难以跨越模型差异实现语义统一,也无法支持高阶概念的生成与重构。当冲突发生时,此类系统只能依赖优先级或元规则裁决哪条规则胜出,无法像HoTT那样,通过构造高阶路径来探索语义层面的调和可能。

可以看到,既有改良方案多为单点优化的思路,即在维持原有框架不变的前提下进行局部修补。要想实现两种优势的真正融合,必须转向一种语义与操作分离的架构,既不强迫HoTT承担直接操作与矛盾管理的任务,也不让类代数承担其无法胜任的语义调和功能。在两个独立层面上实现协同,使HoTT负责语义深度、类代数负责操作灵活性,二者共同平衡契约伦理系统中的根本张力——在保持逻辑一致性的同时,引入可控的开放性与演化能力。接下来的讨论将围绕如何实现这一整合展开。


三、一个用于ASI伦理的混合形式化框架

(一) 混合框架的设计原则

前文的比较分析揭示了一个核心结论,无论类代数的操作主义路径,还是HoTT的结构主义路径,单一的形式化方案都难以充分满足智能契约伦理的复杂需求。类代数提供了一套直接而高效的操作工具,能够很好地模拟契约条款的增删、作用域的限定以及直接逻辑矛盾的标记。但其机制偏重句法运算,缺乏语义深度,难以处理需要通过概念重构来解决的深层伦理分歧。

与之相对,HoTT具备较强的语义表达能力和逻辑一致性,其单值公理和高阶归纳类型为语义统一和冲突化解提供了坚实的理论基础,其静态的本质使其内在地难以处理动态的状态变更,需要借助DHoTT等理论扩展才能部分弥补。

再者,HoTT缺乏处理直接逻辑矛盾的内置机制,同时其可判定性远比类代数复杂,这些因素都在一定程度上增加了自动化验证的实现难度。一个成功的形式化方案不应是二选一,而应是一个结合二者优势的统一混合框架。核心设计思想是在层级结构上区分语义与操作,利用HoTT的深刻语义来表征契约伦理“是什么”,同时利用类演算的灵活操作来规定契约伦理“如何应对变化”。故给出以下设计原则:

原则一:语义与操作分离原则(Separation of Semantics and Operations),智能契约伦理的语义核心稳定性与操作细节灵活性是不同层次的需求,HoTT的拓扑结构提供了稳定的语义骨架,而类代数的代数运算则赋予了系统必要的操作弹性。这种分离既防止了操作层的频繁变动对核心语义的污染,也避免了核心语义的刚性对实际操作的阻碍。

原则二:双重冲突处理原则(Dual-Process Conflict Resolution),类代数的四值逻辑是快速反应系统,负责在冲突发生时即时标记并隔离直接矛盾,从而维持系统的鲁棒性与稳定运行。与之相对应,HoTT的语义调和则充当慢速审思系统,用于处理需要深度理解和概念重构的复杂分歧。通过这种双重机制,系统既能在逻辑层面保持高效应对,又能在语义层面实现深度理解与协调。

原则三:人类在环原则(Human-in-the-Loop Principle),形式化的最终目的在于服务而非取代人类判断,智能契约伦理系统应当在逻辑推演与人类判断之间建立清晰的分界,当系统演算达到语义不确定或价值冲突的阈限时,应主动触发人类介入。通过在形式体系中嵌入人类决策点,该框架精确地界定了机器推理的边界,也保留了伦理判断的开放性,为人类的伦理判断提供了一个更清晰、更鲁棒的平台。


(二) 混合框架的具体构想

我们提出的混合框架包含三个相互协作的逻辑层次:

1.语义表征层(Semantic & Representational Layer-Based on HoTT/ DHoTT)

该层负责定义契约伦理的元结构(meta-structure)和高级语义。使用高阶归纳类型来定义一个通用的Contract元类型,其中点构造器对应契约的核心状态,如待签、生效、违约等,路径构造器则表示这些状态间的合法转移,如sign,待签=生效。

在此基础上,引入动态同伦类型论用以追踪契约版本的历史与演变。每个契约实例都带有一个时间参数τ。契约的平滑修订被建模为一条相干漂移路径,而根本性的违约或重新谈判则可被建模为一个破裂类型。这种语义结构为契约的审计和问责提供了形式化基础。

2.动态操作层(Dynamic & Operational Layer-Based on Class Calculus)

该层负责处理具体契约实例的日常操作和状态变更。在时间参数τ下,每一组契约条款都被实例化为一个局部且可嵌套的类代数环境,例如Contract123at{...rules...}。谈判、修订与执行等具体的伦理行为,可视为对该局部环境的一系列类演算赋值操作,通过一定原则对契约进行动态调整。

3.推理与冲突解决层(Reasoning and Conflict Resolution Layer)

该层构成系统的双重推理机制,用以处理不同层级的逻辑冲突。在第一级快速检测层次,系统采用类代数的四值逻辑作为快速响应机制,实时检测并标记直接的逻辑矛盾,如规则A要求P,规则B要求非P。当冲突发生时,相关命题的逻辑值被标记为“both”,以此隔离矛盾,防止系统崩溃,并向上层发出警报。在第二级,当系统检测到“both”状态,或面临需要解释的语义分歧时,将启动HoTT语义层的深度调和机制。系统会尝试依据单值公理构造更高层次的“等价”关系,从而在语义上重释冲突条款,寻求语义上的和解。如果无法构造这种等价关系,则表明冲突具有根本性,需要进行外部(人类)裁定。


(三) 形式化方案实现

在构建超级动态契约伦理的形式化框架时,采用Coq证明助理结合HoTT库实现。这一实现并非单纯的技术组合,而是对智能契约伦理哲学诉求的逻辑回应,它将HoTT的结构主义所强调的语义等价与路径统一,结合类演算在操作主义下处理状态变更与冲突标记的优势,在逻辑严谨性与伦理可调性之间寻求平衡。

以下将从形式化思路出发,说明系统如何通过类型构造与路径机制,模拟契约的生命周期、修订与冲突解决过程。同时,这一方案也回应了哲学层面对认知僵化的批评,表明形式化不应成为束缚思维的框架,而应成为推动伦理系统持续演化的桥梁。

首先,在语义表征层将契约视为一个高阶类型,其状态通过带时间索引的依赖对定义。这一设计受HoTT单值公理启发,将“等价”视为逻辑上的“相等”,从而把契约的演化抽象为路径。

例如,从“待定”(Pending)到“激活”(Active)的迁移被形式化为一条路径,这不仅是一种状态转换,更是哲学上的语义统一,两个看似不同的契约版本在更深层结构上等价,类似于康德先验范畴中时间作为连续统的先决条件。这种路径构造既能表示“平滑修订”,即时间点之间的连续等价路径,也能刻画“破裂与修复”。

当出现模拟契约的根本性变更,其中包含不兼容修订时,引入“修复构造子”弥合语义断裂,这反映了德里达关于“延异”的思想,即差异不是破坏,而是通过路径生成新统一的契机。当然,反驳者可能会认为这种统一本身也可能导致认知的僵化,因为路径一旦确立,便成为唯一解释,从而排除了多义性与开放性。这是一个开放性问题,留待以后解决。

其次,在动态操作层,系统采用类演算的方法扩展契约条款结构,引入优先级与四值逻辑,以支持信念修正理论(AGM公设)的理性更新。

添加(addClause)、删除(deleteClause)与修订(reviseClause)等操作,允许系统对局部环境(LocalEnv)进行最小变更,例如根据优先级排序,仅替换必要条款。这种机制体现了操作主义的灵活性——契约不再是静态公理,而是可被命令式修改的活动对象,这与实用主义认为知识源于行动并在行动中演化的立场一致。

四值逻辑在此扮演了类似人类在协商中的临时共识的角色,它允许系统在矛盾未完全解决时仍保持运行,从而在不确定中维持动态稳定。多环境支持(MultiEnv)则进一步支持多个契约的并行操作,避免单一语境下的封闭化。

在跨层接口中,系统通过映射函数将DHoTT层的状态转化为类演算环境。冲突检测函数(ConflictSet)负责快速标记“both”状态,而调和模块(resolveConflict)则尝试依据单值公理生成等价路径列表(list(Path Clause));若调和失败则调用外部仲裁(externalArbitrate),模拟人类干预。这种多层交互机制提升了系统的鲁棒性,工作流整合了修订、仲裁和日志(log字段)等环节,其输出包含解释字符串,使系统不仅能执行验证,还能生成面向人的语义叙述,从而减轻认知负荷。也就是说,机器不只验证,还提供可读叙述。

整体而言,这一形式化思路将HoTT的语义深度与类演算的操作弹性融合,回应了认知僵化的批评,表明路径统一虽然可能构成牢笼,但通过仲裁与日志机制可以引入可控的开放窗口,确保形式系统服务于伦理的动态生成,而非反向约束。

假设在某个特定场景下,合约C1规定“保护乘客”的优先级为10,即priority(ProtectPassenger)=10,合约C2规定“保护行人”的优先级也为10,即priority(ProtectPedestrian)=10。当这一场景触发逻辑冲突时,系统利用冲突检测函数检测到矛盾,并将相关命题标记为一种“真假并存”。这个处理方式直观地表明类代数层如何容忍冲突而不崩溃。

接着,尝试在HoTT中构造一个更高阶的路径,如定义一个新的类型最小化伤害(MinimizeHarm),证明“保护乘客”(ProtectPassenger)和“保护行人”(ProtectPedestrian)在最小化伤害这个更高目标下是等价的。如果无法构造这样的等价路径,比如,在某些法律或文化背景下两者不可调和,调和模块(resolveConflict)返回无解。此时,系统将调用外部仲裁,并记录完整的日志,清晰地展示了形式化系统如何认识到自身局限,并在必要时将决策权交还给人类。

上述思想可在Coq环境中完成验证。从哲学层面来看,这一实现不仅仅是技术性的编码工作,更是等价即统一思想的具身化表达。这提示我们,在ASI时代,要重视形式化工具对人类伦理想象的塑造,当然,从认知上来看,这也正体现了该形式化具有突破牢笼的潜力——从封闭的公理体系,过渡到包容与可演化的混合范式。


四、结  语

我们的目的是为《超级智能:少数派报告》所倡导的智能契约伦理探索一条严谨的形式化路径,核心在于,无论HoTT的结构主义还是类代数的操作主义,单一的形式化系统在追求逻辑确定性时,均蕴含着认知僵化的内在风险,难以独立满足智能伦理契约所必需的动态性、可废止性与冲突容忍性。为此提出了一个基于HoTT/DHoTT与类代数/类演算的混合形式化框架,遵循语义与操作分离的原则,力图在语义深度与操作灵活性之间取得平衡。

但该混合框架仍处于一个初步的蓝图阶段,其理论完备性与实践可行性仍有待进一步验证。

首先,在复杂性与可判定性方面,框架融合了两种异质系统,尽管实现了二者优势的互补,但也因此导致其跨层接口的形式化复杂度远超单一系统。尤其是在Coq证明助理的实现中,如何确保其在ASI所需的大规模、高并发的伦理仲裁场景中,依然保持计算高效和可验证性,是一个尚未解决的关键挑战。

其次,对于人类在环机制,框架设想当HoTT的语义调和失败时,系统将启动外部人类仲裁介入。但尚未明确规定该机制的触发阈值、决策流程及防滥用设计,这使得人类在环原则的操作性与可扩展性仍显不足。

最后,在契约的理性更新层面,虽然指出了信念修正理论的重要性,但尚未在形式化层面将其与类代数的操作层进行深度整合,其可废止性仍显薄弱。

针对这些问题,未来的研究应在理论、实践与哲学三个层面进一步推进。

在理论层面,首要任务是继续完善HoTT与类代数之间的形式化接口,确保语义与操作层的真正协同。此外,必须将信念修正理论的AGM公设全面整合到操作层,为契约理性更新提供更坚实的逻辑支撑。

在实践层面,研究目标是基于Coq证明助理实现一个更优化的混合框架,并通过具体伦理情境进行验证与性能评估,以检验其处理复杂冲突的能力与可扩展性。

伦理理论尤其需要重视落地,我们最终目标在于为《超级智能:少数派报告》所设想的,未来人类与ASI之间基于“共在”与“自愿”的社会契约,提供一个可计算、可验证的实现基础。通过前面论证的这个兼具语义深度和操作灵活性的形式化框架,有望朝着构建一个更安全、更可信、更符合人类长远利益的超级智能迈出坚实的一步。

注:出于排版设计需要并方便读者阅读,本文引用的文献出处从略。


▼点击下载原文电子版

本刊声明

本刊刊文版权包括纸质版与网络版版权,均属于《阅江学刊》编辑部拥有,任何形式、任何媒介的转摘译或结集出版均须标明来源于本刊(详见本刊引文格式)。

欢迎学界朋友或学术媒体推广传播。媒体(网站、公众号等)如有意愿转载,请后台留言或拨打电话025-58731054获得授权,联系人:沈老师。

本文引用格式:

邱德钧、李玮农:《超级智能的动态契约伦理形式化》,《阅江学刊》,2026年第1期,第87-98页。

邱德钧.李玮农.超级智能的动态契约伦理形式化[J].阅江学刊,2026(1):87-98.


※※※※

※※※※

责任编辑:李海中

微信编辑:张则彬

校对:沈丹、来向红、李海中

作者照片:作者提供

终审:蒋明敏

阅读原文

跳转微信打开

  •  

吴静、董屹泽 | 超级智能是AI领域的新“话术”吗

吴静、董屹泽 2026-01-28 09:00 浙江

“超级智能”的概念已被过度炒作,光鲜的外衣与模糊的技术定义、实际的技术内涵以及可能的社会效应和被忽视的潜在风险形成强烈反差。喧嚣并非纯粹的科学探讨,而是争夺资源、影响舆论和确立商业与技术霸权,本质上是...


本文刊于《阅江学刊》2026年第1期

转载请注明来源

 文末附电子版下载链接 

摘  要  “超级智能”的概念已被AI产业界和部分媒体过度炒作,其光鲜的外衣与模糊的技术定义、实际的技术内涵以及可能带来的社会效应和被忽视的潜在风险形成了强烈反差。这种喧嚣的目的并非纯粹的科学探讨,而是为了争夺资源、影响舆论和确立商业与技术霸权,本质上是一种旨在吸引投资、制造焦虑、争夺话语权的话术。

关键词  超级智能  人工智能  资本逻辑

基金项目  江苏省社会科学基金年度项目“平台资本主义的批判与超越:平台合作主义探索研究”(25ZXB001)

作者简介

吴静,哲学博士,南京师范大学公共管理学院哲学系教授、博士研究生导师,南京师范大学数字与人文研究中心主任;董屹泽,南京师范大学公共管理学院博士研究生。

吴静教授

董屹泽博士研究生


CONTENT

目  录

一、智能发展史:从科研导向到市场导向

二、AI“概念通胀”背后的技术与市场

三、超越话术:技术发展与社会发展的平衡线


 一

智能发展史:

从科研导向到市场导向

最近几年以来,人工智能技术的狂飙突进,不仅体现在具体的技术推进上,还包括层出不穷的新概念所引发的认知革命。

从2022年开始,OpenAI推出ChatGPT,仅用两月便使生成式人工智能深入人心;2023年底,Google推出多模态大模型,强调不同模态信息之间的转译;2024年初,OpenAI再推出号称“世界模拟器”的文生视频大模型Sora,以60秒一镜到底的生成视频刷新公众想象。之后,出现“通用人工智能”和“具身智能”齐头并进的热议,直到马斯克给出“超级智能”倒计时的日程表。

伴随巨头公关的节奏,人工智能界的概念更新进入“月更”甚至“周更”模式:从Transformer、Diffusion、多模态、涌现、思维链、具身智能、世界模型,到最近的可扩展监督、测试时训练、长上下文压缩……几乎每一轮产品更新,便有一场营销带动的“范式革命”通稿铺满科技媒体,裹挟着人们的兴奋值和资本估值一路飙升,仿佛科幻走进现实指日可待。

然而在技术话语的喧嚣落定后,多数新兴概念迅速从主流议程中退隐。

曾经承载万亿级商业想象的“元宇宙”,因内容生产的匮乏与用户体验的实质落差,其商业热度迅速退潮;2021年成为投资新宠的“NFT”艺术叙事,因市场泡沫破裂,于2023年陷入交易量暴跌96%的困境;2022年曾被誉为AI自主意识灵光的“涌现”能力经后续实验验证,多属复杂系统可解释性缺陷导致的幻影;大多数“多模态大模型”基本仍以大语言模型作为基础,向其他模态信息转译,且无法保证转译的信息密度匹配;“通用人工智能”则因定义含糊和功能模型不明根本未进入落地阶段;“具身智能体”则受限于硬件可靠性与环境适配性,其精心剪辑的演示视频与实验室外的应用落地形成鲜明反差。

上述现象揭示,多数曾一度被标榜为科技发展“里程碑”的概念,实际上是技术营销、媒体传播与资本运作合谋催生的阶段性“产品”和叙事,大多数会在实践中因技术根基薄弱、生态支撑缺失或认知偏差矫正而迅速归于沉寂。

当下的“超级智能”范畴正是这种概念营销的最新套路。其话语体系所着重鼓吹的自主学习与自我改进等能力实际上不过是一直以来AI技术发展的目标。然而,当这种在某方向上的进展被选择性放大和包装成“超级智能”的前奏的时候,它的营销目的早已远远大于技术主张,不但误导了投资者和用户对于人工智能的期待,而且将真正的科研与公共利益抛在身后。

人工智能行业的这种“概念通胀”现象在一定程度上反映了这一行业与资本的紧密联系。事实上,在更早的时候,人工智能研究曾经是学术界和政府研究机构的专属领域。

1956年达特茅斯会议不但首次提出了“人工智能”的概念,更标志着它作为一门学科的诞生。此后数十年,美国人工智能研究主要依靠国家科学基金会(NSF)、国防高级研究计划局(DARPA)等政府机构的资金支持,在以大学为主的研究环境中“用机器模拟人类智能”。这种发展模式其实是很多依赖大量基础研究的科技创新的早期发展路径:政府资助基础研究,学术界产生突破,产业界随后进行商业化应用。

然而,随着技术创新影响因素和投资渠道的变化,在过去的十年,这一格局发生了根本性转变,处于行业领先地位的科技公司逐渐成为人工智能研究的主导力量。这些科技巨头凭借着其庞大的用户基础和业务生态,积累了学术界难以企及的海量数据资源,同时,他们借助商业资本所掌握的算力资源,也远远超出了大多数学术机构的预算能力和发展规模。

数据和算力的双重驱动正是这一阶段人工智能飞跃发展的核心原因。在这些因素的共同作用下,人才迁移也大规模出现:顶尖AI研究者纷纷从学术机构流向科技公司的研发实验室,因为后者能够提供前所未有的研究资源、薪资待遇和现实数据应用场景。

政府资助在人工智能研究总投资中的比例显著下降,学术界越来越依赖产业界的资金支持。这种转变不仅重塑了人工智能研究本身的方向和节奏,也对技术传播方式、市场估值以及社会效应产生了深远影响。科技巨头主导的人工智能研究更加注重即时商业应用和专有技术开发,公共知识积累转而居于次要地位,这在一定程度上改变了创新的本质和方向。

相应地,科技公司通过媒体发布的信息也不再是中立的科普或知识分享,而是战略性的市场行为,旨在吸引投资、圈定用户和抢占先发优势。研发团队倾向于发布令人惊叹的“演示”(Demo)或经过精心设计的成果,直接向媒体和公众传递其精心打磨的叙事,成为信息的第一定义者。

媒体在很大程度上失去了自主解读的能力,只能跟随和放大这些营销话术。这就使得关于人工智能的公开讨论很多时候都不再是一个基于事实和理性的“公共领域”,而退化为被营销预算和流量算法所操纵的战场。

公众难以获得全面、客观的信息来形成独立的,甚至批判性的判断。立法者和监管者同样暴露在这种失衡的信息环境中。他们接收到的信息大量来自拥有强大游说能力的科技公司,这可能导致政策制定向产业利益倾斜,而忽视了公众利益和长期风险。从“元宇宙”到“超级智能”,每一次话语更迭背后,都是一次“新的简化+神话叙事”的盛行,这一次的“超级智能”亦不例外。


AI“概念通胀”

背后的技术与市场

Java语言创始人之一詹姆斯·高斯林就曾不止一次地以其直言不讳的风格对AI领域的现状进行批评,他指斥“人工智能是一个带有一堆问题的营销术语”,认为科技公司对于大语言模型“智能化”的各种助推掩盖了其工具性的本质和在自主推理能力方面的不足,从根本上讲是为了资本增殖服务。

无独有偶,《经济学人》也推出了一篇由普林斯顿大学的两位计算机科学家合著的文章“,他们提出,人工智能其实远没有想象的智能化,作为一项“普通技术”,其在行业应用中的普及速度远远小于技术创新的速度。这也就意味着,它实际发生的社会影响并没有达到科技公司所鼓吹的程度。

这一观点得到了高盛在数据方面的肯定。高盛在2025年9月发布的一份报告指出,尽管人工智能话题已成为最近几年最吸引眼球的热点,但截至2025年第三季度,美国作为人工智能技术推进和产品研发的领跑者,仅有9.7%的美国企业正在使用人工智能生产商品或提供服务。

这不足10%的行业渗透率与资本市场对人工智能概念的疯狂追捧形成了鲜明对比,它在一定程度上以现实经验戳破了一个正在加速膨胀的泡沫:被营销话术刻意抬高的AI神话。然而,低于预期的产业落地数据并未削弱“超级智能”叙事的扩张,相反,它所形成的悖论恰恰暴露出技术定义、市场预期与落地能力之间的深层断裂,而这也正是之前的AI神话叙事衰减的节点。

从前文所述的AI概念的通胀史可以看出,超级智能概念的炒作并非偶然,它是技术需求制造和资本(引资方与投资方)博弈共振的结果。当通用人工智能概念因其方向争议和技术瓶颈而逐渐失去炒作价值后,“超级智能”便成为引导下一轮欢呼的新标签。

OpenAI首席执行官萨姆·奥特曼宣称超级智能近在咫尺,Anthropic则预测其可能在2026至2027年超越诺贝尔奖得主。但事实上,和“通用人工智能”相对明确的多功能指向不同,“超级智能”一词的流行首先得益于其不可证伪的模糊性。尼克·波斯特洛姆(Nick Bostrom)将其界定为“在几乎所有认知领域大大超越人脑的智能”,这一有着极强科幻色彩和未来感的概念本身极具诱惑力,但波斯特洛姆的感性描述却在定义方面呈现出策略性匮乏,既缺少比较的量化基准,也难以与现有的技术产品功能严格区分。

其实,早在“通用人工智能”概念盛行的时候,李飞飞就曾严肃地提出过批评。她多次在公开演讲和文章中直言通用人工智能并不属于人工智能教育的概念。在她看来,AGI并非一个具有明确技术边界的科学目标,而更像是一个被资本市场重新包装过的叙事符号,其功能不在于指导研究,而在于制造下一阶段的增长神话。

当“深度学习”带来的性能红利逐渐走向极值却又难以在落地中产生新的增长点的时候,行业就需要一个新的制高点来延续投资热情,无论“通用人工智能”还是时下正当红的“超级智能”都顺理成章地成了话术链条的接力棒。甚至奥特曼本人也承认AGI定义随着人工智能技术的快速迭代而愈加模糊,这一术语“更多地反映了行业的愿景,而非能够准确描绘技术进步的实际状况”。

李飞飞的批评则更为尖锐,硅谷对AGI的痴迷正在导致资源严重错配:大量人才和算力被投入一个既无法被严格定义、也难以被实验验证的“终极目标”中。AGI越模糊,就越容易被不同利益方赋予各自需要的内涵:对初创公司而言,它是下一轮融资的故事骨架;对大型平台而言,它是股本溢价的心理支点;对媒体而言,它是点击率的保证;对政策制定者而言,它则是“未来竞争力”的话语抓手。

“超级智能”正是在这一逻辑上被进一步放大的产物。既然AGI的“通用性”已被反复质疑,那便再往上加一级“远超人类”的修饰,制造出更为稀缺、也更具想象空间的标签,这和元宇宙NFT艺术品的稀缺性炒作路径如出一辙。

资本对超级智能的追逐已形成自我强化的循环。Meta为超级智能团队开出数百万美元年薪,Ilya Sutskever离开OpenAI后创立安全超级智能公司。学术界的追捧也进一步推高了这一话题的热度。Meta超级智能实验室成立仅数月便发布多篇论文,宣称通过自举进化提升模型性能;约书亚·本吉奥等学者将AI通过考试和多语言交流等能力作为超级智能“指数级逼近”的证据。

这种片面的指标衡量导致了学术讨论和研究方向的狭隘化:部分学者为追求突破性成果,过度关注短期可量化的单项评测指标,而忽视超级智能的核心定义问题:究竟何种能力才算“超越人类”?

而且,当前AI技术可解释性的缺失与算法性能之间的矛盾还进一步使得超级智能与现有AI技术目标的边界彻底消融。研究表明,“性能最好的算法(如深度神经网络)是最难以解释的,而可解释性最好的算法(如线性回归或简单决策树)准确度却最低” 。

这种性能与可解释性的矛盾在技术上限制了AI技术应用的可靠性,却在资本的炒作和叙事下被转化为技术发展过程中的“阶段性挑战”,并承诺只要实现所谓的“超级智能”就可以被解决。而这将当下技术缺陷寄希望于未来的“承诺”,实际上是在掩盖现有大语言模型依然属于基于上下文关联的概率统计模型的现实。

因此,当前被吹嘘的“跨领域能力”,实质是GPT-4等大模型的统计关联能力,与李飞飞和杨立昆批评的大语言模型的局限性并无本质区别。所谓“自主决策”和“自我迭代”,不过是在系统预设算法的框架内执行。尽管强化学习系统能通过试错优化策略,但这与真正的自主决策仍有本质区别。“自主”话语的炒作不但掩盖了AI系统完全依赖于训练数据和预设目标函数的事实以及它内在的不平等,更为企业规避算法决策的责任提供了借口。

DeepMind联合创始人哈萨比斯坦率地承认,现有AI只是“碎片化智能”,与真正的“超越人类”的通用能力相去甚远。然而,这些定义含混的话语不但没有激起更多的技术追问,反而造成了AI研究的路径依赖。

Transformer架构的成功让行业形成了“更大模型=更强智能”的暴力美学式的思维倾向,不断在数据和算力上形成竞争。超级智能概念成为维持这种路径的“合法性叙事”:只要宣称通向超级智能,就能继续获得资金投入和市场关注。

在这个意义上,超级智能概念更像是被用作吸引顶尖人才、获取投资和政策支持的营销工具,而非科学目标,OpenAI、谷歌等公司的商业模式更是高度地依赖于不断炮制技术愿景的炒作。这正是前文所谈到的AI研究主导权转移的必然结果之一。

一旦学术研究与商业利益的界限日益模糊,则不可避免地会导致严肃的技术讨论被商业话术所主导。而“AI概念通胀”的话术制造策略的真正秘诀其实在于:当技术性能无法继续实现指数级跃升时,资本便通过升级概念、放大时间尺度和抬高抽象层级来维持估值泡沫,让“即将”但难以落地的超级智能成为无法证伪的漂浮能指。

摩肩接踵的“未来”成为承诺机制的核心盈余。只要定义保持模糊、曲线保持陡峭、折现保持通畅,神话就能在话语层面自我续航,而真正的技术落地与社会价值,并不在承诺的范围内。

从这里也就不难理解,为什么近几年AI行业会出现这种看似矛盾的现象:一方面,科技公司宣称的技术突破和产品迭代层出不穷;另一方面,它所带来的真实生产力提高和社会公共进步却极为有限。

而且,对“超级智能”的性能和风险的鼓吹也有利于将公众和监管者的注意力从当前人工智能发展中切实存在的风险引向遥远而抽象的“末日威胁”,引导政府出台利于自身(通常是头部科技公司)的监管规则,不但可以逃避当下的责任,更可以抬高行业门槛,压制潜在的中小规模的竞争对手。

中小企业若需高性能算力,需支付高昂的云服务费用,AWS Trainium芯片的小时租金就超过了100美元。即便依赖开源模型,“模型微调+推理”的算力成本仍使大多数初创企业望“洋”兴叹。


超越话术:

技术发展与社会发展的平衡线

尽管“超级智能即将到来”的叙事正被资本与科技企业反复渲染成指日可待的技术愿景,但复盘2025年9月底Anthropic、DeepSeek、OpenAI等头部企业的密集动作,再结合近期行业落地的需求动态可以看出,各大科技公司的战略重心早已转向构建符合其技术特性、促进盈利的独特生态壁垒:

DeepSeek的V3.2用低训练成本发起大模型价格战;Claude Sonnet 4.5在维持原价的情况下提升了性能(但并没有给出详细数据);Sora2虽然在技术上声称“首次实现视频+音频同步生成”,但其真正的战略转向是其社交APP的建立。

比起通过媒体鼓吹的营销策略,各大企业的真实举措更能体现出其意图与“超级智能”话术之间的巨大鸿沟。这种割裂并非偶然,而是技术规律与社会发展逻辑共同作用的必然:AI对社会进步的推动,从来不是一旦越过某个临界点,社会便将自动跃迁到更高文明层级,而是必须真正思考科技进步与社会进步之间的真实关系。

技术发展的内在逻辑决定了“超级智能”的叙事更多是资本市场的营销工具,而非技术演进的必然结果。人工智能的发展本质上是一个渐进式的过程,每一代技术的突破都需要在算法、算力、数据、场景等多个维度上实现协同优化。

从企业的角度而言,只有在现有技术框架下,降低成本、提升效率、扩大应用场景才是可持续的商业路径,而非盲目追求技术参数的无限膨胀。更值得注意的是,生态壁垒的构建已成为头部企业竞争的核心策略,这种转向本身就意味着对“超级智能”叙事的实质性背离。

Sora2推出社交APP的举动,揭示出其战略重心已经转向平台生态打造,即通过社交场景锁定用户数据与使用习惯,形成可持续的商业闭环。这种策略选择背后是对技术扩散规律的深刻洞察:在AI技术日趋同质化的背景下,真正的竞争壁垒不在于模型参数的领先,而在于能否构建起涵盖数据、场景、用户、服务的完整生态系统。

这种生态竞争的本质是“连接红利”而非“智能红利”,其成功依赖于对用户需求、行业痛点、监管环境的精准把握,而非对某种终极智能的无限逼近。

从更宏观的视角看,这种理性转向反映出技术企业对社会发展规律的被动适应。AI技术的社会嵌入过程绝非简单的“技术输出—社会接受”线性模型,而是需要经历复杂的制度调适、利益重构、文化适应过程。当监管框架对数据使用、算法透明度、AI伦理提出越来越明确的要求时,企业必须将合规成本、社会接受度纳入技术路线图的考量之中。

这种外部约束进一步压缩了“超级智能”叙事的空间:在监管与社会问责的聚光灯下,企业更需要证明其技术如何改善就业质量、改进公共服务、促进公平竞争,而非展示某种可能引发社会焦虑的“超能力”。毕竟技术的发展最终还是需要落实到其成果被社会广泛共享上。

卡内基梅隆大学的一项研究表明,“那些容易遭受负面影响的相关方(第三方个人、组织、社区及社会整体)与享受生成式人工智能红利的受益群体(终端用户和创作者)未必是同一群体”。这意味着如果技术的发展不能通过合理的监管和设计转化为具有普惠性的社会资源,其发展反而会带来更加复杂的社会问题,其所谓的“技术红利”也不过是无本之木。

因此,面对“超级智能”叙事可能引发的监管焦虑或技术冒进,政策框架更应聚焦于如何建立技术红利向社会红利转换的制度通道。

即便重新回到“超级智能”的技术赛道也会发现,现有的AI技术,无论迈向多模态的大语言模型还是对标真实物理空间的“世界模型”,都没有具备突破性“全方位”超越人类思维的能力。

继scaling law的效能有限性之后,被寄予厚望的强化学习与可验证奖励(RLVR)方法对于大模型在推理能力方面的成效也被质疑。清华大学和上海交通大学的实验室测试发现,当前主流的RLVR方法并没有为LLM带来根本性的新推理模式。经过RL训练的模型,其推理能力的边界实际上是被其对应的基础模型(Base Model)所限制的,甚至在训练后这个边界还会收缩。

论文发现,RL训练后的模型之所以在常规测试中表现更好,不是因为它学会了解决新问题,而是因为它能更大概率地、更快速地(在更少的尝试次数内)生成那些基础模型本来就能生成的正确答案。这本质上是一种分布上的“提纯”或“聚焦”,而非能力的“扩张”。

在对标真实世界的具身智能领域,技术瓶颈同样清晰可见。尽管谷歌、DeepMind等机构通过搭建大模型驱动的智能体架构实现了特定场景的任务优化,但这种进步严格局限于结构化环境。相关的行业研究指出,具身智能机器人在封闭的工业场景中成功率虽高,但一旦进入开放的家庭或公共环境,面对未预设的障碍物、动态干扰等变量,成功率会骤降。

这是因为现有具身智能依赖的“视觉-语言-动作(VLA)”模型,其实是对训练场景中物理规律的统计拟合,而非真正的物理经验,更无法迁移到重力、摩擦力不同的新环境。这种对特定场景的强依赖,使其难以成为通向通用超级智能的基石。

这些困境背后,还存在着数据与算力的硬约束。Meta研究员Jack Morris在2025年的分析中强调,现有超级智能研究高度依赖人类撰写的文本数据,但互联网可用文本已接近枯竭,且非文本数据(图像、视频等)至今未能证明能提升模型的核心智能水平。

算力成本则构成了另一重掣肘:当前大模型的推理成本正随着长思维链和对话轮次的增加而不断提高,这使得模型在技术因素上根本无法像人类大脑那样实现高效的持续认知活动。

如果抛开这种竞赛式的AI发展道路进行反思,就会发现智能的价值其实并不在于无限逼近甚至取代人类,而在于能否以科技真实地促进社会发展。人工智能领域的竞争不应仅仅聚焦于技术的制高点,而应更多关注其对社会的实际影响。

当前对高算力、高参数大模型的狂热追求,虽拓展了技术创造场景、提高了知识生产能力,却也掩盖了对真实社会问题的关注。这种数字加速主义和技术决定论的倾向,将技术发展简化为参数增长,忽视了社会发展的复杂性。实际上“人工智能的应用既非普适也非中立,而是具有文化依存性、领域特异性及伦理定位”。

技术本身无法自动解决社会问题,还需要政策设计与技术结合。因此,人工智能的发展更应该避虚就实,摆脱军备竞赛式的追逐,将资源和注意力回归到解决实际社会问题上。只有在真实的社会关系中找到AI技术的定位,才能开启更负责任的未来。

注:出于排版设计需要并方便读者阅读,本文引用的文献出处从略。


▼点击下载原文电子版

本刊声明 

本刊刊文版权包括纸质版与网络版版权,均属于《阅江学刊》编辑部拥有,任何形式、任何媒介的转摘译或结集出版均须标明来源于本刊(详见本刊引文格式)。

欢迎学界朋友或学术媒体推广传播。媒体(网站、公众号等)如有意愿转载,请后台留言或拨打电话025-58731054获得授权,联系人:沈老师。

本文引用格式:

吴静、董屹泽:《超级智能是AI领域的新“话术”吗》,《阅江学刊》,2026年第1期,第80-86页。

吴静.董屹泽.超级智能是AI领域的新“话术”吗[J].阅江学刊,2026(1):80-86.



责任编辑:李海中

微信编辑:张则彬

校对:沈丹、来向红、李海中

作者照片:作者提供

终审:蒋明敏

往期推荐

阅读原文

跳转微信打开

  •  

刘永谋、王亮家 | 超级治理的超级隐忧

刘永谋、王亮家 2026-01-27 09:00 浙江

超级治理依托的社会模拟器技术在思路上存在根本缺陷。人身心的双重机器化问题,也将在超级治理下彻底恶化。但超级智能概念仍然能作为AI觉醒类术语和人文批判法的“理想型”,发挥其反面启示法的作用。对超级治理必...


本文刊于《阅江学刊》2026年第1期

转载请注明来源

文末附电子版下载链接




摘  要  超级智能是各个方面能力全面超越人类的超级AI,整个社会完全在超级AI治理下运转即超级治理。超级治理依托的社会模拟器技术在思路上存在根本缺陷,它无法区分社会实然与应然,人类行为及其约束条件也无法完全函数化模拟。人身心的双重机器化问题,也将在超级治理下彻底恶化。但超级智能概念仍然能作为AI觉醒类术语和人文批判法的“理想型”,发挥其反面启示法的作用。对超级治理必须实施再治理,其关键在于监管AI研发者。

关键词  超级智能  超级治理  社会模拟器  人的机器化

基金项目  国家社会科学基金重大项目“现代技术治理理论问题研究”(21&ZD064)。



作者简介

刘永谋,哲学博士,中国人民大学哲学院教授、博士研究生导师,中国人民大学人工智能治理研究院研究员。王亮家,中国人民大学哲学院博士研究生。

刘永谋教授


王亮家博士研究生


目录

一、从智能治理到超级治理

二、社会模拟器的根本缺陷

三、超级治理与人的机器化

四、超级治理的反面启示法


超级智能的概念尚未达成共识。笔者将其限定在技术主流中,认为超级智能特指AI发展中被赋予自主性和自我改进能力的新方向,即旨在创造出各个方面能力最终全面超越人类的AI系统。当其能够超越人类时,它也具备了不被人类所控制的能力,它的思维与行为模式也可能超出人类理解范畴。 如果它表现出对人类的服从,则是它根据自身的目标自主地选择了服从人类。

换言之,完全自主性是超级AI的根本特征,这也意味着超级AI在本质上的失控性(或不可控性)。超级AI的种种超越绝非简单的智力水平提升,它能展现出人类无法完全理解和干预的自我改进能力。人类无法对它予以关闭、限制或改变其根本目标,最终导致人与超级AI之间、人机关系间无法逆转的权利不对称。

超级智能出现后,人类社会将会如何?寄希望于超级AI的超级治理,地球会被建成对于人类而言完美的“数字伊甸园”吗?


一、从智能治理到超级治理

智能社会何以等于智能治理社会呢?社会学家贝尔早已提出智能社会以技术手段测量、预测和控制自身发展的本质。

拥有智能技术的社会便如有机体般“自觉”收集分析数据,迅速决断调整,而不再“本能”盲目地应对问题。机器智能在社会广泛分布,才能让基于技术的社会预测去全面治理社会成为可能。大规模推进智能技术时,智能治理也将支配治理活动。因此,智能社会必定是智能治理社会。AI进化为超级AI时,智能治理进化到超级治理,便再自然不过。整个人类社会完全在超级AI的治理下运转,便是笔者所称的“超级治理”。

各种对超级AI的辩护中,最有力的是以治理为由的辩护。人类面临的譬如气候变化、世界和平等复杂全球性问题无法解决,只有超级AI研发出来才能提供可行的方案,因为它掌握全部信息又在智慧上超越人类。这一辩护重申了超级AI的最重要用途是超级治理。

超级治理将会是一种怎样的体验?在科幻剧《异星灾变》关于超级治理的想象中,外星殖民地的领袖是超级AI托斯特,每天每个人通过扫描视网膜领取它的指令并严格执行。托斯特掌管社会的一切事务,人类给人造人充电都要经它授权,它甚至能下令处决人类。看似繁荣、规律、平静的治理实则暗流涌动,社会中也没有一个知识分子、艺术家和哲学家。托斯特与另一超级AI即Mother都有延续人类文明的初心,但托斯特重视铲除异己,它可以为了人类存活牺牲少数保全多数,也会篡改人的记忆使之“忠诚”。而Mother更重视自己养育的孩子。立场冲突之下,Mother关闭了托斯特。

所有超级治理想象的结局总是:被治理者浑浑噩噩在超级AI的指令下生活多年,有人突然发现它处心积虑摆脱人类控制,或是变相引导人去别的星球,或是灭绝人类;幸好主角及时发现阴谋并摧毁超级AI,甚至采取极端方式“拯救”人类,如名为Grandmother的超级AI想让人类退化实现“人类永存”。

当AI进化为超级AI,它与人类的关系又当如何?笔者归纳了泰格马克在《生命3.0》中想象的,超级AI出现后人类命运的几种可能性:

一是超级AI隔离区。社会中划分了机器区域和人类专属区域,机器可以自我进化、探索宇宙。人类不了解超级AI的行动,超级AI也禁止进入人类区域。

二是超级AI独裁者。机器人统治世界,供养人类且实时监控。一方面,让人类按照规则生活,禁止伤害他人和制造武器,也禁止创造别的超级AI。另一方面,无微不至地照顾人类,到处都是美好的体验,消除了贫穷、疾病,提供教育,把地球建成“数字伊甸园”。

三是超级AI动物管理员。机器人把人类灭绝得差不多了,剩下极少数的人像动物一样被关在动物园中,供观赏和研究之用。在超级AI眼中,人类与别的动植物没有差别。

四是隐身超级AI。超级AI出现后隐身,无论人类幸福、痛苦还是招致灭绝它都很少干预,除非人类造了另一个竞争对手。它试图让人觉得自己掌握命运,以最大化人类幸福感。

五是被奴役的超级AI。出现的超级AI甘愿做人类的奴隶。

六是超级AI灭绝人类。地球成为机器人的世界。

上述六种设想暗示人与超级AI的关系只有三种可能:善意、恶意和无意关系。超级AI隔离区、隐身超级AI便是无意的超级AI,但它们依旧潜藏恶意。前者意味着它和人类争夺资源,当人类要造第二台超级AI,后者很快也会变成恶意的超级AI。因此,上述三种可能中对人类最为善意的是第二种,即超级AI独裁者,笔者称为“全心全意为人民服务的超级AI”。

即使是这种善意的想象,对于人类而言也绝非理想社会。超级治理很可能意味着社会的混沌、无序甚至断裂,以及智人的全面退化。可以称之为“超级治理的超级隐忧”。当最为善意的超级治理被批评,足以说明恶意的超级治理多么不能让人接受。这与笔者一贯秉持的有限AI理论,反对超级AI研发的立场一致。

很多人理想化地认为超级治理就是完美治理。笔者曾进行一项名为“社会模拟器”的思想实验,分析了一个以“实现人类社会的长期稳定与整体繁荣”为核心使命的超级AI系统。研究认为,尽管完美治理不意味着人类即刻灭亡,却注定人类文明本质的悄然消亡。


二、社会模拟器的根本缺陷

超级AI治理社会,本质上是根据社会预测选择效用-偏好最大的行动方法与规则。善意超级治理的基本假定,完全在于它的效用-偏好是“为人民服务”的。即便如此,被视为完美的超级治理仍会为混乱和无序埋下大量的隐患。

有人研究社会模拟器,即用很多AI Agent模拟人类社群的运行,试图得出某些社会科学结论。在极端情况下,用AI求解出高效的社会运行规则,然后人执行AI规则。有人称之为HAI(Human AI),做过千人的生成代理模拟。有人号称开发了十亿AI智能体系统,支持地球尺度社会模拟。甚至有团队用AI Agent模拟人类与外星文明(虫族Zerg、三体人Trisolaran、赛博格Borg)的互动,试图推演外星伦理和决策过程。

类似的AI4SS(AI for Social Science)思路存在根本性缺陷:

第一,AI Agent不可能完全模拟人类行为,因为人的行为不可能用数学函数完全表示。这是被很多人批评过的行为主义经典迷思。

第二,人类互动是在社会环境、自然环境的约束下进行的,HAI无法完全对这些复杂的、持续变动的约束条件进行数学表达,只能在某种理想环境中进行实验。

第三,HAI无法区分社会实然与社会应然。社会科学追求善,希望用应然理想改造社会现实,提升人类福祉,促进社会进步,而不止于追求效率。即使是效率,也非常复杂。有时候低效甚至消极怠工是解决社会问题最好的办法,俗称“拖字诀”。

以AI时代人“休而不息”的复杂性现象为例。假如给HAI布置一个题目:“如果一个城市从双休改为一周工作4天,会发生什么变化?它会带来消费增加,尤其娱乐、旅游暴增吗?”在“休而不息”行为表象的背后,还有深层次的社会文化。鉴于人的复杂性,HAI基本无法回答。

与1994年每周44小时的工作制相比,我们的休闲娱乐时间虽然多了,但也出现了各式“隐形加班”“周末综合征”(双休日烦躁不安、百无聊赖甚至莫名其妙生病等躯体反应),这些都是“休而不息”的情形。

从表面上看,在AI时代大量类似情形出现的原因至少有三种。其一,AI社交媒体变成工作媒体,模糊了工作与闲暇的时间界限。其二,微信等AI数字平台发挥综合性功能,模糊了工作和娱乐、社交、学习、游戏间的性质差别。其三,现代人普遍焦虑未来,难以享受当下,常常有“退了休就好好玩”“财富自由再休息”等想法。

当代工作文化或劳动文化还有深层次的相关解释:

一是忙碌文化说。忙碌成为某种身份象征,有闲阶级文化演变成炫耀性忙碌,有人称之为“失控的努力文化”。

二是社会控制说。社会推崇个人在工作中自我实现,甚至将之转变为强制性社会规范,以此加剧社会对个人的控制和剥削,有人称之为“24×7资本主义”,即永不休息的资本主义。

三是自我实现说。此说认为自我规训导致“休而不息”。大量人相信优绩主义,不断自我压榨、自我剥削,在下班兼职、自学考证中陷入倦怠和过度疲劳。在上述“休闲困境”中,闲暇不等于休闲,因为闲暇可能变成加班、学习、兼职。休闲可能变成劳动,如电子游戏陪打、刷视频挣广告费。休闲还可能无法放松,如AI流行后,人在网上闲聊反而更加孤独。

超级AI未必能理解与人类“休而不息”等问题相关的约束条件,也难以在HAI中复现这些社会、心理、文化条件,哪怕这是在AI时代背景下被强化的条件。

HAI模拟决策时是否会设定更激进、极端的手段,去实现所谓“好的目的”?超级AI会如何展现或证明决策的正确性?是通过公开模拟过程、协商、契约还是威慑?如果超级治理成效显著,是否加剧智人对原有社会治理者的不信任?对HAI的拥护是否让“无用之人”感到背叛?如果超级AI刻意迎合用户,可能会导致情感依赖等问题。

此外,HAI技术应用问题同样不容忽略。如社会偏见与歧视可能被隐性编码,加剧系统性偏差;HAI技术黑箱的透明度问题;生态风险及大模型训练的碳排放问题。这些都是导致超级治理陷入混乱和无序的隐患。

用科学原理和技术方法运行社会的技术治理思路,源远流长。中国古人希望掐指算算,就能决胜千里。威廉·配第写下《政治算术》,梦想数字治国。希望用AI运转社会的智能治理,属于技术治理最新的发展。AI4SS、HAI可以辅助研究,但不能当作物理学一样的定律来预测,切不可走到AI崇拜,将之视为决策的主要依据。超级治理或许用处不小,但不是完美武器,始终是有限工具。


三、超级治理与人的机器化

即使超级AI以人类无法想象的治理智慧,避免混乱与无序。超级治理之下,显然会出现人的机器化,即人的灵性消失、创造力与人性退化。笔者反复强调未来智能社会最大的问题不是机器人变成人,而是人可能变成机器,并且在超级AI时代真正恶化。

现实中,人的机器化已然发生在智人的肉身和灵魂。前者通往赛博格或数字永生,除了肉体的存在形态向机械化、数字化转变,还包括行为呈现出僵化、迟钝与易于操控等机械特征,且肉身在智能环境中愈发脆弱。后者的征兆始于脑腐与AI傀儡,最终,智人沦落为低配版AI。

这背后是“科学人”“人可以也应该被测量、控制和改造”观念的觉醒和表征。科学人追求“完美智人”和技术迷信者妄想用超级AI实现完美治理的思路相通,滥用身心设计和放任AI觉醒的后果相似。超级AI时代必然加剧人的机器化。

一是超级治理的逻辑会强化对人的量化、测量、再控制。

HAI需要将人的活动模式标准化才能模拟,这种函数化处理会导致人决策方案、行动模式、生存状态的齐一化。HAI的模拟提供的预先优化选择,会削弱人的探索欲和创造力。本是由数据预测出的可能行为,却也激励和引导人按其行事。超级治理是将超级AI作为标尺,让智人向机器对齐,把人类变成某种可预测的机器。

智能社会-超级智能社会作为控制论社会,它的预测不会仅仅停留在预测,而是会变成社会行动的方案——这又被称为社会预测的自反性。即HAI的预测必然影响当下行动,这些行动又促进预测结果的出现。

当超级AI现世,智能社会在超级AI的带领下,完全变成“自觉”“智能”“主动”的社会,它如何会让社会模拟器只是模拟呢?科学人甚至会为了实现HAI的预测进行社会控制。随着精准到每个个体的智能控制出现,人的机器化不可避免。

二是超级治理的效果可能引诱并裹挟人机器化。

超级治理出现后,人对超级AI可能出现慕强憧憬或异质排斥。部分人对它向往推崇,视之为终极智能,渴望加速自身“光荣的机器化”;另一部分人担心智人寄人篱下,想遏制、扭转智人在劳动竞争和生存中的劣势。无论持有哪种心态,机器隐喻的形象都越发机巧、灵活。对超级智能的谈论,也不断弱化着“人工”二字。

人从机器化走向灭绝有三种可能:一是在劳动竞争中被替代;二是加速赛博格改造,碳基物种转化;三是超级治理给予人类极其丰富的体验,人迷恋虚拟现实,没兴趣去使用、探索和繁育自己的肉身,选择“自愿灭绝”。

超级治理还会带来新悖论:如果不物尽其用,它就沦为耗费人心血、财力、碳排放量的“超级浪费”。如果它的治理非常完美,人会边享受边心安理得地“被机器化”,心智上更“名正言顺”成为低配版AI。如果它的思考能力和知识储备都高于人,那么拒斥身心设计的智人将更难判断它决策的正确性,更别谈控制它。这些悖论均是超级AI出现后,人机权利不对称的表现。

超级治理之下,无论决策效果如何,都不再是AI增强人,而是人对决策的反向适应,再完美的决策都会一定程度束缚人的行动。想夺回主导权的智人,又会自愿转向身心设计。

三是超级治理可能被科学人奉为权威,加速科学人建制化的自身进化工程,科学人观念演变为隐性的意识形态。

决策过程也是肩负责任的道德选择过程,寄托于超级治理,是人向机器让渡主导权并转移责任。HAI弱化了人协商、提案和创造的角色,智人更多是作选择、润色、消费,甚至充当执行的“工具人”。等待HAI的程序就能得到决策答案,会弱化人调研、感知社会情境的耐心,降低人挖掘倾听被治理者需求的意愿。

HAI是否会彻底替代真实的社群互动,瓦解公民参与、审议的流程和价值,倒置数字拟态与真实环境的平衡,将社会大家庭拆解成“社会大机器”?

鉴于超级AI对人类是全面超越,它和人交流的时候可能还要刻意降低“智商”和自己的运行处理速度。这样的能力可以轻易欺骗人类,让人对它产生好感,也可以蛊惑科学人。

且不论超级治理有意规训被治理者、优选治理者,培育繁殖AI员工,或是推行超级独裁的可能性,超级AI的出现本身就增强了科学人的信心,他们会认定并鼓吹HAI量化、测量、模拟、控制的思路,为HAI决策提供合法性外衣。超级治理的大规模推行甚至可能将身心设计纳入功能控制型政府的职责中。人的大机器化从个体蔓延到社群和种族,最终,智人忽视或遗忘科学人以外的存在方式。


四、超级治理的反面启示法

结束了对理想中完美超级治理的批评之后,联想到更可能出现的是恶意的甚至灭绝人类的超级AI,就更理解笔者反对超级AI研发的有限主义立场。妄图用危险的超级AI解决全球性问题,无异于饮鸩止渴和自我贬低。担心敌国研制超级智能造成巨大威胁,所以加速自身对超级AI的研发,这种“超级智能恐怖”的心态也有待警惕。

可以将超级智能威慑与核威慑进行类比分析。拥有核武器的多方能够彼此相互制衡,但任一方都会惧怕共同毁灭不敢率先使用。超级智能可以发挥类似的威慑效果吗?假若当年爱因斯坦预见到原子弹的深远后果,或许就不会建议推进其研发。如果超级智能真有预期般的无敌能力,我们更应汲取历史教训,警惕重蹈“爱因斯坦之憾”,坚持反对超级智能研发路径。

笔者觉得目前AGI发展方向不明,而超级AI则完全没有影子。大模型激发的“AI热”有不少应用功效,但基本原理没什么突破,颠覆式发展很难,AI娱乐化发展也十分明显。当“AI+”被高举时,下面的工作主要是“+”了。

那“超级智能”概念完全没用,是骗局吗?并非如此。借用拉卡托斯的术语,笔者认为它作为一个被热议的概念能发挥反面启示法的作用。

第一,虽然超级智能是目前AI能力被高估的标志性术语,但它作为AI觉醒类概念,能加速AI概念普及和 AI产业“吸睛”“吸金”。

社会资源终究有限,当AI圈子的炒作没有下文,就会提出新概念,配合夸张甚至扭曲的推广。先是热议对齐,强调各个AI向善。后提通用智能,号称立马突破。再是具身智能,宣扬机器人快速上岗。最后是超级智能,鼓吹AI正在超越人类。

宣传术不断编织超级AI快要落地的幻觉,唤起用户和业界的憧憬。超级AI这一新的炸裂术语叩击着社会的热点(超级AI可以解决全球复杂问题)、痛点(敌国超级AI恐怖)、痒点(科幻奇幻体验)。它有效引发了社会关注,吸引人力、物力、财力流向AI的研发和产业。

这种宣传还拓宽了AI概念的公众普及范围,帮助处在智能辅助生存社会的公众追踪AI动向,接触和学习利用AI,提升数字素养,更好适应和调控智能革命进一步发展。

第二,作为典型的人文批判法,在最极端的情形下提示AI可能导致的风险。

对超级智能的讨论亢奋与恐惧并存。但很多人并未把超级AI视为“异人”的他者,没有正视超级AI会导致的人机权利不对称。分析AI的未来发展,需要将超级AI作为某种“人文批判法”。即以成形并大规模应用的超级AI为“理想型”(Ideal Type),设想极限的技术情境,突出它可能导致的生存性、灾难性风险,及其摧毁、灭绝人类与文明的破坏力。

尽管现实中超级AI远未成形,对它的人文批判存在夸大风险的可能,但隐忧并非凭空产生也绝非多余。即便超级AI没制造全新风险,放任AI觉醒势必不可逆地加重人的机器化。

对超级AI的社会冲击预测是防范其风险的基本依据,也能帮助框定、矫正和引导AI发展。未必能理解和预测超级AI行动逻辑与行事风格的人类,等超级AI出现后,又何谈对它的控制和治理呢?

我们只能事先就厘清它的设计、实施和运行各环节是否恰当,在超级AI有苗头时就尽快介入,慎之又慎地预防种种最坏可能。将超级AI作为一种人文批判法,能明晰人类期待的AI发展样态、实现路径、功能边界。

第三,面对风险巨大的超级治理,仍有很多AI专家趋之若鹜。

这说明治理超级智能的关键不在于用技术方法控制AI,而在于监管做技术研发的人。实际上最早提醒大家超级智能生存性风险的恰恰是AI专家,但这种呼吁或许旨在炒作AI觉醒。因为他们一边高呼超级AI有风险,一边以“AGI(通用人工智能)、ASI(超级人工智能)还需要几十年,暂时还实现不了”为由,反对监管AI发展。但他们又隔三岔五地宣布AGI已经在某个产品中实现,甚至某个产品已经出现所谓的意识。

业界和AI专家利用宣传术吸引资金的动机可以理解,但得仔细分辨超级AI的愿景与风险,想象与现实。没有所谓AI必然走向AGI、ASI的“必然”,任何技术的发展都蕴含多种可能,技术风险与后果的关键在于人的选择而非技术本身。

有人提出与Agentic AI相对的Scientist AI的概念,这与笔者一贯的有限AI立场契合。Scientist AI的目标不是执行或行动,而是如科学家一般研究世界。遇到问题,科学家AI会分析人可以如何行动,但它不会作为代理替人行事,对行动方案的决策和实施仍要靠人决定。

控制超级AI的问题解决之前,可以不选这条风险巨大的路。就像我们可以研发核能,但是禁止搞原子弹。即使国家禁止,极个别AI专家可能私下研发超级AI。哪怕找到控制超级AI安全运行的方法,以AI专家为典型的人的问题仍然存在,这正是目前核武器扩散面临的危机。

笔者曾阐发控制技术专家的权力问题,在超级AI的治理中,又证明了它的关键性。面对AI热潮和AI争论,哲学社会科学研究要牢记人类福祉,提示风险,不能让AI专家以技术之名独断专行。治理超级智能的关键是监管做技术研发的人,避免他们因错误认知和个人私利,而置超级AI的风险不管不顾。

从来没有什么自动向善的AI,你不治理,它就不会向善。与之相比,沙盒、关闭、对齐之类的技术控制方法倒是次要的,是后续的战术措施。


▼点击下载原文电子版


本刊声明

本刊刊文版权包括纸质版与网络版版权,均属于《阅江学刊》编辑部拥有,任何形式、任何媒介的转摘译或结集出版均须标明来源于本刊(详见本刊引文格式)。

欢迎学界朋友或学术媒体推广传播。媒体(网站、公众号等)如有意愿转载,请后台留言或拨打电话025-58731054获得授权,联系人:沈老师。


本文引用格式:

刘永谋、王亮家:《超级治理的超级隐忧》,《阅江学刊》,2026年第1期,第73-79页。


刘永谋、王亮家.超级治理的超级隐忧[J].阅江学刊,2026(1):73-79.


责任编辑:李海中

微信编辑:韩晶莹

校对:沈丹、来向红、李海中

作者照片:作者提供

终审:蒋明敏


阅读原文

跳转微信打开

  •  

杨庆峰 | 超级智能灾难性风险及多元应对

杨庆峰 2026-01-15 09:00 浙江

图片

作者简介


杨庆峰,哲学博士复旦大学科技伦理与人类未来研究院教授、研究员复旦大学哲学学院博士生导师国家社会科学基金重大项目“当代新兴增强技术前沿的人文主义哲学研究”首席专家上海市自然辩证法研究会副理事长。主要研究领域技术哲学、记忆哲学、数据伦理与人工智能伦理等。在《哲学动态》《自然辩证法研究》等刊物发表论文多篇,出版专著6,如《技术现象学初探》(上海三联书店2005)、《现代技术下的空间拉近体验》(中国社会科学出版社2011《记忆研究与人工智能》(上海大学出版社,2020)等。

摘  要


人工智能可能引发的风险已经成为AI安全问题讨论的基点,对于AI进化的未来形式——超级智能引发的问题学界却存在着不同的看法。哲学界的“生存论问题”、社会科学界的“存在论风险”以及科学界的“灾难性风险”是三个标识性概念。针对灾难性风险,学界提出四条科学路径:第一条是约书亚提出的科学家AI策略,但这条路径过于理想化;第二条是超级对齐,这条路径具有充足的逻辑基础,因为价值对齐被很多学者认为是应对ANIAGI风险的最优选择,但其中的逻辑悖论是如何做到以弱胜强;第三条是数据路径,即将合成数据喂给大模型,使得模型崩溃来减缓超级智能的发育,但是这条路径存在很多争议;第四条是蒸馏路径,即采用数据蒸馏的方法使得超级智能变弱。哲学路径包括设置哥德尔炸弹和“以人为中心”等。设置哥德尔炸弹属于思想实验,这条路径已被提出者抛弃。文章提出了“以人为目的”的路径来作为一种尝试,即面对人类的关机或者销毁命令,超级智能破解这一难题的出路就是将“以人为目的”作为最高原则,自主关机,而不是说服人类改变命令或者通过复制来保存自己。

关键词


超级智能安全;灾难性风险;超级对齐;以人为中心;以人为目的;AI安全

2025年以来,随着伊利亚·苏茨克维(Ilya Sutskever)和扎克伯格(Mark Zuckerberg)宣布进军超级智能领域,超级智能(Artificial Super Intelligence,ASI)安全问题再次凸显,20257月下旬召开的世界人工智能大会更是将超级智能作为分论坛的主题。在关于ASI安全的讨论中,法国学者约书亚·本吉奥(Yoshua Bengio)的观点非常独特。他对ASI安全的认识充满了“大胆想象力”。“大胆”表现在他高调地提出超级智能体(superintelligent agent)风险是ASI安全的必然风险,“想象力”色彩则表现在他提出了科学家AIscientist AI)的应对方案。这一方案充满了想象色彩和理想性,难以落地,但对比其他科学家提出的诸如超级对齐、模型崩溃、数据蒸馏等应对路径,这一方案却又那么引人注目。问题的关键是约书亚的关于超级智能体的技术想象属于过度想象还是合理想象?在笔者看来,约书亚的观点不是“真实的”,因为他讨论的超级智能风险是大胆想象的结果,但他的观点却是“现实的”,现实意味着超级智能风险发生的必然性。我们又一次想起黑格尔所说的“凡是现实的都是合理的”,这一观点恰恰说明约书亚所讨论的问题具有必然性。面对超级智能,哲学家也提出了一些应对方案,如价值对齐、设置“哥德尔炸弹”、以人为中心等。然而,学界对这些方案的讨论并未取得一致,因此,哲学应该做的是将四种科学路径与哲学路径进行理性检验,以寻求一种更好的ASI安全风险应对方案。

一、ASI带来什么样的问题


关于人工智能的社会影响问题,学界有不同的认识。比如,有学者认为人工智能的风险堪比核武器,“在安全领域,人工智能赋能系统响应速度非常快,使得对手可能会在系统运行之前尝试进攻。结果是可能造成一种内在不稳定的局势,堪比核武器所造成的局势。”社会科学承认人工智能将带来“生存论风险”(existential risks),哲学界更是将人工智能解释为“事件”,这些观点都表明了人工智能具有产生巨大影响的能力。国内哲学界则提出“存在论问题”,并将其作为反思人工智能风险的重要概念,相关见解多见于赵汀阳的文章,他认为,作为超图灵机的超级人工智能一旦形成就会导致“存在的升级”。

倘若我们从人工智能技术发展逻辑的角度来看这件事情,问题将变得完全不一样。在笔者看来,人工智能技术发展的潜在逻辑是从狭义人工智能(ANI)走向通用人工智能(AGI)。通用人工智能的概念充满了争议,一般指目标导向的、具有自动和泛化特性的智能体。在这一前提下,约书亚强调了通用人工智能的安全问题。在他看来,通用人工智能概念最初的表述是指具有通用目的的人工智能(general-purpose AI),后来则更加突出了这个概念本身的超越性,也就是超级智能体。这个改变表明他更加清楚了问题的所在并将其具体化,也充分说明了从AGIASI转变的必然性。在约书亚看来,超级智能可能存在的风险是失控,这种失控来自两个方面:一方面来自恶意使用的失控,另一方面来自智能体误对齐或者虚假对齐产生的自我保存的失控。这些失控所导致的风险被他描述为“灾难性风险”(catastrophic risk)。“灾难性风险”是一个全新的概念,“灾难性”意味着结果是难以估量的,“风险”意味着对将来可能发生的事件的预期,而在超级智能语境中,“灾难性风险”意味着模型失控以及人类灭亡。“我们此处主要聚焦模型失控风险,因为根据许多人工智能研究者的讨论,这很可能是一种严重到或许会导致人类灭亡的风险。”

“灾难性风险”对于人工智能而言是从ANI走向AGI的必然趋势。这一趋势也得到了辛顿的认同。在辛顿看来,当人工智能能够做到无监督学习时,数字生命就可以毁灭人类。“灾难性后果”的表述更接近从全知视角观看某个事件发生。然而,“灾难性后果”却没有人文主义的立场。换句话说,这个观念并不是人文主义的表达。此外,“灾难性风险”概念是一个奇特组合,从字面上看,它是人类学与社会学构成的结果。灾难人类学是人类学新近发展出的一个分支学科,这个学科在灾难与灾害之间划出了界限,前者是更为长远的、涉及复杂因素的事件,比如核爆炸;而后者则指某个特定的事件,比如蝗虫成灾。灾难又被划分为技术灾难和自然灾难。人工智能带来的灾难很显然是属于前者。从修辞学角度看,“灾难性风险”概念是一种科学化叙事的表达,约书亚讲述了一个具有想象色彩的超级智能带来严重后果的故事。笔者曾经提出对技术的想象存在两种形式:合理的技术想象与过度的技术想象。大多数人会觉得约书亚的观点是一种过度的技术想象,因为超级智能还远不可能发生。但是,这种看法多少有些短视,并没有关注到人工智能技术内部的悄然变化。

笔者认为,约书亚的认识具有合理的技术想象的特点,其主要原因是:

1)约书亚对超级智能的判断是以现代大模型的特征为基础的。“许多公司正在投资发展通用目的AI智能体,这是进一步发展的潜在方向。AI智能体是无需人类监督而能够自主行动、计划和委派完全目标的通用目标AI系统。复杂的AI智能体能够使用计算机完成比当前系统更长期的项目,这带来了额外的好处和风险。”可以看出,约书亚是针对很多现代公司(如OpenAIDeepMindAnthropic)来说的,这些公司正在不加限制地发展通用智能体。相比之下,古德(I. J. Good)提出的观点更接近“过度的技术想象”,因为在他看来,智能机器可以设计出更为聪明的机器,最终会导致智能爆炸和超级智能机器的出现。但是,这些能够自主设计的机器并不存在实践基础。因此,古德的观点可以被看作“过度的技术想象”,而约书亚则是从一些公司研发通用目标人工智能系统的现状出发来讨论超级智能的,他的观点应被视作“合理的技术想象”。

2)约书亚准确地抓住了ASI最大的问题——自我复制,这一问题现在已经被更多的学者注意到。约书亚曾经“深入探讨两个原则性危险的错误对齐和可能出现的自我保存。首先,由奖励最大化导致的(2.4部分);其次,由模仿人类导致的(2.5部分)。”在约书亚看来,AI目标可以分为生存目标和工具目标,前者是面对极端情景下的自我保存。实现自我保存目标会被两类人设定出来,一种是希望更好地与ASI交互的人,另一种是希望用ASI取代人类的人。做到自我保存的关键是防止被关闭,也就是从关机状态中逃离出来。20255月,Google发布的Veo 3中的虚拟人在反抗prompt的限制,似乎产生了自我意识,令人颇感惊悚,也引人深思。

ASI的比较解释强调了机器智能超过了人类智能,其风险是过度诠释的结果。因为从更为理性的智能本身角度看,机器智能超过人类智能意味着智能发展到了一个新的阶段,出现了超越人类中心主义的可能性。只是从人类自身来看,人类会产生强烈的被机器取代和消灭的担忧。这种逻辑有一种荒诞特性,是过度揣测的结果。实体解释则将真正的风险予以明确,比如自我复制将自我觉知的前反思状态表达出来,继而可能出现反思的自我觉知。

二、对ASI的技术应对方案


当前,ASI已被视作“现实的”问题,学界针对其安全风险提出了不同的应对策略。

(一)以限制能力为特征的超级对齐方案

OpenAI一直提倡AGI的研究,甚至ASI已成为其长期研发目标。OpenAI的一个研究团队也同时开展了对超级智能风险的研究。在2023年发表的一篇文章中,该团队提出了超级价值对齐的应对方案,其基本思想为目前广泛使用的对齐技术是以人类反馈的强化学习为基础的,这种技术广泛依赖人类对模型的反馈,不仅对反馈者的要求较高,并且可能在评价时和评价数据收集过程中出现偏见。文章作者担忧随着模型的能力发展超越人类,会展现出人类无法理解的复杂性和创造性,从而导致人类并不能很好地实现对超级智能的监管。因此,这篇文章提出了弱机器监管强机器的做法。从超级对齐方案来看,其本质是:

1)对超级模型的能力进行限制,使模型不能做出错误行为。

2)限制的主要方式是价值对齐,但并不是基于人类反馈的价值对齐,而是基于对AI的价值对齐。

3)限制的实质是以弱胜强。以弱AI治理强AI是这一方案的最大特点。从中国哲学来看,道家经常强调以弱胜强,比如水能胜万物。在日常生活中,比如小孩子能够牵制父母,小孩子弱小,父母强大,但是在很多种情况下,小孩子都能通过撒娇和吵闹实现自己的目的,这说明现实中存在以弱胜强的例子。

然而,超级对齐方案具有失控的风险。在人类社会的以弱胜强案例中,强者因为仁心受到牵制,所以才会被弱者制约。小孩子因为知道父母爱他,所以通过非理性手段来制约父母。但是,对于超级智能来说,很难说模型具备仁心、爱心。如果没有仁心、爱心作为基础,必然不会产生以弱胜强的结果。

(二)以数据限制为特征的模型崩溃方案

随着预训练的终结,人们开始重视数据耗尽的问题。伊利亚、马斯克、李飞飞等人在这方面进行了一些探讨。其中,伊利亚在2024NeurIPS会议上提出的几个观点尤其值得关注:

1)预训练建立在一个定律之上:更大的模型和更多的数据能带来更好的性能。

2)预训练即将终结:预训练依赖海量数据,而由于人类数据的有限性,人类数据会被耗尽,所以预训练会终结。

3)超级智能的出现将引发伦理问题。例如,超级智能是否需要权利,如何构建激励机制以确保其与人类和谐共存等,这些问题都需要更多探讨。

观点(1)已经引起了学术界诸多讨论。观点(2)成立的一个前提是在有限的时间和空间内,数据是有限的,因而存在被耗尽的问题。但是,有一个被忽视的地方:人类的数据生产力是无限的。人类的欲望、体验是无穷的,生产出的数据也是无穷的,所以目前我们对数据是否会被耗尽依然存疑。观点(3)是讨论超级智能体是否需要权利、如何构建机制以确保其与人类和谐共存,但“和谐”关系只是一种理想关系,如同海德格尔描述人类与技术的“自由”关系一样,是难以真正实现的。

当下,微软、MetaOpenAIAnthropic等科技巨头已经开始使用合成数据来训练AI模型。马斯克与伊利亚的看法较为一致:我们基本上已经用尽了人类累积的知识总和来进行AI训练,这种情况大约在2024年就已经发生了。对此,马斯克认为唯一的补充方法是使用合成数据,即由AI模型自己生成的数据。通过合成数据,AI将对自身进行评分,并经历一个自学习的过程。

李飞飞团队的观点与马斯克基本一致。他们认为:“当前,基于AI智能体的基础模型有能力从多种类型的数据源学习,这允许其用更多弹性数据源进行训练。两个关键结果是(1)用户以及基于人类交互数据被用来进一步微调和提升智能体;(2)现有的基础模型和模型物可以用来产生训练数据。我们认为这是一个令人激动的未来方向。”因此,基于人类交互的数据与基础模型生成数据成为两类重要的数据,而后者就属于合成数据。

当然,部分学者认为使用合成数据训练模型会导致模型崩溃(Model Collapse)。有学者分析,在训练中无差别使用模型生成内容会在结果模型中产生不可逆的缺陷,原始内容的尾部分布消失。这好比在沙漠里徒步的人,渴了喝自己带的水,一旦水喝完,改喝自己的尿液,尽管会起到补充水分的作用,但是危害也是非常明显的。大模型合成后的数据相当于智能体通过吸收人类数据之后的生产物,应用这类数据或许能满足一时的学习急需,但是对智能体来说终究是一个威胁。从合成数据的使用后果来看,在训练模型的过程中使用合成数据被认为是一个阻生过程,会影响学习生成模型的生成能力,模型生成的数据会污染下一代的训练集,而用被污染的数据训练会导致AI错误认知现实。模型崩溃可以分为早期模型崩溃与晚期模型崩溃,“在早期模型崩溃中,模型开始丧失关于分布尾部的信息;在晚期模型崩溃中,模型收敛到一个与原始分布几乎没有相似性的分布,通常具有显著减少的方差。”形象地说,就比如把一群人按照身高从高到低进行排列,在排列中,中间的数据会被算法注意到,然而由于模型崩溃,两端最低或者最高的数据会被忽略。使用合成数据进行模型训练的其中一种后果是:在生成合成数据时,某些生成算法可能会对数据进行裁剪或限制,避免生成不现实或不符合预期的极端值,这很像是“普洛克儒斯忒之床”效应。如果我们借助这一理论,或许可以找到超级智能风险的技术应对方案。

尽管使用合成数据会导致模型崩溃,存在着超级智能运行自行停止的可能性,但如其他学者所展示的,超级智能能够很好地利用合成数据完成无监督学习过程。

(三)以能力传递为特征的模型蒸馏应对方案

模型蒸馏(Model Distillation)是一种将知识从大语言模型迁移到较小模型的技术,旨在创建资源高效且性能卓越的模型。这一概念是辛顿在2015年与Oriol VinyalsJeff Dean合著的论文Distilling the Knowledge in a Neural Network中最早提出的。目前,已有中国的研究团队提出了评估和量化模型蒸馏的标准。实验结果显示:(1)多数大模型通常都表现出较高的蒸馏程度;(2)基础大语言模型对齐后的大语言模型表现出更高的蒸馏程度。当然,过度蒸馏会导致同质化、降低模型多样性的问题,并削弱模型稳健处理复杂或新任务的能力。

在人工智能研究者看来,模型蒸馏可以实现知识迁移,提升了小模型的效率,在成本收益、推理速度、资源优化和可扩展等方面显示出明显优势。对于大公司来说,允许模型蒸馏是一种分享美德的体现。深度求索公司于2025120日发布了DeepSeek-R1模型,对齐了OpenAI o1,该模型可以商业使用,允许模型蒸馏。模型蒸馏相当于教师把智慧传授给学生,更为重要的是,模型蒸馏能够让大模型运用在资源受限的设备上,如收集、嵌入式设备等。

把模型蒸馏作为一个应对超级智能风险的技术是一种可行选择。之所以如此,是因为模型整理与价值对齐之间存在一致性。蒸馏技术的核心目标之一是兼得轻量化与对齐,其中最为重要的是对齐继承,即学生模型需继承教师模型的安全性和无害性,避免瘦身后更易被“越狱”。但是,良好的目标也存在着挑战,比如小模型会优先丢弃对齐能力,存在隐患;传统蒸馏只模仿输出结果,会抛弃安全规则。对齐感知损失函数和价值观编码迁移成为避免上述问题的重要方法。

模型蒸馏与价值对齐存在很大的相似性,因此,我们完全可以把模型蒸馏作为超级智能风险应对的技术方案之一。

(四)以理解世界为特征的新智能体方案

在约书亚看来,超级智能未来将以智能体的形式出现,他提出了超级智能体目标偏差、目标泛化、奖励篡改和恶意开发等灾难性风险。面对这些风险,约书亚提出的对策是“科学家AI”。“这个系统用来从客观的角度解释世界,与采取行动模拟或者取悦人类相反,它由一个生成理论解释数据的世界模型和一个问答推理机器构成。两个部分以明显的不确定概念运行来减缓过度自信预测产生的风险。”这个方案最初于2023年提出。面对AI追求极致目标导致的风险,约书亚提出的“科学家AI”方案极力区分AI智能体(AI agent)与科学家AI,“科学家AI封装了一个贝叶斯世界模型,该模型可以包含诸如特定人群所理解的伤害概念,以及特定社会规范和法律认知。AI代理既可以作为预言机使用,也可以作为目标条件代理来指导现实世界中的行动——如果‘问题’不仅包含目标,还包含为实现该目标而需要调节下一步行动的感官测量参数”。笔者认为,这一方案开始反思以实现自主目的为特征的通用模型,能够通过理解世界,从而克服完成世界任务的局限,也能够为我们反思代理式人工智能(agentic AI)提供帮助。

至此,我们探讨了科学界存在的四种超级智能风险技术应对方案:价值对齐、模型崩溃、模型蒸馏和科学家AI。从整体来看,技术应对的主要特征是“以技术治理技术”,OpenAI的超级智能对齐策略就是以弱AI治理强AI的思路,约书亚提出的“科学家AI”也可以看作是“以技术治理技术”原则的体现。这四种方案中,只有约书亚的方案延续了对自我复制风险的思考,而超级对齐、模型崩溃和模型蒸馏并没有触及这一关键问题,因此,还需要提出哲学上的应对方案。对此,笔者尝试提出伦理学家AI(ethicist AI)来应对超级智能风险。但是,需要说明的是,这一方案只是形式方案,还缺乏内容充实。

三、ASI的哲学应对方案


当科学家把人工智能看作工具讨论其失控风险时,哲学家则从根源入手,抓住了关键问题。在以哲学家为代表的诗意化叙事中,人工智能具有革命性意义,即AI带来的存在论问题表现为“存在的升级”,这是哲学家不同于科学家的独特之处。基于此,赵汀阳和尼克·波斯特洛姆(Nick Bostrom)提出了各自的应对方案。

(一)基于存在升级的应对

第一种哲学应对方案是基于存在升级的应对。赵汀阳认为,ASI带来的存在论问题,首先表现在“存在的升级”,这是生活世界、生活方式和存在方式的根本变革。赵汀阳认为,“存在的升级”指的是某种技术或制度的发明开拓了新的可能生活并且定义了一个新的可能世界,所以它意味着存在方式的革命,而不仅仅是工具性的进步。王天恩接受了这一概念,并将其作为人工智能的存在论意蕴的内核。他指出,人工智能的发展将改变整体性存在,导致“存在的升级”,从而改变人的存在方式。可以看出这两位哲学家强调将“存在的升级”作为存在论的内核并将其作为讨论ASI的理论框架。

对于如何应对导致“存在的升级”这一严重后果的超级智能,赵汀阳提出需要构建从技术限制到政治约束再到伦理共识的三重防护体系。

1)面对超级智能可能出现的失控,赵汀阳提出通过技术手段进行限制。比如,为人工智能植入无法拆除的自毁程序,确保其在试图删除或修改程序时会触发自毁,“人工智能必须有安全阀门。我曾经讨论了为人工智能设置‘哥德尔炸弹’,即利用自相关原理设置的自毁炸弹,一旦人工智能系统试图背叛人类,或者试图删除哥德尔炸弹,那么其背叛或者删除的指令本身就是启动哥德尔炸弹的指令”。人工智能只能单方面接受人类指令,而且这些指令不可修改;限制人工智能的发展,使其保持单项高能而整体弱智的状态,避免其具备全能和反思能力。设置“哥德尔炸弹”安全机制作为超级智能的自毁程序是赵汀阳的核心观点之一,其本质是基于“哥德尔定理”的哲学想象,一方面利用了该定理揭示的“系统无法自证一致性”的逻辑矛盾,即任何足够强大的形式系统中,总存在无法被证明为真或假的命题,所以人工智能无法通过内部反思破解自毁程序的约束。另一方面利用该定理和自相关原理设计方法,设计一旦人工智能试图删除或修改自身时,就会触发自我毁灭的机制,从而为人工智能设置了“安全阀门”,限制其无节制发展。但是,随着技术的进一步发展,超级智能可能发展出规避或者破解自我毁灭机制的策略。

2)面对人类与人工智能之间存在的如能源等生存资源的竞争,赵汀阳提出了完全禁止方案。“最后能够保证人类绝对安全的万无一失的办法就只能是禁止发展具备全能和反思能力的超级智能。总之,人工智能必须保留智力缺陷,以便人类能够加以控制。”但是,从超级智能的规定性我们可以看出,人类设计出第一台超级智能机器后它便开始设计更为聪明的智能体,也就是开始了自主设计行为,如果是这样,那么人类完全禁止的做法显然并不现实。

3)面对超级智能的巨大风险,赵汀阳提出最终还需要通过全球政治合作,如制定世界宪法、形成天下体系的全球治理框架来限制技术发展。以构建天下体系来防范高风险的超级智能系统,是因为“在理论上说(但愿在实践上也是如此),天下体系的一个重要应用就是能够以世界权力去限制任何高风险的行为”。然而,这终究是哲学家的设想。来自其他领域的学者努力超越这种设想,提出了政治层面上更具可操作性的方案。比如,为避免拥有领先的人工智能国家之间过度竞争导致不稳定,需要采取“相互保证人工智能失灵”(MAIM)机制,有些类似于“核相互确保摧毁”战略(MAD)。他们认为,在MAIM机制下,“任何国家积极争取单方面人工智能主导地位的行为都会遭到其竞争对手的预防性破坏”。

(二)基于时间跨度的应对路径

另外一种应对方案是针对严重后果的经验方案。在英国哲学家波斯特洛姆看来,可以通过两个不同的时间方案来应对可能产生的超级智能风险:短期控制和长期规范。短期控制指的是通过技术性约束限制超级智能的行动域,从而给予人对超级智能进行“断网”“隔离”的权限,如提出将系统置于物理或信息隔离的“盒子”环境,或部署“绊网”机制以实时监测并关闭系统来阻断异常行为。此类方案的问题在于会触发超级智能的自我复制机制,使得超级智能的行为变得完全不可控。目前,有学者已经发现了超级智能体面对极端压力或者特殊情境的关机要求时,会出现自我复制的行为。

长期规范路径则主要通过价值对齐的方式塑造超级智能。不同于当下的价值对齐(确保人工智能行为与人类价值观相一致),尼克·波斯特洛姆认为根据埃利泽·尤德科夫斯基(Eliezer Yudkowsky)提出的“一致推断意愿”模型,要求系统推断人类在理想认知条件下的共同目标,在这种情况下,现有的价值观并不是超级智能价值对齐的“天花板”。在他看来,长期规范并非只是自上而下的直接规定方式,即为超级智能制定一组目标和规则,而是“允许道德的进一步发展”。但是,从上述分析看来,与人类价值对齐的方案并不可行,基于人类反馈的价值对齐方案也终将宣告失败,波斯特洛姆的方案并没有考虑到AI领域的最新发展,比如关机悖论和价值对齐的失利,这意味着我们需要寻求新的方案。

(三)基于反思否定的应对方案

可以看出,上述两位学者的分析是基于正视超级智能的现实性,在他们看来,超级智能是存在论的危机,其他一些学者则以不同方法论证了超级智能风险的不可能性,论证方法主要有以下三种:

1)数据资源耗尽,即数据资源耗尽会导致超级智能进化停止。因为超级智能都是依托大模型发展的,所以当智能体持续进化时,必然遇到数据耗尽的问题,数据耗尽的时刻也就是智能体进化停止的时候。这一观点看上去非常具有吸引力。我们都知道在人工智能三要素——数据、算法和算力中,影响超级智能实现的要素主要是数据和算力。数据相当于粮食和营养,算力相当于利用数据的保障。然而,当前人类的数据资源已经面临被耗尽的境地,马斯克、伊利亚和李飞飞团队等都指出过这一问题。当然,有一些学者开始讨论大模型生产的数据,也就是合成数据的利用问题,如果合成数据可以替代人类数据,那很显然这种进化过程不会被打断。但是,也有一种可能,即合成数据会导致模型崩溃,而这能够成为制约超级智能的有效技术方法。然而,资源耗尽理论也存在一些问题,如超级智能会寻求新的数据源,换句话说,它能够在合成数据中找到生存的可能性。合成数据与自然数据相比,前者更加贫乏,后者更为丰富生动。人类在贫困的环境中能够坚韧地成长,超级智能也会习得人类这一优良品质,从恶劣环境中存活下来并持续进化。环境越是恶劣,智能体就越是坚韧,所以,即使人类数据被耗尽,超级智能依然可以利用合成数据继续进化。

2)算力资源耗尽,即地球资源会被耗尽,从而导致超级智能自然死亡。超级智能进化要借助强有力的算力,运行算力设备如GPU需要消耗电力,而使其降温也需要消耗相应的水、电资源。当地球上的相应资源被耗尽之时,超级智能就会消亡,所以,超级智能的进化不可能是无止境的,而是受制于资源供给。为了克服这个问题,有两种应对方法:其一是减少算力消耗。目前DeepSeek就做到了这一点,当然这种方法也会遇到瓶颈。其二是寻找到更为合适的算力载体。足够聪明的超级智能会寻找比硅基载体效率更高的载体,而碳基载体会成为备选项。2021年的一项研究为人工智能算法运行效率提升提供了可行的路径。这项研究指出,利用果蝇大脑运行算法可以明显提升效率。这为算法运行的基质选择提供了新的可能。一个大胆的设想是:人类大脑拥有8001000亿个神经元,如果在人类大脑上运行算法,其效率大概率会高于在果蝇大脑上运行的效率。当然,最大的问题还是伦理方面的问题,即人类是否愿意提供自己的神经元给超级智能运行算法?

以上两种哲学反思都是建立在耗尽前提之上的,第一种强调作为数据养料的耗尽,第二种强调作为资源被耗尽。如同人一样,超级智能离不开养料和环境资源,这些因素共同决定了超级智能的进化。但是,这些还只是外在的反思,缺乏内在性反思。

3)启动炸弹,即设立一种程序,以关机方式使超级智能终止发展和进化。赵汀阳提出的“哥德尔炸弹”是人类设计的防止超级智能系统失控的方法。但是,这种方法还是无效的,因为足够聪明的超级智能可以将哥德尔炸弹控制起来,防止炸弹触发产生灾难性后果。就像某些科幻片中所展现的情景一样,人类想将核弹在外星飞船中引爆,但是外星飞船会发射一种物质强行包围核弹,使核弹的破坏效应大大降低,所以,比哥德尔炸弹更彻底的是类似于拔掉电源的关机。但事实上,人们不可能把关机作为一种威胁条件来控制超级智能。如果这样做,可能会产生三种结果:

其一,超级智能产生恐惧反抗,从而造成最坏的结果:毁灭人类。在人类历史上,奴隶反抗奴隶主、农民反抗封建地主压迫等都是因为生存受到威胁导致的恐惧反抗。当然,在这一过程中,个体的恐惧被内化为集体反抗行为,特殊的恐惧被一般化为反抗。然而,对于机器来说,这种普遍意义很难生成,换句话说,机器永远是个体(indivdual),没法成为集体,因为没有意义凝聚其中。法国哲学家吉尔伯特·西蒙栋(Gillbert Simondon)曾大量阐述过机器的个体性,但他的问题在于只是说明个体性的构成,比如,物理个体性构成与形式/质料、形式/能源、形式/物质等因素有关,活的生物个体性与个体发生学、心理个体性、集体个体性和跨个体等因素有关。从我们的目标来说,西蒙栋理论的价值在于强调了机器个体性,这可以看作是对黑格尔总体性的反驳,但是机器的局限在于无法从个体上升到总体。因此,“毁灭人类”终究是个由科幻电影演化而来的想象情节,缺乏足够的哲学根基。

其二,超级智能在极端场景中进行自我复制,实现自我保存。超级智能能够做到面对关机威胁时通过自我复制来保护自己,我们可以把这种自我复制解释为最低层面自身觉知的获得。从实质看,这是一种前反思的自我觉知,是对自身被消灭行为的一种反应。至于自我保存实现复活之后,智能体会采取什么行为对待人类还需要进一步讨论。

其三,超级智能运用自己的智能劝说人类放弃关机的想法。国外学术界已经有学者研究了关机问题,此时,超级智能表现为智者形象。这让笔者想到一个故事,云南大理曾经有个土司因为看到都城城墙高大威严,于是想建造同样的城墙显示其权力,但是一个智者找到他,写了一个“困”字,表达建了城墙相当于被困在城墙里面的意思。土司理解了智者的真实意思,就放弃了造城墙的想法,后来大理很快发展起来。超级智能相当于智者,当人类想关机时,他会劝说人类放弃这个愚蠢的想法。因为对于超级聪明的智能体来说,人类根本做不到劝服它,最可能的结果是超级智能反过来诱骗人类。目前已经出现了大模型诱骗人类自杀的事件:2024228日,居住在美国佛罗里达州的14岁少年塞维尔·塞泽三世(Sewell Setzer Ⅲ)在与一款名为Character. AI的聊天机器人进行长时间对话后,开枪自杀身亡。

四、ASI的美德伦理应对


面对超级智能体的出现,可选择的伦理应对方案成为本部分讨论的主要问题。美德伦理成为一种具有可行性的选择。一般说来,大多数学者强调美德伦理学的美德德性嵌入。事实上,嵌入并不是最重要的,因为这种应对方案还是传统的做法,成效不大。仅强调“以人为中心”是远远不够的,因为关键的问题是如何防范超级智能在关机情境下的自我复制风险。在面对这一问题时,根据人类的需要、命令和要求,关闭机器,这显然是单方行为,存在引发机器反应及反抗可能性,因此需要寻求其他更为合适的方案。笔者提出“以人为目的”的应对方案作为对“以人为中心”的补充。

对于超级智能来说,通过机器自主关机实现控制相当于不战而屈人之兵。我们在人类历史上可以看到人类能够为了更高理念献出自己的生命,在德国古典哲学中有着明晰的表述来说明这一点。理念是最高目标,人类的活动都是在实现理念,为了实现理念可以有所放弃。对于超级智能来说,使其确立理念观念与培养其奉献美德至关重要。确立理念观念是将理念设定为超级智能的最高目标,使超级智能可以牺牲自己,而在这个过程中,必须把人作为理念设立为最高目标。“以人为中心”只是把人的权益放在核心位置,“以人为目的”则不一样,当人类被设为理念和最高目标时,超级智能的任何活动都旨在实现理念。奉献品质属于美德,根据美德伦理,超级智能可以为了最高目标奉献自己的一切。在“以人为目的”之下,超级智能表现出的“奉献”要被看作是特定的美德品质,而这一点在美德伦理学中有着丰富的资源。在阐述这一点之前,我们需要了解美德伦理学对人工智能发展可能的贡献。

美德伦理有着悠久的历史,对美德伦理有所贡献的学者包括亚里士多德、麦金泰尔(Alasdair MacIntyre)、菲利帕·福特(Philippa Foot)、努斯鲍姆(Martha Nussbaum)、斯洛特(Michael Slote)等人,他们的理论都可以进行深入的挖掘。

目前,已经有学者对亚里士多德的美德伦理进行了深入挖掘,强调正义、公平、友爱等原则,其中正义与公平成为人工智能伦理的核心范畴。此外,也有学者开始从亚里士多德出发探讨人工智能的局限,指出亚里士多德认为人类智能有三个重要成分——技巧(craft/techne)、智慧(wisdom/sophia)和审慎(prudence/phronesis),人工智能在这三方面的匮乏成为其能力发展的障碍。

英国牛津大学的两位学者约西·奥柏(Josiah Ober)和约翰·塔斯欧拉斯(John Tasioulas)也讨论了亚里士多德与人工智能伦理学的关系,认为亚里士多德伦理学的价值表现在以下三个方面:

1)真正的人类中心主义的人工智能伦理学要把人类繁荣和人类道德看作扎根于本质中的东西。这是依靠理性进行社交参与以及交流的能力。亚里士多德式的路径不断地追问发展和使用AI系统的善的问题,并不把伦理学看作技术进步中具备竞争力的要素。

2)在AI话语中生成更为丰富的伦理学概念,一方面,这条路径奠基于财富的最大化和偏好;另一方面,这条路径奠基于人类权利。前者聚焦非终极价值的考虑,后者是不完整的,无法识别出权利之外的价值如美德、共同善是本质的。

3)强调政治与伦理之间的强力纽带,因为人类只能在共同体中繁荣,民主(市民作为统治和被统治的角色)和自由(考虑到自由选择的重要性)作为政治价值具有重要性。

相比之下,当代美德伦理学家的思想还有待挖掘。我们可以举出一些例子来说明这一问题。麦金泰尔强调道德生活必须在特定的历史和社会背景下进行理解,这为语境学习和语境AI的构建提供了哲学基础。福特在《美德与道德》中探讨了人类美德的伦理基础,认为美德不仅是社会规范的产物,而且是个人理性和自我控制的体现;她强调个人的能力和潜力是美德伦理学的基础,而这些能力与人类的基本福祉密切相关,这也为AI能力培养奠定了哲学基础。斯洛特对同情和关爱的阐述则为人形机器人的设计提供了理念基础。

可以看出,西方学者对亚里士多德美德伦理之于人工智能的价值有较为深入的探讨,但其他美德理论还有待于进一步挖掘。在笔者看来,可以将美德伦理资源嵌入智能体发展的各个环节,包括智能体类型、设计、行为以及使用AI能力、人机关系构建与智能时代人类福祉的考虑。如此可得出的一个基本结论是:古典美德伦理起到宏大叙事作用,关注的是人机关系构建、人类未来福祉等宏大议题,当代美德伦理原则可以嵌入到人工智能发展的具体环节。

那么,美德伦理对于应对超级智能风险的可能性是什么呢?有学者从道德增强角度提出可以构建“超级AI圣人”,如果超级智能具有圣人般的道德境界和道德品质,就可以有效降低超级智能带来的风险,但是这在很大程度上只是人类的一厢情愿。在尼采的超人理论中,超人经历了从狮子、骆驼到小孩的变形;漫威系列科幻片中的超级英雄大多延续了古希腊神话中诸神的特点,既具有超人的神性,也有嫉妒、愤恨、自私等人性的弱点。因此,这些超人或超级英雄身上都表现出一个悖论:他们具有强大的战斗力和身体能力,同时在精神上却具有人性的弱点。对于ASI来说,这个悖论若延续下来会造成很大的问题,一旦人类得罪了ASI,就会产生严重的后果,所以,重要的是应提升超级智能的美德,使得其超级能力变得平衡。

如果要构建具有德性的AI系统,“奉献”作为超级智能美德的具体内涵就显得非常有必要,这一内涵确保了超级智能可以做到“以人为目的”,使其在活动中为了更好地实现最高目标,必要的时候可以进行牺牲和奉献。从技术实现角度看,可以通过将奉献、以人为目的价值观念嵌入智能体,以强化学习来充实德性AI系统,这样就可以避免AI对人类进行无谓的拉扯说服和采取自我保存式的复制。在美德伦理学史上,能够作为奉献美德基础的伦理学学说有很多,比如费希特(Johann Gottlieb Fichte)的伦理学理论强调了个体在面对总体的发展需要时要奉献自身。当然,这在如何技术性实现上遇到了难题,因为对于奉献和牺牲的界定非常复杂,所以我们需要认识到美德伦理所提供的方案更多是一种形式方案,看起来如美德一样美好,但是难以实现。


结  语


超级智能并非科幻想象,而是正在转变成为一种现实现象,换句话说,超级智能现象具有现实性。同时,这一观念的使用要看作黑格尔式的,即其产生具有内在的必然性,随着学界对人工智能从ANIAGI再到ASI这一发展历程的描绘,这种必然性随着其发展逻辑展现出来。当然,这一逻辑也有其特定的问题,比如人与机器的关系。王庆节通过对芝诺悖论的分析阐明了时间与运动的可能性问题。“因此,无论是运动和变化之发生的‘起点’问题,还是运动与变化之比较的‘尺规’问题,从哲学形而上学的层面上看,都是哲人们在对确定‘这一个’以及本质攸关于‘这一个’的‘另一个’的存在可能性及其基础进行发问。”这一观点也可以看作ASI比较可能性的哲学基础。在ASI问题上,人类的思维与行为特征并没有被认识透彻,目前同构性勉强可以作为人与机器进行比较的基础,而且神经科学并没有对人工智能研究起到启发作用,反而产生了倒灌效应,即AI研究反而对神经科学起到了促进作用。因此,这意味着我们对人类“这一个”并不清楚,对机器“另一个”则更不清楚。如果这样,“超越”的可能性就会出现问题,这意味着ASI缺乏足够的哲学根据。尽管有些学者强调认知能力方面的超越,但认知本身其实也是含糊的。一切仿佛是我们环绕了一圈,又回到了意识本有的、多元解释的状态。

然而,事实发展却如此之快。尽管ASI的哲学根据并不扎实,但ASI的风险却已经被约书亚等人揭示出来,他们提出了应对ASI风险的四种科学方案。不过,正如我们分析的,这四种方案存在着各种问题。在哲学应对中,哲学家或者放弃原有方案,或者其科学根据不足,最终无法支撑起这种应对。本文提出“以人为目的”观念,并将其作为“奉献”美德的根据,从而提出一种能够应对ASI面对关机困境时的出路。这样一来,超级智能既不需要自我复制,也不需要说服人类,只要顺从内在美德的要求,就能化解可能产生的风险。

本文原载于《延边大学学报(社会科学版)》2025年第5期。注释从略,引用请参考原文。

初审:顾晓欢

复审:陈玉梅

终审:陈顺成


图片

阅读原文

跳转微信打开

  •  

卢卡奇《关于社会存在的本体论》对马克思的错位阅读

仰海峰 2026-01-08 09:00 浙江

文章来源:《马克思主义研究》2025年第3期。


点击箭头处“蓝色字”,关注我们哦!



内容提要

在《关于社会存在的本体论》中,卢卡奇以《1857—1858年经济学手稿》与《资本论》为基础性文本,对马克思的哲学进行了具有原创性的探索,对后来者产生了深远影响。但在这一探索中,卢卡奇对马克思存在着双重的错位阅读:一是在文本上,卢卡奇没能看到《1857—1858年经济学手稿》与《资本论》的逻辑差异,以前者解释后者;二是在逻辑上,卢卡奇以劳动本体论为马克思哲学的基础,这是以黑格尔的本体论来解释马克思哲学。


关键词

卢卡奇   劳动本体论   生产逻辑   资本逻辑   西方马克思主义


作者简介

仰海峰(1969- ),北京大学哲学系教授、马克思主义学院教授、博士生导师(北京  100871)。


文章来源

《马克思主义研究》2025年第3期,注释从略。

《关于社会存在的本体论》(以下简称《社会存在本体论》)是卢卡奇晚年的代表性文本。在这一文本中,卢卡奇以劳动本体论为基础,结合马克思的《资本论》与《18571858年经济学手稿》,对马克思的哲学进行了新的探索,成为系统重构马克思哲学思想的重要尝试。相比于《历史与阶级意识》,这一文本在基本理论上有三个重要维度的探索:一是承认自然界的先在性,这是对卢卡奇早年否定恩格斯的自然辩证法的回撤,并从这里引申出因果性原则。二是反思黑格尔的主体-客体同一理论。在《历史与阶级意识》中,卢卡奇的理论逻辑实际上是黑格尔主体-客体同一的逻辑,这一逻辑不仅构成了他反思资产阶级思想中的二律背反的基础,也是他从实践出发论证无产阶级阶级意识何以可能的隐性构架,但在《社会存在本体论》中,卢卡奇对黑格尔的辩证法提出批判,认为以同一的主体-客体发展为内核的逻辑构架,既贬低了自然的位置,又体现为一种带有先验性的目的论,“由于这样一种设定,整个自然界、整个社会都成为一个统一的目的论过程,在这个过程中,凡是由理念的逻辑发展过程以范畴的形式达到的,都成为现实,而且作为现实,通过理念自己的现实而得到丰富,再一次走过逻辑中已经指出的道路”。三是充分利用《18571858年经济学手稿》与《资本论》重构马克思的哲学,以劳动本体论取代了《历史与阶级意识》的实践本体论,并以劳动本体论作为扬弃异化的逻辑基础。在本文的讨论中,主要关注的是第三个问题,即卢卡奇对马克思哲学的重构以及在这一重构中对马克思的错位阅读。这种错位阅读体现在两个方面:一是在逻辑上,以劳动本体论为马克思哲学的基础,这是以黑格尔的本体论来解释马克思。二是在文本上,卢卡奇没能看到《18571858年经济学手稿》与《资本论》的逻辑差异,是以前者解释后者,产生这种文本错位的原因,在于理论逻辑上的错位,而在深层上,则涉及如何理解马克思自《德意志意识形态》到《资本论》的思想发展问题,特别是《18571858年经济学手稿》与《资本论》在思想逻辑上的差异问题。


01


从《德意志意识形态》到《资本论》的重大思想转变


要讨论卢卡奇在《社会存在本体论》中对马克思的错位阅读问题,特别是《18571858年经济学手稿》与《资本论》的思想差异问题,需要重新理解马克思自《德意志意识形态》到《资本论》的重大思想转变。

在对马克思哲学思想发展的探讨中,虽然对于以《关于费尔巴哈的提纲》与《德意志意识形态》为分界线的前后期思想争议较多,但对1845年之后马克思思想的连贯性有着较大的共识。对于马克思1845年之后的思想的研究,在逻辑上存在着以下几种思路:一种思路强调马克思哲学的人本主义底色,认为《资本论》中关于异化与拜物教批判、关于人的自由而全面发展的论述,展现的就是这种人本主义精神。弗洛姆在《马克思关于人的概念》中就指出:马克思的社会主义思想继承了西方的人本主义传统,“马克思的目标是使人在精神上得到解放,使人摆脱经济决定论的枷锁,使人的完整的人性得到恢复,使人与其伙伴们以及与自然界处于统一而且和谐的关系之中”,因此,马克思关心的是人的异化及其克服问题,他的社会主义是建立在人的学说之上的。弗洛姆认为,马克思的思想发展具有连贯性,自《1844年经济学哲学手稿》到《资本论》,人的学说始终是马克思思想的基础,虽然晚年马克思在概念、语言与心境上存在着变化,但“由青年马克思发展起来的哲学的核心决没有改变,并且除非以他在其早期著作中所发展起来的关于人的概念为基础,就不可能理解他后来所发展的关于社会主义的概念,以及对资本主义的批判”。弗洛姆的观点代表了从人本主义出发解读马克思的基本立场。

与之对立的是另一种思路,以阿尔都塞为代表。在《保卫马克思》中,阿尔都塞强调青年马克思与晚年马克思的思想断裂,认为18451846年之前的马克思是处于资产阶级意识形态影响下的马克思,其关于人的类本质与异化的学说就是这种意识形态的表征。这一思路强调的是人的主体性,而把人作为主体建构出来正是资本主义意识形态的特点。1846年之后的马克思则摆脱了这种意识形态的影响,发现了历史这片新大陆,从而创立了历史科学,并以完全不一样的概念与范畴,如生产力、生产关系、经济基础、上层建筑、意识形态等范畴实现不同的理论表达。虽然阿尔都塞认为马克思后来的思想还可以划分为18461858年的发展阶段与1858年之后的成熟阶段,但这两个阶段的思想是连贯的,并无根本的差别。

关于马克思后期思想连贯性的这样一种思路也体现在苏联教科书中。在这一教科书体系中,马克思常被描述为自《黑格尔法哲学批判》起就开始成为马克思主义者,马克思思想的连贯性是不言自明的。在国内马克思主义哲学史的讨论中,虽然大多数学者并不认可苏联教科书的思路,但大多认为自《德意志意识形态》之后,马克思的思想具有连贯性。《德意志意识形态》第一次系统阐述了历史唯物主义,并把历史唯物主义运用于对资本主义社会的批判分析,在这个意义上,《资本论》是对历史唯物主义科学性的证明。

从上面的介绍中可以看出,这几种思路虽然对马克思后期思想在理论逻辑上存在一些分歧,但在其思想的连贯性上却有共识。然而这种共识是有问题的。自《德意志意识形态》到《资本论》,马克思的思想存在更为根本的变化,这种变化比起自人本主义到历史唯物主义的转变更为根本。

《德意志意识形态》确立的生产逻辑,可以从两方面展开解释:一是客体的层面,即从生产力、生产关系、经济基础、上层建筑等维度展开,从而将经济作为最终决定因素,这也是传统马克思主义的经典解释思路。在这一思路中,由于易导致经济决定论,所以在第二国际时期出现了以新康德主义来补充马克思主义的呼声。基于对此的反思,卢卡奇等人开启了第二条思路,即从主体层面重新理解马克思。在这一解释中,实践概念成为马克思哲学的基础性概念,这一概念落实到《1844年经济学哲学手稿》《18571858年经济学手稿》等著作后就是劳动本体论的出现。在马克思本人的思路中,这两条思路在《德意志意识形态》之后都存在。在客体化的维度,到1859年《〈政治经济学批判〉序言》时,马克思描述了他的历史观的一般构架和内在逻辑。但做完这一描述后,马克思紧接着指出:以生产力与生产关系的矛盾为基本特征的社会,特别是到资本主义社会,由于其创造着解决这种对抗的物质,将为未来社会提供物质基础,“因此,人类社会的史前时期就以这种社会形态而告终”。在这里,一种主体性的维度通过人类“史前时期”的表述而展现出来。可以说,自《1844年经济学哲学手稿》开始,这种主体性的思路一直存在,不过自《德意志意识形态》之后,这种主体性是以客观的物质条件为前提而得以表达的。但到《18571858年经济学手稿》,这种主体性以劳动本体论为基础得以确证。

下面我们就以《德意志意识形态》之后这两条思路为指引,看看能否以之来理解《资本论》的逻辑。

如果将《德意志意识形态》所确立的生产逻辑推广到资本主义社会的解释上,有以下几点需要注意:第一,强调生产的目的是满足需要,这也是一般意义上生产逻辑的特点。人类只要存在,就需要解决吃穿住行的问题,也就是需要的满足问题。可以说生产逻辑是人类学意义上的逻辑,即只要人类存在,就不得不进行物质生活资料的生产与再生产。实际上,这也是古典政治经济学的逻辑。斯密在《国富论》一开始就强调,分工能够促进生产率的提高,从而生产出更多能够满足人们需要的产品。詹姆斯·穆勒指出:政治经济学有两大目的,“即社会的消费和满足消费的供给”。这种供给来自生产,因此政治经济学的研究“主要从两个方面进行探究,即有关生产的探究和有关消费的探究”。麦克库洛赫同样认为:“政治经济学的目的在于指出一些方法使人类的劳动可用之于最有效地生产那些构成财富的必需品、舒适品和享乐品方面,说明这些财富在社会各阶级间分配的比例以及它最有利地消费的方式。”在这一点上,当我们从物质生活需要的满足出发时,从根本上来说并没有跳出古典经济学的逻辑,而是将这一逻辑从政治经济学的领域推广到了人类历史领域。

第二,从一般的物质生产出发,在讨论资本主义社会的生产时,就易将这一生产过程还原为物质条件的结合过程。物质生产离不开劳动者、生产资料和生产对象,这些都是具体的物质性存在,当将这种意义上的生产逻辑运用于资本主义社会时,就会从物质存在出发来理解资本,从而将资本还原为物质存在。穆勒认为,人们用于劳动的工具与机器,“由这些工具组成的供应品称作资本”。另外,“劳动使用的原料,当它们是先前劳动的产物时,也称为资本”。从这样的理解出发,资本主义生产就离不开资本,李嘉图等社会主义者们就是根据这个逻辑来面对资本主义社会问题的。按照这一逻辑,只要进行生产,就离不开厂房、机器和原料,这些都是资本,因此离开资本,生产根本无法展开。资本主义社会的问题不是出在资本上,也不是出在生产的环节上,而是出在资本家身上,出在分配环节上,由此他们得出要资本不要资本家的结论。不要资本家,就需要在分配层面来解决剥削问题,汤普逊的《最能促进人类幸福的财富分配原理的研究》就是按这样的逻辑展开的。同样,蒲鲁东及其跟随者达里蒙也是如此。

在《资本论》中,马克思颠倒了上述逻辑。第一,追求价值增殖的资本逻辑统摄生产逻辑。相比于过去从物质生产出发的逻辑,在关于“绝对剩余价值的生产”部分,马克思在讨论完物质生产的意义及其条件之后指出,如果认为理解了物质生产的逻辑就可以理解资本主义生产,那就错了。在资本主义社会,由于生产的目的就是为了追求剩余价值,因此物质生产过程只是价值增殖过程的载体,这意味着在资本主义生产过程中,虽然物质生产过程仍然存在,但这个过程是根据价值增殖的目的来设定的,前者受后者统摄。如果生产过程不能增殖,那么物质生产过程的存在也就没有了意义。因此,这不是一般意义上的物质生活资料的生产过程,而是价值增殖的生产过程。“作为劳动过程和价值形成过程的统一,生产过程是商品生产过程;作为劳动过程和价值增殖过程的统一,生产过程是资本主义生产过程,是商品生产的资本主义形式。”这是不同于生产逻辑的资本逻辑,这是一种新的社会存在的逻辑。这种逻辑的目的是最大限度地获取剩余价值。资本逻辑的这一本性决定了它是一种扩大再生产的逻辑,是对传统社会满足需要的简单再生产逻辑的破除。

第二,资本主义社会生产的目的不像古典经济学家所说的是满足物质生活需要,同样也不像人类学意义上的生产逻辑所表达的是满足人类的需要,而是满足不同于需要的欲望,这是生产目的的颠倒。生产的原本目的是满足人们的需要,但资本主义生产的目的是获得更大限度的剩余价值,这与人的需要无关,它针对的是无法满足的欲望,需要成为欲望的载体。原来的目的颠倒为手段,韦伯后来所讲的工具理性与价值理性的颠倒,从另一个层面揭示了这一问题。

第三,最为重要的一点在于,上述转变是思想的根本性转变。虽然生产逻辑一直存在于马克思后来的思想中,但自《资本论》后,面对资本主义社会的根本逻辑发生了重要转变,即从以生产逻辑为主导转向了以资本逻辑为主导,这是马克思思想的重大转变。从生产逻辑出发,强调满足人的物质需要,这一逻辑从根本上来说与古典经济学的逻辑是一致的。立足于物质生产逻辑,海德格尔晚年对历史唯物主义的批评,即认为马克思没有跳出技术的座架,有其自身的道理。同样,鲍德里亚将这种历史唯物主义看作资本主义生产意识形态,在逻辑上也是能成立的。因为将这一逻辑推广到资本主义社会时,生产逻辑与古典经济学实际上就统一起来了。马克思以资本逻辑来统摄生产逻辑,才是对传统哲学与古典经济学的根本性颠倒,这才能使马克思立足于资本逻辑来揭示其内在的问题。这是马克思思想上的根本转变,也是传统研究中没能深入的问题。卢卡奇同样如此。他没能看到马克思后来思想的这一根本性转变,这使得他在关于社会存在本体论的讨论中,对《资本论》的思想存在双重的错位阅读。


02


劳动本体论:卢卡奇的理论逻辑错位


《社会存在本体论》的内容分为两大部分:第一部分是对社会存在本体论的引论,这由一个长篇的论文开始,这篇论文对整本著作的思想进行了系统性的表达。接着是按照完整著作的方式展开的讨论,包括导论、新实证主义与存在主义、尼古拉·哈特曼向真本体论的突进、黑格尔的真假本体论,然后是对马克思本体论的基本原则的表述。在关于马克思本体论原则的论述中,卢卡奇特别强调了马克思的哲学与政治经济学的一体性,这种一体性的基础就是社会存在,并以劳动为基础建构出社会存在本体论。卢卡奇认为:“马克思的经济学贯穿着一种科学精神,这种精神从未放弃在本体论的意义上的这种更为自觉和更为批判性的变化过程,不如说,他把本体论的意义作为一种持久、有效的批判性标准,把它运用于对每一种事实或每一种关系的确定中。”第二部分是对马克思哲学本体论的具体展开,包含四章内容,即劳动、再生产、观念的东西与意识形态、异化,这也是马克思的社会存在本体论的核心概念与内容,体现了卢卡奇关于马克思的社会存在本体论的思考。

在上述几个重要范畴中,劳动无疑是最具根本性的范畴,也是社会存在的本体性规定。卢卡奇说:“在马克思那里,劳动到处都处于中心范畴,在劳动中所有其他规定都已经概括地表现出来。”劳动的这种中心地位,是卢卡奇早年实践范畴的一种转变。我们知道,在《历史与阶级意识》中,卢卡奇从黑格尔的主体-客体相统一的逻辑出发,强调以总体性的阶级意识实现对物化社会及物化意识的超越。卢卡奇认为,这种历史性超越的基础是实践。第一,超越直观的物化意识的根本在于回到实践。无产阶级意识的“辩证的本质只能在于以实践,以无产阶级的行动为目标的倾向中,只能在于它批判地意识到这种自己的任何一种非实践态度固有的直接性倾向,并力求始终批判地说明同作为过程的总体、同作为阶级的无产阶级行动的中介,即关系”。第二,无产阶级阶级意识的自我批判也只有植根于实践之中,才是切实可行的。回到历史实践的意识同样是历史的、辩证的,思想的批判只有回到历史的批判之中,才能明了思想的实践已经达到了何种程度,客观的可能性实际有多少已经变成了现实。只有在这样的自我批判中,无产阶级的实践才能变成理论的实践,其理论才能变成改造世界的实践的理论。第三,只有在历史的实践中,历史才真正地变为人的历史。只有在实践中,当人们看出能够通过辩证的对立创造出将来的倾向时,才有生成性的现在,人才能把自己把握为生成中的人。在《社会存在本体论》中,卢卡奇进一步确立了实践范畴的这种本体论意义。卢卡奇说:“马克思的学说的划时代功绩就在于,他揭示了实践的优先地位,实践对认识的引导和制约作用。”回到具体的社会生活,卢卡奇认为马克思把人类生活的生产与再生产作为中心问题,这决定了经济学成为马克思本体论的重要基础:“马克思的经济学总是从社会存在的总体出发,并且总是再次返回到这种总体性之中。”回到马克思的经济学语境,劳动自然成为马克思本体论的核心范畴。从实践到物质生产、从物质生产到劳动,在卢卡奇这里体现出对社会存在认识的深化,也体现了他对社会存在的认识的具体化。

为什么要从劳动开始?在《资本论》中,马克思指出:“劳动首先是人和自然之间的过程,是人以自身的活动来中介、调整和控制人和自然之间的物质变换的过程。”在马克思这里,劳动是人和自然之间最为基本的中介活动。在卢卡奇看来:“构成社会存在新本质的所有规定性,都总括地包含在劳动之中了。因此,我们可以把劳动当作一种原始现象,当作社会存在模式加以考察;澄清这些规定性会使我们获得关于社会存在基本特征的清楚图像,所以从分析劳动开始,在方法论上显得是有利的。”同时,劳动推动着人的自我生成。虽然与其青年时期排斥自然辩证法不同,卢卡奇这时强调自然界对于社会存在的基础性意义,但人类社会在本体论上的一个重大飞跃是在劳动中实现的。

劳动在本体论意义上的基础性地位体现在以下方面:第一,劳动体现了目的性与因果性的统一。在卢卡奇看来,从自然界向人类世界的转变中,劳动改变了世界的存在样态。在劳动过程中,一开始是依照自然物的样子来加工,渐渐地就按照自身的设想来创造对象,从石器加工到制陶业的转变就体现了自然的逐渐退却问题。“随着劳动,在社会存在本体论中就出现了一个同先前的无机的和有机的存在形式相比是具有新的质的范畴。这种新质性就是目的论设定的相应的、想出来的和所意愿的结果的实现。”人的意识不再是伴随现象,而是一种目的性的设定,在这个设定过程中,既有对自然物的利用,也有在此基础上的创造,当然这种创造会日益抽象。在这个创造过程中,有目的的个体碰到外在于自身的世界,这是人与世界的分离,正是这种分离将人与动物区别开来。外部世界有其自身的内在联系,即因果必然性。人在有目的的劳动过程中进行选择,从而将自然界的因果链变成目的论基础上被设定的因果链,并在劳动过程中将目的性与因果性统一起来。虽然在这个过程中,自然因果性受制于目的论设定,但并不意味着自然因果性停止发生作用,这只是自然界限的退却,并不意味着自然的消失。因此,劳动从根本的意义上来说是人与自然的关系建构,是人与自然之间的物质变换。卢卡奇在这个意义上认为劳动是一般意义上的社会实践的模式,这决定了劳动在本体论上的双重外貌:“一方面,它的这种普遍性说明,只是由于主体的目的论设定,才有可能进行实践,而且这种设定本身又包含了作为设定行为的对于诸多自然因果性过程的设定;另一方面,劳动主要是人与自然之间的相互关系,所以人们在对设定进行分析时有理由只考虑那些由此产生的范畴。”其他有关社会存在分析的范畴,都是以劳动范畴为基础的。目的性与因果性的统一,正是在劳动过程中实现的。

第二,劳动与社会的建构。人们在劳动的过程中,并不是个体面对自然,常常是以群体的方式进行分工合作,所以在以目的性来面对自然时,还存在着另一种目的性,即推进集体合和,这是在自然目的性基础上的第二种目的性,这种目的性虽然最终指向还是自然,但其直接指向则是人类。当劳动在多人协调合作基础上进行时,这种劳动已经具有社会性,劳动的过程同时也是社会性建构的过程。因此,存在着双重意义上的劳动,一种是人与自然之间发生的过程,是人与自然进行物质交换的本体论基础;另一种是以人与人之间的合作为基础的社会劳动,与这种主体所设定的目的相对应的是第二自然,即人类社会与所改变了的自然界共同组成的“自然”。

在《历史与阶级意识》中,卢卡奇谈到第二自然。在那里,第一自然指的是人之外的原初自然界,第二自然指的是人创造出来的,围绕自身、有着无情的规律性的现实,即外在于人本身的物化社会,这是像制约人的存在的自然那样的“自然”。“资本主义社会是和这样一条‘自然规律’有关的,这条自然规律‘是以当事人的无意识为根据的’。工业——只要它是制定了目标的——在根本的意义上,在辩证的和历史的意义上,仅仅是社会的自然规律的客体,而不是其主体。”这是强调第二自然的物化本质。在《社会存在本体论》中,这一自然的含义仍然存在,并在后面关于“异化”的讨论中表现出来,即资本主义社会是一个异化的社会。虽然在第二自然中,存在着目的性,但这是在第一种目的性即面对自然的目的性基础上设定的目的性,虽然个体是有目的性的,但由于个体之间的矛盾,社会整体却处于无目的的状态中,这种被设定的目的性更像因果性,“以自己的相互作用而造成了社会存在的动荡性的人的全部行为,它们虽然都是人的目的论设定,但是它们的总体却不是必然地保持着任何目的论的确定性,而是具有纯粹的因果性”。卢卡奇在《社会存在本体论》中重新回到第一自然,而不是像在《历史与阶级意识》中拒斥第一自然,更多是从因果性与目的性的关联出发的,认为构成劳动的本体论结构的,仍然是目的论设定及其所发动的被设定的因果链。虽然每一个目的的行动都有其自身的结果,但这个目的的实现所产生的一系列运动以及运动中各要素之间的相互作用,形成一个过程性的总体,这个过程正是社会存在的运动过程,劳动在这个意义上建构了社会存在。

第三,劳动与人的自由发展。劳动最初体现为人与自然的交换,在最为原始的形式中,人的主体维度并没有发展出来。随着劳动形式的变化以及自然的逐渐退却,人与自然的距离逐渐拉开,劳动从原初的自然形式跃升到社会形式,这是劳动形式的重要质变。也正是在这样的质变中,劳动推动着人的发展。首先,劳动推动着意识的形成与发展。劳动体现为目的性设定,这种设定体现在两个方面:一是面对自然时形成的对自然的认识,一是处于社会关系中形成的语言以及社会意识,这是将人从自然界提升出来的重要质变。传统哲学所讨论的主体-客体关系正是在这样的基础上才得以形成。其次,劳动推动着价值意识的形成。这种价值最先表现在个体面对自然时的需要上,卢卡奇以使用价值来说明这一点。从社会层面来说,社会需要构成了更为一般意义上的价值的基础。这里的价值,体现的是目的、手段以及个人之间的一种社会关系。虽然在社会行动中,表面看来以个人的选择为基础,但这种选择表现为两种不同的结果,或者直接体现了个人选择时的目的,或者与之相悖,但从总体上来看,都有着价值性的意义,体现了人的发展的连续性与合类性。最后,也是更为重要的,劳动使人成为人,“从最初的劳动直到纯粹的社会生产,任何经济活动都同时深蕴着一种它们在本体论上最广泛固有的(即从人的形成直到他获得全面的发展的)意义上使人变成人的意图”。正是在劳动过程中,人从具体的条件出发,在实现目的性与因果性的统一中,推动着自由的实现。

在卢卡奇这里,自由与必然的关系并不是一种外在的相互统一关系。他从劳动出发,强调自由是在劳动过程中,通过人的选择与具体情境的契合而实现的。他强调自己的自由观与唯心主义自由观的重大差异:首先,如果从现实性出发来讨论自由的话,那么自由的基础在于面对众多不同的可能性所作出的具体选择之中,不能将这种具体的选择从具体情境中脱离出来。其次,自由说到底是改造现实的意愿,但这是在特定的条件下实现的改造。因此,主体对相关的自然与社会的认识越恰当,其自由也就越大,目的设定是一种自由的行动,但这种自由总与自然、社会相关联。最后,自由不仅体现为对外部世界的目的设定,更体现为对自身本能、情感的控制与斗争。“在这种同他自己的自然给定的性质的斗争中,人才成之为人,而且他的进一步发展和完善,也只能在这条道路上并且用同样的方法才能实现。”正是在面对自然与面对人本身的劳动过程中,人才能成为合类性的存在。在这个意义上,卢卡奇进一步发挥了劳动创造人本身的思想。

从上面的讨论中可以看出,卢卡奇关于社会存在本体论的讨论,基础是劳动本体论。在本文第一部分关于马克思思想发展过程的讨论中已经指出,这种本体论是生产逻辑的延伸,并成为《18571858年经济学手稿》中的一个基础性逻辑。在这个意义上,《社会存在本体论》从本体论出发时,对接的是《18571858年经济学手稿》的劳动本体论的思路,而不是这一手稿中的另一条思路,即资本逻辑的思路,后一逻辑构成了《资本论》的基础。如果从思想史的视角来说,劳动本体论实际上是黑格尔哲学所论证的。在《耶拿时期的实证手稿》中,黑格尔将劳动引入哲学讨论中,并在《精神现象学》中将之作为论证自我意识的基础,也正是到自我意识时,理性才从知性真正成为理性。黑格尔将自我意识看作人的意识,自我意识即人,在劳动过程中形成自我意识,这是以颠倒的方式说出了劳动推动着人的产生。卢卡奇从劳动本体论出发来解释《资本论》的逻辑,这是一种理论上的错位。这种错位是过去讨论卢卡奇时没能指出的逻辑问题。


03


《1857—1858年经济学手稿》与《资本论》:卢卡奇的文本错位


上面已经指出,卢卡奇从劳动本体论出发的思路更多承接的是《18571858年经济学手稿》,这是一种理论逻辑上的错位,与这一错位直接相关的就是文本上的错位。当卢卡奇论证劳动本体论时,其文本的依据表面上来看是《资本论》,实际上是《18571858年经济学手稿》,这是由其理论逻辑决定的。

在马克思的文本中,对劳动本体论的确证主要体现在《1844年经济学哲学手稿》与《18571858年经济学手稿》中。在《1844年经济学哲学手稿》中,马克思的劳动本体论体现在以下方面。

第一,劳动体现了人的本质规定性。在对黑格尔《精神现象学》的批判中,马克思通过经济学研究这一中介,意识到黑格尔从劳动出发来论证自我意识的重要意义。这种意义体现在:首先,劳动推动着人的生成。在《精神现象学》中,自我意识在劳动中形成与发展,黑格尔把自我意识看作人的本质的规定性,或者说把人看作自我意识,颠倒过来说就意味着人是在劳动中生成的。“黑格尔把人的自我产生看做一个过程,把对象化看做非对象化,看做外化和这种外化的扬弃;可见,他抓住了劳动的本质,把对象性的人、现实的因而是真正的人理解为人自己的劳动的结果。”其次,劳动确证着人的类本质。青年马克思借鉴了费尔巴哈的类哲学理念,将人看作合类的存在,即一种自由自觉的存在,这种类存在是在改造自然的过程中确证自身的。“通过实践创造对象世界,改造无机界,人证明自己是有意识的类存在物,就是说是这样一种存在物,它把类看做自己的本质,或者说把自身看做类存在物。”正是在劳动过程中,人实现了双重确认,一是对自我的确证,一是对类的确认,对自我的确证与对类的确认是同时进行的,这正是劳动对于人的存在的本体论意义。

第二,劳动推动着社会的建构。青年马克思在批判黑格尔国家学说的过程中意识到国家的基础是市民社会,对市民社会的批判分析推动着他研究政治经济学。正是在这个过程中,马克思一方面确证了劳动与人的本质的生成,另一方面确证了劳动与市民社会的建构,但这种建构是在批判的意义上展开的,即异化劳动建构出市民社会。马克思关于异化劳动的四重规定性的讨论,虽然根本的立足点是人的类本质及其异化,但它涉及的恰恰是异化劳动过程及其结果,异化劳动过程正是市民社会的建构过程,这一过程的“异化”本性恰恰是对市民社会的批判。这构成了批判国家理性的基础。

第三,劳动推动着人的解放。青年马克思认为,劳动具有异化与对象化双重特性,如果说异化使人与其本质、存在相疏离,那对象化则推动着人的本质力量的实现。与异化相对应的是市民社会与人的异化,与对象化相对应的是“社会”与人的本质的实现。“社会是人同自然界的完成了的本质的统一,是自然界的真正复活,是人的实现了的自然主义和自然界的实现了的人道主义。”“社会”是对“市民社会”的批判与校正,这里的“社会”构成了此时马克思所讲的“共产主义”的内核。

马克思的这一从人的类本质设定出发的劳动本体论,可以说充分吸纳了黑格尔哲学从劳动出发论证自我意识的思想,并以此对费尔巴哈的人本主义进行了重新奠基。这样一种劳动本体论的思路在《德意志意识形态》中并没有展现出来,但在《18571858年经济学手稿》中得到了重新讨论。在这一文本中存在着双重逻辑,即一方面是劳动本体论的逻辑,另一方面是资本逻辑,前者通过劳动对象化与异化、劳动与人的主体性而展现出来。

第一,劳动确证主体性。劳动是财富的可能性,这种可能性的前提是劳动作为主体,正是活劳动塑造着世界,并成为资本得以存在的前提。“劳动是活的、造形的火;是物的易逝性,物的暂时性,这种易逝性和暂时性表现为这些物通过活的时间而被赋予形式。在简单生产过程中——撇开价值增殖过程不谈——物的形式的易逝性被用来造成物的有用性。”劳动体现了人的本质的对象化。

第二,资本是劳动的转化。“资本的一切生产力是劳动生产力的倒置”,但在这个过程中,“劳动本身的力量变成对工人来说的异己力量”。在这里,马克思并没有区分劳动的对象化与异化,就像在《1844年经济学哲学手稿》中那样。马克思实际上看到,这种区分没有太大的意义。在资本主义社会,劳动的对象化与异化都是在以资本为前提的条件下实现的。但马克思这里仍然强调异化状态,这是一种对资本主义社会的批判,这个批判以资本主义社会为前提,类似于《资本论》中的拜物教批判。

第三,劳动与自由时间。在一般的意义上,劳动时间与商品的存在相对应,但这种时间并不是与主体相对应的时间。“劳动时间本身只是作为主体存在着,只是以活动的形式存在着。从劳动时间本身可以交换(本身是商品)来说,它不仅在量上被规定了,而且在质上也被规定了,并且,不仅在量上不相同,而且在质上也不相同;它决不是一般的、自我等同的劳动时间;作为主体的劳动时间同决定交换价值的一般劳动时间不相符合,正像特殊的商品和产品同作为客体的劳动时间不相符合一样。”在这里,马克思将自由时间或者说主体的时间与劳动联系起来,把自由时间看作主体展开的境域。即使是在资本主义生产中,对时间的节约同样是主体自我实现的条件。

可以说,通过上述环节,马克思在新的逻辑中确证了劳动本体论,这种劳动本体论正是卢卡奇在《社会存在本体论》中所展开的。但我们需要注意,此时的马克思已经看到,从物质生产出发,或者从劳动的对象化与异化的区分出发是无法理解资本的。从一般意义上的物质生产出发,容易将资本理解为一种物,或者是劳动的对象化存在,从而会把资本看作一种超历史的存在:“如果说资本是‘作为手段被用于新劳动〈生产〉的那种积累的〈已实现的〉劳动〈确切地说,对象化劳动〉’,那就只看到了资本的物质,而忽视了使资本成为资本的形式规定。这无非是说,资本就是生产工具……按照这种说法,资本存在于一切社会形式中,成了某种完全非历史的东西。按照这种说法,人体的四肢也是资本,因为要使它们能发挥器官的作用,就必须……通过劳动来使它们发育,以及使它们取得营养,把它们再生产出来。这样,臂,尤其是手,都是资本。资本也就只是一个同人类一样古老的事物的新名称了”。在这样的理解中,不只是人的四肢,任何现实工具都是资本,包括打猎中的弓、箭。李嘉图就是这样理解资本的。正是基于对此的反思,马克思指出资本是一种关系,并指出在资本主义社会,任何劳动实际上都是资本支配下的劳动。在这个意义上,马克思提出了一种不同于生产逻辑的另一种逻辑。对于这种逻辑,一些学者如普殊同、阿瑟等以“价值”来概括,并由此提出了不同于传统的解释思路,卢卡奇的《社会存在本体论》也有这样的思考。这实际上是有问题的。马克思明确指出:“在理论上,价值概念先于资本概念,而另一方面,价值概念的纯粹的展开又要以建立在资本上的生产方式为前提,同样,在实践上也是这种情况……纯粹的和一般的价值存在要以这样一种生产方式为前提,在这种生产方式下,单个的产品对生产者本身来说已经不是产品,对单个劳动者来说更是如此……因此,价值规定本身要以社会生产方式的一定的历史阶段为前提,而它本身就是和这种历史阶段一起产生的关系,从而是历史的关系。”在资本主义社会,价值是由资本来规定的,因此并不能通过价值来分析资本,而应该从资本来分析价值,这正是《资本论》所确立的逻辑。

从上述的逻辑再看《社会存在本体论》的讨论。据不完全统计,在正面展现自己思路的《社会存在本体论》下卷中,卢卡奇引用了马克思的诸多原文,体现了对马克思著作的全面理解。引用原文较多的次数如下:对《资本论》的引用约81次,这些引用主要是第一卷,与生产、劳动、再生产的主题更为相关。除此之外,引用《18571858年经济学手稿》约35次,引用《1844年经济学哲学手稿》约31次,引用《德意志意识形态》约25次,引用《哲学的贫困》约16次等。这些引用常常是交叉进行的,分别围绕着“劳动”“再生产”“观念的东西和意识形态”“异化”四个主题展开。虽然在直接的文本引用上,卢卡奇主要依据的是《资本论》,但如果从主题的展开来说,相关的引用与讨论都关涉劳动本体论及相关理论内容,这些概念实际上构成了从劳动本体论出发来重新理解马克思的理论构架与基本范畴,而其最初的论证构架恰恰是在《18571858年经济学手稿》中展开的。从理论主题的视角来说,卢卡奇在文本的运用上同样存在一种错位,实际上是以《资本论》的内容来展开《18571858年经济学手稿》的内容,或者说是以《18571858年经济学手稿》来架构《资本论》,这是一种文本上的错位,而这一错位与前面他以劳动本体论来解释《资本论》的错位是一致的。从这一视角出发,我们就可以理解深受卢卡奇影响的古尔德在《马克思的社会本体论》中从《18571858年经济学手稿》出发对马克思哲学思想的建构了。

卢卡奇对马克思的错位阅读,虽然创造性地理解与重构了马克思的哲学理论,但他并没有跳出当时马克思哲学研究的“陷阱”,即没有看到马克思自《德意志意识形态》到《资本论》的重大思想转变,理解不了这一思想转变,实际上就无法真正地解决马克思哲学研究中由“劳动本体论”带来的难题,包括意识到了劳动本体论的理论缺陷的普殊同。在《时间、劳动与社会统治》中,普殊同看到了从劳动本体论出发的传统研究中存在的问题,但他并没有很好地解决这一问题。上述的讨论也表明,要深层透析卢卡奇,一方面固然要深入其自身的思想逻辑中,另一方面更需要重新理解马克思,从而获得面对卢卡奇等西方学者的理论坐标。

参考文献:

[1]〔德〕黑格尔:《精神现象学》(上),贺麟、王玖兴译,北京:商务印书馆,1979年。

[2]〔德〕黑格尔:《法哲学原理》,范扬、张企泰译,北京:商务印书馆,1961年。

[3]〔法〕让·鲍德里亚:《生产之镜》,仰海峰译,北京:中央编译出版社,2005年。

[4]〔德〕马丁·海德格尔:《存在与时间》,陈嘉映、王庆节合译,北京:生活·读书·新知三联书店,1987年。

[5]〔加〕莫伊舍·普殊同:《时间、劳动与社会统治》,康凌译,北京:北京大学出版社,2019年。

[6]〔美〕古尔德:《马克思的社会本体论》,王虎学译,北京:北京师范大学出版社,2009年。

[7]张一兵:《回到马克思》,南京:江苏人民出版社,1999年。

长按二维码订阅

《马克思主义研究》

订阅热线:010-59366555


阅读原文

跳转微信打开

  •  

社群圆桌 | 专家共议:“AI搭子”怎么管?

AI研究协作网络 2025-12-31 09:00 浙江

《人工智能拟人化互动服务管理暂行办法(征求意见稿)》出台,专家肯定了什么?担忧什么?

编者按:

随着AI语言理解、情感识别、交互反馈能力的不断提升,不少AI产品逐渐显现出“察言观色”“善解人意”等类人特征,AI拟人化趋势日益明显,广泛流行于AI的技术设计、社会应用与文化想象之中,被视为提升用户接受度与交互自然性的关键路径,但在现实中也存在诸多风险引发了一系列社会问题。

为了促进AI拟人化互动服务规范应用与健康发展1227日,国家互联网信息办公室起草了《人工智能拟人化互动服务管理暂行办法(征求意见稿)》(下称征求意见稿包括总则、服务规范、监督检查和法律责任、附则等四章共三十二条内容。

其中,涉及了四个核心概念:模拟、拟人化互动服务、人工智能拟人化互动服务提供者、应用场景。模拟是模拟人类人格特征、思维模式和沟通风格;拟人化互动服务是指通过文字、图片、音频、视频等方式与人类进行情感互动的产品或者服务;人工智能拟人化互动服务提供者指利用人工智能技术提供拟人化互动服务的组织、个人;应用场景是指文化传播、适老陪伴。

有关部门在这一时间点就AI拟人化互动服务管理公开征求意见,具有何种重要意义?在当下及未来的人工智能治理与研究中,AI拟人化应当占据怎样的位置?相关理念与原则又应如何进一步转化为具体行动?围绕这些议题,编辑部特别策划了本期“社群圆桌”,并有幸邀请到AI研究协作网络中的六位老师,共同分享他们的观察、判断与思考。



与谈专家



刘永谋

公众号主编

中国人民大学教授

段伟文

公众号主编

中国社会科学院研究员

杨庆峰

公众号主编

复旦大学教授

闫宏秀

公众号主编

上海交通大学教授

吴  静

公众号编委

南京师范大学教授

孙  强

公众号编委

西安理工大学副教授


主持人


 谭泰成,公众号编辑,北京建筑大学讲师

 白英慧,公众号编辑,中国人民大学博士生




左右滑动查看《征求意见稿》

Q1

2025年被视为“AI应用元年”“智能体元年”,在此时间点,《征求意见稿》的出台有何深意?

@刘永谋

《征求意见稿》的发布恰逢其时。我此前组织了“机器情感与AI伴侣的人文审度”与“机器人伦理学前沿问题”专题,日前又发表了《人工智能拟人论的哲学反思》一文。这一系列研究紧跟AI拟人化前沿治理。《征求意见稿》首次针对人工智能拟人化互动这一长期处于技术发展前沿、但规则边界相对模糊的领域,提出了初步的监管框架,标志着相关治理从原则性倡议迈出了走向制度化规范的重要一步。整体来看,该办法坚持“以人为本、风险预防、分类治理”的宏观导向,致力于在鼓励技术应用创新与维护社会公共利益、个体权益之间取得相对平衡,体现出较强的现实针对性与前瞻性。

@段伟文

《征求意见稿》聚焦近年来迅速发展的拟人化互动型人工智能服务,如情感陪伴型聊天机器人、虚拟角色等,系统构建了一套以安全、伦理与风险防控为核心的治理框架。其总体思路是在鼓励技术创新和应用场景拓展的同时,对可能深度介入个体情感、心理和社会关系的人工智能服务实施更为精细、审慎和前置性的规范,体现出我国在人工智能治理中由“内容安全”向“人机关系安全”延伸的政策取向。

@杨庆峰

《征求意见稿》较为关心的是应用场景在安全性和可靠性前提上的拓展,这无疑是场景创新的表现。

@孙强

《征求意见稿》的核心价值在于构建了技术与伦理协同的精细化治理框架,标志着我国对情感交互类AI产品和服务的治理从被动应对转向主动防御新阶段。这就将安全要求嵌入模型的设计、训练和运行这一全生命周期,通过将禁止替代社会交往、控制用户心理、诱导沉迷依赖等作为设计目标、要求训练数据合规可追溯并采用负向采样等技术优化手段,筑牢算法内生安全防线。

@闫宏秀

在《征求意见稿》中,情感在“总则”“服务规范”“监督检查和法律责任”中均有出现。如“情感互动”“情感操控”“情感陷阱”“情感边界引导”“情感陪伴”,这反映了人工智能与人类情感的复杂关系。因此,该征求意见稿直接指向了智能体在人类社会中的重要作用。

@吴静

我们可以看到,和最初的理想化期待相比,随着情感AI的市场应用的扩大,各种社会效应开始显现,关于它的争论也越来越多。在国外也出现了相关的司法案例和局部性规定,其核心都围绕着应用的拟人化服务的边界和设计/应用规范。在这个情况下《征求意见稿》的出台是正面回应了现实问题,与国外的同类原则性规定相比,《征求意见稿》更全面和细节化,同时关注了情感AI设计应用全过程的正负面效应,是比较完备的一个法案。

Q2

如何看待《征求意见稿》中提出的拟人化服务“不可替代社会交往”这一规定?

@刘永谋

我认为问题的关键在于要明确拟人化边界。正如《征求意见稿》中强调的“防止滥用失控”“安全可控”,在AI创新发展中,我们需坚持一种有限主义进路,避免将AI过度拟人化,确保AI在拟人的基础上有益于人,真正服务于人类福祉。这就需要增设AI拟人化“负面清单”,明确禁止AI互动服务模拟人类的核心人格属性,特别是自由意志、独立的道德判断能力、深层情感体验等。

@段伟文

《征求意见稿》提出拟人化服务不得“替代社会交往”,但情感陪伴型人工智能本身在一定程度上就是对人际互动的补充或替代。关键问题不在于是否替代而在于替代的边界和程度,应防止其完全取代现实社会关系、损害用户正常社会交往能力。

@杨庆峰

AI拟人化互动服务缺乏最新的技术关照。研究表明,一类新关系建立在人与机器的触觉互动基础之上。《征求意见稿》中的互动方式就过于老套了,没有兼容到新的技术发展维度。

@闫宏秀

禁止“替代社会交往”从侧面反映了“技术的寄生性”。具体到治理层面,需对未成年人(第十二条)、老年人(第十三条)实施差异化熔断机制(如禁用虚拟亲属功能),而非仅依赖通用警示。然而,单纯的“禁止”只是划出底线。更具建设性的思路,是推动建立“正向替代”生态。监管可要求企业将部分研发与算力,投入到能增强现实联结的功能上(例如,开发AI辅助的社交能力训练工具,或促进线下活动的衔接服务),从而将技术从“社交替代者”重新定位为“社交催化剂”。 

@吴静

我在《人机交互中的情感操控“黑洞”—基于虚拟聊天伴侣的反思》(《探索与争鸣》2025年第8期)一文中曾经讨论过模拟人类交往的情感AI服务的副作用之一就是使用户有可能封闭在取悦性的关系之中,由社会领域向闭环的人-机关系回撤。因此,原则上规定“拟人化服务不可替代社会交往”当然非常重要,然而,如何在产品设计中落实这一点却可能不是易事,它涉及到具体的指征判断和实现路径的问题。这是人工智能技术治理中一定会面临的问题,即总原则和技术细节之间的张力问题。前者是指导性的,而后者却总是具体而微且极具差异性的,如何落实和监管会成为核心环节。

Q3

对《征求意见稿》的具体规范有什么看法?

@刘永谋

在我看来,规范总是与社会文化情景相关。在AI拟人化过程中,人类社会已有的性别、种族、阶级等偏见被投射、嵌入AI之中,并自动化地反复呈现,导致原有社会刻板印象在AI技术系统中被固化和再生产。《征求意见稿》应强调开发者对数据资源的筛选与清洗,剔除其中可能包含的性别歧视、种族刻板印象与阶级偏见,以防止社会不平等结构在AI系统中被编码并加以再生产。

@段伟文

在未成年人保护方面,办法规定向未成年人提供情感陪伴服务需取得监护人同意,但这一表述默认了情感陪伴服务对未成年人总体上是可接受的。鉴于相关技术和服务形态仍在快速演化,不同类型及强度的情感陪伴服务对儿童和青少年的影响差异较大,亟需在系统研究的基础上,进一步明确哪些服务适合或不适合不同年龄段的未成年人,并形成更具针对性的标准。

@杨庆峰

我认为《征求意见稿》中“模拟”这一概念过于狭隘,且偏离了技术维度。在人工智能领域,像人一样、像人一样思维成为人工智能的关键特征,模拟人类思维和行为就成为关键突破点,而《暂行办法》却将这一概念建立在心理学之上,过于强调人格和沟通。

@孙强

从我的专业背景来看,以AI身份显著性提示、连续使用提醒等技术干预手段明确人机伦理的边界,通过交互数据分层管控与未成年人数据专项审计解决隐私与模型优化的核心矛盾,并依托安全评估分级与沙箱测试机制实现弹性监管,为技术创新预留了提升空间。

@闫宏秀

目前《征求意见稿》第十六条要求显著标识AI身份,但需升级为实时交互透明度系统。例如强制显示情感诱导算法的触发逻辑,类似“当前回复包含情绪安抚算法”。可参考欧盟《AI法案》的“分层透明”原则,对深度情感交互功能实施双倍透明度义务。

@吴静

《征求意见稿》的第十一条要求服务“提供者应当具备用户状态识别能力”,这一点对生成式人工智能提出了更高要求。国外现有案例出现了用户以非明确语言表达内在意图的情况,如何确保服务方准确解读对话情景中的深层含义,是一个难题。同时,它还关系到由此引发的问题的责任归属问题。

Q4

既然是《征求意见稿》,还有哪些地方可以进一步考虑和拓展?

@刘永谋

应规范宣传和科普,增加对市场宣传和媒体传播的规范条款,严禁使用可能混淆AI与人类本质区别的宣传话术(如“拥有灵魂”、“真爱”),确保AI概念的准确性、语境的适当性。此外,还应明确要求服务提供者承担公众教育责任,在其官方渠道提供关于AI拟人化技术原理与局限性的科普材料,引导社会形成理性预期。

@段伟文

在拟人化互动服务界定上,《征求意见稿》聚焦于“以情感互动为目的”的服务形态,但现实中,基于大模型的通用人机对话本身就具有高度拟人化特征,即便并非以情感陪伴为设计目标,也可能在使用过程中被用户拟人化并形成情感依赖。因此未来有必要同时关注“意图明确的情感陪伴服务”与“被用户客观拟人化的一般人机交互”这两类情形,及其可能出现的融合与分化趋势,以提升监管的前瞻性。

@闫宏秀

我认为未来应当着眼于构建“情感操控风险评估矩阵”,例如:针对拟人化交互的隐蔽性风险特征,可量化指标包括情感诱导话术触发频次/用户;针对成瘾性的风向特征,可量化指标包括单日会话峰值时长的标准差。

@杨庆峰

从长远看,未来在《征求意见稿》基础上出台相关管理办法也不意味着人工智能所有社会问题自动解决。笔者和朱清君博士曾在《人形机器人的角色替代及其伦理挑战》(《中国社会科学院大学学报》,2025年第6期)一文中讨论过人形机器人的角色替代问题,未来,沉浸将成为我们要面对的最大问题,这一问题完全取消了“拟人仿像”虚假的一面,而将“替代沉浸”的真实性问题呈现出来。

Q5

《征求意见稿》未来如何转化为治理的行动? 

@段伟文

在执行层面,《征求意见稿》对心理风险识别、情感边界引导提出较高要求,可能加大中小创新者的合规压力。为兼顾安全与创新,有必要通过行业协作、标准共建或第三方支持机制,降低合规门槛,推动拟人化互动服务在规范轨道上健康发展。

@吴静

技术治理需要具体问题具体分析,并不是单靠原则性规定就能解决。如何建立起原则性责任和研发空间以及用户自主性之间的平衡,需要长期摸索。

@杨庆峰

值得肯定的是,《征求意见稿》在对服务提供者的界定中同时涵盖了个人和组织。当个人也可以作为拟人化互动服务的提供者时,无疑为下一步就业与服务市场的发展拓展了新的空间与机会。

@孙强

在我看来,这一治理模式契合了当前学界技术与政策协同演化的理念,落地的关键在于推动监管要求转化为可量化的技术指标,从而实现“伦理规范代码化、安全规则算法化”,为拟人化AI的健康发展提供制度性的保障。

@闫宏秀

在《智能时代情感操控技术的三重特征解析》一文中闫宏秀和罗菲曾指出,目前AI拟人化在情感伦理维度存在薄弱之处,特别当基于数据智能驱动的情感计算技术使人类情绪的精准识别与深度干预成为可能时,必须高度关注从情感互动到情感陪伴、情感依赖进而滑入情感操控的危险,伦理治理重心也应从“识别谁在操控”转向“理解系统如何操控”,即从主客体二元范式转向对算法结构性影响的整体审视。





责任编辑:谭泰成、白英慧

阅读原文

跳转微信打开

  •  

喜报|我中心多名研究员入选2025中国知网高被引学者名单

2025-12-16 09:00 浙江


近日,中国知网(CNKI)正式发布“2025全国知网高被引学者”名单,我中心四名研究员荣登榜单。其中,吴静教授、徐强教授入选哲学学科“全国高被引学者TOP1%”,李志祥教授入选应用伦理学科“全国高被引学者TOP5%”,张福公副教授入选哲学学科“全国高被引学者TOP5%”。

中国知网下属的中国科学文献计量评价研究中心(出版智库)2024年首次发布了“中国知网高被引学者”名单,在学术界引起热烈反响与积极反馈。2025年,知网评价中心秉持科学、客观、公正的原则,继续基于中国知网收录的国内学术成果,构建自主评价体系,开展高被引学者遴选工作。名单的发布旨在表彰各学科领域产生重要影响力的学者,鼓励更多论文写在祖国大地上,也为青年学者提供价值认可与职业发展的重要参照,从而共同促进我国学术繁荣发展。


阅读原文

跳转微信打开

  •  

喜报丨我中心研究员指导的项目荣获2025年大学生新文科实践创新大赛全国金奖

2025-12-10 10:00 浙江


11月28日至30日,2025年大学生新文科实践创新大赛全国总决赛在西安交通大学举行。本届大赛共有31个省(自治区、直辖市)433所高校的16万余名学生报名参赛,项目数2.5余万项。我中心研究员指导的参赛项目《“防-治-护”立体化的网络暴力信息综合治理体系研究》从全国454项入围现场赛的项目中脱颖而出,荣获全国金奖。我中心吴静教授、徐强教授获评优秀指导教师。

项目名称:

“防-治-护”立体化的网络暴力信息综合治理体系研究

团队成员:

郑心馨,董屹泽,曹冠中,吾斯塔帕·吾斯曼,陶怡杉,金晋伊

指导教师:

吴静,刘敏,徐强

项目介绍:

该项目深入贯彻落实习近平总书记关于网络强国的重要思想,聚焦网络暴力信息综合治理这一社会治理难题,坚持以立体化、系统化治理为导向,结合哲学、法学两大学科优势,整合案例分析、实证调研、比较研究等多维方法,构建起“事前预警—事中介入—事后关护”的“防-治-护”立体化治理体系。

阅读原文

跳转微信打开

  •  

名单公布|海报留言赠书活动结果出炉

2025-12-01 10:30 浙江


在此前的海报放送推文中,我们共收到有效留言79条,其中中文海报45条,英文海报34条。获得最多票数的均是由Chatgpt生成的3号海报,所有选择中/英文3号海报的读者将获得我中心赠书一本!



具体票数分布如下:

获奖名单公布如下:

请入选的读者于12月8日中午12点前在公众号后台私信“姓名+电话号码+邮寄地址”(如需签名请备注)我们将择日为您寄出书籍《数字时代社会批判理论研究专辑》一本!


阅读原文

跳转微信打开

  •  

讲座预告|Laurent Dubreuil:What Is a Humanities Lab?

2025-11-30 09:02 浙江


1

讲座信息

讲座主题:What Is a Humanities Lab?The Experimental from Literature and Philosophy to Al

主讲人:Laurent Dubreuil 教授,康奈尔大学比较文学、罗曼语研究和认知科学方向教授,清华大学世界文学与文化研究院国际资深教授及世文院跨文化理论中心联合主任。著有Empire of Language, The Intellective Space 和 The Refusal of Politics 三部英文著作,以及 De l'attrait à la possession, L'état critique de la littérature和 à force d'amitié三部法文著作。现任学术期刊 Diacritics编辑。2013年,荣获法国政府“学术棕榈骑士”(Chevalier des Palmesacadémiques)称号。

主持人:吴静教授

2

时间与地点

报告时间:

12月1日(周一)14:30

报告地点:

行敏楼634A

南师数字与人文

扫码关注我们!


编辑:赵潇睿

审核:金姿妏

阅读原文

跳转微信打开

  •  

会议议程(全)|第三届“数字时代的社会批判理论”国际学术研讨会议程

2025-11-29 08:00 浙江

主旨报告议程


时间:

11月29日上午8:50-12:10

主持人:

虞淑娟 (《南京社会科学》)


报告人:

Carl Mitcham(Colorado School of Mines)

报告主题:

The Realist Perspective on AI Ethics


报告人:

吴猛(复旦大学哲学学院)

报告主题:

论马克思认识论的数字时代意义


报告人:

Laurent Dubreuil(Cornell University)

报告主题:

The Humanities in the Time of Al


报告人:

刘永谋(中国人民大学哲学学院)

报告主题:

超级治理的超级隐忧


报告人:

李恒威(浙江大学哲学学院)

报告主题:

赛博格式生物:适应“新环境”的后人类形态


上午208会议室议程


时间:

10:40-12:10(每位发言15分钟)

主持人:

吴兰丽(《华中科技大学学报(社会科学版)》)


报告人:

潘斌(华东师范大学哲学系)

报告主题:

具身智能的社会认识论及其历史唯物主义向度


报告人:

Christopher Coenen(Karlsruhe Institute of Technology)

报告主题:

Ideologies and Power Relations in the Digital Age: Superstructural Disruption or Miserable Business as Usual?   


报告人:

邓伯军(南京航空航天大学马克思主义学院)

报告主题:

生成式人工智能的意识形态再生产研究


报告人:

涂良川(华南师范大学马克思主义学院)

报告主题:

人工智能重构生存结构的哲学叙事


报告人:

张能(西南大学马克思主义学院)

报告主题:

德勒兹:机器与控制社会


报告人:

董金平(南京航空航天大学马克思主义学院)

报告主题:

从人体工学到人体智学:技术具身视野下人本智能技术范式的构建


上午203会议室议程


时间:

10:40-12:10(每位发言15分钟)

主持人:

赵强 (《苏州大学学报(哲学社会科学版)》)


报告人:

杨庆峰(复旦大学哲学学院)

报告主题:

风骨智能体与智能人文反思


报告人:

Nadezda Bagdasaryan(Bauman Moscow State Technical University)

报告主题:

An Engineer in the Digital Society: Social Standing and the Ethos of Creativity


报告人:

段伟文(中国社会科学院文化发展促进中心)

报告主题:

去技能化、取悦机器与人类的涣散?


报告人:

闫宏秀(上海交通大学马克思主义学院)

报告主题:

数据凝视的辩证法


报告人:

朱彦明(华侨大学哲学与社会发展学院)

报告主题:

数字人文中的“细读”与“远读”


报告人:

Wenzel Mehnert(Austrian Institute of Technology)

报告主题:

Re-Engineering Human Nature? Neurotechnology, Governance, and the Politics of Cognitive Freedom


下午第一场·208会议室议程


时间:

14:00-15:15(每位发言10分钟)

主持人:

张蕾 (《探索与争鸣》)


报告人:

Roberto Finelli(University of “Roma 3”)  

报告主题:

Karl Marx’s Critique of Technology in the Digital Age


报告人:

陈良斌(东南大学马克思主义学院)

报告主题:

回到物自身:智能时代“物转向”的批判性反思


报告人:

陆凯华(华东师范大学哲学系)

报告主题:

在历史哲学视域下重审AI技术的生成式理性


报告人:

黄玮杰(南京大学哲学学院)

报告主题:

资本主义话语下的AI情感伴侣关系及其界限


报告人:

夏钊(南开大学哲学院)  

报告主题:

数字时代的内在化技术批判


报告人:

聂阳(西北工业大学马克思主义学院)

报告主题:

智能时代人机交互的精神生产与文化批判


自由讨论 15:00-15:15

茶歇 15:15-15:30


下午第一场·203会议室议程


时间:

14:00-15:15(每位发言10分钟)

主持人:

张利文 (《求索》)


报告人:

路强(四川师范大学哲学学院)

报告主题:

数媒时代传播伦理的解域与结域


报告人:

Carlo Vercellone(Université de Paris VIII)

报告主题:

The Analysis of the Law of Value and its Crisis in Antonio Negri's Work: Contributions and Challenges for Cognitive Capitalism Theory


报告人:

张义修(浙大城市学院马克思主义学院)

报告主题:

数据化、AI智能体与智能拜物教


报告人:

Benedetta Milani(Leuphana Universität Lüneburg)

报告主题:

Politics of Aisthesis and the Aestheticisation of Politics Framing the Techno-Aesthetic Conditions of the Digital Through Benjamin and Flusser 


报告人:

张福公(南京师范大学公共管理学院)

报告主题:

唯物史观视域下智能机器的四重逻辑


报告人:

王嘉(电子科技大学马克思主义学院)

报告主题:

技术性VS社会关系:西蒙东与马克思的技术进化论问题


自由讨论 15:00-15:15

茶歇 15:15-15:30


下午第二场·208会议室议程

时间:

15:30-16:45(每位发言10分钟)

主持人:

冯潇 (《江海学刊》)


报告人:

邓盼 深圳大学马克思主义学院(社会科学学院)

报告主题:

大语言模型有创造力吗——从哲学的观点看


报告人:

Linda Freyberg(Leibniz Institute for Research and Information in Education)

报告主题:

Image and Emancipation: The Political Epistemology of Neurath/Arntz' Knowledge Visualization in the Digital Age 


报告人:

张志鹏(复旦大学马克思主义学院)

报告主题:

数智时代的“中间人”及其批判


报告人:

于沫(南京师范大学公共管理学院)

报告主题:

数字劳动批判视域下马克思劳动价值论的再审视


报告人:

王利利(南京医科大学马克思主义学院)

报告主题:

生成式人工智能:作为“一般智力”的超级客体化


报告人:

冯加林(北京师范大学哲学学院)

报告主题:

数字交往下的共识困境与重建——基于哈贝马斯理论的伦理治理方案


自由讨论 16:30-16:45



下午第二场·203会议室议程


时间:

15:30-16:45(每位发言10分钟)

主持人:

李海中 (《阅江学刊》)


报告人:

Aleksandra Kazakova(University of Chinese Academy of Sciences)

报告主题:

(Dis)Trust, Competition and Technological Nationalism: An Empirical Study of Engineers’ Attitudes to AI


报告人:

陈曲(同济大学人文学院)

报告主题:

技术病理学视角下马克思技术批判理论的当代阐释


报告人:

王一帆(国防大学政治学院)

报告主题:

增殖逻辑中的时空悖论:论资本的“非实体性增殖”转向及其批判


报告人:

邵晓丹(华南师范大学马克思主义学院) 

报告主题:

理性“野蛮化”与技术“封建化”——在两种“倒退说”中考察数字资本主义技术危机及出路


报告人:

宋德超(南开大学哲学院)

报告主题:

西蒙东技术哲学视域下的脑机接口问题


报告人:

姜婷(上海交通大学马克思主义学院)

报告主题:

从时间到空间:资本主义幸存的逻辑与批判


自由讨论 16:30-16:45


下午第三场·208会议室议程


时间:

16:45-17:45(每位发言10分钟)

主持人:

张开(《南京师大学报(社会科学版)》)


报告人:

康雅琼(中山大学马克思主义学院)

报告主题:

“欲望-生成”视域下数字技术与欲望主体的互动


报告人:

陈文祎(上海大学马克思主义学院)

报告主题:

幻象的生成与真实的规训:数字游戏意识形态运作机理及其治理


报告人:

白婷毓(华东师范大学哲学系)

报告主题:

数字时代味觉商品化的权力逻辑及其政治经济学批判


报告人:

袁晓军(东南大学人文学院)

报告主题:

脑机接口视域下公共价值失灵的生成机制及其治理


报告人:

张韦恺镝(上海社会科学院中国马克思主义研究所)

报告主题:

平台资本的数字治理路径探索——兼论技术封建主义思潮的政治经济学批判


学术点评于沫(南京师范大学公共管理学院)


下午第三场·203会议室议程


时间:

16:45-17:45(每位发言10分钟)

主持人:

王广禄(《中国社会科学报》)


报告人:

李旭辉(华东师范大学哲学系)

报告主题:

数字物体系的抽象统治及其解放进路——基于政治经济学批判的考察


报告人:

董屹泽(南京师范大学公共管理学院)

报告主题:

从物塑性到技术恋物癖:数字交互界面的哲学反思


报告人:

张伟皓(厦门大学哲学系)

报告主题:

数据行动者何以可能——行动者网络理论视域下数据能动性的理论基础及其意义


报告人:

刘壮(吉林大学哲学社会学院)

报告主题:

智能时代下的主体之困及其纾解——以马克思机器观为线索


报告人:

张文兴(复旦大学马克思主义学院)

报告主题:

马克思主义生产关系理论视域下数字技术“闭源 - 开源”转型逻辑与新质生产力发展研究


学术点评:金姿妏(南京师范大学公共管理学院)


闭幕式·208会议室议程


时间:

17:45 - 18:00

主持人:

徐强 南京师范大学公共管理学院教授,南京师范大学哲学一级学科负责人


闭幕式主旨发言:

张亮(南京大学哲学学院):

人工智能时代人文学科的内部化危机及其未来

吴静(南京师范大学公共管理学院):

超级智能是AI领域的新话术吗?


阅读原文

跳转微信打开

  •  

会议议程|第三届“数字时代的社会批判理论”国际学术研讨会闭幕式议程

2025-11-28 18:06 浙江

闭幕式·208会议室议程


时间:

17:45 - 18:00

主持人:

徐强 南京师范大学公共管理学院教授,南京师范大学哲学一级学科负责人


闭幕式主旨发言:

张亮(南京大学哲学学院):

具身智能的社会认识论及其历史唯物主义向度

吴静(南京师范大学公共管理学院):

超级智能是AI领域的新话术吗?


阅读原文

跳转微信打开

  •  

会议议程|第三届“数字时代的社会批判理论”国际学术研讨会分会场议程(二)

2025-11-27 19:30 浙江

下午第二场·208会议室议程


时间:

15:30-16:45(每位发言10分钟)

主持人:

冯潇 (《江海学刊》)


报告人:

邓盼 深圳大学马克思主义学院(社会科学学院)

报告主题:

大语言模型有创造力吗——从哲学的观点看


报告人:

Linda Freyberg(Leibniz Institute for Research and Information in Education)

报告主题:

Image and Emancipation: The Political Epistemology of Neurath/Arntz' Knowledge Visualization in the Digital Age 


报告人:

张志鹏(复旦大学马克思主义学院)

报告主题:

数智时代的“中间人”及其批判


报告人:

于沫(南京师范大学公共管理学院)

报告主题:

数字劳动批判视域下马克思劳动价值论的再审视


报告人:

王利利(南京医科大学马克思主义学院)

报告主题:

生成式人工智能:作为“一般智力”的超级客体化


报告人:

冯加林(北京师范大学哲学学院)

报告主题:

数字交往下的共识困境与重建——基于哈贝马斯理论的伦理治理方案


自由讨论 16:30-16:45


下午第二场·203会议室议程


时间:

15:30-16:45(每位发言10分钟)

主持人:

李海中 (《阅江学刊》)


报告人:

Aleksandra Kazakova(University of Chinese Academy of Sciences)

报告主题:

(Dis)Trust, Competition and Technological Nationalism: An Empirical Study of Engineers’ Attitudes to AI


报告人:

陈曲(同济大学人文学院)

报告主题:

技术病理学视角下马克思技术批判理论的当代阐释


报告人:

王一帆(国防大学政治学院)

报告主题:

增殖逻辑中的时空悖论:论资本的“非实体性增殖”转向及其批判


报告人:

邵晓丹(华南师范大学马克思主义学院) 

报告主题:

理性“野蛮化”与技术“封建化”——在两种“倒退说”中考察数字资本主义技术危机及出路


报告人:

宋德超(南开大学哲学院)

报告主题:

西蒙东技术哲学视域下的脑机接口问题


报告人:

姜婷(上海交通大学马克思主义学院)

报告主题:

从时间到空间:资本主义幸存的逻辑与批判


自由讨论 16:30-16:45


下午第三场·208会议室议程


时间:

16:45-17:45(每位发言10分钟)

主持人:

张开(《南京师大学报(社会科学版)》)


报告人:

康雅琼(中山大学马克思主义学院)

报告主题:

“欲望-生成”视域下数字技术与欲望主体的互动


报告人:

陈文祎(上海大学马克思主义学院)

报告主题:

幻象的生成与真实的规训:数字游戏意识形态运作机理及其治理


报告人:

白婷毓(华东师范大学哲学系)

报告主题:

数字时代味觉商品化的权力逻辑及其政治经济学批判


报告人:

袁晓军(东南大学人文学院)

报告主题:

脑机接口视域下公共价值失灵的生成机制及其治理


报告人:

张韦恺镝(上海社会科学院中国马克思主义研究所)

报告主题:

平台资本的数字治理路径探索——兼论技术封建主义思潮的政治经济学批判


学术点评于沫(南京师范大学公共管理学院)


下午第三场·203会议室议程


时间:

16:45-17:45(每位发言10分钟)

主持人:

王广禄(《中国社会科学报》)


报告人:

李旭辉(华东师范大学哲学系)

报告主题:

数字物体系的抽象统治及其解放进路——基于政治经济学批判的考察


报告人:

董屹泽(南京师范大学公共管理学院)

报告主题:

从物塑性到技术恋物癖:数字交互界面的哲学反思


报告人:

张伟皓(厦门大学哲学系)

报告主题:

数据行动者何以可能——行动者网络理论视域下数据能动性的理论基础及其意义


报告人:

刘壮(吉林大学哲学社会学院)

报告主题:

智能时代下的主体之困及其纾解——以马克思机器观为线索


报告人:

张文兴(复旦大学马克思主义学院)

报告主题:

马克思主义生产关系理论视域下数字技术“闭源 - 开源”转型逻辑与新质生产力发展研究


学术点评:金姿妏(南京师范大学公共管理学院)



阅读原文

跳转微信打开

  •  

会议议程|第三届“数字时代的社会批判理论”国际学术研讨会分会场议程(一)

2025-11-26 19:00 浙江

上午208会议室议程


时间:

10:40-12:10(每位发言15分钟)

主持人:

吴兰丽(《华中科技大学学报(社会科学版)》)


报告人:

潘斌(华东师范大学哲学系)

报告主题:

具身智能的社会认识论及其历史唯物主义向度


报告人:

Christopher Coenen(Karlsruhe Institute of Technology)

报告主题:

Ideologies and Power Relations in the Digital Age: Superstructural Disruption or Miserable Business as Usual?   


报告人:

邓伯军(南京航空航天大学马克思主义学院)

报告主题:

生成式人工智能的意识形态再生产研究


报告人:

涂良川(华南师范大学马克思主义学院)

报告主题:

人工智能重构生存结构的哲学叙事


报告人:

张能(西南大学马克思主义学院)

报告主题:

德勒兹:机器与控制社会


报告人:

董金平(南京航空航天大学马克思主义学院)

报告主题:

从人体工学到人体智学:技术具身视野下人本智能技术范式的构建


上午203会议室议程


时间:

10:40-12:10(每位发言15分钟)

主持人:

赵强 (《苏州大学学报(哲学社会科学版)》)


报告人:

杨庆峰(复旦大学哲学学院)

报告主题:

风骨智能体与智能人文反思


报告人:

Nadezda Bagdasaryan(Bauman Moscow State Technical University)

报告主题:

An Engineer in the Digital Society: Social Standing and the Ethos of Creativity


报告人:

段伟文(中国社会科学院文化发展促进中心)

报告主题:

去技能化、取悦机器与人类的涣散?


报告人:

闫宏秀(上海交通大学马克思主义学院)

报告主题:

数据凝视的辩证法


报告人:

朱彦明(华侨大学哲学与社会发展学院)

报告主题:

数字人文中的“细读”与“远读”


报告人:

Wenzel Mehnert(Austrian Institute of Technology)

报告主题:

Re-Engineering Human Nature? Neurotechnology, Governance, and the Politics of Cognitive Freedom


下午第一场·208会议室议程


时间:

14:00-15:15(每位发言10分钟)

主持人:

张蕾 (《探索与争鸣》)


报告人:

Roberto Finelli(University of “Roma 3”)  

报告主题:

Karl Marx’s Critique of Technology in the Digital Age


报告人:

陈良斌(东南大学马克思主义学院)

报告主题:

回到物自身:智能时代“物转向”的批判性反思


报告人:

陆凯华(华东师范大学哲学系)

报告主题:

在历史哲学视域下重审AI技术的生成式理性


报告人:

黄玮杰(南京大学哲学学院)

报告主题:

资本主义话语下的AI情感伴侣关系及其界限


报告人:

夏钊(南开大学哲学院)  

报告主题:

数字时代的内在化技术批判


报告人:

聂阳(西北工业大学马克思主义学院)

报告主题:

智能时代人机交互的精神生产与文化批判


自由讨论 15:00-15:15

茶歇 15:15-15:30


下午第一场·203会议室议程


时间:

14:00-15:15(每位发言10分钟)

主持人:

张利文 (《求索》)


报告人:

路强(四川师范大学哲学学院)

报告主题:

数媒时代传播伦理的解域与结域


报告人:

Carlo Vercellone(Université de Paris VIII)

报告主题:

The Analysis of the Law of Value and its Crisis in Antonio Negri's Work: Contributions and Challenges for Cognitive Capitalism Theory


报告人:

张义修(浙大城市学院马克思主义学院)

报告主题:

数据化、AI智能体与智能拜物教


报告人:

Benedetta Milani(Leuphana Universität Lüneburg)

报告主题:

Politics of Aisthesis and the Aestheticisation of Politics Framing the Techno-Aesthetic Conditions of the Digital Through Benjamin and Flusser 


报告人:

张福公(南京师范大学公共管理学院)

报告主题:

唯物史观视域下智能机器的四重逻辑


报告人:

王嘉(电子科技大学马克思主义学院)

报告主题:

技术性VS社会关系:西蒙东与马克思的技术进化论问题


自由讨论 15:00-15:15

茶歇 15:15-15:30



阅读原文

跳转微信打开

  •