“伪人横行”的背后,是一场被精心掩藏的社会性退化
✪ 刘禾
美国哥伦比亚大学比较文学与社会研究所
✪ 访谈、整理| 郝煜东、戎渐歆
文化纵横编辑部
【导读】11月24日,美国总统特朗普签署行政令,推出由能源部主导的国家级战略”创世纪计划“(Genesis Mission),旨在倾举国之力调配、集结科学资源,通过人工智能变革科学研究范式、加速科学发现。分析人士称其为AI领域的“曼哈顿计划”或“阿波罗太空计划”,标志着数字技术领域的大国竞争进一步激化。
迫近的现实,敦促我们重新审视数字技术的缘起,改换“天才发明技术”的叙事逻辑。在本篇专访中,刘禾围绕她最新译为中文的著作《弗洛伊德机器人》,讲述了技术与时代的密切关联。刘禾指出,作为当今AI技术的前身,控制论与通信技术是资本主义战争机器的产物,二战与冷战的历史社会场景,从最初便塑造了人们对人机关系的想象。在地缘政治中信奉”你死我活“的零和博弈的人们,将人机关系局限在“控制”与“被控制”的主奴关系之中;自恋心理的投射,又使机器得以深入而全面地改造人类社会的组织方式。
本文作者的反思,超越了常见的将数字技术作为“社会现象”的表层讨论,从哲学维度深入分析了数字技术的内在运作逻辑,揭示了它对人类认知形态与社会组织方式带来的根本冲击——与改造生产关系的历次工业革命不同,AI正在重塑人类本身;离不开机器的人类,可能渐渐成为自动运转的、与之类似的无意识个体。
历史需求的更迭,为技术进步提供了土壤;技术对人类社会的改造,又对现有的认知哲学与社会科学范式提出了挑战。我们的世界正在经历天翻地覆的变化,亟需寻找新的思想资源,打开新的讨论空间。下一轮技术与认知革命,或许也将是当今时代的回音。
本文原载于《文化纵横》2025年第6期,仅代表作者观点,供读者参考。
揭开“数字文明”的真相:人如何被机器改造?
文化纵横:您的著作《弗洛伊德机器人》的中译版刚出版,主要讨论的是人与机器的关系,这个话题其实已经在众多科幻题材的作品中大量出现了。比如,我们常喜欢讲人类能不能真的控制机器,机器人会不会造反,就像《2001太空漫游》中的哈尔9000;或者是我们能不能让机器人服务于更良善的社会目标;再或者像《银翼杀手2049》里一样,讨论如果机器人有了灵魂、有了意识,那它到底是不是人,人和机器的区别到底在哪里。但刘禾老师您的讨论方式,似乎和这些传统话题有所不同?
刘禾:我们通常看到的人和机器的关系,在人工智能的叙事表达中,往往被想象成“主奴关系”。有意思的是,“机器人”的英文单词“robot”源自捷克语,本意就是“奴隶”。很多人就望文生义,认为机器和人必须要从主奴关系的角度去思考。的确也有不少科幻电影和小说在探讨这个问题,而且都在表达同一种焦虑,就是万一主奴关系颠倒过来,怎么办?万一奴隶要造反,然后反过来奴役我,怎么办?这听起来有点像通常统治阶级常有的那种焦虑,例如库布里克那部电影,《2001太空漫游》就是典型的由奴隶变成造反派的故事,哈尔9000要谋杀他本来应该服务的主人,也就是人类。我认为这种科幻的想象掩盖了很多需要进一步思考的问题:数字技术出现的前后,我们发明机器人的真实原因是什么?人和机器的关系到底是怎么发展过来的?都有哪些重大的变化?
说到底,人和技术的关系是人类文明进化史的核心。如果我们回看古代文明,就会发现其中有一些技术发明我们至今仍然还在使用,比如书写技术。通常我们不把书写技术也看作是技术,是因为太熟悉了。大家会认为,学写字不就是学一些符号嘛,比如学汉字,你花那么多年要把字写好,学英文不但要认识26个字母,你还得学会拼写——你把这些符号记住不就行了吗?而且在电脑发明之前,长期以来大家不都是用手写的吗?这个跟技术有什么关系?
当然有关系。古人发明书写技术时,他们知道需要几个特定的技术条件。首先需要书写平面,比如古代中国的竹简或者木简、古代两河流域的泥板、古埃及人用的莎草纸,以及后来纸张的发明等等。其次就是书写工具,可以是刻刀,可以是毛笔。然后是我们所说的汉字或者拼音字母,也就是一套符号。但仅仅靠一套符号是不能解释书写系统的,在这个意义上,古代的书写技术和我们现在通过电脑键盘打字,然后由电脑晶片的电路处理数字和文字符号,两者之间在本质上是相通的。
这也是为什么考古学家喜欢用有没有书写技术的标准,去衡量古代文明发展的程度。因为不是所有使用口头语言的文明,最后都发展出了书写技术。一般来说,考古学家认为,世界上有四大文明区最早发明了书写技术,中国是其中之一。但中国一直是多语种的欧亚大陆的一部分,并不是所有的地方语言都发展出了书写技术。这不是一个先进与落后的问题,长久以来,有没有必要去发明书写符号,或者借用一套符号系统,才是事情的关键。
我在书中提到一位科技史学者,名叫哈罗德·伊尼斯,他也是媒体学创始人麦克卢汉常常引用的历史学家。伊尼斯写过一本书叫《帝国与传播》,其中提到,为什么古罗马帝国需要书写技术?因为它在海外征服的时候,需要进行远距离的信息传递,如果没有这种传播交流的需求,就用不着书写技术。再比如蒙古帝国发迹的时候,同时也发明了自己的文字,因为在他们往欧亚大陆扩张的时候,也有远距离传递情报信息的需要。古代远距离的通讯方式大致有两种:如果你有书写技术,就可以骑马送信,如果没有的话,就只能靠吟唱诗歌,因为诗句有韵律,便于记忆。古代世界有很多地区就用这些办法来传递战争的消息。
因此,我们在思考人和技术的关系时,一定要关注它的政治、社会、和经济的必要条件——注意,我这里说的不是“背景”,因为即使在同样的环境下,没有到“必要”的时候,也不会出现生成某种技术的客观条件。可是现在我们在谈论人和机器的关系,谈论机器人、人工智能的时候,往往把这些必要条件抛在脑后。已经有大量的学术研究说明,蒙文、满文的出现,都和帝国征服与扩张有关系,都是为了满足远距离通讯的需要。反而在当代技术的重重包围之中,我们却不大思考这些技术的来龙去脉,总觉得是有一群聪明人发明了新技术,把它付诸应用,然后这个技术不断改善,最后达到了很高的水平。当前这种故事讲得太多了,我们恐怕要讲一些新的故事。科技史学家在讨论科技的发明时,一定会看到更大的政治、文化、经济的场景,同样的,我们在思考当代数字技术和我们的关系时,也需要特别注意数字技术是在什么场景下出现的。注意,我在这里说的是场景,而不是背景。
通信技术的发明,控制论的发明,还有书中提到的博弈论,这些数字技术,就是今天人工智能的前身,它们与二战和冷战有千丝万缕的渊源关系。比如通信数学理论的发明者、通讯技术的鼻祖香农,他在二战期间负责一个叫做“Project X”的绝密计划,到40年代二战结束时,其中的一部分内容得到解密,作为香农的《通信的数学理论》发表,影响巨大。这个解密项目是针对加密技术,尤其是对电话通讯的加密,比如美国总统和英国首相之间的通话。另一位科学家,发明控制论的维纳,他当时试图解决的问题是,战斗机如何能准确地击中在空中运动的敌机。在这些研究的基础上,他发明了“反馈回路”(feedback loop)的理论。博弈论之父的冯·诺依曼,在美国设计出第一部存储程序计算机,把数学家图灵的设想变成了现实,他也是深度参与了美国二战期间的科技开发,包括研制核武器的“曼哈顿计划”。也就是说,所有的这些技术突破,都是为了解决战场上的具体需求,为了更新军事装备,其最初的目标都是解决军事技术上的问题。后来进入冷战阶段,尤其是美苏军备竞赛开始后,美国由于缺少阅读斯拉夫语、俄语的人才,而有苏联科技相关的大量情报需要解读,因此才试图借助机器解决这个问题,于是机器翻译就开始出现。机器翻译处理的是自然语言,而人工智能的核心领域“自然语言处理”(NLP)就是在冷战期间的机器翻译研究中诞生出来的。

“信息论之父”香农的著作《通信的数学理论》,就源自他在二战期间负责的绝密项目
文化纵横:换言之,最开始的数字技术,和“理解”或“模仿”人类几乎没有关系,相反,它试图解决的只是处理符号、处理语言的问题——可以说是一条和人们常规的想象中完全不同的技术路径。那旨在解决这些具体问题的研究,是如何影响人们对自身的理解,以及对人机关系的理解的呢?
刘禾:图灵把计算机叫做“处理符号的机器”,它的核心就是一套简单的但能延伸出无限的符号组合。最早设计计算机和通讯电路的科学家,比如图灵和香农,都是在这个基础上开发数字技术的。由此产生的问题是,这一套符号跟语言有什么关系?机器处理符号,等于它能“理解”符号吗?但是,这其实是个很荒唐的问题,因为机器不需要理解,它只要处理0101的组合,也就是处理符号本身就行了。
总之,所有技术的出现,都有这个特点,都要有解决特定问题的必要性。19世纪的摩尔斯电码是为了实现快速的远距离信息传输,尤其是军事信息的传输,而当时的电报机很原始,无法处理复杂符号,只能用“一短”“一长”的代码构造出最简易的符号系统。而拼音字母,比如英文中的26个字母表,碰巧也是比较简易的符号系统。香农在发明通信的数学理论的时候,就反复研究了电报时代的摩尔斯电码,他发现电报代码除了“一短”“一长”以外,还有一个不可或缺的符号,那就是“空格”。他接着又发现,空格对拼音文字的系统来说,也是至关重要的。为什么?因为通讯机器依靠是书写符号,它只能以数字或字母的形式进行传输,如果字母在书写中不加空格,那英文词的边界也会消失。香农将这个空格称作英文字母表的“第27个字母”。
香农接下来追问的是,英文书写中的数学结构是什么?空格在英文字母的组合中占多大概率?比如字母a出现的频率有多高,字母e出现的频率有多高,ea这两个字母组合起来的频率高,还是ae组合的频率高等等?香农不仅计算出空格在英文中出现的频率,而且还能预测任何字母后面最有可能跟着哪个字母,或者任何词后面最可能出现哪个词。这也是目前人工智能技术中最常用的预测方法。香农在这个基础上发明了包含27个字符的“机识英文”的字母表——我在书中说,香农把英文字母由拼音文字系统变成了表意符号系统,这是一个重大的符号学转向。
香农发明的机识英文,和机器能不能像人一样“理解”它所处理的符号,其实毫无关系。反倒是,这个发明无意间对我们一直怎样误解语言,提出了很直接的挑战。因为既然机器在处理语言文字符号的时候,要根据符号组合的概率自动运作,那么,人和语言的关系是不是也遵循同样的逻辑呢?在这里,通讯理论和控制论的研究为我们提出一个深刻的问题:人们真的了解自己所使用的语言吗?比如人们在思考和说话的时候,在多大的程度上是被文字和语言本身的组合概率所驱动的?
香农在研究过程中发现,机器根据频率计算得出的结果,经常是无意义的句子,也就是我们常说的“乱码”。但机器并不能区分出有意义和无意义的句子。那么和机器相比,人的所谓“理解力”又是从哪里来的呢?这时候我们会发现,幼儿学习语言,是一个非常漫长的习得过程,需要不断地重复、纠错、记忆,并受到整个社会生活逻辑的规范。儿童从不惧怕没有意义的音节,反而会兴高采烈地去模仿这些;儿童接受“无意义”的言说没有任何障碍,反而是受过教育的成年人不知道如何处理,因为“无意义”对我们来说就是胡言乱语。在实际生活中,成年人其实也被大量的无意义的言说所包围,但我们通常做法是将这些一概从视野中排除出去,只留下对自己有意义的东西。问题在于,这种情况下,我们评判意义的有和无,其依据是不是也受制于词句组合的“频率”的支配呢?正如香农通过计算,得出了英文书写的数学结构(即字母组合的频率计算),那么人和语言符号的关系,里面有没有类似的概率逻辑呢?换言之,人对语言文字的处理,是不是很像通讯机器对数字和文字的处理呢?
这是控制论的重要发现之一。控制论研究的,是机器行为和动物行为——包括人的行为——之间存在什么共生性,尤其是在信号的传输系统上。控制论的两个代表人物,麦卡洛克和沃尔特·皮茨早在1943年就发表文章,指出人的大脑神经元的行为很像数学符号的逻辑行为,它们都受制于信号的有和无。这两个人坚持认为,驱动脑神经活动的命题逻辑,跟驱动机器的命题逻辑是同一个东西。他们的这篇文章对后来的神经网络研究影响深远。
文化纵横:研究控制论的科学家实际上将人脑看作一台机器。按照他们的说法,人类理解世界,也是通过概率的无意识结构进行的,这似乎完全挑战了一直以来对自由意志的讨论。从这个意义上说,您觉得控制论的研究,对我们的认识论,或整个西方哲学的传统带来了怎样的冲击和挑战?
刘禾:“自由意志”(free will)来源于古老的西方神学,我在这里按下不谈,因为它涉及很多问题,会干扰我们谈话的重点。控制论研究小组的数学家和工程师,把他们的注意力集中在解决冷战时期出现的具体问题上,完全无意将它们上升到哲学的层面来思考。但其中的个别成员确实有某种直觉,他们在研究技术问题的时候,倒是提出一些很有意思的哲学洞见。
比如香农,他做了很多玩具机器——他把它们称为“没用的机器”——比如迷宫里会找路的机械老鼠等等。其中,他做了一个小盒子,盒子上面有个按钮,一按下去盖子就会打开,伸出一只手把按钮关上,它就缩回去了——香农将它称为“终极机器”。亚瑟·克拉克,《2001太空漫游》的作者,在贝尔实验室看到了这个盒子。后来克拉克描述道,那是一个“什么都不做,只会把自己关掉”的机器,让他看了之后“毛骨悚然”。那似乎是在模拟弗洛伊德所说的死亡驱动,也就是自杀。现在很多科学家说,我们可以用假肢替换人的肢体,还能将芯片植入人的大脑里,人将获得永生不朽。这似乎还是在寻找从秦始皇开始就在寻找的灵丹妙药,也就是如何克服死亡。在现代科技条件下,大脑出问题了可以加芯片,胳膊没了可以换假肢,甚至有人幻想人的大脑储存的记忆总有一天也可以上传下载。可是香农的“终极机器”,它只会把自己关掉,这里的“终极”意义就意味深长。
另一个可以参照的例子是“恐惑谷”(the uncanny valley),它是70年代一位专门研究机器人的日本工程师森政弘提出的概念。他所在的实验室制造仿生手臂,可以将它做的非常逼真,无论是手和胳膊的运动方式,还是皮肤的触感,都像真人的手。但当你去握这只手时,你会发现它是冰凉的——它看起来像活人,摸起来像死人,这种不确定性突然让人产生一种恐惑感。森政弘最后从弗洛伊德的理论里引用了“uncanny”的概念,设计出一套影响深远的工业标准。其实,森政弘体会到的恐怖,也是克拉克在香农的实验室里遇到的那种恐惑感。而森政弘对此的解释是弗洛伊德式的,即这种恐惑感来自介于死人和活人之间的不确定性。
当然,我们在面对机器人的时候,可以从人机关系的角度,引申出更深入的哲学问题。森政弘的设计标准本质上是在回答一个问题:我们在制造机器人的时候,或者在制造任何模拟人的部件的时候,我们要做到什么程度,才不会让人升起疑惑,甚至感到威胁呢?也就是说,我们生产的必须是机器,而不是人,不是活物,它不会威胁到人。但是,这归根结底仍然是如何处理人机关系的问题——也是人们反复提出的“人能否控制机器”的问题。
为什么我们对人机关系的想象始终无法摆脱这个框架?这就又回到了我在前面提到的“主奴关系”问题——人类总觉得自己是世界的中心,比起动物和机器,人是更优越的生物。但为什么同时又害怕被自己所制造的机器取代呢?因为控制论的世界观是“控制和被控制”的关系,一旦机器能控制人类,机器就可能消灭人类——这种世界观和整个冷战,甚至和更早的二战的战争技术有着深刻的关系。比如,二战时期出现的博弈论,就将整个世界的地缘政治看作是一盘棋,我战胜你或者你战胜我、我消灭你或者你消灭我,也就是所谓你死我活的“零和游戏”。而所有这一切想法和观念,都通过各种途径折射在了我们对人机关系的论述之中。
那么,这种世界观有没有更深层的心理根源呢?这就需要引入一个有关精神分析的重要概念,就是人的自恋,以及由自恋延伸出来的侵略性。我们最常见到的是教科书对人的定义:人是“会发明和使用工具的动物”,可事实上,科学家发现其他动物也会使用工具,从逻辑上讲,这是不是应该修改对人的定义了?但是没有,事实上,人们不但没有对原来的定义作修改,反而开始赞美会使用工具的动物。这说明了什么?说明人一直在赞美自己,肯定自己,却不真正反省自己。在人和聊天机器进行对话的过程里,我们经常可以看到这种不可遏制的自恋——人们把自己的愿望、恐惧和焦虑都投射到机器中,幻想自己在跟另一个人说话。当然,这是人自身的问题,不是技术问题。
实际上,聊天机器只能让我们跟他人离得越来越远,你甚至失去了想了解别人的意愿,从而永远沉迷于自恋。所以,经常发生的情形是,一个人一旦进入了没有聊天机器的场合,他不得不和他人建立真实关系的时候,往往就会在现实中碰到种种感情上的挫折,这时候,他躲开挫折的办法,又往往是再回到聊天机器前面,在那里进行自恋式的投射。这里的问题是,人能脱离社会关系吗?
我们不难想象由此而来的严重的社会后果,甚至一种病态文明的出现。其实,人工智能发展史中最早的一款聊天程序,就是用来模拟人们的病态心理的。它叫“伊莉莎”,是麻省理工学院的计算机科学家约瑟夫·维森鲍姆在1966年发明的。维森鲍姆当时写了一个很简单的程序,他让机器充当“医生”,用户充当心理病人。用户把问题输入机器,“医生”就会和它“对话”,于是用户就开始进入幻觉,好像真的在和“医生”对话。在七十年代初,为了推动聊天程序,斯坦福人工智能研究所有一位教授进一步开发人机对话,他让机器模拟精神分裂症患者,和它对话的人充当医生。这基本上就是聊天机器的发展谱系最早的发端:聊天机器从一开始就在模拟人的心理病态,而不在模拟什么智能。但随着人工智能技术的进步,又有人说,聊天程序终于获得与人流利对话、甚至深度交流的能力,这说明它达到了与人相匹配的智能水平。果真如此吗?那么我们如何解释病态文明的出现呢?

回到你的问题中所说的认识论转向,和它对传统西方哲学的冲击。我认为在很大程度上,现代西方哲学虽然有很大发展,流派和门户很多,但是其主流是“意识哲学”(philosophy of consciousness)。笛卡尔以来的心物二元论,其实很大程度上还是深刻影响着当代哲学,可是在他的理论中,有太多的关于大脑、意识和理性的假设,从不承认无意识的存在。还有一些哲学家,比如莱布尼茨和康德,他们对无意识的结构感兴趣,但整体上,让西方哲学家焦虑的核心问题,仍然是围绕“人的主体是什么”展开的。然而在今天,当我们在试图理解人机关系这个新课题的时候,就必须面对一些不同的问题,比如无意识的结构是什么?恐惑感从哪里来?为什么人控制机器还是机器控制人的问题变得如此尖锐?可是,一旦进入这些思考,所谓的“自由意志”,还有它与技术决定论之间的矛盾,以及在其深处的“意识哲学”的传统,都无法面对控制论以来出现的新的哲学问题。
文化纵横:您刚才提到了二战和冷战的大历史背景,如何塑造了特定的社会心理,进而影响了人们看待人机关系的视角。现在我们走出冷战许多年,已经进入了一个新时代,您认为这种结构,或这些问题,它会出现怎样的变化?
刘禾:我15年前出版这本书的时候说,如果人类和机器之间的关系处理不好,人就会变成“弗氏人偶”,也就是弗洛伊德机器人。它的特征就是机器模仿人的行为方式,人再反过来模仿机器——在这种“人机拟像”的互动关系中,机器和人一起进化、互相模仿。它本身也形成一个控制论的反馈回路。
文化纵横:机器在模仿人,这件事情相对来说更容易理解。人模仿机器是什么样的?
刘禾:图灵在发明计算机的时候用打字机做参照,说计算机比打字机高明之处是,它既能写、也能读、还能储存,其中“读”的用词是scan,就是“扫描”。为什么我要提这个?我们现在多少人读文章,拿着手机,其实不是在“读”,而是在“扫描”。在这个情形下,记忆力会大幅度退化,记忆能力不但被“转移”到了电子设备里,而且眼睛和大脑之间的关系,已经被机器从根本上改变了。在这时候,人们也已经渐渐不再愿意掌握尼采所说的“慢读”艺术了,因为只有加快阅读的速度,才能处理海量的信息。尽管实际上只有慢读,甚至反复读,人才能思考,才能真正有理解,但是人的阅读方式越来越像机器,越来越只追求效率和速度——这带来一个非常根本性改变:由于机器不能思考,人也渐渐变得不能思考。人和机器互动产生这个后果是极其严重的,也是可怕的,它不仅对如何认识人的能力和局限,如何建立人和世界的关系,以至如何定义什么是“人”,都带来危机,而且对人类未来该如何生存,也带来很多疑问。
我在书中还提到《庄子》中“汉阴老农”的寓言,讲子贡碰到一个老农,在用特别笨拙的方式,一罐一罐汲水浇地。子贡就问他,你为什么不用机械,机械可以特别容易地解决这个问题。老农回答说,“有机械者必有机事,有机事者必有机心”。这里的“机心”指的是人的精神世界,包括心理、思想、情感、伦理等。庄子的寓言是在说,机器能改变我们的精神,也改变我们的社会关系。因此,我反复强调说,如果没有想清楚人机关系,那么我们必然会进入人机拟像的反馈回路,变成弗氏人偶,也成为某种机器。
这个趋势是不是必然的?是不是不可逆转的?现在很难预见。但我觉得起码我们要开始思考这些问题,一旦能讨论、反省这件事的时候,就打开了一个思想空间。
文化纵横:人类模仿机器,追求效率和速度的准则,这听起来其实也特别像资本主义的逻辑。您在今年的中译版序言中也提到了这个正文中不太常出现的关键词。您觉得资本主义的发展和弗氏人偶之间有怎样的关系?
刘禾:有关资本主义逻辑的著述很多,包括对后工业社会和当代媒体社会的研究。我对这些研究不太满意,因为它们有一个共同的短板,那就是很少看到深入到数字技术本身的逻辑中去做细致入微的研究和哲学分析。马克思的《资本论》之所以重要,是因为他不是在所谓的“社会现象”层面进行描述的,而是深入到商品本身的内在逻辑,对商品的两重性和劳动两重性,进行层层的剖析,提出剩余价值、社会必要时间等等概念。那么,当今天的数字技术对人类社会产生巨大的冲击,当人和机器关系变得如此纠缠不清的时候,我们同样也不能停留在“社会现象”的层面上来看待数字技术。我们面临的真正考验是,能不能对数字技术本身的内在逻辑做出细致和深入的哲学分析,由此把握我们生活在其中的时代命脉,正如马克思当年对商品的内在逻辑所分析的那样?我写《弗洛伊德机器人》就是在回答这个关键问题。这本书的所有努力都在于此,都是针对数字技术本身的逻辑,尽量做出透彻的历史分析和哲学上的思考。
从历史上看,人工智能和数字技术的根基在控制论,而控制论的发展源自于二战和冷战。因此,无论人工智能,无论数字技术,都不是单纯的科学和技术自身发展的结果,它们和资本主义的历史发展,特别是和资本主义的战争机器有密切关系。如在二十世纪的两次世界大战中,军事机器的强大动力就不断地鼓励科技创新,利用这些创新为战争服务,而控制论的发展过程,就是这个战争逻辑最典型的表现。这些我都在书里做了详尽的分析,这里就不重复了。
数字技术和资本主义发展的内在逻辑还有另外一面,即资本的盈利本性,使其在逐利过程中降低成本,尤其是对低廉劳动成本的无休止的追求,也是促进弗氏人偶的发展的一个重要动力。自工业革命以来,机器的自动化取代了体力劳动,而在数字革命开始之后,计算机和人工智能的普及则开始取代脑力劳动,诸如在法律文书,程序编码,公务员报告,医疗、教育、娱乐等诸多就业领域,很多人会因此而失业或将要失业,人们不仅会被从劳动岗位中剥离,而且由于失去社会纽带,反而会越来越依赖机器——这些变化,都是大量人群可能变为弗氏人偶的历史条件。
文化纵横:既然聊到了资本主义和工业革命的问题,那不妨我们就回到那个历史语境中。现在我们谈论AI和数字技术如何改变人的行为方式和思维结构,这一趋势,是不是在工业革命中自动化机器替换人类的过程中已经出现过一次?比如,在当时,流水线上的工人也越来越像自动化的机器,要操作精确、尽可能地守时、高效,日复一日地做相同的工作,就像人肉的机械臂。它和我们现在谈论的弗氏人偶有什么异同?
刘禾:我们谈工业革命,主要针对的是机器对体力劳动的替代和重组,比如流水线将人变成非人,导致工人和自己的劳动以及劳动产品之间出现异化关系——这是马克思的经典理论。马克思通过对商品和劳动价值的分析,提出了人的异化理论,这是分析资本主义生产方式和生产关系的重要角度。而当我们谈论数字技术时,我们就不能局限在人如何被机器异化的论述里,而必须从根本上重新考察什么是人,开始思考我在书中提出的弗氏人偶的问题。
当然,不少研究人工智能的人会说,白领的脑力劳动被AI取代,也没有关系,因为我们可以像工业革命时期那样,努力创造新的工作岗位,让白领转而从事别的工作,甚至不用从事任何生产。但是所有这些假设,都在默认数字技术对我们社会的冲击,会限于劳动、生产和所谓的经济基础。我认为不是这样的。就像所有的机器一样,人工智能会给我们的生活和工作带来很多方便,这是毫无疑问的。但弗氏人偶的出现,意味着人机关系从根本上发生了变化,它有可能导致人类自身的一种过去历史上从未有过的演化。这个演化绝不会仅仅限于我们的劳动实践这些方面,它已经在根本改变人的日常生活中的所有行为模式——我们的阅读方式、写作方式、思维方式、生存方式、和自己相处的方式、与他人交往的方式,情感方式,甚至家庭关系和社会关系等等,这一切都将会以机器作为媒介进行重组。
文化纵横:现在其实有不少技术乐观主义者会提出,当人类的工作被AI替代,不事生产之后,社会又会回到从前的美好状态。人从工作中解放,会有更多机会去充分交流,重建社会关系。但根据您刚才的分析,事实上到那个时候,人类已经被彻底地改变了,不仅不会自然地回退到理想状态,反而极有可能面对一个全新的困境。
刘禾:是的。我在书里给弗氏人偶下了个定义,即“任何网络化的存在,只要体现了人机拟像的反馈回路,又不能摆脱控制论无意识的,都是弗氏人偶”。控制论无意识,指的是一种习得的自动性、重复性,比如之前说到的语言。再比如说我们在日常生活中,人与人的交流,已经没有办法脱离机器了。“人”已经变成了“我+手机”或“我+电脑”的复合体,这不是工业革命给大家带来的那种困扰,甚至也不是我们熟悉的所谓劳动异化问题。至于“网络化的存在”,是说现在的人其实已经不是所谓原子化的个体了,每个人都是大数据的一份子,都在这个网络里面——这是一种社会化的行为,它是超脱于个人的,在个人身体之外的。在这种情况下,谁统治了这个网络,谁就能统治所有人,因此,其实统治关系也发生了根本的改变。
谈到控制论无意识,我要提到20世纪的一位重要的思想家,那就是法国精神分析理论家拉康。拉康曾说语言的运作很像机器,它具有某种自动性和重复性,人和人之间的交往是被语言驱动的,而不是相反。语言是连接社会的根本纽带,社会无法离开话语运行,而语言本身又是自动运作的、外在的东西,很像外在于人的机器。控制论无意识的出现让我们认识世界变得尤其困难,必须抛弃所有传统的意识哲学的概念,比如人的能动性。拉康的这个概括抓住了我们和语言的关系,他之所以得出这些结论,就是因为在冷战期间,他持续关注科技发展的趋势,尤其是控制论、博弈论和通讯理论。
拉康进一步看到,概率的统计方法如何从根本上改变了人认识社会、认识自然的方式,不但使整个科技研究的范式发生了转型,而且还挑战了传统哲学的因果论。比如现在的医学,开始依靠大数据,而不仅思考单一的因引起单一的果。事实上,控制论的前驱早就意识到自己研究工作的哲学意义,比如当时他们提出“循环式的因果关系”(circular causality),以及维纳提出反馈回路,这一切最终都要回到计算机对符号的处理方式和控制论无意识。
文化纵横:说到认知方式的改变,我们会注意到,控制论或者“人脑就是机器”这一概念刚刚出现的时候,其实对人们的自主性、自由意志的信仰造成了很大冲击。但经过了这么多年,大家仿佛已经默认了这个概念,很自然地接受自己的大脑是由神经电控制的,但却依然假设人类拥有自主性。控制论无意识的概念在今天,反而不会给人们带来如此剧烈的认知冲击。这是为什么?
刘禾:这可能恰恰是人们正在变成弗氏人偶的迹象,机器在那里自动运转,机器没有认知,更不用说自主性了。弗氏人偶有认知吗?也许它可以假装有自主性。拉康说,如果机器不出问题,你不会意识到它在工作,就像人只有在膝盖出问题的时候,才会发现自己原先是这么走路的。我们都知道人脑是神经元的网络,但并不觉得这和自己的行为有什么关系,自动地接受了它的运转。
我在美国观察到的一个典型案例,就是民主选举。每当选举这个机器开始运转的时候,就有人出来赞美自己的民主体制,但“民”是什么他们不考虑,自己为什么投票也不考虑,信息是从哪里来的也不考虑——这事实上就是愚民政策。美国已经没有民主了,但这并不是因为它被某一个统治阶级控制,而是因为民主政治本身已经变成了选举机器,统治阶级只要控制了选举机器,就控制了选民。美国的民主党和共和党经常让数学家来帮他们计算,哪些选区重新划分一下,选票分布就会随之改变,这根本就是蔑视选民。而选民中多数人,要么没有意识到民主政治已堕落为选举机器,还以为去投票就是捍卫自己的利益或坚持自己的信念,要么明知它是一个选举机器,但别无选择,只好去投票。总之,每一次的投票行为都让选举机器继续运转下去。
说到底,我们都生活在一个网络化的、控制论无意识的时代。旧有的政治理论、社会理论和文化理论等等,都无法解释我们这个世界正在经历的天翻地覆的变化,怎么办?我认为,我们需要寻找新的思想资源,打开新的思想空间,不然我们全都会变成弗氏人偶。