分享到:
链接已复制

LANGUAGES

新闻

新闻直播 要闻 国际 军事 政协 政务 图片 视频

财经

财经 金融 证券 汽车 科技 消费 能源 地产 农业

观点

观点 理论 智库 中国3分钟 中国访谈 中国网评 中国关键词

文化

文化 文创 艺术 时尚 旅游 铁路 悦读 民藏 中医 中国瓷

国情

国情 助残 一带一路 海洋 草原 黄河 运河 湾区 联盟 心理 老年

首页> 中国发展门户网> 本网天博官方网站(China)在线/注册/登陆/官网>

郑永年:人工智能时代的社会秩序

2025-05-27 11:27

来源:中国网·中国发展门户网

分享到:
链接已复制
字体:

 经济基础决定上层建筑,经济基础也决定社会秩序。在漫长的传统农业社会,社会秩序历经数千年,但因没有革命性技术的产生,社会秩序只有量变,而没有质变。近代以来,技术革命不断导致经济革命,经济革命不断导致社会秩序的变迁,从工业社会秩序到后工业社会秩序再到信息社会秩序。今天,人类开始进入人工智能时代,人工智能对经济、社会、政治甚至国际政治的影响,越来越成为学术界和政策界的研究对象。无论是对人工智能技术本身的研究,还是对人工智能这一技术所产生的方方面面的影响已经成为显学

尽管人工智能依然处于急速发展过程之中,但人们的共识是人工智能在赋能社会的同时也威胁着现存社会秩序。人工智能对劳动就业、税收、社会公平等方面的影响已经引起人们广泛的注意,但对人工智能的“去智力化”的功能还没有引起人们足够的警惕。人工智能是人类智力的产物,其崛起代表着人类智能达到了一个新的顶峰,随着人工智能深入社会的各个领域,其广泛地应用在赋能人类的同时也在导致人类智力的衰变甚至衰落,这里存在着一种本文称之为“人工智残”(artificial ignorance)的现象。较之人工智能所产生的其他各种不平等现象和问题,“人工智残”对社会秩序的影响更为深刻。这种现象还处于生成阶段,但人类没有任何理由去忽视它。这是一个极其严肃的问题。基辛格在他的遗著《创世纪:人工智能、希望和人类精神》中指出,人工智能时代也许不仅无法推动人类进步,反而可能引发一种对不可解释的权威的前现代式接受?简言之,我们是否正站在人类认知大逆转——“黑暗启蒙”的悬崖边上?可以肯定地说,如果基辛格所说的“黑暗启蒙”发生了,那么人类不得不面对一个“人工智残”的世界。

“人工智残”现象

简单地说,“人工智残”指的是一种当今越来越普遍的现象:在人工智能时代,由于广泛和毫无节制地使用(无论是主动使用还是被动使用)人工智能相关的工具(尤其是基于互联网的各种社交媒体)所导致的人类自我智力伤害。需要强调的是,这不是人们日常所说的“智障”(智力障碍),因为很多“智障”是由于大脑受到器质性的损害,或是由于脑发育不完全造成认识活动的持续障碍及心理障碍,具有先天性和不可避免性质,人们对这部分不幸的同胞报以同情心,也在不断寻找医治方法。但“智残”则是人为的,既可以源自对工具的过度和不当使用,也可以源自人类所创造的工具对人类自身的影响。技术乐观主义者相信,正如人类几次工业革命所创造的技术一样,人工智能也会是一种造福人类的有效工具。必须指出的是,人工智能和此前所有人类所创造的工具很不一样,因为人工智能正在反过来影响人类本身的智能。尽管讨论“人工智残”这一问题有些敏感,但鉴于其快速的发展势头及其对人类智力的巨大负面影响,人们还是需要直面这个问题,并找到有效的纠正方法。本文并非要针对这个问题找出一个确切的解答方案,因为这个问题很复杂,这里只是提出问题以进行一些初步的讨论和思考。

我们不妨借用英国作家奥尔德斯·赫胥黎(Aldous Huxley)所著《美丽新世界》的概念,来形容人工智能所能导向的一种充满不确定的社会秩序。笔者有3个理由:尽管人工智能及其相关工具已经迅速成为第四次工业革命的核心,各国也在千方百计地发展和使用这一技术,以期通过在这一技术领域占据主导地位来主导下一波工业革命,但是对人类社会来说,这一技术还是新生事物,它给人类所带来的无疑是一个“新世界”。赫胥黎在《美丽新世界》一书中,探讨的是技术应用对人类社会的影响,无论是正面的还是负面的。新技术的出现大多是人类使用理性的结果,其目的是影响人类社会。对人类来说,既要受惠于技术的进步,也要减少甚至避免技术对人类造成的负面影响。更为重要的是本文想借讨论人工智能来更新和修正一下笔者对这个问题的看法。对技术和社会之间的关系,笔者一直抱有浓厚的兴趣,多年来一直在观察和研究技术对社会变迁的影响。2014年,笔者在《技术赋权:中国的互联网、国家和社会》一书,结合中国的案例,探讨了互联网对国家和社会的影响。当时还处于博客时代,但互联网已经对人类社会的方方面面产生了深刻的影响。尽管当时的互联网对国家和社会的影响也表现为正、负两方面,但笔者的结论比较乐观,认为作为技术工具的互联网具有普遍赋权的功能,既赋能政府,也赋能社会的各个群体。但是,至少就今天的现状来说,普遍赋权这一观点需要得到修正了。高科技发展到人工智能的阶段,其赋权的能量的确越来越巨大,但其赋权表现为绝对的不平等和不均衡,这种不平等和不均衡不仅表现在一国之内,更表现在国家之间。正如下文分析到的,在一国之内,人工智能对国家、对公司、对个人的赋能呈现极度失衡状态;对国家间来说,人工智能仅仅分布在少数几个大国,大多数国家并没有能力拥有人工智能。

迄今,人们对人工智能所造成的不平等主要聚焦在就业、收入、技术的可得性等方面。但笔者认为,这些不平等不仅存在,而且还会加剧,这些不平等也已经成为人类挥之不去的噩梦,但从目前的发展趋势而言,人工智能及其相关工具所产生的最大也是最具有危害性的不平等是人类智慧上的不平等。这种智力上的不平等并不是由人们日常所说的“技术不可得性”造成的。关于新兴科技对社会的影响,一种普遍的观点是,只有那些能够得到这种高科技的社会群体才可以享受新兴科技所能带来的好处,而那些难以得到新兴科技的社会群体则难以得到科技带来的好处。但是,就人工智能及其工具对人类智力的影响来说,结局是恰恰相反的,即是说,这种高科技越具有可得性,使用频率越高,使用者的智力受到的损害和伤害就越大。

人工智能的技术结构特性

本文从2种结构性因素来分析“人工智残”是如何形成的。本节将在第1个层面分析人工智能时代高科技所呈现的结构性因素,以及这些看似互相矛盾的因素对社会群体所能构成的伤害。简单地说,人工智能时代高科技呈现4个技术结构特性。

技术能力的高度集中性(highly concentrated)。即人工智能的技术能力是高度集中的,集中在少数几个大国的几家大公司。就世界范围内看,中美两国拥有大部分人工智能技术能力,其他国家也拥有一些,但难以与中美两大国匹敌。再者,就中美两国来说,美国目前拥有更多的技术能力。今天,尽管美国公司一直在宣扬中国在人工智能领域对美国公司构成了巨大的竞争压力,但是无论从理论还是经验层面看,人工智能领域有意义的竞争都发生在美国的几家大公司之间,而非中美之间。从技术端到数据端,从大模型到应用,中国和美国的差异依然巨大。尽管最近中国DeepSeek的崛起打破了美国之前所处的几乎垄断地位,但需要意识到DeepSeek是基于开源的基础之上产生的,谁都不能保证DeepSeek何时会被再超越。再进一步,即使在中美两国内部,人工智能技术的也仅仅在少数几个地区分布。在美国,大量核心的人工智能技术主要分布在2个区域:西边从加利福尼亚州硅谷到得克萨斯的狭长地带、东北部的波士顿—纽约区域。在中国,人工智能技术与企业则主要分布在3个区域:粤港澳大湾区、长三角地区、北京地区。一种技术的集中性到达如此的高度是近代以来所少见的。人类的第一、第二和第三次产业革命均表现为分散性,但人工智能产业的发展迄今却趋向于高度集中性。在西方发达国家和地区,对基于传统技术之上的产业的反垄断已有一套成熟的方法。一般都是通过分解一个企业以防止其取得垄断地位,从而为创新和新企业的产生创造制度条件。但是,对高科技企业如何反垄断迄今依然是一个巨大的问题。传统分解企业的方法可行性不高,因为高科技企业都基于互联网之上,如果分解,就不符合信息产业的发展逻辑。从针对微软公司的反垄断案来看,现在针对高科技企业的反垄断基本上采用以“开放”替代传统分解的办法。但问题在于,这种“开放”替代的实际效果反而使得这些信息产业变得更加庞大。就人工智能产业来说,美国如今的发展已经达到了相当发达的程度,但至今还没有联邦层面的任何监管体系,只有一些没有多大约束力的总统行政命令。可以说,如果找不到有效的反垄断机制,那么这个产业的集中度只会越来越高。实际上,特朗普再次执政之后,对人工智能领域采取“去监管”的政策,而这种“去监管”的政策会进一步把人工智能产业发展的集中度推到一个新的高度。

管控的高度集权性(highly centralized)。就是说,管控人工智能使用能力的角色是各国政府或各大公司(即平台)。由于基于互联网之上的人工智能涉及国家间的关系,涉及2种相关但又不同的安全问题:技术本身和技术使用的安全(safety)问题、国家间的安全(security)问题,即一个国家对另一个国家是否构成威胁的问题。基于对安全的需要,管控的高度集权性不可避免。这也就是为什么互联网产生以来人们对互联网主权的讨论从来没有终止过的原因。尽管互联网主权很难实现,但各国还是千方百计地来掌控互联网,使其体现出一定程度的“主权性”。再者,国家之间的互联互通仅仅通过一个国家一个接口或者几个接口的方式进行,这种关联方式也为高度集权性创造了技术条件。此外,这种集权性也可以表现为企业形式。尽管在内部事务上,一些美国企业拥有了某种程度的对抗国家的权力,但在国际层面,无论是主动的还是被动的,企业便是国家的代理人。

商用者的高度垄断性(highly monopolized)。如同前面所讨论的逻辑,无论商用者是政府还是企业,都很容易趋向于高度垄断性。经验地看,即便使用者是个人,对于人工智能的使用也呈现出高度垄断性质。举例来说,无论在哪里,今天的互联网和社交媒体领域都被各个领域的“大V”(网红)或者“大V”所构成的小团体所垄断。这些“大V”及其团体往往集聚和垄断了大部分资源,享有物质意义上和话语权意义上的不相称的权力。他们往往被视为是各个领域的“精英”,任何东西(宗教、思想、价值观、谎言、谣言等),一旦具有了“商用”价值(即只要有人信),他们便会趋之若鹜,毫无底线地追求流量,把某一事物的商用价值推到极端。

使用者高度分散性(highly diffused)。即最底端的互联网使用者。互联网可以说是迄今为止最具有民主性质的技术。因为人是会说话的动物,人们必须沟通。这也就是基于互联网之上的社交媒体今天如此普遍的一个原因。但是,这种技术的可得性也导致了个人的“原子化”。哲学家汉娜·阿伦特(Hannah Arendt)曾经对西方极权体制下的个人“原子化”做过深刻的讨论。但是,今天的情况已经发生了巨大的变化。今天被视为高度“民主化”的互联网技术导致了个人的极端“原子化”。在社交媒体中,人们看似通过网络产生了互联性,但这是虚拟的互联,因为他们之间并没有真正的沟通。在年轻群体中,很多人实际上已经失去了语言的沟通能力,他们之间的沟通往往发生在一个人的拇指与另一个人的拇指之间。更为重要的是,他们往往仅是“大V”们的商用对象,“大V”们对他们来说具有“邪教般”或者“鸦片般”的吸引力。在行为上,他们往往表现为现代版本的“乌合之众”,表现出从众、非理性、轻信、自我颂扬、自我愚昧等特征。

人工智能对治理结构特征

人工智能高科技的这种技术结构特征在很大程度上也决定了第2个层面的高度等级化,即治理结构的高度等级化。尽管社交媒体看似呈现出高度的扁平化,但实质上则是越来越等级化,一种可以称之为“牧民社会”的治理结构正在快速形成和崛起。自从人类有意识地去发明和创造技术以来,一个总的趋势是:机器越来越像人,而人则越来越像机器。因为人是根据自己的人性来塑造机器的,机器便有了最终征服和奴役人类的机会。

实际上,世界不同的文明都有“牧民”的说法,西方的《圣经》讲“牧民”,中国的《管子》也讲“牧民”。这里的“牧民”指的是统治者对老百姓的统治,需要善待老百姓。正如意大利精英政治学派(如莫斯卡、柏雷托等)所强调的,不管是民主的还是非民主的,任何社会都可以分为2个阶层,即统治者与被统治者,前者是精英,后者是普通人。统治者—被统治者的治理结构便是牧民社会结构。在其《政党》(Political Parties)一书中,德国出生的意大利社会学家米切尔斯(Robert Michels)更是论证了即使是以追求民主为目标的政党或者表现为最民主形式的政党最终也逃避不了“寡头政治铁律

英国作家乔治·奥威尔1949年出版的小说《一九八四》更是以丰富的想象力展示出“牧民”的可能结局。实际上,自从社交媒体产生以来,“1984社会”已经不再仅仅是小说中的想象,而是已经成为现实。而人工智能的出现又在加速促成人类社会从“1984社会”向“牧羊社会”转型。

“牧羊社会”由3部分角色组成,即牧羊人、牧羊犬和羊群。今天,就人工智能的发展水平来说,它已经有能力扮演或者已经在扮演着“牧羊犬”的角色。马斯克在其“星链”达成第7 000颗卫星部署后,曾在社交媒体平台X发文称:“星链”现在构成所有现役地球(轨道)卫星的约2/3。有能力思考的人们需要看到这一发展趋势背后的含义。“星链”计划具体是由美国太空探索技术公司实施的,它具备政府所具有的公共性,马斯克拥有绝对的权力。

人工智能之所以能够扮演“牧羊犬”的角色,主要有3个原因。

人工智能技术本身的快速进步。尽管人类已经在各个方面感受到了人工智能对社会造成的冲击,但人工智能依然处于快速发展过程之中,并且越来越像人类本身。

这里所说的人类的自我愚昧进程加快。对绝少数人来说,人工智能是智能,而对大多数人而言,是“人工智残”。这里尤其需要强调一个知识界的“异化”现象,因为近代以来知识界一直被视为是理性的最重要的来源。如同其他领域,今天在知识和智慧领域也出现了“劣币驱逐良币”的现象。美国学者霍夫斯塔特(Richard Hufstadter)20世纪60年代的作品《美国生活中的反智主义》这几年在很多国家再次流行开来并不难理解,因为追流量、反理性、说假话几乎已经成为全球性现象。不过,应当指出的是,今天知识所面临挑战的严峻程度并非霍夫斯塔特的“反智主义”这一概念所能形容的。在霍夫斯塔特的描述中,反智主体是传统的宗教、政治、商业和教育体制等;但在今天,除了这些主体之外,知识界本身不仅也加入了反智浪潮,更是趋向于成为反智主体。应当强调的是,在知识领域,“劣币驱逐良币”对“劣币”来说绝对不是好消息。如本文前面所讨论的,迄今人们只关注人工智能所能造成的物质和制度层面的不平等,但实际上,人工智能对人类最大的冲击是智慧的不平等。人类利用人工智能自我伤害的趋势继续下去,最终的结果必然是重返“奴隶式依赖”。

人工智能在快速摧毁此前保障人类生活正常进行的所有体制。2024年9月5日《纽约时报》刊发的《对人工智能的痴迷可能导致民主的终结》指出,“随着技术使信息传播变得比以往任何时候都更容易,注意力成了一种稀缺资源,随之而来的注意力争夺战导致了有害信息泛滥。但战线正从注意力转向亲密。新的生成式人工智能不仅能生成文本、图像和视频,还能与我们直接交谈,假装人类”。实际的情况可能比该文章描述得更为糟糕。在很大程度上,人工智能赋能的社交媒体已经导致美国传统民主形式的死亡。民主是否能够在人工智能赋能的社交媒体时代得以生存和发展是一个很大的问题。不仅仅是选举制度,所有其他制度都经历着严峻的考验。而一旦失去这些传统制度的保护,人类无疑将处于一个极度“个体化”的原子状态。人们可以说,旧制度的消亡是必然的。的确,任何制度必须与时俱进,否则就会消亡。人工智能已经显示出其强大的制度毁灭能力,但人们仍未发现其制度建设能力。在新制度确立遥遥无期的情况下,个人的“原子化”趋于加快和加剧。

不难理解,当今社会的“牧民”特征越来越明显。尽管在社交媒体上,每个人都可以说话,都可以各抒己见,但就其本质而言,社交媒体已经出现个人汇总成为“会说话的羊群”的局面。人性最光辉的一面——理性逐渐消失了,而最丑陋的一面——非理性得到张扬。这在很大程度上已经威胁到人类的生存和发展。人工智能时代正在恶化2种不平等——国家内部各社会阶层之间的不平等和国家之间的不平等。应该说,很多国际组织和国家政府正在为如何解决这些不平等冥思苦想,也在作不同的努力来控制和减少这些不平等。但在社交媒体上呈现的则是另外一番景象。各种基于社交媒体之上的群体张扬的是阶层阶级之间的仇恨、民族种族之间的仇恨和国家之间的仇恨,“商用民粹主义”“商用爱国主义”和“商用民族主义”情绪深入到了社交媒体的各个角落。更为严峻的是,对那些“大V”来说,他们这样做的目的是“商用”,即由流量产生的利益,但对很多他们的追随者(也就是“羊群”)来说,则是信仰、是行动。仇官、仇富、仇(不同的)宗教、仇(不同的)价值和仇外国人已经从线上转到线下,造成了一些群体的生命危机。

技术进步对社会的影响是一个永恒的话题。必须明确意识到,技术的进步并不表明人类的进步。人类既要充分受惠于技术的进步,又要防止和减少技术对社会进步的负面影响。20世纪出现的“反乌托邦三部曲”,即前面引用的《美丽新世界》和《一九八四》,再加上苏联作家叶·扎米亚京的《我们》,便是用文学方式向世人提出的“未来警告”。但很可惜的是,这些作家所想象的这些早已经不是乌托邦,而是存在于今天人们的日常生活中了。更值得关注的是,在这些作家的作品中,他们只是强调了“政府”,即掌权者,在监控和操纵社会过程中发挥的作用,但今天的情况已经变得异常复杂,越来越多的角色,包括资本、资本操纵的机构、受利益驱动的“大V”等,都加入了“愚民”的过程。在这种情形下,越来越多的个体和群体在不知不觉快乐的情形下实现着自我愚昧化。同样糟糕的是,今天已经没有了“乌托邦三部曲”那样的思想者了,知识分子不仅已经失去了教育社会的责任,更是纷纷加入了“愚民”的进程。

现在留给人们的问题只剩下:人工智能能否最终超越“牧羊犬”的角色而成为“牧羊人”?或者说,“牧羊人”最终反而被“牧羊犬”所主宰呢?

政府与人工智能社会秩序的塑造

人工智能扮演“牧羊犬”的角色,通过自身的快速进步不断加快人类自我愚昧化的进程、摧毁现行的体制,这种趋势如果不能加以改变,人类的生存环境就会不断恶化。如何阻止人工智能时代“人工智残”的趋势继续?对世界各国来说,都是一个严峻的挑战。

从今天的情况看,有4个方面的事情是必须做的,也是可以做的。

确立和强化政府的责任。对公众来说,需要重新认识政府在虚拟现实空间治理中的角色和责任。英国思想家托马斯·霍布斯于1651年出版的《利维坦》为政府确立其在现实世界中的权力和权威提供了最强有力的哲学论证。也正是确立了政府在现实世界的秩序之后,人类才逃离了原先的无政府状态。之后才会有洛克和密尔那样的自由主义者论述这一现实秩序可以是“不专制的”或者“自由的”。今天的虚拟世界秩序或许也要经历一个先确立“利维坦”然后再民主化的过程。尽管人们可以讨论“企业的社会责任”,但是企业的主要目标并非公共利益,而是私人利益。亚当·斯密认为,私人利益可以导向公共利益,但从经验看,如果没有政府对企业行为的规范,那么对私人利益的过度追求必然对社会整体产生极其负面甚至毁灭性的影响。作为公共利益的主体,政府在管控人工智能方面具有不可推卸的责任。对政府本身来说,迫切需要对人工智能所能导致的2个安全问题进行系统的梳理,并制定同样系统的有效应对举措:技术本身的安全问题,即safety;技术的应用所能产生的安全问题,即security。就第1个安全问题,不仅人工智能本身会出现各种技术故障,而且其也正在生产出越来越多的生成数据(信息),这些都会对人类的智力构成威胁。就第2个安全问题,人工智能的不当使用和滥用不仅有效损害着社会群体间或者国家间的传统信任,而且也正在制造大量仇恨甚至暴力。尽管这些现象在互联网时代已经产生,但人工智能正在极大恶化这些现象。因此,政府需要针对互联网非理性言论的蔓延,采取一系列强化监管与反制措施,以确保网络环境的安全和稳定。这里,完善法律法规体系是第一位的。政府需建立健全与非理性言论相关的法律法规,明确界定什么构成非理性言论、仇恨言论以及网络暴力等行为。同时,加强对现有法律的执行力度,确保相关法规能够有效应对网络中的不当言论,维护虚拟空间的社会秩序。

需要确立和加大网络平台的责任。一方面是平台的自我责任。互联网平台作为信息传播的重要载体,必须承担起对内容的审核和管理责任。“企业的社会责任”概念或者目前流行的ESG(环境、社会和公司治理)概念也可以适用于平台。另一方面是政府对平台的监管。平台为利益驱使,如果没有外在的压力,很难确立自己的责任。鉴于平台中社会个体因为“原子化”而显得软弱不堪的局面,政府在监管平台上需要负起主要责任。实际上,如今平台越来越趋向于“私人化”,而政府尽管也会犯错误,但无论是与平台还是“大V”比较,政府呈现出来的公共性弥足珍贵。类似韩国某平台所发生的侵犯女性人权的案例在全世界不胜枚举,而这些案例仅靠平台自我监管是绝对无法杜绝的,因此,尽管政府的部分监管措施时常被视为不利于平台发展的,但要对这些平台进行监管还必须诉诸政府。各国政府需要制定明确的政策,要求平台建立完善的内容审核机制,及时删除或屏蔽非理性言论,并对传播恶劣内容的用户施加处罚。此外,政府也可以通过评估和奖励机制,鼓励平台在内容治理方面表现优异。

政府和平台需要加强网络监测与情报收集。通过各种技术手段,政府可以通过和平台的合作,建立高效的网络监测系统,实时跟踪和分析网络上非理性言论的动态。结合大数据和人工智能技术,迅速识别潜在的危害,及时采取应对措施,防止非理性言论的进一步传播和蔓延。这里,政府尤其需要克制和避免人们所说的“选择性监管”倾向性。尽管任何政府都具有倾向性,尤其在意识形态日益高涨的今天,但如果政府不能避免“选择性监管”,那么就会对极端观点推波助澜,造成更大的恶果。政府需要在公众的“言论自由”和“极端言论”之间作出理性的判断,在保护“言论自由”的同时有效监控“极端言论”。

人工智能时代需要重塑教育,重塑人类理性。理性是人的现代性的本质,是教育的产物,来之不易。要防止“人工智残”的趋势继续,就必须通过激进的教育改革,重塑公众的理性思考能力。无论是政府还是社会组织,即刻可以做的包括:开展公共活动和媒体宣传,鼓励公众在面对信息时进行理性思考;通过引导公众学会分辨信息的真实性、客观性,减少对情绪化和片面言论的盲目接受;可以组织工作坊、讲座等形式的活动,培养公众的批判性思维能力,使他们能够独立判断非理性言论的影响与后果。但从长远来说,各国需要的是根本的教育改革。人类已经进入人工智能时代,但各国的教育系统依然停留在前人工智能时代,因此教育与社会发展严重脱节。正如教育在近代以来的3次工业革命进程中所发挥的关键作用,在人工智能时代,一个国家的未来,无论是内部发展还是其在国际舞台所处的位置,都取决于其教育改革。

(作者:郑永年,香港中文大学(深圳)前海国际事务研究院。《中国科学院院刊》供稿)

【责任编辑:殷晓霞】
返回顶部