首页 >> 智库建设 >> 专家观点 |
王锋:智慧社会治理中人机合作的边界 |
作者:王锋,哲学博士,中国矿业大学公共管理学院教授、博士生导师。 内容摘要 不管人们是否愿意,智慧社会已经成为人们生活的一个基本空间,智慧社会治理也就成为社会治理的题中应有之义。智慧社会治理离不开人机合作,然而在智慧社会治理中人机合作是有边界的,这种边界取决于智能机器的能力,即智能机器能做什么和不能做什么。即使是智能机器可以做的也并不意味着其是应当做的。这就要求我们在智慧社会治理中为智能机器设定禁忌,划定其与人合作治理的边界,并且以代码化的方式嵌入智能系统中,从而成为智慧社会治理中人机合作的元规则。 人机合作:能与不能 随着人工智能技术的日益成熟,并日益向社会各领域渗透,在日常应用层面上,人工智能以算法的形式广泛存在于政府及各种组织机构中,人工智能日益融入我们的生活中,日益深刻改变我们生活的各个方面,人与智能机器之间日益成为一个共生体。在这种情况下,不管我们承认不承认,人与智能机器之间的合作问题已不是一个想象的问题,而是一个越来越现实的问题,是一个人们不得不面对的日益紧迫的问题。人与智能机器之间的合作是无条件的吗?人机合作之间有无边界?当我们站在常识的角度来思考时,我们发现,人机合作之间恐怕首先要考虑的是智能机器能做什么。 就目前的技术水平来讲,智能机器的优势在于在适用于特定任务时,可以发挥其速度上的长处,而人类则具有理解能力和适应环境能力强的优势。“人工智能只能在规则确定、信息完备的封闭系统中有可能比人类做得更好,而在超出人工智能赖以工作的可编程的特定问题和特定背景之外,还必须依靠人类的敏锐洞察力、道德分辨力和临机应变能力等智力与非智力因素才能解决问题。”这也就是说,智能机器虽然具有自主性,虽然在特定领域的表现比人类能力更强、速度更快,但这些任务是人类设定好的,在某种程度上属于程序化的行为。而对于那些需要在情境中进行理解,具有创造性的活动来说,人工智能目前还无法表现出如人一样的能力。正是在此意义上,我们必须清楚地认识到人工智能或者智能机器在什么程度上是可能的,又在何种程度上是不可能的,即必须清楚地认识到智能机器的行为限度。 在人工智能大面积应用之前的社会治理过程中,对政府或者作为治理主体的人来说,治理过程中所面临的最大障碍就是模糊性。这种模糊性来自对管理对象或者治理对象信息掌握的不完整性。当然,我们有很多传统的方法来尽可能掌握治理对象的详细信息,从而做出决策并进行有效治理。比如说,在传统的社会治理中通过问卷调查、访谈等方式来弥补信息的不完整性,使管理者或治理者尽可能掌握丰富的信息。然而问题在于,问卷调查无法覆盖到治理对象的所有群体,因为这样无论在人力还是财力上都会大大增加治理成本。巨额的成本使这种治理方式难以为继。即使管理者获得了丰富的信息,在传统治理方式下保存这些信息也非常困难。最传统的方式是经验的口耳相传,再往后借助于造纸术和印刷术的发明,人们能够通过纸质档案的方式来保存这些数据。然而这种保存方式仍然是有局限性的,那就是这种介质保存的数量有限,并可能在保存过程中丢失信息,从而失去保真性。更何况作为治理对象的社会本身充满着不确定性,这也就是说,尽管我们可以从统计学的意义上尽可能使调查样本能够反映出整体的景象并且能够从中发现其内在规律。然而,由于这两个因素的限制,不确定性或者模糊性是传统社会治理一直不得不面对的现实。这也就意味着传统社会治理的科学性、精确性因为这一前设性条件限制而受到影响。 人工智能的出现及其在社会治理中的应用,使得传统社会治理的模糊性困境有望从根本上消除。那么,以人工智能技术为支撑的智能机器能够做什么,或者说与人相比,其优势体现在什么地方?在我们看来,人工智能的优势主要体现在两个方面:大数据与逻辑计算能力。而这两个方面恰恰是传统社会治理一直所具有的弱点。就大数据这一方面来说,智慧社会就其技术条件来说,可以借助智能感知等技术设备实现对治理对象信息的全覆盖、全方位收集,“无处不在的微小计算设备和无处不在的互联网相结合,实现无处不在的信息自动采集、传递和计算”。通过这种方式实现信息收集的自动化、智能化,取代了传统人工收集数据的方式,而且收集信息的粒度都是传统信息获取方式无法比拟的。我们知道,传统国家治理所面对的主要困难就在于对信息掌握的不充分。而借助于人工智能等技术的强有力支持,数据的收集变得异常简单快捷。 我们也非常清楚,古典行政管理长期以来受到人们批评的地方在于其科学性不强,这种科学性大打折扣很大程度上就是受到信息缺乏或者不充分的影响。另外一个方面就是行政管理或者社会治理面对的是人,而一旦涉及人就不能不考虑价值因素。这就构成西沃之争的历史背景。为了追求公共行政的科学性,西蒙通过事实与价值二分把行政管理变成寻求事实之间因果规律的科学,从而实现了他所期望的行政科学。而沃尔多则针锋相对,认为行政管理要实现科学化就必须回答价值及人的问题,这两个问题不可能通过回避就加以解决。行政管理包括公共管理一直面临着学科身份危机。其核心就在于行政管理包括社会治理在收集信息、数据方面的限制。社会治理同样如此,如果不能实现收集信息的充分性,其科学性就会受到人们的质疑。如果我们还是通过样本调查等方式来收集数据,那么在样本与治理对象总体之间始终存在规律性受限的可能。“得益于计算机技术和海量数据库的发展,个人在真实世界的活动得到了前所未有的记录,这种记录的粒度很高,频度在不断增加,为社会科学的定量分析提供了极为丰富的数据。”由于人工智能设备能够收集到足够丰富的数据,且计算机计算能力大大提高了计算的准确性,使得包括行政管理在内的社会科学彻底摆脱身份危机的困境,实现其梦寐以求的科学化。这样的前景,使得部分人欢欣鼓舞,重新拾起行政管理科学化的信心,并且对科学行政充满憧憬。 就逻辑计算能力来说,人工智能的这一优势与大数据直接相关。社会治理在收集信息之后要对信息进行处理,这就涉及计算及决策等方面的因素。然而,传统治理主体,不管是政府还是作为治理主体的人都面临另外一个困难,即计算能力的限制。无论人如何聪明,无论人的逻辑思维能力如何强大,他总是面临着计算能力有限这一局限性。如果增加人力及设备投入,就面临着治理成本增加这一外在约束性限制。在这种情况下,一方面,大数据的出现客观上产生了对智能机器更强计算能力的需求,因为面对海量数据,如何高效地进行处理并且生成相应的结果就对计算能力提出了更高要求,而这是人力所无法企及的。另一方面,智能机器强大的计算能力成为其最大优势。面对社会高度智能化产生的大量数据,如何进行及时处理就成为人们面临的一个日益紧迫的问题。而人工智能领域中的大数据恰恰以其强大的计算能力解决了横亘在人类面前的这一难题。 从社会治理本身来看,如果我们把社会治理分为常规性治理和非常规性治理的话,我们看到,就常规性治理来说,它意味着这种治理活动是可重复性的行为,而这恰恰是智能机器可以大展身手的领域。因为重复性意味着这种知识是可形式化的,表现在人工智能领域就意味着可以实现代码化,而凡是可以编码、实现代码化的知识的学习恰恰是智能机器最擅长的方面。“在有序行为中,一个乍看上去好像是无规则的片断,原来可用复杂的规则加以描写,而这些复杂规则又是那种可直接由数字计算机加工的规则。”就此而言,智能机器如果在社会治理中得到广泛应用的话,这应该是最先得到应用的领域,而且是取代人工最为彻底的领域,原因就在于无论从效率还是成本来考虑,这些常规性、可重复性的活动都是智能机器最擅长的方面。 那么这是否意味着人工智能所向披靡,可以取代一切工作,甚至实现社会治理的彻底智能化?从我们的认知来看,至少这种可能性不太会成为现实。“人工智能的最终目标并不是要替代人类智能,而是通过人工智能增强人类智能。人工智能可以与人类智能互补,帮助人类处理许多能够处理、但又不擅长的工作,使得人类从繁重的重复性工作中解放出来,转而专注于发现、创造的工作。”而我们知道社会治理,至少是政府治理中大量的工作是常规性、可重复性的工作。从人工智能的优势来看,这些恰恰是人工智能完全可以取代人去从事的工作,而且会比人做得更有效率、成本更低。 社会治理活动中除了常规性、可重复性的活动外,还有大量的非常规性活动,比如说突发性事件的处理、非常规性决策等。这些非常规性治理活动一方面其行为受不可控因素的影响,另一方面没有经验可循,也就是说,它是人们以往治理经验中没有出现过的,因此需要人们的创造性努力才能开展。在这个意义上,当我们把社会治理看作一种决策活动时,那么非常规性社会治理决策过程会大量涉及情感、经验等因素,在某种程度上,治理决策是理性、经验、情感、情境等多方面因素结合的产物。这种活动就不可能循常规而行,它是一种创造性、综合性的活动,需要综合考虑多方面的因素再做决断,然后采取行动。至少从目前的技术条件来说,人工智能的工作条件是设定好的条件,是智能机器在人设定的环境下开展工作,其自主性、创造性还受到一定限制。 如前所述,面对人工智能技术的飞速发展,很多人类原来认为独属于自己的工作,现在人工智能都做得得心应手,在某些方面甚至比人做得更准确、更有效率。面对这种情况,情感似乎成为人类维护自身尊严的最后一个领域。在洛根看来,“人的头脑既受神经元和电子流的影响,又受内分泌系统和内啡肽的形塑。同理,人的思想既受理想和逻辑的控制,又受愉悦、爱情、道德、审美、神秘感和好奇心的控制。”更为重要的是,人的独特性在于人有情感,有直觉,有喜怒哀乐。在这方面,即使我们教会机器人去体验人的喜怒哀乐,那也是对人类情感的模仿。“我们怎么能够使计算机体会欢乐与痛苦,怎么能够教会计算机如何哭泣、如何欢笑呢?人的有些行为和反应是可以用数学计算量化和复制的,但另一些行为和反应是不能分析的,欢乐、懊悔、悲惨、爱心和精神就不能分析。”在计算能力超强的人工智能面前,唯有情感成为维系人自身尊严的最后一根稻草。智能机器至多只能模仿人的情感,它不能创造出独属于人的情感。 除了情感之外,人类引以为傲的一个因素在于人有道德伦理。一方面,伦理道德是人所独有的,智能机器无论多么先进,如何类似于人,它都是对人的模仿,包括对伦理道德的模仿。另一方面,伦理道德是一种实践理性,是人们通过长期社会生活实践逐渐积淀而成。而人工智能试图把作为实践理性的伦理道德进行编码,嵌入计算机程序中,这是人无论如何都不能接受的。其原因在于,道德本身在很多情况下是情感性的,比如同情,能否通过程序或者一系列理性的指标显示出同情?显然,人工智能的企图是把一切事物都实现量化,包括情感、伦理道德。事实上,至少从我们的直觉感受中,借助于人工智能等技术所收集到的数据有助于我们理解人的情感、道德等,但不能把情感、道德等还原成数据,甚至归因为数据。
如前所述,技术的发展催生出了人机合作,然而,无论是从人工智能技术本身还是从社会环境来看,智能机器都有着自身的先天性局限,使得它并不像人们想象的那样在一切领域可以完全取代人。如果我们进一步追问,在社会治理过程中,即使在智能机器所擅长的领域,或者能够发挥其优势的领域,是否就意味着智能机器技术上可以做到的或者其能力上完全可以做到的就是允许做的?显然,常识告诉我们,对这个问题的认识需要谨慎。 相较于传统社会治理,智慧社会治理无论是从信息收集、信息存储还是从信息处理来看,智能机器都有着远大于人类的优势。无论是从数据收集的数量还是保存数据的准确性、客观性来看,人根本无法与智能机器相提并论。就信息收集来看,在智慧社会环境下,随着大数据日益融入人们的日常生活,“并在我们不知情的情况下被收集、传输、存储、使用时,我们将不再有隐私可言”。也许有人会说,这些智能化电子设备所记录的信息是碎片化的,比如我们在朋友圈中所发的个人动态,在京东上的购物记录等等。虽然这些信息分开来看都是孤立的、碎片化的,但如果把这些属于个人的碎片化信息融合起来,那么我们就会得到一个人完整的生活轨迹,就会得到关于我们的生活习惯、爱好以及个人历史等方面的丰富信息,进而就能完整勾勒出我们的生活状态甚至画像。在这个意义上,数字化生存就成为我们生存状态在虚拟空间的映像。“遥远的某地有一个数据库,它包含着我的个人资料,并在我毫不知情的情况下,向政府机构提供了这些资料,使它们做出了有损我的生活的决定”。数字化生存把我们生存的真实状态完整地记录下来,反映出我们的生存境况,尽管我们并没有向任何人透露任何关于个人的生活情况。从这个意义上来说,以互联网、人工智能等技术为代表的信息技术的发展将把我们带入一个完全不同于我们所熟悉的世界的社会,这是一个透明的社会。在这样一个透明的社会里,在无所不在的记录面前,甚至在我们不知情的情况下,我们的个人信息被记录下来,而这种情况只有当我们的信息出现泄露时才会为我们所知。虽然我们认为这种情况从道德上是不允许的。 这当然涉及智慧社会环境下对人的生存方式的理解。借助于人工智能、网络等技术,智慧社会创造出一个新的空间,这一空间不同于我们所熟悉的物理空间,处于这一流动性极强的虚拟空间的人也发生了改变。“信息方式中的主体已不再是居于绝对时空的某一点,不再享有物质世界中某个固定的制高点,再不能从这一制高点对诸多可能选择进行理性的推算。相反,这一主体因数据库而被多重化,被电脑化的信息传递及意义协商而消散,被电视广告去语境化,并被重新指定身份,在符号的电子传输中被持续分解和物质化。”波斯特的语言过于隐晦而难以为我们所理解,但从其叙述中不难看出,他所关注的就在于智慧社会所造就的虚拟空间这一新形态中人的生存方式发生了根本变化。不同于我们所熟悉的物理空间的主体确定性,在网络这一虚拟空间中,由于存在方式的数字化、符号化,使得人更多地变为一个语义化的符号。这一存在形式的根本变化意味着人的主体性发生了变化。问题在于在这样一个变动不居的社会中,是否意味着数据的收集就可以没有任何限制? 在高度智能化的社会环境下,智能机器对数据的收集可以说无时不在、无处不在,这就隐含着一种可能:智能机器会把所有它能收集的数据都毫无保留、不加辨别地收集起来。这样就可能引发一个问题,即智能机器可能会收集到欺骗的数据。据有关方面的研究,就目前的技术水平来看,智能机器所依赖的深度神经网络存在漏洞,从而导致它会把一些无意义的图像识别为具体物品,这使得人们一方面对其收集数据的可靠性并不能完全确定;另一方面对其发生故障的具体情境也难以预测。 就数据存储来看,如前所述,传统社会治理面临的困境之一在于难以把收集的数据保留下来,即使保留下来也面临着数据的失真、保留数据量有限等困难。云计算等技术的发展使得计算机网络的存储能力得到大大提升,更为重要的是这种存储方式可以有效克服传统治理在数据保存方面存在的弊端。但是,存储是一种记录,是对现实的真实记录。无论智能机器如何先进,它只是对现实的记录与保存,即使整个社会环境高度智能化,可以做到对一切事无巨细地进行记录,这种记录仍然只是对数据进行储存。 存储不是记忆,记忆是有选择性的。记忆意味着“我们保存下了它的部分特点,而抛弃了其他的许多特点”。记忆只保留有意义的事物。记忆以真实性为前提,但不是无差别、无原则的保存。计算机不能记忆,计算机只能保存。虽然计算机也可以删除数据,但删除并不能抹去记忆。“正如保留并不意味着记忆,删除也并不意味着遗忘。让计算机擦除事情很轻松:按下‘删除’键就完了。但人类的意识可没有故意遗忘这个功能;告诉自己别去想,你是忘不掉那件事的。你可以从硬盘上删除文件,但对文件的记忆(以及对你抹除了该文件这一事实的记忆)或许永远伴着你。” 即使记忆本身也并不见得比遗忘更具道德性。记忆本身也并不见得随时随地都是正确的。“记忆不光是单纯地保护一个人,也可能会伤害到另一个人。它不见得能团结受害者,更可能孕育了冷漠,强化了暴力的循环。它不见得是如实地承认错误,也可能助长受害者的虚假自我认知和不公正需求。它不见得能愈合伤口,更可能往伤口上撒盐。”计算机只是从技术上解决了数据保存中的遗忘,甚至在某种程度上能够帮助我们遗忘,但是技术不能为该记住什么、应该遗忘什么的道德困境提供答案。计算机并不能从根本上解决人们所面对的道德困境,它只是以技术化的方式回避了道德困境。 从社会治理过程来看,其中最为关键的环节是决策。随着智能机器自主性的增强,决策过程中的风险也随之提升。如果我们把决策的判断权交给智能机器,那么,随之而来的问题是,一旦决策出现失误,一方面,人能否及时干预,以及时制止智能机器的错误或失误。即使人能保持对智能系统的监督,但问题在于,智能机器一旦启动,它往往不会停下来等待人的指令。人能否在智能机器出现决策失误时及时制止,在很大程度上取决于操作的速度、可用信息量以及人的行为与系统响应之间的时间差等因素。另一方面,在完全自主化的智能系统中,一旦智能系统开始启动,由于人处于系统的回路之外,根本无法对自主系统进行干预。这意味着如果智能系统出现决策失误或故障,人类根本无法及时纠正或制止。
如前所述,在人工智能所擅长的领域,即使是把人工智能应用到社会治理领域,就其应用本身来看,也应有某些禁忌,这些禁忌意味着智能机器在收集、储存以及处理数据过程中存在某种边界,是人工智能在应用过程中不能逾越的。有人认为人工智能仅仅是种技术,是中立的工具。在我们看来,这种认识是对人工智能的简单化理解。确实,如果把人工智能看作是人们手中的工具,仅仅具有工具性价值,也就卸除了人工智能本身的道德负担。如果人工智能在应用过程中没有任何禁忌,就意味着它可以为所欲为。人们对人工智能应用过程中的种种担忧并非杞人忧天。从这个意义上来看,无论是人工智能的研究还是应用,确实需要有某种禁忌作为其行为边界,而且这种边界是不能逾越的。也就是说,以人工智能为主要应用技术的智能机器本身要遵守某些道德规则,智能机器本身要成为道德机器。 就社会治理来说,既然在社会治理中应用人工智能是为了更好地为人们提供服务,那就意味着在社会治理领域应用人工智能的一个根本原则就是如何为人们更好地提供服务,其根本指向是服务并满足人的需要,这也就成为智能机器在提供服务过程中应当遵守的一个根本原则。在社会治理过程中,当我们大规模应用智能机器进行数据采集、储存、处理时,必须从这一根本原则出发,而这也就成为社会治理过程中人与智能机器合作的一个禁忌性原则,即在提供服务的过程中不能也不应该干涉人的基本权利,哪怕是无意的侵犯也应被视为是不允许的。这就是要设置技术的安全条件,特别是人工智能的安全条件。尽管技术性设定非常复杂,但有一条基本原则,那就是“发展人工智能的理性限度就是人工智能不应该具有否定人类存在的能力”。基于这样考虑,赵汀阳甚至为人工智能设定了最低安全条件,即:(1)人类的存在与人工智能的存在之间不构成生存空间的争夺;(2)人类必须能够在技术上给人工智能设定:如果人工智能试图主动修改或删除给定程序,就等于同时启动了自毁程序;(3)人工智能只能单方面接受人类设定的控制程序,且只能由人类单方面启动这一程序;(4)必须把人工智能的发展控制在单项高能而整体弱智的水平上。赵汀阳的思考是在存在论意义上展开的,即为了保存人的独特性而提前思考如何保证使人工智能始终处于人类的控制之下,并且始终能够为人类服务。就社会治理来说,目前人工智能的大规模应用虽然不存在存在论意义上的忧虑,但为智能机器的运行和使用设置某些不可逾越的边界却是必需的。 这就产生了另外一个问题,如何让智能机器去遵守道德规则?如何使智能机器成为道德机器?目前人们共同的设想是把道德规范编程并嵌入已有程序当中来解决这一难题。而将人类社会已有的法律道德规范嵌入人工智能系统中,对整个社会来说是一个非常巨大的挑战。举例来说,即使应用前景比较看好的无人驾驶汽车,其道德困境也难以彻底解决。比如,无人驾驶汽车在路上遇到违规的行人,是保护乘车人还是行人?这是一个两难选择。如果“自动智能汽车的原则是舍己救人,即牺牲乘车人而保护行人,那么这样的汽车将没有任何市场前景,没有人会购买或租用一辆毫不利己、专门利人的汽车;假如原则为保护乘车人,也恐怕难以通过市场准入评估,毫不利人、专门利己的汽车同样不可接受”。而当人工智能达到高级状态,当人的生活环境高度智能化时,当人的生活全面依赖智能化网络时,这一问题会变得更为紧迫,“一旦技术里预设进了法律和规范,就很难质疑、修改它们了。它们几乎完全消失在了背景当中,令人感觉浑然一体”。这意味着我们试图通过把道德技术化,把道德规范嵌入技术当中来解决道德选择的难题。事实上当智慧社会成为我们生活的“背景性框架”时,当人与智能机器高度融合,人对人工智能高度依赖,所谓的道德选择已经以代码化的方式存在于我们的生活背景中,甚至与我们融为一体时,人们实际上已经把这种选择的权利交给智能机器了。 即使我们可以设计出这样的道德机器,问题在于,法律、道德等规则能够被转化成计算机代码吗?如果可以的话,哪些规范和价值是应嵌入计算机程序中并且以什么样的方式嵌入人工智能系统?更进一步,如何确保这些嵌入人工智能系统的法律道德规范符合人类的整体利益并随社会的发展而保持同步?可是,人自身的价值至今也没有形成一个协调一致的系统,相反,许多价值之间是相互冲突的,甚至某些价值内部也存在致命的漏洞。正因为如此,要把价值、道德编程在逻辑上显得不可能,而且我们也无法为计算机编写出具有一致性的普遍价值排序的程序。正如有学者所预测的那样,如果人工智能能够有效解决这些难题,就可以设计出我们所向往的道德机器,那也就意味着智能机器可以像人一样成为一个能动的、有道德的行动者。 与此同时,普通大众对于道德编码,对于代码化规则的道德审查是一无所知的。因为人工智能表现为一系列算法,当我们寄希望把道德规则嵌入算法当中时,其实就意味着我们把这种道德期望寄托于那些算法的设计者。“无论如何,算法的设计都是编程人员的主观选择和判断,他们是否可以不偏不倚地将既有的法律或道德规则原封不动地编写进程序,是值得怀疑的。”这也就意味着以编码化形式出现的计算机算法实际上是以“黑箱”的形式呈现在人们面前。而智慧社会的高度智能化实际上意味着我们所熟悉的很多社会规则都面临着代码化这一境遇。正如有学者指出,“当利用犯罪风险评估软件对犯罪嫌疑人进行评估,决定司法判决结果的就不再是规则,而是代码。但当编程人员将既定规则写进代码时,不可避免地要对这些规则进行调整,但公众、官员以及法官并不知晓,无从审查嵌入到自主决策系统中的规则的透明性、可责性以及准确性”。事实上很难对这些代码进行审查,这样,我们就不得不把希望寄托在那些编程人员身上,期望他们能有比较高的道德觉悟,能够站在人类整体的角度来思考这一问题,而不仅是为了满足自身的利益和欲望。但历史一再表明,把整个社会治理的希望寄托在少数人身上是非常危险的。 事实上,当整个社会越来越智能化时,当我们在不经意间已经跨过智慧社会的门槛,整个社会的规则都不再是我们所熟悉的物化的规则,都面临着规则的代码化时,如何让代码化的规则能够道德化就成为处在智慧社会时代的人们需要面对的问题。这就意味着,在智慧社会治理过程中,需要为智能机器设定元规则。这种元规则既包括禁止性规则,也包括限制性规则。禁止性规则是智能机器不可逾越的,限制性规则则意味着智能机器只能在有限的意义上运用于社会治理之中。无论是前者,还是后者,都向我们提出了一个非常紧迫的问题,那就是必须为智能机器适用于社会治理设定元规则。可是,一个无法回避的现实是,“全球化并没有发展出适合全球化的新规则,而仍然沿用现代性的旧规则。在一个新游戏里却仍然沿袭旧游戏的规则,这正是全球化的真正难题所在”。人工智能的发展、智慧社会的到来本身就是在全球化背景下发生的,而且正是在此种力量的推动下越来越把我们带入了一个全新的世界。赵汀阳讲的是对全球化本身的一种判断,但这种判断却完全适用于智慧社会以及智慧社会治理。 来源:公共管理共同体公众号 |