21世纪,人类历史的枢纽期
英国作家伊安·莫蒂默(Ian Mortimer)的书《变革的世纪》中,讨论了这样一个问题:哪个世纪我们看到的变革最多?莫蒂默认为,11世纪最重要的东西是城堡,12世纪是法律和秩序,13世纪最重要的发明是市场,14世纪最大的变化是瘟疫(当时黑死病横扫整个欧洲,死掉三分之一的人口),15世纪是哥伦布,16世纪是个人暴力的减少,17世纪最关键的是科学革命,18世纪是法国革命,19世纪是通信,而20世纪最重要的变革是对未来的发明。
毫无疑问,技术极大地改变了我们在20世纪的生存和死亡方式。但是,它也标记了可能更为深刻的变化。1900年,很少有人认真考虑过未来,而今天,我们几乎预测所有事情:天气会怎样,股市又如何,我们需要什么样的住房,我们的退休金将价值多少,等等。我们越来越多地讲述将要发生的事情,而不是已经发生的事情。在这个意义上,我们把20世纪视为现代世界开始的起点——人类从此开始考虑未来。
21世纪,迄今已迈过20年。如果说20世纪是现代世界的起点,那么,我们又将如何描述21世纪?
我认为,21世纪是人类历史上最重要的世纪,虽然这个世纪还远远没有过完。这并不是因为你我身处这个世纪——我们都知道,人类拥有一种将自己的时代看成前所未有、独一无二的倾向。存在三个核心论点,可以证明我们生活在人类历史的关键时刻。
危险时刻
第一个论点可以叫作“危险时刻”理据。
这个理据很简单:本世纪我们只有克服巨大的挑战才能拥有任何未来,仅此一点,就足以使其成为迄今为止所有世纪中最重要的世纪。假如被这些挑战所击败,人类就将处于毁灭的边缘,这也令本世纪比未来的世纪更加关键。
牛津大学的哲学家托比·奥尔德说:“按照人类历史的标准,我们目前正处于一个非常特殊的时期,我们的行为可能会破坏我们的世界。”他的同事尼克・波斯特洛姆将此称为人类的“存在风险”(existential risk),即某些威胁可能导致人类灭绝或摧毁起源于地球的智慧生命。
过去,人类不可能完全消灭自己。然而,并不算太久之前的1945年,人类在战争中首次使用核武器,发展出灭绝自身的能力。从那以后,我们不断磨炼这种死亡能力,现在地球上有了成千上万件核武器。专家们对核战争到底会带来多大的灾难持不同看法,但很显然,人类自毁不再遥远,而且每年都在变得越来越容易。
我们也朝着其他威胁文明的方式迈进——从气候变化到流行病,从基因技术到人工智能。随着我们侵占自然并把地球人口扩大到80亿人,病毒可能反复来袭,这是与我们作为一个“成功”物种必然相伴的灾难。气候变化不会使地球变得无法居住,但它肯定会使其变得更脆弱,弹性更低,全球协调性下降,并且更容易受到生态系统或地缘政治环境的其他冲击源的影响。人工智能研究者对于颠覆性AI技术究竟是10年还是200年到来并没有共识,但许多人同意,除非经过精心设计,它的降临将会是灾难性的。
根据存在风险论,从我们发明各种自毁方法到某种形式的全球治理浮现,令我们可以通过协调而系统的方式解决挑战,而不是依赖运气的时期,构成历史上的枢纽期(the hinge of history)。只有我们在接下来的时间内采取明智的行动,人类才将得以度过最危险和最具决定性的时期。没有度过这个时期之前,你我他、每一个人,都是凭借着运气生活,存在着巨大的偶然性。
不能确定这个非常特殊的时期正好是一个世纪之久;它很容易持续数百年。但极其明显的是,枢纽期将不会永远持续下去。如果我们每年仅靠运气生存,那么到了某些年份,我们会倒霉。
美国人口生态学家保罗·艾里奇最有名的著作是1968年出版的轰动一时
的《人口爆炸》,该书认为世界人口当时已经超过了地球生态环境的承载能力,正威胁着整个人类的生存。由于出版社的决定,他的妻子安妮·艾里奇没有成为《人口爆炸》一书的共同作者。但之后的很多书和文章都署名为艾里奇夫妇。
这对夫妇写过一本书叫《灭绝》,前言里讲了一个寓言故事,很快就在生态学术圈中流传开来,就像“人口炸弹”的比喻对外界发生巨大影响一样。
这个故事讲述的是,一名旅客注意到一个机修工正从他将要乘坐的飞机机翼上敲出铆钉。机修工解释说航空公司将因此获得一大笔钱。同时,机修工也向这位震惊的旅客保证,飞机上有上千铆钉,绝对是万无一失的。事实上他已经这样做了一阵子了,也没见有飞机掉下来。
这则寓言的重点在于,我们无从知晓究竟哪一颗铆钉会是导致飞机失事的最后一根稻草。但对于乘客而言,哪怕敲掉一颗铆钉都是疯狂的行为。然而艾里奇教授却严正指出,在地球这艘大型宇宙船上,人类正在以越来越快的速度敲掉一颗颗的“铆钉”:“生态学家并不能预言失去一个物种的结果,正如乘客无法估计飞机失去一颗铆钉会有什么后果一样。”
这个寓言精妙地显示了,我们每一年都在依靠运气生存。因此,存在风险的研究者希望我们能够结束导致危险的全球局势,而不是仅仅试图度过每一年的危险。如果我们能够做到这一点,它将对未来产生巨大的决定性影响。
价值锁定
第二种理据叫作“价值锁定”。
价值观锁定的观点认为,在不久的将来,人们可以通过某些方式,为更遥远的未来的人类后代锁定一种特定的路线。如果这样做,我们需要确保我们不会锁定未来道德进步的潜力。
一些研究人员认为,开发更先进的技术将意味着,把有关人类价值观的许多最重要的问题,有效地置于人类控制之外。如果我们对率先问世的先进计算机系统进行编程,让它分享我们的价值观,那就是它会做的,哪怕我们后来决定我们想要某种不同的东西。
……
(本篇全文发表于《中欧商业评论》2021年2月号。订购热线:021 — 60622166,网上订购点击此处)
