未来哲学(第一辑)
上QQ阅读APP看书,第一时间看更新

四、当“作”变成赌博

现代以来,技术发展不断成功地宣告人类主体性创作未来的主权,然而今天的技术发展却预告了未来的终结,甚至预示了人类自取灭亡的可能性,就是说,未来的技术发展很可能不再保卫存在,而变成一种否定存在的方式。未来成为了存在的首要难题。在此可以意识到《周易》的预言性,即形而上学的根本问题是“变在”而不是“存在”。

既然未来是属于“我作”的一个存在论问题,那么就必须明确“我作”的存在论限度。《周易》已经指明,“生生”就是一切“作”的本意。我们可以再次明确,生生,即继续存在,是任何“作”的存在论界限。如果一种“作”终止了人类的继续存在,就是人类的自我否定,相当于自杀,这是理性无法解释的一种存在的自相矛盾。在此可以理解加缪何以断言“自杀问题”才是哲学的第一问题。一个人的自杀可以有理性的理由,因为一个人可能遭遇到无法接受的“外部性”(externality),但是人类的自杀就没有任何理由了。

当然,今天的技术发展在意图上并非否定人类的存在,但在实际效果上蕴含着对人类存在的否定,所以我们需要反思“作”的存在论界限。人类数千年来的存在经验正在发生无法接续的断裂,如果经验无法继续延伸,就意味着未来将变成一个绝对陌生的状态,包含完全不可测也不可控制的变化,未来也就变成不可信任的赌博。在今天已经形成并且未来将继续发展的人类“未来赌博”中,最为突出的是后现代金融资本主义,还有以人工智能和基因技术为代表的高科技。

有两种荒谬的赌博。一种赌博是买卖未来的游戏,未来尚未存在,下注的未来只是一个可能性,无人能够保证它在将来能够变成真实存在,因此,买卖未来实际上是在买卖不存在的东西;另一种赌博是赌生死。搏命的极端游戏只有在一种情况下有着理性的理由,即如果不搏命就必定死。除此之外,任何理由都是非理性的。赌博是一种伪装为游戏的“反游戏”,因为赌博赌的是可遇不可求的“奇迹”,而不是遵循规则的可能结果。维特根斯坦说明了,一个有意义的游戏必须是遵循规则的活动。当然我们也可以在广义上去理解游戏,把一切博弈都看作游戏,即博弈论意义上的游戏。博弈论的游戏可以是有规则的也可以是无规则的,比如说,自然状态下的“霍布斯丛林”游戏就属于无规则游戏。但自然状态游戏并不是赌博,自然状态虽然无规则,可以不择手段,但仍然是理性的,因此,自然状态能够慢慢地积累起可信经验,逐步形成博弈的稳定均衡,最后形成可信的游戏规则和社会制度。但是,真正的赌博只有概率,而且,在非常复杂的条件下,赌博的成功概率微乎其微,这意味着,赌博与理性、规则和可信经验完全无关,只与非理性的“奇迹”有关,这显然违背了游戏的概念。

当代经济的基础是金融资本主义,早已不是产业资本主义,其中发生了一个根本性的变化,按照史正富的分析,就是货币从因变量变性为自变量。20这个变化完全改变了经济运行的游戏性质,使当代经济变成了最大的赌场。自从货币不再反映人类的实际财富,而只是集体信心的函数,只要能够以欺骗的方式制造出市场信心,就可以不断发行远超实际财富的货币,因此,人类在数字上拥有的财富中的大部分是虚假存在,而买卖虚假存在就是一种赌博。从股票证券市场到数不清的金融衍生品,都是集体非理性的赌注,它们指望着缺乏相等实物抵押的虚幻未来。当代经济的赌博在实质上就是买卖不存在的未来,在幻象破灭之前,数字财富是“真实的”,但一旦破灭就不复存在。因此,当代的金融资本主义是建立在沙滩上的高楼,始终存在着崩塌的危险,这个高风险的经济基础需要经济不断增值才得以维持数字价值的信心,而经济的增值又依赖技术对未来的许诺,所以人们特别寄希望于技术的进步,指望高科技能够在未来解决一切问题,指望未来能够支付今天所有预支的亏空。预支未来成为了当代的存在方式,问题是,那个未来未必存在。有趣的是,在金融市场上,人们经常以“做空”来打击对手,但以未来为赌注的当代社会整体却集体性地选择了“做多”,这种“做多”的信心主要来自高科技的发展。

现代人相信技术能够无限进步,不断创造奇迹,事实上也确实如此。但是,技术的进步是否永远都是有利于人类的,却是一个严重的疑问。现代以来的技术发展之所以是成功的,是因为它尚未触及技术的存在论边界。但是,现在的技术发展正在开拓一个超出人类控制能力的未来。一旦出现了无法控制的技术就等于进入了赌博模式。目前,人类的高技术发展就正在走向无法控制的技术赌博,尤其是人工智能和基因技术。毫无疑问,高科技有着极大的好处,这种诱惑使人容易忽视其致命的危险。基因技术可以改善生命,人们期望基因技术能够治疗一切疾病,改善人的能力和智力,乃至改变基因而达到长生不老。但问题是,生命是极其精密的自然设计,其中有着极其复杂的配合和平衡,因此无法判断修改生命的设计是否会引起不可预料的灾难性突变。人工智能也同样危险,甚至更危险。尽管目前的人工智能仍然属于图灵机概念而尚未出现风险,但是,如果将来真的出现了超级人工智能(ASI),即拥有超级能力和自我意识的人工智能,那么就等于人类为自己创造了高于人类的统治者而把人类自己变成奴隶。更危险的是,超级人工智能是否需要人类继续存在,这仍是未知数。即便超级人工智能像仁慈的神一样看护人类,我们仍然有理由去怀疑创造一个统治者的意义。无论超级人工智能如何对待人类,人类都将失去存在的主权和精神价值,即使能够存在也是精神死亡。我们无法预料超级人工智能会如何对待人类,就像无法猜想神会做什么。

未来的高科技所开启的是一种完全无法控制的未来,人类技术之“作”已经进入了赌博模式,未来正在从“作”的概念里逃逸出去,不再是人类存在经验的延续。当“作”变成了赌博,就已经触及了人类的“存在论限度”。根据古人的忠告,生生原则是任何“作”不应该逾越的最后界限,即技术发展不能包含毁灭人类自身或毁灭文明的可能性。简单地说,人类的存在方式不能变成赌博。