《未来简史》让我印象最深刻的部分,就是尤瓦尔所说的,现代社会相比于前现代社会的人类精神上的差别:“用力量换取意义”。人类自远古时代以来,一直用宗教这个结构组织在一起,他们相信自己的生命是有意义的;进入了现代社会,科学的发展将这种信念打得粉碎;于是我们不再相信我们自身之外有更高的存在,生命就变得没有了意义。然而这也同时给人类带来了力量:科学和技术的发展让人类现在具备了前所未有的能够改变世界和人类自己的力量。于是,我们相信的也就只剩下了我们自己:自由意志,自身存在,我们能够意识到我们自己并且选择我们要走的道路。这个信念被总结为“自由主义”,成为了现代社会所不言自明的信条:人生來是平等的,造物主把某些不可讓渡的權利賦予了所有的人,在這些權利中,有生存、自由和追求幸福的權利。

但是这些真的是无法超越的吗?就好比很多科幻中所描述的那样,在遥远的未来,人类进入太空之后,个体生命的高贵和自由仍然是人类相比于其他星球上的智能生命的绝对优势,以至于个体的自由这一政治理念可以用来颠覆其他智能生命的社会,这件事情真的会发生吗?

我在这里想唱唱反调。人工智能即将到来的前夜,可能是人类的自由意志最后的余晖;技术即将超越人类的自我意识。

想象这样一个场景。在未来,您的人工智能助手告诉您:“对您的日常生理数据的分析表明,您现在的健康状态堪忧,需要减去10kg体重。据此我给您订购了健康饮食计划,以及健身计划,请您在接下来的三个月内执行这个计划。”

这没什么大不了的,目前的智能手机上有上百个APP可以给你提供饮食建议和健身建议。那么再进一步,将这所有的事情都结合起来,又有什么问题呢?

问题在于“自由选择”上。长久以来我们对于自由选择的概念就是“我自己选择我自己要做的事情”;但是现有的认知科学和心理学研究已经无情的指出,人类的自我意识在选择自己的行动上其实大部分时间是无能为力的;按照丹尼尔·卡尼曼的比喻,就是“象与骑象人”:骑象人就是我们的自我意识,大象就是我们大脑庞大的潜意识,在有些时候,骑象人能够决定大象前进的方向;而大部分时间里大象都是自行其是。

丹尼尔·卡尼曼的著名的《思考快与慢》中,将人类的认知结构分为两个部分:系统1和系统2。系统1是人类认知中比较直觉的那一部分;系统2则负责理性思考。认知结构中,有一大部分的决定都是系统1所做出,人类的自由意志实际上深受这样和那样的原始欲望和意识的影响,大部分时间中实际上是不自由的,存在有各种各样的由基因和潜意识驱动的偏见——如果人的自由意志都如此强大,那减肥、戒毒还会是如此困难的事情吗?

卡尼曼还指出,人类是天生无法理解统计和概率的——这也是为什么赌博是如此吸引人的一项活动。大脑是一个贝叶斯机器,它不计算整体的概率,只对过去发生的情况有反应——按照统计学术语,它只关心第一类错误(判明是假实际是真),而不关心第二类错误(判明是真实际是假)。这对于在大草原上生存的物种来说,在进化上是适应的;但是这并不适合于要求理性和判断的现代社会。

从这个角度来讲,技术的进步是一把双刃剑:它即可以用来让我们更加理性的思考,抹除掉我们身上的动物性;又可以让这种动物性更加蓬勃。

每一个购物网站都有“猜你喜欢”的条目。这些条目是根据你的过往购物,浏览历史,以及无数其他人的数据所推测出来的你可能会接着购买的商品。当然,现在这个“猜你喜欢”在大多数情况下并不是很准确。然而,在可预见的未来,当你身边以及你自己的一切行为都被总结成数据的时候,“猜你喜欢”可能就会达到极为可怕的精度。就跟前文所说的那样,人工智能掌握了你的身体状况,并且得出结论,您现在应该减重10kg,那你会听它的指引吗?

很多人应该会回答:是的,它肯定会给予我对我个人来说最优的指引。那这样一种指引必然不会仅仅限于购物和健康;比方说,人工智能根据你的喜好来决定你的旅游目的地和路线;向你推荐合你口味的影视和游戏;根据你的过往经历来向你推荐合适的工作岗位;甚至在很多科幻小说里已经写的那样,向你推荐匹配的交往对象。你将越来越多的数据开放给它,那么它给予你的指引就越来越准确,你会觉得你简直不需要动脑,人工智能就给你安排好了一切。在这样一个时代,每个人就都会生活在AI给它所创立的一个气泡之中,所有一切的数据,思想,意识,都由你自己负责变成了你的AI负责。人类通过数据来训练AI,到了这样一个程度,就变得反过来:AI用这一切也在训练人类,你仍然保留了你的自我意志,不过仅仅是名义上的:没有了AI,你不会知道你要去做什么。

这是马克思所说的人类的“异化”(Alienation),以一种最彻底的方式。

从这个角度来说,AI将思考从人类大脑,这个其实进化上十分偶然而且并不善于做理性思考的设备中夺走了。我们回归到了我们的动物性上;AI则负责我们理性思考的那一部分。

科幻中人工智能觉醒对人类造成威胁的未来是否会真正发生,我们不知道;然而这个人工智能和大数据夺走了你的自由意志的未来,已经出现在地平线上。我们经常在科幻中看到人工智能“觉醒”,人类最终用人类的“感情”击败了人工智能——这或许是一种人类沙文主义。在AI看来,人类的感情和自我意识不过是进化中出现的,适应某个当地环境(比方说非洲稀树大草原)的产物罢了,是不可能适应已经完全不同的环境的。就如同前文所述的那样,人类的大脑根本无法做到完全理性,只有人工智能才能最终胜利。

于是我们可能会选择,与机器正面竞争。

我忧虑的是在人工智能时代人类自己的自由意志不但是会被人工智能所磨损,也会被我们自己主动抛弃。设想这样一个思想实验:假如说我们发明出了一种技术,可以让一个人将注意力专注于某个特定的领域,会发生什么?

想象一下。你是一个物理学家。你渴望能够真正在物理学领域做出成绩。你知道这需要你耗费比其他所有人都要多的精力,热情和聪明才智,你也知道真正最杰出的那一批人都是天生就具有这样的天赋和热情,否则他们不可能成为最杰出的物理学家。但是现在出现在你面前的是这样一个机会:这种技术虽然不能够提高你的智力,但是可以让你只专注于物理学这样一个领域,你的热情和毅力都可以通过技术增长到一个无穷大的地步。代价也很明显:你不再会关心其他的任何事情了,你失去了你的自由意志。那么你会不会做这样一个手术呢?

我忧虑的是,在这种情况下,并不是你是否选择做这样一个手术的问题,而是只要是想要成为竞争的胜利者,你就不得不去做这种手术,因为所有其他的人都要去做。出于自由意志的选择,我们抛弃了自由意志,去变成更加理性的机器。这样一种军备竞赛早就出现了,甚至可以说是人类历史上的主旋律,赵鼎新将其称之为“同构压力”。现在在大型城市里上各种辅导班的小孩们,他们的家长未必不知道这样一种将孩子们逼到极限的做法并不是对的,但是他们只是选择了“不得不去做的事情”。我们也可能会面对越来越多的“不得不做”的事情,直到所有的选择都被穷尽,我们所有的事情都是“不得不做”。

这可能是最坏的未来。我们放弃了我们的自由意志,去拥抱机器;这可能也是最好的未来。机器替我们做好了所有选择,它从不出错。

那你觉得这是一种怎样的未来?

展开全文
推荐