序
尤瓦尔·赫拉利又出新书了,一位明星般的历史学家的新书,当然要第一时间阅读了。和以往不一样的是,新书上架时候铺天盖地的广告,消失了。是赫拉利过气了?写作质量下降了?这个问题得看完书才能回答。
只不过书看起来很费劲,要不是时不时翻开英文版看看原文,很多论述还真搞不明白。然而,我认为这是一本极好地思考关于AI和人类关系的书。此前,很多书的关注点在于,人如何控制AI才能不至于让未来陷入混乱,本书的观点是从信息和人类网络的角度切入,把AI当做了一种新生智能物种来对待,从而提出了作者的担忧,也给出了作者的核心观点,保持高效有用的对话和确保纠偏机制能得到应用。
纠偏–《智人之上》
老实说,我非常不喜欢这个中文翻译“智人之上”,这种翻译有点像“形而上学”的翻译,翻译的“信达雅”,在这里我觉得只能勉强及格,原书英文名NEXUS,这个单词有新一代、下一代的意思,繁体中文翻译成了“连结”,我觉得从作者传达观点的角度更贴合原著。然而,相比起以前的作品,这本书的翻译风格有点糟糕,很多地方读起来真的像硬生生的机器翻译,汉语应该得有汉方的韵味啊。
信息越多?越接近真相?
书中回顾了智人一步步从荒原走向文明,从刀耕火种走向机器轰鸣,提出了人类文明进步的重要的环节,一是讲故事,二是写文件,三是自纠偏。作者提到,智人通过讲故事,来让人们形成了一种社会网络,继而可以实现宏伟的目标;发明了文件,或许是陶器、纸片,分工专业化导致了官僚制的产生,有利于维系规模增大的人类社会;不同网络之间的人发生冲突,调整了社会秩序,实现了某个程度的纠偏。作者认为,这就是人类文明永远斗争却永不熄灭的原因。
在作者眼里,无论是哪个网络,信息都是最重要的,在宗教网络里,神职人员把控着教徒和神沟通的信息,并担任信息的诠释;在封建制度的网络里,领主把控着手下人和物所有信息,以管理好自己的资产;在一个皇权社会里,皇帝掌握着所有信息,以作为管理国家和巩固自己权力之用。然而,在技术和通讯不发达的时候,网络上的关键人物想垄断信息是做得到,但是想搜集掌握全面的信息确实无能为力的。
很长一段时间,人们都会把信息看作最宝贵的财富,印刷术的出现让信息得以更快的传递,使得科学和政治有了长足的发展,以至于大家会误认为只要信息足够多就能认识到这个世界的真相,从而获得权力和智慧。作者说,大家太天真了,认识世界的真相也不是人类信息网络唯一的目的,为了追求生存与繁荣,每个人类信息网络都需要同时做到两件事,即除了要发现真相,还得创造秩序。
随着历史发展,人类信息网络也已经发展出两套截然不同的技能。
- 一方面,正如天真的信息观所期望的,网络学会了如何处理信息才能对医学、猛犸象和核物理等事物有更准确的理解;
- 另一方面,网络也学会了如何运用信息才能在更大的人群中维持更强大的社会秩序:除了运用真实的陈述,也要运用虚构、幻想、宣传,以及偶尔的彻彻底底的谎言。
宗教永远都说自己是客观而永恒的真理,绝不是人类发明的虚构故事。在这种时候,对真相的追求就等于威胁了社会秩序的基础。新教徒牛顿就是从追求三位一体的真相开始,远离神学开启科学革命时代序幕的。
冷面AI
在AI出现以前,计算机和打字机没什么区别,都是一件冷冰冰的工具。然而,AI是一种主动的行为者,有可能会摆脱人类的束缚,主动形塑社会、历史和文化。还是回到信息和网络的概念,以前网络的组成是人,信息靠人来传递发生作用,现在AI本身就是一个网络,AI和AI之间的交互根本不需要人,而且形成的观点根本不是人能预期和掌握的,从AlphaGo打赢李世石的那一刻起,人类必须承认,关于这个世界的真相,有一部分是AI掌握了但人类不曾掌握也不可能掌握的。
作者说,大家可能对什么是“智能”,什么是“意识”并不太清楚。智能,指的是给与一个确定的目标,自己能去实现完成;意识,指的是做事情或者面对外界的时候的一种情感,包括喜怒哀乐。人性以及作为人的尊严,其实是人自己赋予自己的,意识便是这种体现,简单地可以理解成三观“世界观,人生观,价值观”,中世纪残忍的“猎巫行动”就把“巫师”排除出人类,纳粹对犹太人的屠杀,出发点也是基于“优生学”把犹太人排除出人类。如果AI有了进一步的自主能力,为了实现目标,将人类和普通动物等价,那么后果就很可怕,OpenAI中所谓的“对齐”,就是将人类的“正确”的“三观”,作为AI思考的限制。
毕竟飞机不用长出羽毛,也能飞得比鸟快,AI可能不需要意识,也能比人类更能解决问题。新的网络背后是一套非人类的智能,端看它要做怎样的判断、有怎样的目标。人类目前在这个资讯网络里,仍然扮演着核心的角色,但很有可能正在被边缘化,到最后整套网络甚至可能不需要人类,就能运作。
2017年,缅甸的军政府和佛教徒对罗星亚人发起血腥的种族清洗,与以往的惨案不一样的是,当时的Facebook上,充斥这大量的针对罗兴亚人的仇恨与负面宣传,通过对算法的审查,才发现公司要求算法提升转发和点赞,AI发现了传播仇恨可以完成目标,便主动实施了这样的策略。这就意味着,像在视频平台,不是用户选择了自己要看什么,而是算法决定了你要看什么。
AI可以掌握金融量化交易,AI可以敏捷地发现现有官僚系统的漏洞并加以利用,AI可以自己编造假故事,AI可以跟人类进行情感互动。AI可以掌握人类的生物特征辨识,从而能准确掌握是什么让每个人感到愤怒、恐惧或欢愉。
对话?被套话?
对话,是一种平息矛盾,推进社会发展的最有利的方式。民主,是一种对话,让大家将不同的意见表达出来。然而,人类之间的对话,常常会由于理解与认识的不一致,内心动机的不一致,话语权力分量的不一致导致对话失败。然而,也有很多成功的例子。
但是,作者认为,人类和机器对话,永远不会成功。一是用于宣传的机器人程序本来就不可能被说服,我们想改变它们的想法只是在浪费时间。二是我们与电脑交谈的次数愈多,就会透露愈多自己的资讯,机器人程序就能据以调整论点,动摇我们的看法。三是透过与人类交谈互动,与人类建立亲密关系,并用这种亲密关系的力量来影响人类。
电脑掌握这样的语言能力后,就像夺取了一把万能钥匙,能够打开我们所有机构(从银行到寺庙或教堂)的大门。人类使用语言除了用来创造法规或金融工具,也用来创造艺术、科学、国家与宗教。如果到了某一天,某个非人类而高深莫测的智能,完全了解如何以远远超越人类的效率来运用人类的弱点、偏误与癖好,而且也能创作各种悠扬旋律、科学理论、科技工具、政治宣言、甚至是宗教神话,这样的世界对生活在其中的人类而言,会是什么意义?
所谓历史,指的是生物本能与文化之间的绵密互动;是人类对食物、性、亲密感这些事物的生物需求,与人类的文化创造(包括宗教和法律)之间的互动关系。人类的生活就像包在一个文化的茧里,对现实的体验都需要透过自身文化的透镜。我们会有怎样的政治观点,是由记者的报道和朋友的意见来决定。我们会有怎样的性癖,是受到各种童话故事和电影情节的影响。甚至就连我们走路、呼吸的方式,背后也会受到文化传统的形塑,例如士兵受了怎样的军事训练、僧侣又有怎样的禅修练习。作者坦言人类历史中由人类来主导的部分即将终结。
纠偏,智人社会得以存续的关键
回顾近几百年来人类文明的突飞猛进,全依赖科技的发力。科技是世界少难得的有相对完善的纠偏机制的,科学的根基在认同这些科技理论的科学共同体,每个共同体不断在发现这个网络的错误,每一篇的论文都建立在前面的工作有缺漏、不足和异常的基础上。虽然科学上也出现了图宁、玻尔兹曼自杀的惨剧,因为理论在提出当下受到了共同体的排斥和嘲笑,总有一些共同体会去触碰这些理论,并最终纠偏。科学的网络里崇尚变化,知道永恒不变的事情就是世界一直在变化。
当下历史的重大进程当中,有一部分已经是由非人类智能的决定来推动。电脑会犯错原本不算什么,但在电脑也成了历史的行为者时,这些错误就可能带出灾难。信息其实常常是被用来创造秩序,而不是找出真理真相。很多时候AI在做的并不是找出关于人类的真理真相,而是在给人类强加一种扭曲的新秩序。想让天平往有利于真理真相的方向倾斜,网络就必须发展并维持强大的自我修正机制,让说真话的人得到奖励。
人类社会发展到现在,关于什么才是正确的,这个哲学终极问题一直没有答案。作者说,一般来说这个答案分成义务论和功利主义。前者相信世界上有一些所有人都应该遵守的普世道德义务或道德规则,能找到方法写进计算机程序之中,就能确保电脑网络成为一股向善的力量。难的是善该如何量化评价呢?后者认为,世上唯一合乎理性的终极目标,就是尽量让全世界减少痛苦、增加快乐。难的是如何给痛苦和快乐定性呢?
定性的出发点需要量化,量化的出发点需要定性,两个问题套在一起,便形成了先有鸡还是先有蛋的难题了。
这个问题,作者也没有答案,只能寄希望于
那些在为 AI 写着最初的源代码、为 AI 宝宝挑选训练用资料集的工程师,正扮演着现代的亚他那修主教。随着 AI 的能力与权威不断增加、甚至成为一本能够自圆其说的宗教经典,现在工程师所做的决定,就可能深深影响后世的发展。
结语
然而,2024年的诺贝尔物理奖和化学奖都颁给跟AI有关的科学家,数学家陶哲轩说OpenAI的新模型o1已经达到了专业研究生的水平,一个新的时代真的要来临了,是该好好地对待这个智能硅基生命了。