霍金留给人类的最后警告:新书预言超级智能和超人会降临

百家 作者:硅谷洞察 2018-10-21 02:17:33


硅谷Live / 实地探访 / 热点探秘 / 深度探讨



霍金生前的最后一本著作“Brief Answers to the Big Questions”近日正式出版。他在书中认为,技术奇点之后超级智能将出现,人类经过基因编辑之后成为超人,未来人类将到星系开疆拓土,新生命形式的星际旅行机器会出现。



本文授权转载自新智元

公众号ID:AI_era


“我在这个星球上过着不平凡的生活,同时用我的头脑和物理定律穿越宇宙。我去过银河系最远的地方,进入了黑洞,回到了时间的起源。在地球上,我经历过高潮和低谷,动荡和和平,成功和痛苦。我富有过,贫穷过,我健全过,残疾过。我受到过赞扬也受到过批评,但我从未被忽视。”


霍金逝世7个月后,他生前的最后一本著作“Brief Answers to the Big Questions”近日正式出版,上述文字是他在书中写的自白。



不同于经典著作《时间简史》,这本最新的著作重点关注目前地球上所有人都将面临的几个重大挑战,包括人工智能的发展基因编辑技术气候变化核战争的威胁等等。


这部书由《万物理论》(The Theory of Everything)男主角、霍金扮演者Eddie Redmayne 和 2017 年诺贝尔物理学奖获得者 Kip Thorne 做前言介绍,霍金女儿 Lucy Hawking 做后记。霍金在书中试图回答几个问题:人类会在挑战之下活下来吗?我们应该在太空中殖民吗?上帝真的存在吗?


Eddie Redmayne和霍金


在亚马逊 Kindle 版的介绍中,给出了这样的评价:对世界来说,“Brief Answers to the Big Questions”是这位伟大的物理学家给出的最后信息


今天我们根据 Vox 等媒体对这本书的报道,将本书的核心观点进行梳理,以飨读者。


创造 AI 或是人类历史上最后一个大事件


人们很容易把高度智能机器的概念当作科幻小说来看待,但这将是一个错误,而且可能是我们有史以来犯的最严重的错误。


霍金认为,当 AI 在人工智能设计领域变得比人类更优秀,以至于它可以在没有人类帮助的情况下递归地自我改进时,我们可能会面临一场智能爆炸,最终导致机器的智能远远超出我们。


机器智能跟人类的差距有多大?霍金说,这种差距甚至比人类超过蜗牛的还要大。当这种情况发生时,我们需要确保计算机有跟我们一致的目标。


迄今为止,人工智能的原始形式已被证明非常有用,但霍金担心,如果创造出一种能与人类匹敌或超越人类的东西,后果将不堪设想。人类受到缓慢的生物进化的限制,无法竞争,将被取代。在未来,人工智能可以发展出自己的意志,一种与我们的意志相冲突的意志。


霍金认为,创造人工智能将是人类历史上最大的事件。不幸的是,它也可能是最后一个,除非我们学会如何规避风险。


技术奇点后,超级智能会降临


数学家 Irving Good 在 1965 年提到,拥有超人智能的机器可以不断地进一步改进它们的设计,科幻作家 Vernor Vinge 把这种进化称之为技术奇点。


我们可以想象,这种技术会超过金融市场,超过人类研究人员的发明,超过人类领导人的操纵,甚至可能用我们甚至无法理解的武器制服我们。人工智能的短期影响取决于谁来控制它,而长期影响则取决于它能否被控制。


在中期,人工智能可能会使我们的工作自动化,带来巨大的繁荣和平等。展望未来,可以实现的目标没有根本的限制。一个爆炸性的转变是可能的,尽管它可能会以不同于电影的方式上演。


简而言之,超级智能的人工智能的出现要么是人类有史以来最好的事情,要么是最糟糕的事情。人工智能真正的风险不是恶意,而是能力。


一个超级智能的人工智能会非常擅长实现它的目标,如果这些目标与我们的不一致,我们就有麻烦了。你可能是憎恨蚂蚁,也不出于恶意踩死蚂蚁,但如果你负责一个绿色水电能源项目,而该地区有一个蚁丘要被淹没,这种情况下对蚂蚁来说实在太糟糕了。


因此,人类不要成为 AI 的蚂蚁。


不要觉得这种担忧很可笑,举例来说,如果一个高级外星文明给我们发了一条短信,说:“我们再过几十年就会到达”。我们会不会只是回复说:“好吧,你来的时候给我们打电话,我们会让灯一直亮着。”


外星人可能不会来,但这很可能是会发生在人工智能身上的事情。


近期最担忧:各国开发自主武器系统


虽然霍金自己是一个众所周知的乐观主义者,但他不确定这种乐观能持续多久。例如,在短期内,世界各国军队正在考虑在自主武器系统中展开军备竞赛,以选择并消灭自己的敌人。


当联合国正在讨论一项禁止此类武器的条约时,自主武器的支持者通常忘记问一个最重要的问题:军备竞赛可能的终点是什么?这对人类来说是可取的吗?我们真的希望廉价的人工智能武器成为未来冲锋枪,在黑市上卖给犯罪分子和恐怖分子吗?考虑到人们对我们长期控制越来越先进的人工智能系统的能力的担忧,我们是否应该武装AI,并将我们的防御力量交给AI?


因此说,现在是停止自主武器军备竞赛的最佳时机。


星际扩张也许是人类拯救自己的唯一办法


霍金认为,在未来 1000 年的某个时间点,核对抗或环境灾难将使地球瘫痪是不可避免的。到那时,霍金希望并且相信,人类这个聪明的种族将会找到一种方法来摆脱地球上粗暴的束缚,从而在这场灾难中幸存下来。


目前,除了地球人类无处可去,但从长远来看,人类不应该把所有鸡蛋都放在一个篮子里,或者放在一个星球上。


马斯克:早就跟你们说了吧?


霍金希望在人类学会如何逃离地球之前,能避免掉下篮子。


并且,离开地球需要一个协调一致的全球方式——每个人都应该加入。人们需要重新点燃 20 世纪 60 年代早期太空旅行的激情。


现在,太空探索技术几乎在人类的掌握之中,因此,是时候探索其他太阳系了。星际扩张也许是唯一能把人类拯救自己办法。


本世纪出现基因编辑后的超人


另一方面,人类没有时间等着达尔文的进化论让我们变得更聪明、更善良。人类现在正进入一个新的阶段,这个阶段可能被称为“自我设计进化”——人类将能够改变和改善我们的 DNA。


首先,这些变化将局限于修复遗传缺陷——例如囊性纤维化和肌营养不良,它们由单个基因控制,因此很容易识别和纠正。其他的品质,比如智力,很可能是由大量的基因控制的,而要找到它们并找出它们之间的关系就会困难得多。


但也不是不可能。霍金确信在本世纪人们将会发现如何修正智力和本能,比如攻击性。因此,他预测反对人类基因工程的法律可能会通过。但有些人无法抗拒改善人类特征的诱惑,比如记忆力大小、抗病性和寿命长短。


一旦人们尝试这种“诱惑”,就会出现超人。一旦这样的超人出现,那些无法与之竞争的人类将面临重大的问题,他们将会消亡,或者变得不重要。相反,那些靠自我设计改变基因的人,会以越来越快的速度提升自己。



从这个角度讲,如果人类能够重新设计自己,也很可能会扩展到其他星球


新生命形式的星际旅行机器会出现


然而,长距离的太空旅行对于以化学为基础的生命形式来说将是困难的,与旅行时间相比,人类这种生物的自然寿命很短。根据相对论,人类到达星系中心大约需要 10 万年。


在科幻小说中,人们通过太空扭曲或者穿越维度来克服这个困难。但霍金认为这些都不可能实现,无论生命变得多么聪明。


而未来还可能出现一种更简单的方法——几乎已经在我们的能力范围内——设计出能够持续足够长的机器用于星际旅行。当人们到达一颗新恒星时,他们可以在合适的行星上着陆,开采出更多的物质来制造更多的机器,这些机器可以被送往更多的恒星。


这样的机器将会是一种新的生命形式,基于机械和电子元件而不是大分子。它们最终可能取代以 DNA 为基础的生命,就像 DNA 可能取代了早期生命一样。


宇宙中还有其他智慧生命吗?


这个问题争论已久。


如果存在外星生物,那为什么我们没有被拜访过呢?


霍金提出了几种可能。


形成自我复制系统的可能性是合理的,就像细胞一样,但这些生命的大多数形式并没有进化出智力。我们习惯于认为智能生命是进化的必然结果,但如果不是呢?


更有可能的是,进化是一个随机的过程,智力只是众多可能结果中的一个。甚至不清楚智力是否有任何长期的生存价值。如果地球上所有其他生命都被我们的行为所消灭,细菌和其他单细胞生物可能会继续生存。


从进化的年表来看,也许智力对地球上的生命来说是不太可能的发展,因为从单个细胞到多细胞生物需要很长时间——25亿年——这是智力的必要前体,所以这与生命发展智力的概率很低的假设是一致的。在这种情况下,我们可能期望在银河系中找到许多其他的生命形式,但我们不太可能找到智慧生命。


另一种无法发展到智能阶段的生命可能是小行星或彗星与行星相撞。一部分观点认为,大约 6600 万年前,一个相对较小的天体与地球相撞,导致了恐龙的灭绝。一些早期的小型哺乳动物幸存下来,但是任何像人类一样大的动物几乎肯定会被消灭。


还有一种可能性是,生命有合理的可能性形成并进化为智能生物,但系统变得不稳定,智能生命毁灭了自己。这将是一个悲观的结论,霍金说,我希望这不是真的。


他更倾向于第四种可能性:我们忽略了其他形式的智慧生命。在我们目前的阶段,与一个更先进的文明相遇,可能有点像当初的美洲居民与哥伦布相遇,霍金认为对方会因此而更现先进。


霍金生前最后一篇论文:物体落入黑洞的信息有什么变化?


而就在前不久,霍金临终论文也公开了。



这篇论文题为《Black Hole Entropy and Soft Hair》,作者分别是Sasha Haco、 Stephen W. Hawking、Malcolm J. Perry和Andrew Strominger。


该论文阐述了物体落入黑洞时信息产生的变化,主要解决了“黑洞信息悖论”这一问题。该论文的观点是,黑洞中存在无穷尽的“柔软的头发”而非无迹可寻,同时也给出了黑洞熵的计算方法。


这一难题可追溯到爱因斯坦时代。1915年,爱因斯坦提出广义相对论,这对黑洞做出了一个重要的预测,即黑洞完全由三个特征来定义,分别是质量、电荷和角动量。


而霍金在将近60年后提出,黑洞也有温度,黑洞的命运最终将是蒸发,即黑洞蒸发理论。若是再考虑量子理论,即根据量子世界的定律,信息是不会消失的。这便成了一个矛盾点。


若是一个物体被丢进黑洞里,在黑洞消失的时候,物体的信息都去了哪里呢?


在这篇论文中,霍金及其同事展示了有些信息如何被保存下来。把一个物体扔进黑洞,黑洞的温度会因此而改变。一种叫做熵(用来测量物体内部无序程度的指标)的特性也会如此。温度越高,熵就越高。


除此之外,霍金还在论文中表示,他希望能将引力和其他的自然力量结合起来,从而统一爱因斯坦广义相对论于量子理论。


推荐阅读

区块链报告 脑机接口报告 

硅谷人工智能 | 斯坦福校长

卫哲 | 姚劲波 | 胡海泉 

垂直种植 | 无人车

王者荣耀 | 返老还童 






关注公众号:拾黑(shiheibook)了解更多

[广告]赞助链接:

四季很好,只要有你,文娱排行榜:https://www.yaopaiming.com/
让资讯触达的更精准有趣:https://www.0xu.cn/

公众号 关注网络尖刀微信公众号
随时掌握互联网精彩
赞助链接