有生就有灭,宇宙万物都会有灭亡的一天,甚至包括宇宙本身。那么我们人类又会如何灭亡呢?伟大的理论物理学家史蒂芬·霍金对这个问题总是直言不讳,探讨了人类灭亡的多种可能性,其中谈得最多的是「人工智能」、「人类冲突」和「外星文明」。
1.人工智能
霍金一直以来都对人工智能(AI)相当担忧,甚至认为AI是「人类历史上最严重的错误」。他认为人工智能的潜力无限,完全有可能超越人类的智慧水平,摆脱人类的控制。霍金曾直言不讳地说「AI的全面发展将导致人类的终结!」霍金的这个观点不无道理,获得了很多精英人士的支持,其中「现实版钢铁侠」埃隆·马斯克就曾声援称「AI是人类生存最大的威胁!」霍金对AI的威胁最到位的一句评价是——「人工智能的短期影响取决于谁控制了它,而长期影响则取决于它到底能不能被控制。」
2.人类冲突
霍金认为,就算人工智能没有毁灭人类,人类文明或许会自取灭亡,终结于自身内部的冲突。人类自私、贪婪和无节制的扩张,科技的进步也创造出了可以毁灭人类的武器。「地球上的生命遭遇毁灭性灾难的风险正在不断增加,比如突如其来的全球性核战争、基因工程病毒或者是其它我们还未想象到的危险。」其中,全球性的核战争在人类文明间形成了一种恐怖而诡异的威慑,最让人担忧。面对这样的威胁,霍金认为太空探索与移民是解决之道。毕竟地球资源有限,将人类的生存空间和资源向外太空延伸确实是延续人类文明的必由之路。然而,短期内这是一个难以实现的目标,霍金对现状不无担忧地表示「在一个政治、社会和环境混乱的世界,人类又该如何维持未来的100年呢?」
3.外星文明
外星文明或许并不像我们想象的那么友好。霍金曾经称「如果外星人造访地球,我认为结果可能会和哥伦布首次造访美洲大陆很相似,这对土著人来说可不是一件好事。」先进的外星文明可能是一个「游牧文明」,征服并殖民他们所能触及的星球,利用星球上的资源建造新的飞船,从而不断持续他们在宇宙中扩张的步伐。或许正如《三体》中所描述的一样,宇宙本来就是黑暗的。「生存是文明的第一需要;文明不断增长和扩张,但宇宙中的物质总量保持不变。」纵观历史,人类文明之间为了生存和发展都经常大动干戈,更何况是不同星球的文明之间。悲哀的是,相对于先进的外星文明,我们可能真的只是一群虫子!
PS:很多人觉得霍金的一些支持外星探索的行为与他的这一警告自相矛盾了。但笔者认为其实不然,霍金的目的并不是去给高级文明通风报信,而是去寻找适合人类生存的新家园,这带有一种「不入虎穴焉得虎子」的气概!
从人工智能到人类冲突,再到外星文明,霍金指出了人类生存所面临的危机。然而,悲哀的是,大多数人正在被现实中的水深火热弄得焦头烂额,完全无暇顾及于此!