第五节 世界疯了

  一、最早的担忧

  有人真正第一次担心某项技术会灭绝我们人类,就是在原子弹研制的时候,即美国的曼哈顿工程。当时参与研制的这些科学家担心原子弹爆炸会点燃大气,那不是化学燃烧,是厉害得多的核燃烧。大气点燃了,哪还有我们人类呢?为什么会有这样的担心呢?因为原子弹爆炸中心部位的温度会超过千万度。按我们过去化学燃烧的经验,几千度就是很高的温度了,能熔化钢铁。对于上千万度的高温科学家们没有相应的概念,不知道会发生什么。但当时二次世界大战非常惨烈,急需一种新的武器,加上探索未知领域的好奇心是科学家天生的本能,所以这些科学家内心深处也想进行原子弹研制。原子弹爆炸了,大气没有点燃。

  之后又研制氢弹,氢弹是由原子弹点燃的,其威力比原子弹大得多,中心部位的温度可以达到上亿度,科学家们又有这种担心。氢弹又搞了,也没有点燃大气。

  1999年和2000年,美国的布鲁克海文国家实验室正在建设相对论重离子对撞机,当时就有科学家两次状告这个项目,坚决反对搞这个项目,为什么会反对呢?他们是担心粒子的高速碰撞会撞出一个微黑洞,或者是什么别的危险粒子。如果真的撞出了一个稳定的微黑洞,就会把地球吸进去,变成一个还没有乒乓球那么大的黑洞。但主张搞这个项目的人则认为这种担忧没必要,理由是黑洞可以蒸发,他这是依据的史蒂芬.霍金的黑洞蒸发理论。霍金认为黑洞强大的引力可以导致周边的真空极化,从而导致黑洞蒸发,越小的黑洞蒸发得越快,一个粒子那么重的黑洞在撞出来的一瞬间就蒸发了。但反对搞这个项目的科学家指出,霍金的黑洞蒸发理论是一个没有被验证的理论,只是推导出来的,而我们的赌注太大了,我们是拿全人类的命运作为赌注押在上面,万一这个理论有问题呢?我们全人类不就完蛋了吗!这个项目还是搞了,地球没有被吸进去。

  2008年欧洲的强子对撞机正在建设,强子对撞机比相对论重离子对撞机还厉害得多,它的功率要大很多。又有人状告这个项目,认为这个项目有危险,这件事还是搞了,当然地球也没有被吸进去。

  为此,当时笔者在香港发表了一篇文章《世界真是疯了》,我说:一件什么事情硬是那么的重要,一定要用全人类的命运作为赌注去押它呢?离开了人类的生存其他的一切价值还是价值吗?常在河边走总是会湿鞋,黑路走多了一定遇到鬼,这么一个简单的道理就那么难理解吗?我们做的这一切和玩俄罗斯轮盘赌有什么区别?我们就是这样一次一次地在往前试,我们就一定要试出一次人类的灭绝事件才甘心吗?

  文中还谈了外星人问题,我阐述:我们不停地向宇宙各方向发射探测器,并将我们的方位和人类的特征标记在探测器上,更是频繁地向各有可能有外星人的星球发射无线电信号,千方百计希望联系上外星人,若真的有一天外星人知道了我们地球人的存在,并借助不知比我们先进多少倍的技术来到地球时,等待我们的必定是灭顶之灾。我们这样的探索和试验是聪明?!是愚蠢?!还是毫不负责任?!

  二、难以回头的人类

  十分遗憾的是,现在我们还在往前试,而且试的内容越来越多,危险的程度也越来越高,因为科学技术的层级更高了,有可能灭绝人类的东西更多了,威力更大了。

  当前就有很多科学家都担心纳米技术会灭绝人类,即担心之前所述的纳米技术研制出来的纳米机器人如果程序失控,导致纳米机器人的无限复制,不仅会彻底毁灭人类,还会彻底毁灭地球。所以很多科学家都警示这项研究有巨大的风险。如太阳微系统公司首席科学家比尔·乔伊是在计算机领域首屈一指的世界著名科学家,他在1999年4月就指出:若使用不当,纳米技术的破坏性可能比核武器还大,纳米机器人的复制如果失控,将可能成为吞噬整个宇宙的癌症,谁都不能保证纳米盒子不会变为潘多拉盒子,亿万只纳米机器人的无休止复制,将可以毁灭人类与整个世界。

  但一切的警示都无济于事。其实,人类离彻底掌握这样的技术已经并不遥远。纳米技术极具诱惑的实用前景使人们对纳米技术,包括纳米机器人的研究步伐没有过一刻的停步,尤其是几个科技大国在这方面的研究更是投入了巨大的力量。

  还有很多科学家担心生物工程会灭绝人类,即担心生物工程的基因技术研制出来的基因生物战剂会传播超级瘟疫。即之前所述的通过基因技术改造出来的细菌、病毒等生物战剂能够有针对性地攻击人类的各个致命器官,并且能够设定它的传播途径和潜伏期,从而导致人类的灭绝。

  那么,要使生物战剂可以有针对性地攻击人类的致命器官,首先要了解人类的基因特征。就在我们刚刚掌握基因编辑技术不久,1985年就有美国科学家提出来要对人类的基因组进行研究。

  1990年,以美国牵头正式启动了一项人类基因组计划,这是一个巨大的研究计划,与研究原子弹的曼哈顿计划和登陆月球的阿波罗计划并称为历史上的三大科研计划。

  这个计划是要对组成人类基因的30多亿个碱基对进行精确的测序。从1990年到2006年,历时整整16年时间,集中了美国、英国、法国、德国、日本和中国6个国家的科学家,最后完成了这个计划。

  人类基因组计划的完成,预示着我们为彻底揭开人类全部的遗传密码奠定了基础。就在这个计划还没有完全结束的时候,从2003年开始,又启动了一个叫ENCODE的人类基因组计划的后续计划。这也是个巨大的计划,它集中了美国、英国、西班牙、新加坡和日本5个国家的众多的科学家,从2003年9月到2012年9月,整整用了9年时间完成了这个计划。这个计划是要解析人类基因组所有的功能性元件。

  现在又有众多的科学家在从事人类蛋白质组的研究计划。

  随着这一个个巨大计划的完成,装有我们人类生命秘密的巨大的仓库的大门在一个一个被迅速打开,谁都可以进去做点什么,既可以做好事,也可以做坏事。

  可以想象,有如此多基础工作的铺垫,研制出灭绝人类的超级生物战剂还遥远吗?

  相对而言,目前更多的人担心的是人工智能会灭绝人类,这件事有个起因。2016年,谷歌公司生产的机器人阿尔法狗与韩国围棋冠军李世石下围棋,把围棋冠军打败了,这件事轰动了全世界。因为我们目前的计算机以及相应的机器人只能解决逻辑思维方面的问题,不能解决抽象思维的问题,让计算机所控制的机器人下象棋问题不大,你下一步,我机器人该怎么下?计算机会把各种变化算一遍,最后选择一个最合理的点落子。但是围棋不行,因为围棋的变化太多了,比整个宇宙的原子还要多。你下一步以后,我机器人该怎么下?计算机算不出来,因为变化太多,算量太大。但就是这个看似不可能的事,被谷歌的编程人员用一个并不难理解的方法把它给解决了。他是怎么解决的呢?你下一步以后,我机器人该怎么下?在采用计算机处理时每一种变化都不下完,因为下完变化太多了,比如我只下一百步(这只是个举例,也许不是一百步,而是八十步或者是七十步),下一百步以后采用一个函数大致匡算一下盘面的局势,再选择相对优势大的点落子,于是,在下到倒数第一百步的时候就很准确了。所以这个看似只能用抽象思维解决的问题,让一个逻辑思维的机器人解决了,在轰动世界的同时,有很多科学家都担心人工智能会危机到我们人类。当时霍金就说:人工智能早晚会自我意识觉醒,如果到那个时候,我们想控制它就难了。

  然而,人工智能正是今天最热门的学科,是各个大国科学技术发展的重中之重。

  需要特别强调的是:核武器需要一个国家的力量才能生产出来,但是纳米机器人、基因生物战剂和智能机器人一个企业甚至一个高水平的科学家可以独立获得,并可以独立掌控。一个国家的行为还好控制一点,人类个体的行为是很难控制的,有那些敢于干极端坏事的人。

  三、失控的世界

  综上所述,在发展科学技术上我们已经处于一种失控的状态,明知某项技术有极端的风险,还是顶风而上,从而导致全人类正面临一个巨大的危机,这是一个前所未有的危机,就是灭绝的危机。我们人类需要拯救,谁能够拯救人类呢?拯救人类只能靠我们人类自己,我认为在拯救人类的事业中最能够发挥作用的是大国领导人。所以2007年,我的第一部专著《拯救人类》一书的第一版在中国大陆出版时,借此机会我就写了一封“致人类领袖的公开信”,写给中国国家主席,美国总统,俄罗斯总统等大国领导人,以及联合国秘书长。之后又几次跟各个国家的领导人写信,并通过多种途径呼吁。但这么多年来收效甚微,很长一段时间,大家都觉得这个观点太怪了,甚至觉得是一个笑话。近几年情况出现了一些好转,这是因为近年人工智能的快速发展,使得一些人隐隐约约感到了科学技术有极端的危害。

  2013年,有一天早晨我把手机打开,收到一条短信,这是我的一个朋友发来的,他说:告诉你一个好消息,有一个国际权威研究机构得出来了一个和你几乎完全一样的研究结论,他们的举证都跟你的一样,你赶快上网看一看。

  通过查看,他说的是牛津大学人类未来研究院集中了一批世界顶级的科学家、哲学家和人类学家,进行了一项研究,这项研究的结论是人类最早会在下个世纪被灭绝,灭绝人类的罪魁祸首就是科学技术,核武器灭绝不了人类,有可能灭绝人类的有纳米技术、生物工程、人工智能或者未来的某项技术。

  看到这个结果后非常激动,我想有这么一个权威的研究机构带有如此警示性的研究结论,应该能够引起人们的重视。于是当即做了三件事,第一,我又给各个国家的领导人写了一封信,即“第三次致人类领袖的公开信”;第二,发表了一篇文章《终于有了知音》;第三,给牛津大学人类未来研究院的院长尼克.博斯特罗姆写了一封信,希望能够跟他们合作。

  非常遗憾的是这么一个带有警示性的权威性的研究结论,只在很短的时间里引起了关注,很快就被淹没了。由此使我想到比尔.盖茨说的一句话,比尔.盖茨在接受网络提问时说;人工智能再发展几十年,足可以危及到我们,我不知道为什么这不能够引起人们的重视?

  如前所述,一项科学技术研究,你说它不能搞,说它不安全,再怎么呼吁,再怎么警示,甚至用法律诉讼的手段也没有用。包括那些世界顶级的科学家,他们的呼吁和警示声音都非常微弱,很快就被淹没。而你说好啊!就是应该搞啊!即刻就可以获得一片鲜花和掌声。

  中国有一个人工智能搞得很好的企业,它的CEO在接受人工智能安全性提问的时候就说:我是一个乐观派,人工智能至少在我们这一代灭绝不了人类。

  这也算是乐观派吗?“在我们这一代灭绝不了人类”?!我们的下一代怎么办?!我们的再下一代怎么办呢?!

  由此可见,今天全社会都处在一种发展麻木的状态,发展麻木就是危机麻木,滔天巨浪到来之前,海面常常非常平静,但是暗流却在海底涌动,当什么科学技术研究都理所当然地去实施,当什么科学技术成果都理所当然地去肯定,当什么科学技术产品都理所当然地去使用的时候,一场毁灭性的灾难说不定就在前方不远。

  我们的每一步都决定着我们的未来,并最终决定着我们的结局,当科学技术发展到今天这么高的高度之后,还一味地向前!向前!向前!再向前一步就一定会踩到那颗地雷,那是一颗灭绝人类的地雷,当我们踏上它的那一刻起就已经无法回头,那是我们的第一次,也将是我们的最后一次!