人类灭绝五大危机,nba官方买球app:末日离我们多远?nba官方买球app:末日论在很早之前就已经开始流行,很多人也都十分在意关于nba官方买球app:末日的说法,从玛雅文明四大预言开始,全nba官方买球app:都进入了恐慌之中,除了玛雅人的预言之外人类遭受灭绝危机还有其他五种,下面让我们一起去看看人类灭绝五大危机是什么。
尽管迄今为止,只有两个核武器在战争中使用:二战期间,美国在广岛和长崎分别投下一颗原子弹;而且,核原料的囤积也从冷战期间的高峰值开始下降,但并不能因此认为核战争不会爆发,实际上,它并非不可能发生。不过,尽管两个超级大国之间全面的核战争会直接或通过其产生的后续影响导致数亿人丧生,但这并不足以使其成为一个生存危机。另外,核战争产生的放射物的危害也常常被过度夸大,这些放射物的确有可能导致当地人死亡,但从nba官方买球app:来看,还是一个有限的小问题。
钴弹被科学家们看成是一种假象中的末日毁灭武器,其放射物所到之处无人幸免,但这种武器很难制造,且制造成本极其高昂。从实际的角度而言,它们几乎可以看成不可能出现。
真正的威胁是核冬天。核冬天理论认为:当使用大量核武器,特别是对城市这样的易燃目标使用核武器,会让大量的烟和煤烟进入地球的大气层,使整个nba官方买球app:持续数年进入冰冷而干燥的冬天。原因在于:当核爆炸时,巨大的能量将大量的烟尘注入大气,有的还高达12公里以上进入平流层。由于核爆炸所产生的烟尘微粒有相当大部分直径小于1微米,它们能在高空停留数天乃至一年以上,对从太阳来的可见光辐射有较强吸收力,而对地面向外的红外光辐射的吸收力较弱,导致高层大气升温,地表温度下降,产生了与温室效应相反的作用,使地表呈现出如严寒冬天般的景观,称为核冬天。
现代气候模拟表明,这种情况会阻碍nba官方买球app:农业的发展,持续时间可能长达数年,如此一来,数亿人可能会被饿死,最终只剩下少数幸存者,而这些幸存者可能又躲不过其他威胁,比如疾病的侵袭。主要的不确定性在于煤烟的表现:不同的煤烟产生的后果也截然不同,而且,我们目前还没有很好的方法对此进行评估。
从历史的情况来看,自然产生的流行病杀死的人比战争夺去的生命还多。然而,这种自然产生的流行病不太可能成为我们的生存威胁:有很多人对病原体有抵抗能力,而且,幸存者的后代的抵抗力会变得更强。另外,进化本身也不喜欢那些让其宿主灭绝的寄生虫,这也是为什么梅毒从致命的杀手变成慢性、系统性传播疾病的原因。
但不幸之处在于,我们现在可以使疾病变得更严重。其中最着名的一个例子是将一种外部基因引入鼠痘(老鼠的天花病毒)内,这会使鼠痘变得更致命,而且,已经接种天花疫苗的人也会感染。最近对禽流感的研究也表明,一种疾病的接触传染性可以被显着提升。就现在的情况看,有人故意散播这种灾难的可能性很低,但随着生物技术变得越来越强大而且越来越便宜,或许有人会使疾病变得更致命。
研究表明,生物武器和传染病爆发造成的死亡数量看起来呈幂律分布:大多数攻击造成的伤亡很少;但少量的攻击杀死了很多人。鉴于目前的情况,出现一种由生物恐怖主义引发的nba官方买球app:性传染病的风险似乎很低,但不要忘了,这是生物恐怖主义:政府杀死的人数远远多于恐怖主义用生物武器杀死的人数,第二次nba官方买球app:大战期间,日本的生物战可能就杀死了40多万人。而且,随着生物技术突飞猛进的发展,非常难对付的病原体可能更容易被设计出来。
智力是一种非常强大的工具,正是解决问题和群组协调能力的些许增加使我们让其他猿类望尘莫及。对于人和生物体来说,聪明的确是一大优势,因此,科学家们一直在绞尽脑汁,试图提高个人和群体的智力,他们的研究成果从增强认知的药物到人工智能软件等,不一而足。由软件制造而成的智能系统可能很快会获得令人害怕的能力。原因在于,它能以不同于生物智能的方式升级:它能在运行速度越来越快的计算机上使用;零件能被分配到更多的计算机之上,不同的软件经过测试、升级并整合新算法后,其性能会获得重大的跃升。
科学家们已经提出,当软件变得非常善于制造更好的软件时,可能就会出现所谓的“智能爆炸”(剑桥数学家杰克·古德和密码破译学家贝莱特谢力·派克曾为英国《新科学家》杂志撰写过一篇论文称,人类将在不久的将来建成超智能机器人[-0.59%资金研报],而这也是最后的发明,因为人工智能将导致“智能爆炸”)要是这样一种技术上的跃升成为现实,智能系统(或者人们告诉它们做什么的系统)和其他系统的潜在能力将有天渊之别。
但问题在于,聪明的实体都非常善于实现自己的目标,一旦这个目标设置得很不好,这些超级智能系统或许会使用其智力,给人类造成灾难性的后果。我们不能想当然地认为,智能系统自身就会表现得体或者遵纪守法,实际上,已经有研究结论证明,某些类型的超级智能系统如果真实存在,它们并不会遵守道德法则。
纳米技术是对拥有原子或分子精度的物质的控制技术。纳米技术本身并不危险,相反,它可以应用于很多领域,大力推动这些领域的发展。问题在于,纳米技术与生物技术一样,其能力不断增强的同时,其被滥用的危险也与日俱增,而这种滥用很难防范。
问题并不在于众所周知的“灰蛊”。“灰蛊”是科学家们假想的由纳米技术制造的机器人,其能不断地自我复制,最终失去控制,消耗掉整个地球的资源,进而造成人类的灭绝。但这种纳米机器需要非常复杂而精细的设计,制造成本非常让人望而却步。但除此之外,在极具破坏性的科学技术的树上,还有更多唾手可得的果实。
最显而易见的风险是,原子精度的制造非常适合快速且廉价地制造出武器等产品。在一个任何政府都能“打印”出大量自动化或半自动化武器装备的nba官方买球app:里,军备竞赛可能会变得更快。武器也可能是极其微小且精确的事物:比如像神经毒气一样的“智能毒品”,或者无所不在的让人无条件服从的监视系统等。
最使人不安的可能性是,还存在一些非常致命的事物,但我们对此毫不知情。比如,我们现在还未曾发现外星人的踪迹,是因为生命或智能动物非常罕见还是因为智能生命已经被灭绝?如果未来出现一个所谓的“大筛选”,届时,其他文明会提到我们吗?无论威胁是什么,它或许都是一些即使你知道它在哪儿也几乎无法避免的事物,不管你是谁或者你做了什么。对任何此类威胁,我们毫无头绪,但它们的确存在。
某些事情我们还不知道,并不表示我们不能对此进行推理。在麻省理工学院的物理学家马克斯·泰格马克和牛津大学人类未来研究院院长、哲学教授尼克·博斯特罗姆出版的一篇着名的文章中,他们表示,根据地球的相对年龄,某些风险每年出现的几率为十亿分之一。
有些人或许很奇怪,为什么气候变化或陨星撞击并没有出现在这份列表上。这是因为,气候变化不管多么让人惊恐,都不可能使整个地球变成一个寸草不生的地方。陨星或许能让我们消失殆尽,但这种几率也特别小。哺乳动物平均存活了大约100万年,因此,自然灭绝率为每年百万分之一。与核战争的威胁相比,这种威胁要低很多。
推荐阅读:
相关文章