哎哟喂导言:关于人类生存发展和存在灭亡可能性的议题,一直是世界某些领域关心的话题。备受瞩目的科学怪才,霍金叔叔也不断对此类话题抛出个人观点,引起了广泛关注。
北京时间2015年10月11日消息,著名物理学家史蒂芬·霍金教授此前曾经说过,在未来100年内,人工智能的机器人将反过来控制我们人类。而现在,在最新的一次讲话中,霍金教授表示如果人工智能未有征服人类,那么先进的外星文明将会这样做。在一次采访中,霍金表示:“如果外星人造访地球,那么其后果将非常类似当年哥伦布抵达美洲,那对于当时的美洲土著居民而言可并不是什么好事。”他说:“这样的先进外星文明可能会是‘流浪民族’,在到处寻找可以征服和殖民的星球。”
霍金目前正在领导一项宏大的计划,利用全世界两台最强大的望远镜开展对外星生命的搜寻。利用这些望远镜,项目将对距离地球最近的超过100万颗恒星周围进行搜寻,寻找任何智慧文明发出信号的迹象。参与这一耗资将达1亿美元项目的科学家们还将对银河系的中心区域,以及距离银河系距离最近的100个星系进行低功率无线电信号的搜寻。
而随着时间推移,人类针对地外生命的搜寻更是迎来新的热潮——美国宇航局宣布在火星上发现了液态水存在的证据,这一发现大大增加了人们认为火星上可能存在生命的预期。霍金表示:“对于我的数学头脑而言,纯粹的数学只会让我变得更加理性。现在真正的挑战则是应当弄清楚地外生命究竟可能是什么形式。”
不过,霍金同时也表示,假如外星人没有把我们赶尽杀绝,那么最终人工智能或是全球气候变化一样会完成这件事。他说:“我认为人类生存下去的希望在于从宇宙中找到新的家园,因为地球被摧毁的风险正变得越来越高。在未来100年内的某个时间,计算机人工智能将逐渐取代人类。当这样的事真实发生时,我们必须确保计算机和我们人类拥有共同的目标。”
在今年7月份,霍金教授和特斯拉汽车公司创始人伊隆·马斯克(Elon Musk)联合1000名机器人专家在一封公开信中警告称“自动化武器系统将成为未来的卡拉什尼科夫”(注:卡拉什尼科夫为苏俄武器设计专家,代表作为AK-47步枪)。
这封措辞强硬的公开信呼吁“彻底禁止脱离有效人工控制的进攻性自动化武器系统”,以防止发生全球智能武器方面的军备竞赛。专家们指出,与核武器不同,人工智能武器系统并不需要耗费巨资或者获得难以获得的特殊原材料。这就意味着它们可以变得非常普遍存在,价格低廉,因而可以被各国军事力量所利用并进行大规模生产。而如果全球有某个军事强国在人工智能武器研制方面出现明显的领先优势,那么一场全球性的智能武器军备竞赛将不可避免。
公开信的作者们预计,智能型武器在黑市上出现或落入恐怖分子,独裁者以及战争贩子的手中都将只会是一个时间问题。专家们警告称,人工智能技术的发展已经到达一个临界点,从而使智能武器的研制在未来几年内,而非几十年内就将成为现实。公开信中指出:“自动化武器特别适用于暗杀、扰乱社会秩序、镇压人群或选择性消灭某一少数人群这类任务。因此我们相信一场人工智能领域的军备竞赛不符合全人类的利益。”(新浪科技晨风)