“恶魔”威胁终结人类 剑桥学子拔剑(图)
人类造出超级人工智能,有可能玩火自焚吗?电影里的终结者会走进现实吗?
电影里,施瓦辛格扮演的机器人“终结者”说:“我会回来!”
剑桥大学的学者决定严阵以待,确保人类不至于被自己制造的恶魔机器人毁灭。
这个“终结者研究中心”(centre for 'Terminator studies)的主要任务是研制如何抗衡可能导致人类灭绝的四大“恶魔”:人工智能(artificial intelligence)、气候变化(climate change)、核战争(nuclear war)和“邪恶”的生物技术(rogue biotechnology)。
这个中心的正式名称是“生存风险研究中心”(Centre for the Existential Risk,CSER)。
杞人忧天?
很久以前,人类自我毁灭就是科幻小说和电影的主要题材;科研发展也在不断“试水”未知领域、开辟新疆域。
最大的风险之一就是自掘坟墓。
如果这种担心在几十年前会被嗤为杞人忧天,那么现在剑桥大学设立这样一个防止人类灭绝的研究中心,或许从一个侧面印证了这种可怕情景并非纯属虚构。
这个中心由三人联合创办:里斯勋爵(Lord Rees),英国皇家天文学家,《我们的最后一个世纪》(Our Final Century)一书作者,以及互联网电话服务Skype的共同创始人之一扬·塔里安(Jaan Tallinn)。
里斯勋爵在他2003年出版的这本书里预言,人类表现出来的各种自残、自毁行为,最终可能导致2100年人类彻底灭绝。
灾难之盒?
还有一位创办人是剑桥大学知名哲学教授休·普莱斯(Huw Price)。
普莱斯教授曾经提醒人们,“超级智能机器”(ultra-intelligent machine),或称人工综合智能(artificial general intelligence, AGI),确实涉及人类存亡。
他说,AGI 有可能带来“潘多拉的盒子”(神话里盛满灾难的盒子,打开盒盖,灾难飞洒人世),我们对此务必重视;错过这个关键时刻,就可能陷入灭顶之灾。
当然,他承认现在谁都无法准确预计超级人工智能AGI可能带来哪些具体灾难,但这也正说明很有必要立项研究科技发展的“灾难性的一面”。
他在中心剪彩仪式上表示,剑桥大学已经存在了800年,为了后人能够庆祝它建校1000周年,现在就应该打磨抗击“人类终结者机器人”的利剑。