AI教父示警:人类恐落后 杀手机器人10年内成真(图)


被称为“AI教父”的英裔加拿大认知心理学家和电脑科学家杰弗里·辛顿(Geoffrey Hinton)(图片来源:GEOFF ROBINS/AFP via Getty Images)

【看中国2024年3月25日讯】(看中国记者王君综合报导)有“AI教父”之称的加拿大多伦多大学的名誉教授辛顿(Geoffrey Hinton),他于接受日媒采访之时,谈到了人工智能(AI)的威胁。他说,有很多人都以为,如果要防止AI失控,只要将电源开关关掉就可以了。但有超越人类智慧的AI能够用语言来操纵我们,或者会试图说服我们不要关掉开关。

辛顿是一个“深度学习”(Deep Learning)与神经网络(指模仿人脑的数学模型)先驱,他的研究帮助奠定了AI发展基础。2023年,他突然从已经工作10多年的美国谷歌辞职,并开始谈论AI的威胁。

3月22日,《日本经济新闻》刊出了对于辛顿的专访内容。他表示,若给AI设定目标,以作为解决对策,那么它可能会找出对于人类不利的方法。比如,假设对AI下达遏制气候变化的指令。此时AI将会意识到为达到目的,而有必要把人类清除,他担忧真的会付诸实施的风险。

辛顿表示,今后还可能出现不同的AI之间相互竞争的局面。比如,若AI之间发生争夺数据中心等资源,这将会是一个像生物体般推动进化的过程。我们面对透过竞争而变得更聪明的AI,人类将落在后面。

辛顿还预测,在未来10年内,将会出现自主杀死人类的机器人武器(或称杀手机器人)。他称,机器人武器或许迟早也会遭到限制,可是这可能要等到真正于战场上遭使用、人类已认识到会带来多么悲惨的结局之后才能够实现。

辛顿又谈及,若从主观经验这个角度来进行说明,他认为AI能够拥有与人类一样的感觉,且人类也会经历了与客观事实不符的事件。比如我喝了很多酒,在早上醒来之时,眼前因幻觉而出现粉红色小象,但我并不会相信小象的存在,而会认为自己的感知系统未正常工作,所以这只是内在的体验。

他表示,透过了照相机收集视觉讯息的AI,也能够产生同样的情况。将物体放于相机前,并用棱镜使光线弯曲,而形成产生物体在远处的错觉。若对话式AI解释称感知系统因棱镜而不能够正常工作,我们就可以说它有着与人类一样的感觉。

报告:AI恐造成人类灭绝

最近美国国务院委讬民间公司展开人工智能(AI)的研究,其报告指出现今快速发展的人工智能将会带来“灾难性”的国安风险,且警告政府的时间已经不多,必须来进行干预。经一名美国国务院官员证实,这份报告是由美国政府委讬调查的,用来评估人工智能如何保护国家的利益。但该官员强调,此报告并不代表美国政府观点。

根据《CNN》报导指出,美国国务院在最近委讬民间公司Gladstone AI来进行人工智能(AI)研究报告,该公司直接表示,最先进人工智能系统,于最坏的情况之下,将可能对人类构成了“灭绝等级的威胁”,此项调查是1年多来对于200多人的采访结果,而受访者来自于人工智能公司高层、大规模杀伤性武器的专家、网络安全的研究人员,以及政府内部的国家安全官员。

Gladstone AI的执行长兼联合创始人哈里斯(Jeremie Harris)在接受《CNN》采访之时指出,人工智能已是一项经济变革的技术,它可能够使我们治愈疾病、可做出科学发现,甚至克服我们曾经认为无法克服的挑战。可是也有可能会带来严重风险,在世界顶级人工智能会议上所发表的实证研究和分析等,已有越来越多的证据表明,当超过一定阈值,人工智能将可能变得不可控。

Gladstone AI认为,最先进的人工智能系统能够武器化,并造成不可逆转伤害。其次,报告中称,人工智能实验室内部存在着隐忧,因为研究人员可能会失去对于正在开发的系统控制权,而对全球安全酿成了毁灭性后果。另外,人工智能的兴起,也有可能会破坏全球安全稳定,就有如核武一样,各国将可能会开始于人工智能领域上展开新一轮军备竞赛。

Gladstone AI在报告中呼吁美国政府迫切需要展开干预,而采取重大的新措施应对此一威胁,包括了成立新的人工智能机构,或者采行紧急监管保障措施,甚至限制运用电脑训练人工智能模型的能力。

Gladstone AI称,有一些人工智能公司的员工私下也有类似的担忧,有一家知名人工智能实验室的人士指出,若某一个特定的人工智能模型开放给大众使用,那么将会非常糟糕,因为其可能会用在干预选举或者操纵选民,而破坏民主。

本文留言

相关文章


近期读者推荐