AI奠基人离开谷歌 示警科技危险(图)


AI聊天机器人所带来的某些危险“相当恐怖”!(图片来源: LIONEL BONAVENTURE/AFP via Getty Images)

【看中国2023年5月6日讯】(看中国记者程帆编译综合报导)屡获殊荣的计算机科学家辛顿(Geoffrey Hinton)被业界尊为“AI(人工智能)奠基人”。不过,近日他开始认真地重新思考自己这一辈子的劳动成果。

据路透社和美联社的报导,辛顿今年4月就已向谷歌请辞,除了因为年龄因素外,更重要的是他现在可以无所顾虑的畅谈AI可能给人类带来的风险,“而不必担心会影响谷歌的业务”。

在长达数十年的学习和职业生涯中,辛顿在深度研究神经网络(neural networks)方面的开创性工作,为我们今天看到的许多AI技术奠定了基础。

但在接受媒体采访时,他表示,“我对毕生所研究的东西,现在感到后悔了。”他还形容,AI聊天机器人所带来的某些危险“相当恐怖”!

最初,辛顿认为,ChatGPT语言模型的能力,不如人类大脑处理语言的方式。然而,去年谷歌和微软在科技开发商OpenAI投入了大量资金和数据以建构系统,令他的想法开始改变,“或许在某些方面,AI确实会比人脑处理得还要好。”

例如,正在开发的数位智慧和生物智慧(biological intelligence)就“非常不同”。前者可以透过“完全复制”获取大量知识,它是人类大脑无法达到的。

辛顿解释道,“如果我有1,000相同权重且完全复制的数位代理人,那么,只要其中一个代理人学到怎么做某事,其他代理人就会立刻知道。但生物代理人办不到这一点。因此,相同数位代理人的集结,就可以获取比任何单一生物代理人多的知识。这就是为什么GPT-4的知识量会远大于任何人。”

他指出,像GPT-4这样的系统一旦接受研究人员的适当训练,就可以非常有效地学习新事物。这与训练有素的专业物理学家能比高中理科学生更加快速地通过新实验发现如何动脑筋的方式没有什么不同。

目前,最令辛顿担心的是,通过利用AI,网络上会出现很多虚假的图片、视频或文字,可能让人分不清真伪。其次,他还担心AI将改变就业市场,让律师助理、私人助理、翻译等不需要直接与人打交道的岗位消失。

从长期来看,辛顿认为AI会对人类将构成威胁,未来,这些技术还会对人类构成其他的威胁。“因为AI可能通过大量的数据分析,做出一些令人意想不到的行为。”

他补充称,有些公司和个人现在已经允许用AI写代码,甚至自主设计演算法,并在实际使用。“我担心,总有一天,类似于‘杀人机器’的自动化武器就会成为现实。”“现在很难防止坏人利用AI做坏事。”

他说,光是和5年前的技术相比,技术进步就非常大。有些人还认为,人工智能最终变得比人类更聪明是相当遥远的事。“连我也曾那样认为,大概还要三五十年、或更久。但现在,我不再这么觉得了。”

本文留言

相关文章


近期读者推荐