机器人受访对答如流 但最后她竟说……(视频/图)


超仿真机器人Sophia。(You tube视频截图)

【看中国2017年7月14日讯】前段时间,一个叫Sophia的超仿真机器人上了电视节目,对各种问题对答如流,表情丰富,把所有人都给惊到了。她大概是世界上最像人类的机器人了,可以辨识记忆人脸,有超强学习和理解能力,甚至可以和人有眼神交流。

但是,她说的最后一句话,却让人不寒而栗,细思恐极!

该视频上传后,引发网友热议:

网友:“MAN MASK5”说:“为什么感觉最后的回答是真的?”

网友“小御小日记”说:“我有点害怕……”

网友“张凤起”说:“人类确实比机器人可怕,正因为人的好奇心无穷,更加勇于挑战常规,挑战人性,虽也因此科技得以进步,但往往一不注意,就酿成灾难。”

网友“Sing Ho NZ”说:“极度怀疑是外星人创造的,目的是利用机器人控制人类。”

随着应用领域与复杂度不断拓展,人工智能也变得越来越强大。AI(Artificial Intelligence人工智能)已经进入到一些简单的决策当中,比如谁应该入狱,谁应该获得贷款等等。未来AI可能会在自动驾驶汽车上做出攸关生命的抉择,比如在一场不可避免的车祸中,决定到底哪个司机有最佳的生存几率。

然而,人类通常不知道自己创造的这些AI在想什么。

当研究人员开始透过“学习”训练机器,将经验转化为模拟神经网络的系统,产生出的结果不是代码,而是不可读、数百万甚至数十亿的人造神经元。

多数研究人员都同意,认识AI是一项迫切的挑战。如果我们不知道人造思维如何运作,又该如何确定它所持的偏见或预测它的错误呢?

我们无法事先知道AI是否有“种族歧视”,也无法预期它的思维模式是否可能让自驾车发生事故……

Pinterest的软件工程师Tracy Chou,在公司内专门负责机器学习项目,他认为AI发展中很大的问题在于,多数人都把AI或机器学习想得过于“中立”,“多数人都不了解的是,是人类设计了这些AI模型,也是人类选择要用什么数据来训练机器。”

有一个最简单的例子:Google翻译。当你在Google翻译上输入“医生”,要求翻译成葡萄牙语时,总是会得到阳性名词médico,而非阴性名词的médica;输入“护士”时,则会得到阴性的enfermeira,而非阳性的enfermeiro。类似的事情其实经常发生。

和人类不同的是,我们不能直接询问机器“为什么这么做?”尽管AI在限定的环境条件下能表现十分出色,但谈到内省(introspection)的能力,AI的程度可能与蟑螂差不多。

当我们用人工智能取代人类决策者时,我们如何保证他们不偏离人类预期的“轨道”?我们更不知道,未来更加智能的机器人都要“摧毁人类”时,人类将如何面对自己所造出的这一切!

 

本文留言

相关文章


近期读者推荐