content

AI也有偏见?MIT学者呼吁科技公司改善(图)

 2019-04-05 03:41 桌面版 正體 打赏 0

当人工智能(AI)的学习材料多为白人男性影像时,就会比较适合用来辨识白人男性脸部。
当人工智能(AI)的学习材料多为白人男性影像时,就会比较适合用来辨识白人男性脸部。图为人脸识别示意图。(图片来源:Adobe Stock)

【看中国2019年4月5日讯】随着脸部辨识科技的应用范围越来越广,美国麻省理工学院(MIT)的研究人员却发现,知名科技业者开发的人工智能AI)软件存在歧视问题,系统在辨识深色人种或女性脸部时,错误率偏高。

麻省理工学院研究人员:人工智能软件存在歧视问题

据《中央社》报导,布兰维妮(Joy Buolamwini)是美国麻省理工学院(MIT)的黑人女性计算机科学家。布兰维妮研究发现,包括微软(Microsoft)、IBM、亚马逊(Amazon)等科技巨头开发的脸部辨识软件存在歧视问题,人工智能(AI)系统在辨识深肤色女性时,错误率较辨识浅肤色男性高出许多。

布兰维妮已成功使微软和IBM等企业开始改善自家系统,但亚马逊却表示反对,并公开批评她的研究方法。

一些人工智能(AI)领域的专家公开支持布兰维妮,呼吁亚马逊停止将自家脸部辨识软件销售给警方。

除了专业人士和企业界以外,布兰维妮的研究成果还引起政界人士的关注。其中一些人士主张,应该为脸部辨识技术的使用范围设限。

《自由时报》报导说,目前的人工智能(AI)大多采用监督式学习(supervised learning),会依照工程师提供的训练资料(training data)推断出规则,再把规则套用在未知的资料上,所以当人工智能(AI)的学习材料多为白人男性影像时,就会比较适合用来辨识白人男性脸部。

《中央社》报导,这种差别性有时可能攸关生死。一份近期发表的研究显示,帮助自动驾驶汽车“看路”的电脑视觉系统,在侦测深肤色行人方面,明显有困难。

布兰维妮说,人工智能(AI)对待不同性别与有色人种都表现出了差异性。她呼吁各大科技公司公平对待所有人,并表示如果人们不去主动包容,将会复制这种根本性的不平等。

責任编辑: 刘馨 --版权所有,任何形式转载需看中国授权许可。 严禁建立镜像网站.
本文短网址:


【诚征荣誉会员】溪流能够汇成大海,小善可以成就大爱。我们向全球华人诚意征集万名荣誉会员:每位荣誉会员每年只需支付一份订阅费用,成为《看中国》网站的荣誉会员,就可以助力我们突破审查与封锁,向至少10000位中国大陆同胞奉上独立真实的关键资讯,在危难时刻向他们发出预警,救他们于大瘟疫与其它社会危难之中。

分享到:

看完这篇文章觉得

评论

畅所欲言,各抒己见,理性交流,拒绝谩骂。

留言分页:
分页:


Top
x
我们和我们的合作伙伴在我们的网站上使用Cookie等技术来个性化内容和广告并分析我们的流量。点击下方同意在网络上使用此技术。您要使用我们网站服务就需要接受此条款。 详细隐私条款. 同意