content

监控升级:人脸识别系统能读出情绪和威胁性(图)

 2018-07-18 08:19 桌面版 正體 打赏 0

监控
犯罪预告正在成为现实?(Pixabay)

【看中国2018年7月18日讯】人脸识别技术正在变得越发成熟。一些公司声称,这一技术甚至能够解读我们的情绪并监测到可疑行为。不过,这对隐私和公民自由会产生何种影响?

人脸识别技术已经存在了超过十年,不过科技专家表示,近年来,随着数码视像和人工智能(AI)的进步,这种技术正在飞跃式发展。

现在,人脸识别技术正被用于锁定过境人群,解锁智能手机,侦测犯罪人士,以及授权银行转账等等。

但是一些公司却声称,这种技术同样可以监测我们的情绪状态。

从70年代起,就有心理学家声称,他们能够通过照片和视频中人脸的“微表情”来探测其背后隐藏的情感。

科技公司表示,现今的运算法和高清摄像头同样可以准确甚至更快速地完成这一过程。

“我们看到,人脸识别技术正被用作商业用途,”数据公司埃士信(IHS Markit)的视像监控专家奥立弗・菲利波(Oliver Philippou)说。

“这种技术可能被用于超市走廊货架,不是为了锁定人,而是用来分析顾客的年龄和性别构成,以及他们的大体情绪。这能够帮助超市制定对应的营销策略和产品投放。”

市场调研机构明略行公司(Kantar Millward Brown)正在使用由美国初创公司Affectiva开发的技术,评估消费者对电视广告的反应。

Affectiva会在经允许的情况下录下人们的脸,然后用代码逐帧记录他们的表情,从而评估他们的情绪。

明略行公司的创新部门管理总监格拉姆・佩吉(Graham Page)说:“我们会采访一些人,但是通过监察他们的表情,我们能得到更丰富的细微信息。你能准确地看到广告的哪一部分是奏效的,以及勾起了什么样的情绪反应。”

而更具有争议性的是,一些初创企业正以安保为目的提供“情绪侦察”。

比如,英国公司WeSee就声称,他们的AI技术能够通过解读一些未经训练的肉眼看不出来的面部信息,来发现可疑行为。

比如,怀疑或者愤怒之类的情绪可能会隐藏在表情之下,并且和一个人当时所说的话不一致。

WeSee指,他们正在与一家“知名度高”的执法机构合作,对被问话的人进行分析。

该公司首席执行官大卫・富尔顿(David Fulton)向BBC表示:“哪怕只有低清晰度的视频,我们的技术也能够通过表情、姿势和动作来确定一个人的情绪状态或者行为意图。”

“在未来,地铁站台上的摄像头可能会使用我们的技术来探测可疑行为,并将潜在的恐怖主义威胁报告给当局。”

“同样的措施也可能用在像足球比赛或者政治游行之类的大型集会当中。”

不过,菲利波对于情绪侦测技术的准确性有所怀疑。“就算只是人脸识别,都仍然有相当程度的误差——最好的公司声称自己认人的准确率是90-92%。当你试图去评估情绪的时候,误差会更大。”

呼吁保护隐私权的活动人士对此感到担忧,他们害怕人脸识别技术会出错,或者导致偏见。

国际隐私组织(Privacy International)的弗雷德里克・卡尔图纳(Frederike Kaltheuner)说:“虽然我能想象,会有一些确实行之有效的使用方式,但是情绪监控、人脸识别以及人脸档案收集所带来的隐私问题是前所未有的。”

单是人脸识别本身就足够有争议性了。

今年五月,在斯旺西参加BBC一台周末音乐节(Biggest Weekend)的狂欢人群当中,很多人都不知道自己的脸被扫描识别。那是南威尔士警方的大规模监控措施之一。

警方使用了自动人脸识别系统(AFR),通过闭路电视摄像头以及一套NEC软件来识别“值得关注的人”,将他们的脸与一个记录受拘留人士的数据库作对比。

南威尔士警方的AFR项目主管斯科特・罗伊德(Scott Lloyd)表示,一个警方正在搜捕的男子在“10分钟内”就被识别出来并拘捕。

不过,英国人权组织“自由”(Liberty)指出,在其他的场合,比如去年在卡的夫进行的欧洲冠军联赛(UEFA Champions League)决赛上,就有过大量的错误配对。

7月,卡的夫居民艾德・布里吉斯(Ed Bridges)由“自由”组织代表,开始了对警方的法律行动。原告认为,AFR侵犯了人们的隐私权,并且缺乏适当的监督。案件将进入英国高等法院审理。

但是,开展人脸识别研究的美国联邦机构国家标准技术研究所(National Institute of Standards and Technology)的生物识别项目主管帕特里克・格罗瑟(Patrick Grother)表示,相关技术正在变得越来越可靠。

他将近期这方面的技术进步归因于“卷积神经网络”(Convolutional Neural Network)的发展——那是一种机器学习的高级形式,能带来比过去高得多的准确度。

他说:“这些运算法让电脑能够在不同的规模和角度上进行影像分析。”

“哪怕脸部可能被太阳眼镜或者围巾等物件部分遮盖,你都能够更准确地识别人脸。从2014年到现在,错误率已经缩小了10倍,不过没有一种运算法是完美的。”

WeSee的富尔顿表示,他的技术只不过是一种工具,帮助人们更智能地分析既有影像。

他还表示,WeSee对于面部情感的识别能力和人的肉眼是一样有效的——“准确率在60%-70%左右”。

中国:监控从学校开始?

有关监控技术的争议时常与政府监控公民的行为相联系,而政府监控行为又时常与非民主政制的国家相联系。

在中国,最近期有关“情绪侦测”系统的报道与学校有关。今年5月,中国媒体报道,杭州一所中学在课室安装能够识别学生表情的视频监控系统。

这个被称为“智慧课堂行为管理系统”的人脸识别系统在杭州第十一中学的两个班级的限定课堂上试行,对学生在课堂上的情绪状态进行识别。

此前,该校已经通过“刷脸”进行考勤考核。

不过,《新京报》引述该校副校长称,系统采集的是代码,而不是学生面部影像,数据报告也仅对任课老师开放。

该消息随即引发争议,被一些媒体称为“黑科技”。有家长认为这种措施侵犯学生隐私,也有媒体引述专家指出,这种情绪监控可能对学生心理健康造成影响。

自2015年中国公安部启动世界最大规模的人脸识别系统之后,这一技术在中国公共领域被广泛使用。

“目前,我们能够通过侦测可疑的行为来避免一些坏事发生,但不能识别意图。不过我认为,这正是我们要前进的方向,而我们已经在这方面进行测试了。”

听起来,这距离科幻电影《少数派报告》(Minority Report,另译《关键报告》)里的“犯罪预知”概念又近了一步。在电影中,潜在的罪犯在他们犯罪之前就已经被捕。这是否又是民权机构应该担心的进一步问题?

国际隐私组织的卡尔图纳说:“我们总是问自己一个关键问题:这项技术是谁创建的,目的又是什么?它是用来帮助我们,还是审判、评估和控制我们?”

(文章仅代表作者个人立场和观点)
来源:BBC --版权所有,任何形式转载需看中国授权许可。 严禁建立镜像网站.
本文短网址:


【诚征荣誉会员】溪流能够汇成大海,小善可以成就大爱。我们向全球华人诚意征集万名荣誉会员:每位荣誉会员每年只需支付一份订阅费用,成为《看中国》网站的荣誉会员,就可以助力我们突破审查与封锁,向至少10000位中国大陆同胞奉上独立真实的关键资讯,在危难时刻向他们发出预警,救他们于大瘟疫与其它社会危难之中。

分享到:

看完这篇文章觉得

评论

畅所欲言,各抒己见,理性交流,拒绝谩骂。

留言分页:
分页:


Top
x
我们和我们的合作伙伴在我们的网站上使用Cookie等技术来个性化内容和广告并分析我们的流量。点击下方同意在网络上使用此技术。您要使用我们网站服务就需要接受此条款。 详细隐私条款. 同意