監控升級:人臉識別系統能讀出情緒和威脅性(圖)


犯罪預告正在成為現實?(Pixabay)

【看中國2018年7月18日訊】人臉識別技術正在變得越發成熟。一些公司聲稱,這一技術甚至能夠解讀我們的情緒並監測到可疑行為。不過,這對隱私和公民自由會產生何種影響?

人臉識別技術已經存在了超過十年,不過科技專家表示,近年來,隨著數碼視像和人工智慧(AI)的進步,這種技術正在飛躍式發展。

現在,人臉識別技術正被用於鎖定過境人群,解鎖智能手機,偵測犯罪人士,以及授權銀行轉賬等等。

但是一些公司卻聲稱,這種技術同樣可以監測我們的情緒狀態。

從70年代起,就有心理學家聲稱,他們能夠通過照片和視頻中人臉的「微表情」來探測其背後隱藏的情感。

科技公司表示,現今的運演算法和高清攝像頭同樣可以準確甚至更快速地完成這一過程。

「我們看到,人臉識別技術正被用作商業用途,」數據公司埃士信(IHS Markit)的視像監控專家奧立弗.菲利波(Oliver Philippou)說。

「這種技術可能被用於超市走廊貨架,不是為了鎖定人,而是用來分析顧客的年齡和性別構成,以及他們的大體情緒。這能夠幫助超市制定對應的營銷策略和產品投放。」

市場調研機構明略行公司(Kantar Millward Brown)正在使用由美國初創公司Affectiva開發的技術,評估消費者對電視廣告的反應。

Affectiva會在經允許的情況下錄下人們的臉,然後用代碼逐幀記錄他們的表情,從而評估他們的情緒。

明略行公司的創新部門管理總監格拉姆.佩吉(Graham Page)說:「我們會採訪一些人,但是通過監察他們的表情,我們能得到更豐富的細微信息。你能準確地看到廣告的哪一部分是奏效的,以及勾起了什麼樣的情緒反應。」

而更具有爭議性的是,一些初創企業正以安保為目的提供「情緒偵察」。

比如,英國公司WeSee就聲稱,他們的AI技術能夠通過解讀一些未經訓練的肉眼看不出來的面部信息,來發現可疑行為。

比如,懷疑或者憤怒之類的情緒可能會隱藏在表情之下,並且和一個人當時所說的話不一致。

WeSee指,他們正在與一家「知名度高」的執法機構合作,對被問話的人進行分析。

該公司首席執行官大衛.富爾頓(David Fulton)向BBC表示:「哪怕只有低清晰度的視頻,我們的技術也能夠通過表情、姿勢和動作來確定一個人的情緒狀態或者行為意圖。」

「在未來,地鐵站台上的攝像頭可能會使用我們的技術來探測可疑行為,並將潛在的恐怖主義威脅報告給當局。」

「同樣的措施也可能用在像足球比賽或者政治遊行之類的大型集會當中。」

不過,菲利波對於情緒偵測技術的準確性有所懷疑。「就算只是人臉識別,都仍然有相當程度的誤差——最好的公司聲稱自己認人的準確率是90-92%。當你試圖去評估情緒的時候,誤差會更大。」

呼籲保護隱私權的活動人士對此感到擔憂,他們害怕人臉識別技術會出錯,或者導致偏見。

國際隱私組織(Privacy International)的弗雷德里克.卡爾圖納(Frederike Kaltheuner)說:「雖然我能想像,會有一些確實行之有效的使用方式,但是情緒監控、人臉識別以及人臉檔案收集所帶來的隱私問題是前所未有的。」

單是人臉識別本身就足夠有爭議性了。

今年五月,在斯旺西參加BBC一臺週末音樂節(Biggest Weekend)的狂歡人群當中,很多人都不知道自己的臉被掃瞄識別。那是南威爾士警方的大規模監控措施之一。

警方使用了自動人臉識別系統(AFR),通過閉路電視攝像頭以及一套NEC軟體來識別「值得關注的人」,將他們的臉與一個記錄受拘留人士的資料庫作對比。

南威爾士警方的AFR項目主管斯科特.羅伊德(Scott Lloyd)表示,一個警方正在搜捕的男子在「10分鐘內」就被識別出來並拘捕。

不過,英國人權組織「自由」(Liberty)指出,在其他的場合,比如去年在卡的夫進行的歐洲冠軍聯賽(UEFA Champions League)決賽上,就有過大量的錯誤配對。

7月,卡的夫居民艾德.布里吉斯(Ed Bridges)由「自由」組織代表,開始了對警方的法律行動。原告認為,AFR侵犯了人們的隱私權,並且缺乏適當的監督。案件將進入英國高等法院審理。

但是,開展人臉識別研究的美國聯邦機構國家標準技術研究所(National Institute of Standards and Technology)的生物識別項目主管帕特里克.格羅瑟(Patrick Grother)表示,相關技術正在變得越來越可靠。

他將近期這方面的技術進步歸因於「卷積神經網路」(Convolutional Neural Network)的發展——那是一種機器學習的高級形式,能帶來比過去高得多的準確度。

他說:「這些運演算法讓電腦能夠在不同的規模和角度上進行影像分析。」

「哪怕臉部可能被太陽眼鏡或者圍巾等物件部分遮蓋,你都能夠更準確地識別人臉。從2014年到現在,錯誤率已經縮小了10倍,不過沒有一種運演算法是完美的。」

WeSee的富爾頓表示,他的技術只不過是一種工具,幫助人們更智能地分析既有影像。

他還表示,WeSee對於面部情感的識別能力和人的肉眼是一樣有效的——「準確率在60%-70%左右」。

中國:監控從學校開始?

有關監控技術的爭議時常與政府監控公民的行為相聯繫,而政府監控行為又時常與非民主政制的國家相聯繫。

在中國,最近期有關「情緒偵測」系統的報導與學校有關。今年5月,中國媒體報導,杭州一所中學在課室安裝能夠識別學生表情的視頻監控系統。

這個被稱為「智慧課堂行為管理系統」的人臉識別系統在杭州第十一中學的兩個班級的限定課堂上試行,對學生在課堂上的情緒狀態進行識別。

此前,該校已經通過「刷臉」進行考勤考核。

不過,《新京報》引述該校副校長稱,系統採集的是代碼,而不是學生面部影像,數據報告也僅對任課老師開放。

該消息隨即引發爭議,被一些媒體稱為「黑科技」。有家長認為這種措施侵犯學生隱私,也有媒體引述專家指出,這種情緒監控可能對學生心理健康造成影響。

自2015年中國公安部啟動世界最大規模的人臉識別系統之後,這一技術在中國公共領域被廣泛使用。

「目前,我們能夠通過偵測可疑的行為來避免一些壞事發生,但不能識別意圖。不過我認為,這正是我們要前進的方向,而我們已經在這方面進行測試了。」

聽起來,這距離科幻電影《少數派報告》(Minority Report,另譯《關鍵報告》)裡的「犯罪預知」概念又近了一步。在電影中,潛在的罪犯在他們犯罪之前就已經被捕。這是否又是民權機構應該擔心的進一步問題?

國際隱私組織的卡爾圖納說:「我們總是問自己一個關鍵問題:這項技術是誰創建的,目的又是什麼?它是用來幫助我們,還是審判、評估和控制我們?」

(文章僅代表作者個人立場和觀點)
本文留言

相關文章


近期讀者推薦