AI也有偏見?MIT學者呼籲科技公司改善(圖)


當人工智慧(AI)的學習材料多為白人男性影像時,就會比較適合用來辨識白人男性臉部。圖為人臉識別示意圖。(圖片來源:Adobe Stock)

【看中國2019年4月5日訊】隨著臉部辨識科技的應用範圍越來越廣,美國麻省理工學院(MIT)的研究人員卻發現,知名科技業者開發的人工智慧(AI)軟體存在歧視問題,系統在辨識深色人種或女性臉部時,錯誤率偏高。

麻省理工學院研究人員:人工智慧軟體存在歧視問題

據《中央社》報導,布蘭維妮(Joy Buolamwini)是美國麻省理工學院(MIT)的黑人女性計算機科學家。布蘭維妮研究發現,包括微軟(Microsoft)、IBM、亞馬遜(Amazon)等科技巨頭開發的臉部辨識軟體存在歧視問題,人工智慧(AI)系統在辨識深膚色女性時,錯誤率較辨識淺膚色男性高出許多。

布蘭維妮已成功使微軟和IBM等企業開始改善自家系統,但亞馬遜卻表示反對,並公開批評她的研究方法。

一些人工智慧(AI)領域的專家公開支持布蘭維妮,呼籲亞馬遜停止將自家臉部辨識軟體銷售給警方。

除了專業人士和企業界以外,布蘭維妮的研究成果還引起政界人士的關注。其中一些人士主張,應該為臉部辨識技術的使用範圍設限。

《自由時報》報導說,目前的人工智慧(AI)大多採用監督式學習(supervised learning),會依照工程師提供的訓練資料(training data)推斷出規則,再把規則套用在未知的資料上,所以當人工智慧(AI)的學習材料多為白人男性影像時,就會比較適合用來辨識白人男性臉部。

《中央社》報導,這種差別性有時可能攸關生死。一份近期發表的研究顯示,幫助自動駕駛汽車「看路」的電腦視覺系統,在偵測深膚色行人方面,明顯有困難。

布蘭維妮說,人工智慧(AI)對待不同性別與有色人種都表現出了差異性。她呼籲各大科技公司公平對待所有人,並表示如果人們不去主動包容,將會複製這種根本性的不平等。

本文留言

相關文章


近期讀者推薦