當人工智慧(AI)的學習材料多為白人男性影像時,就會比較適合用來辨識白人男性臉部。圖為人臉識別示意圖。(圖片來源:Adobe Stock)
【看中國2019年4月5日訊】隨著臉部辨識科技的應用範圍越來越廣,美國麻省理工學院(MIT)的研究人員卻發現,知名科技業者開發的人工智慧(AI)軟體存在歧視問題,系統在辨識深色人種或女性臉部時,錯誤率偏高。
麻省理工學院研究人員:人工智慧軟體存在歧視問題
據《中央社》報導,布蘭維妮(Joy Buolamwini)是美國麻省理工學院(MIT)的黑人女性計算機科學家。布蘭維妮研究發現,包括微軟(Microsoft)、IBM、亞馬遜(Amazon)等科技巨頭開發的臉部辨識軟體存在歧視問題,人工智慧(AI)系統在辨識深膚色女性時,錯誤率較辨識淺膚色男性高出許多。
布蘭維妮已成功使微軟和IBM等企業開始改善自家系統,但亞馬遜卻表示反對,並公開批評她的研究方法。
一些人工智慧(AI)領域的專家公開支持布蘭維妮,呼籲亞馬遜停止將自家臉部辨識軟體銷售給警方。
https://t.co/lB8KJDE2Ny Glad to see experts calling out @amazon’s misleading statements about my @MIT study. Great to have the support of knowledgeable computer scientists @nytimes @natashanyt @civicMIT @EthanZ @medialab @Joi @ACLU
— Joy Buolamwini (@jovialjoy) April 4, 2019
除了專業人士和企業界以外,布蘭維妮的研究成果還引起政界人士的關注。其中一些人士主張,應該為臉部辨識技術的使用範圍設限。
《自由時報》報導說,目前的人工智慧(AI)大多採用監督式學習(supervised learning),會依照工程師提供的訓練資料(training data)推斷出規則,再把規則套用在未知的資料上,所以當人工智慧(AI)的學習材料多為白人男性影像時,就會比較適合用來辨識白人男性臉部。
《中央社》報導,這種差別性有時可能攸關生死。一份近期發表的研究顯示,幫助自動駕駛汽車「看路」的電腦視覺系統,在偵測深膚色行人方面,明顯有困難。
布蘭維妮說,人工智慧(AI)對待不同性別與有色人種都表現出了差異性。她呼籲各大科技公司公平對待所有人,並表示如果人們不去主動包容,將會複製這種根本性的不平等。
責任編輯: 劉馨 --版權所有,任何形式轉載需看中國授權許可。"If we're not being intentional about being inclusive, we will replicate structural inequalities."@jovialjoy explains how AI can and will mirror our deeply ingrained biases: pic.twitter.com/QqmAv98dnV
— Doha Debates (@DohaDebates) April 3, 2019
看完那這篇文章覺得
排序