細思即恐!人工智慧絕非萬能(圖)

2019-10-16 12:00 作者:盧乙欣 桌面版 简体 0
    小字


美國執法單位在使用婦女、青少年以及少數族裔的面部辨識系統時,出現的錯誤較多。(圖片來源:Adobe Stock) 

【看中國2019年10月16日訊】(看中國記者盧乙欣報導)還記得求學期間,得在課堂上不斷作筆記的情景嗎?或許那時候的你是寫到手痠心煩,但是一切的書寫若都換成電腦打字就真的會比較好嗎?這問題理應是很多人未曾深思之題。可如今,科技發達成連人力都能被永不疲勞且能精準分析事件的人工智慧(Artificial Intelligence,以下簡稱AI)所取代了!只是,大問題也來了!

包辦各領域的AI

AI到底有多夯?相信定時觀看新聞的人都會知道,交通大學、成功大學、中信金融管理學院等多所學校為搶得AI先機,已於2019年新開設AI的相關學程或是將於2020年增設人工智慧學系所。交大與成大同在今年增設學程,成大亦擁有電機工程、工程科學、生物科技與產業科學、資訊管理等系所的支援,聖約翰科技大學則預計明年開設全英語授課的學程。

由於業界需要越來越多的AI人才投入,因此增設、細分AI的相關學程與系所的總體狀況應會持續看漲。不過,既然AI都影響教育界甚多了,業界當然不惶多讓!

無論是辨認臉譜、駕駛汽車、偵測肢體動作、分析病情,還是撰寫新聞稿,甚至是判案,抑或最新消息指出的繪製人臉畫像,AI通通都已涉足包辦了。未來還有望能成功開發「智慧脊柱介面」,協助脊髓損傷患者重建肢體功能與膀胱控制。可是,當人類越來越倚重AI,隱憂也逐漸浮上檯面。因為,AI絕非萬能,而人類其實對AI是有迷思尚待破解的!

1955年,一位美國科學家約翰・麥卡錫(John McCarthy)在達特矛斯會議上提出了AI的概念,主要目的是為了讓電腦能具備像人類的抽象思考、解決問題、展現創意,並反過來進行學習、分析、規劃、實際操作等能力。

其實AI一開始的構思,就是要被廣泛的應用。於是,以往只在螢屏中展示著讓人很驚奇的新興技術的AI,逐漸的佔領各大生活領域。像亞馬遜公司於今年4月就被曝說運用AI系統追蹤物流倉儲部門每一位員工的工作效率,而AI還自動產生工作效率報告與提出警告,甚至自動開除未達標者。整個考核過程完全不需要有人情方面的考量與高階主管的介入,通通任由冰冷的機器掌控全局。

倘若你有看見這一則新聞,是為科技如此發達而高興,還是開始有些憂心忡忡,有些狐疑,覺得未來的某一天,工作領域將可以完全不需要人力。這其實不是想探太多。因為,連審理案件,AI都能涉足了。

法務部司法官學院在昨日(15日)舉辦了「人工智慧對司法之影響及未來發展」國際研討會,意在探討將AI運用於輔助判決的可行性及相關風險。

司法官學院院長蔡碧玉對此表示,有些國家正研發AI法官與律師,試圖以AI來審理小型訴訟案件或是提供法律方面的諮詢。只是,目前關於AI的法律規範尚不足,故運作AI後所產生的法律責任如何歸屬,尚待定案。而對於個資的蒐集該如何規範與保護,亦須再討論,此外AI目前碰上的演算問題與倫理問題,皆是必須面對的挑戰。

隱憂開始浮現

其實,能夠解決複雜難題,同時還能夠串聯各項單一領域的AI,現在早就取代了諸多勞力與人腦,改變著我們的工作型態與產業。然而,被很多人想高了的AI,也逐漸出現了問題。例如,美國各地的法官使用AI來判決案件後,赫然發現AI出現不公正的決策。

根據《大紀元》的報導表示,美國有一項調查顯示,有些美國法院採用COMPAS這一項評估累犯風險的軟體時,發現在評估非裔美國人的時候,準確性比較低,出現高估的狀態。而執法單位在使用婦女、青少年以及少數族裔的面部辨識系統時,錯誤率也較高。這即是所謂的「AI偏誤」或稱「演算法偏誤」。像今年4月,有一位布朗大學學生就因為斯里蘭卡當局的AI系統出錯,導致他被誤認成是爆炸案的嫌犯。

許多事件都揭示了一個事實:當人類越來越依賴AI的決策,逐步讓AI系統進入司法、軍事、金融等重大領域時,將造成隱憂。

根據〈人工智慧不是萬能 一張圖讓你秒懂〉一文所示,創設台灣人工智慧學校,並擔任執行長的陳昇瑋博士,雖然大力推動AI的應用及轉型,但他也表示,原則好掌控的AI,是有著很明確的極限,所以要理解它不擅長的部分,以免人們過度倚賴而造成失落。

換言之,我們只要先明白,什麼是AI做不到,只有人類才能夠做得到的事情,就不會出現情感落差,而白白期待一場了。只是,真的是這樣而已嗎?

AI取代了人類的部分工作,攻佔了某領域,難道就不會導致人類的思考,甚至是根植人世已久的普世價值出現翻盤的現象嗎?未來會不會出現某些獨居老人散落於各地的子子孫孫,藉口說有AI陪著老人就好了,反正AI可以陪老人聊天,還可以看護他的安全,自己根本不需要長途跋涉的回去探望長輩。還有,說不定未來還不需要看護時不時的守在被看護者身邊了呢,也不需要護士定時去察看病房,只需要被動等著AI提醒,自己再稍微注意一下狀況即可。如此一來,人類的情感交流大大銳減,說不定後來會越來越多人會覺得,我只需要有AI陪伴就好了,它還比真人善解人意、更順我的意。

別以為不可能,或是覺得人類一定會發現這種怪異現象,要知道「煮蛙效應」其實是再三被各類專家提出來警示著大眾的。況且,如今日本不就研發了面貌訪似真人,可以與人溝通,又被號稱是全世界最美麗、完美的人型機器人艾莉卡。細細思之,未來說不定還可以客製化,專為顧客訂製與某明星相像的仿生機器人呢!

這樣,我們還需要真人陪伴嗎?再者,時代演變,人類不時出現的無感狀態似乎也越來越嚴重,「沒什麼大不了的」都成了很多人的口頭禪了。

此外,過去人們對AI確信不疑的部分,實則未必正確。是,AI確實不如人類這般會受情緒、生理所影響,還能直接單就事件進行分析,得出準確結果。但是,如今多項證據都指出AI也會產生「偏見」(AI bias),不像外界認為的那樣客觀真實,這即是上文提及的「AI偏誤/演算法偏誤」。

造成AI分析錯誤的三大因素

那麼,AI為什麼會出現錯誤呢?據媒體報導表示,主因有三:

1、偏誤主要來自於AI的學習歷程:倘若訓練過程所提供的資料不完備,無法反映真實世界的豐富程度,就會造成AI日後出現偏誤。例如有些少數民族,或是在某層面非常獨特的個體,或是尚未被納入數據庫的元素。

2、AI不具思考能力:因為AI僅僅是做收集數據與呈現結果的工作,是永遠不會自己思考的工具,因此若是資料中隱藏著人類的偏見,會讓AI在針對大量數據做分析時,同時複製偏見。

3、AI無法針對抽象價值做精準決策:由於理性和平、公平正義、信任等抽象價值無法藉由數學術語呈現,也沒有辦法做出最合適最精準的定義,因此當AI針對涉及抽象價值等數據來進行分析時,最後做出的決策常常不符人們期待。

話說到此,人們仍舊會繼續研發出越來越精緻化、跨領域的狀況會越來越廣泛的AI。只是,未來是否連AI不必要涉入的範疇,人們也會想方設法來讓AI取代人力、人智呢?!

說不定未來連以AI組成的音樂會,都比真人的演奏會還要受到吹捧與歡迎,到時候,我們又該怎麼分析、甚至是讚美AI灌注其中的情感呢?!當人完全被科技所取代後,難道我們還繼續高喊老話--「科技永遠取代不了人性與精神價值」,屆時恐怕只換成不言而喻的「我們願意被科技取代人性與精神價值」等定論,而人類的思維、情感將一文不值。

(文章僅代表作者個人立場和觀點)
分享到:

看完那這篇文章覺得

評論

暢所欲言,各抒己見,理性交流,拒絕謾罵。

留言分頁:
分頁:


Top