content

機器人受訪對答如流 但最後她竟說……(視頻/圖)

 2017-07-14 07:23 桌面版 简体 打賞 0
    小字

機器人受訪對答如流但最後她竟說……視頻/圖
超模擬機器人Sophia。(You tube視頻截圖)

【看中國2017年7月14日訊】前段時間,一個叫Sophia的超模擬機器人上了電視節目,對各種問題對答如流,表情豐富,把所有人都給驚到了。她大概是世界上最像人類的機器人了,可以辨識記憶人臉,有超強學習和理解能力,甚至可以和人有眼神交流。

但是,她說的最後一句話,卻讓人不寒而慄,細思恐極!

該視頻上傳後,引髮網友熱議:

網友:「MAN MASK5」說:「為什麼感覺最後的回答是真的?」

網友「小御小日記」說:「我有點害怕……」

網友「張鳳起」說:「人類確實比機器人可怕,正因為人的好奇心無窮,更加勇於挑戰常規,挑戰人性,雖也因此科技得以進步,但往往一不注意,就釀成災難。」

網友「Sing Ho NZ」說:「極度懷疑是外星人創造的,目的是利用機器人控制人類。」

隨著應用領域與複雜度不斷拓展,人工智慧也變得越來越強大。AI(Artificial Intelligence人工智慧)已經進入到一些簡單的決策當中,比如誰應該入獄,誰應該獲得貸款等等。未來AI可能會在自動駕駛汽車上做出攸關生命的抉擇,比如在一場不可避免的車禍中,決定到底哪個司機有最佳的生存機率。

然而,人類通常不知道自己創造的這些AI在想什麼。

當研究人員開始透過「學習」訓練機器,將經驗轉化為模擬神經網路的系統,產生出的結果不是代碼,而是不可讀、數百萬甚至數十億的人造神經元。

多數研究人員都同意,認識AI是一項迫切的挑戰。如果我們不知道人造思維如何運作,又該如何確定它所持的偏見或預測它的錯誤呢?

我們無法事先知道AI是否有「種族歧視」,也無法預期它的思維模式是否可能讓自駕車發生事故……

Pinterest的軟體工程師Tracy Chou,在公司內專門負責機器學習項目,他認為AI發展中很大的問題在於,多數人都把AI或機器學習想得過於「中立」,「多數人都不瞭解的是,是人類設計了這些AI模型,也是人類選擇要用什麼數據來訓練機器。」

有一個最簡單的例子:Google翻譯。當你在Google翻譯上輸入「醫生」,要求翻譯成葡萄牙語時,總是會得到陽性名詞médico,而非陰性名詞的médica;輸入「護士」時,則會得到陰性的enfermeira,而非陽性的enfermeiro。類似的事情其實經常發生。

和人類不同的是,我們不能直接詢問機器「為什麼這麼做?」儘管AI在限定的環境條件下能表現十分出色,但談到內省(introspection)的能力,AI的程度可能與蟑螂差不多。

當我們用人工智慧取代人類決策者時,我們如何保證他們不偏離人類預期的「軌道」?我們更不知道,未來更加智能的機器人都要「摧毀人類」時,人類將如何面對自己所造出的這一切!

 

責任編輯: 傅美萱 --版權所有,任何形式轉載需看中國授權許可。 嚴禁建立鏡像網站。
本文短網址:


【誠徵榮譽會員】溪流能夠匯成大海,小善可以成就大愛。我們向全球華人誠意徵集萬名榮譽會員:每位榮譽會員每年只需支付一份訂閱費用,成為《看中國》網站的榮譽會員,就可以助力我們突破審查與封鎖,向至少10000位中國大陸同胞奉上獨立真實的關鍵資訊, 在危難時刻向他們發出預警,救他們於大瘟疫與其它社會危難之中。

分享到:

看完那這篇文章覺得

評論

暢所欲言,各抒己見,理性交流,拒絕謾罵。

留言分頁:
分頁:


x
我們和我們的合作夥伴在我們的網站上使用Cookie等技術來個性化內容和廣告並分析我們的流量。點擊下方同意在網路上使用此技術。您要使用我們網站服務就需要接受此條款。 詳細隱私條款. 同意