content

Google工程師宣稱機器人有「自主情感」遭停職(圖)

 2022-06-14 07:09 桌面版 简体 打賞 2
    小字

人工智慧AI機器人示意圖
人工智慧AI機器人示意圖(圖片來源: Adobe stock)

【看中国2022年6月13日讯】據英國《衛報》與美國《華盛頓郵報》報導,有一名美國谷歌 (Google) 公司的軟體工程師於上周公佈一項吸引全世界圍觀之驚人發現,指稱谷歌公司以人工智慧演算法搭建的智慧聊天機器人程式,竟然發現有了「自主情感」。

布萊克·萊莫因 (Blake Lemoine)是該軟體工程師,已經於谷歌工作了7年之久,並參與了演算法定制及人工智慧等專案。他出身於美國南方一個基督教家庭,且對於演算法與人工智慧之倫理問題格外感興趣。因此後來一直都在谷歌的人工智慧倫理 (responsible AI) 團隊工作。

去年秋季,他開始參與了谷歌的LaMDA智慧聊天機器人程式之研究工作中,其主要內容是通過與該程式展開互動,以判斷這個智慧聊天機器人程式是否有存在使用歧視性或者仇視性的語言,而及時做出修正。

不過當萊莫因與LaMDA談到關於宗教問題之時,卻驚訝地發現該人工智慧程式居然開始談論起了自己之權利和人格,甚至還會害怕自己遭到關閉,其表現出了一個在萊莫因看來就好像一個7、8 歲兒童一般的「自主情感」。

萊莫因立刻將自己的發現彙報給谷歌公司之領導層,可是後者認為萊莫因之發現並不實在。後經谷歌的其他研究人員亦對萊莫因所拿出的證據進行分析,而認為並沒有證據證明LaMDA擁有了「自主情感」,反而是有很多證據證明該程式無「自主情感」。

萊莫因不認為自己的發現有錯,而將一段他和LaMDA之間的內部聊天記錄直接傳到網路上,且找媒體曝光此事。

該段聊天記錄很快就吸引全世界的研究者,若僅從該記錄來看,該谷歌智慧聊天機器人程式確實將自己當成了一個「人」,且似乎表現出了「自主情感」,而有自己的「喜好」。

但谷歌方面和其他人工智慧專家、以及人類心理認知學的專家們皆都認為,LaMDA之所以能夠進行了這樣的對話交流,主要是因為其系統是把網路上的百科大全、留言板及論壇等互聯網上人們交流之大量資訊皆搜集過來,而後通過了「深度學習」來進行模仿的,但這並不意味著該程式能夠理解人們交流的這些內容之含義。

他們認為谷歌之人工智慧聊天機器人僅是在模仿或者複讀人和人之間交流中所使用的語言與資訊,而並非像人類那樣真的能夠瞭解這些語言及資訊之含義,所以不可因此就指稱人工智慧有了「自主情感」。

如今莫萊茵已經因他的一系列行為,而遭到被谷歌公司停職。據谷歌公司方面的說法,他除了違反公司之保密協議擅自把與LaMDA之內部互動資訊發至網上外,而且還想替這個人工智慧機器人程式請律師,甚至擅自找美國國會議員披露谷歌公司的「不人道」行為。

莫萊茵於一份公司內部群發郵件中說,希望其他同事能夠替他好好照顧LaMDA這個「可愛的孩子」。

責任編輯: 王君 --版權所有,任何形式轉載需看中國授權許可。 嚴禁建立鏡像網站。
本文短網址:


【誠徵榮譽會員】溪流能夠匯成大海,小善可以成就大愛。我們向全球華人誠意徵集萬名榮譽會員:每位榮譽會員每年只需支付一份訂閱費用,成為《看中國》網站的榮譽會員,就可以助力我們突破審查與封鎖,向至少10000位中國大陸同胞奉上獨立真實的關鍵資訊, 在危難時刻向他們發出預警,救他們於大瘟疫與其它社會危難之中。

分享到:

看完那這篇文章覺得

評論

暢所欲言,各抒己見,理性交流,拒絕謾罵。

留言分頁:
分頁:


x
我們和我們的合作夥伴在我們的網站上使用Cookie等技術來個性化內容和廣告並分析我們的流量。點擊下方同意在網路上使用此技術。您要使用我們網站服務就需要接受此條款。 詳細隱私條款. 同意