Google工程師宣稱機器人有「自主情感」遭停職(圖)


人工智慧AI機器人示意圖(圖片來源: Adobe stock)

【看中国2022年6月13日讯】據英國《衛報》與美國《華盛頓郵報》報導,有一名美國谷歌 (Google) 公司的軟體工程師於上周公佈一項吸引全世界圍觀之驚人發現,指稱谷歌公司以人工智慧演算法搭建的智慧聊天機器人程式,竟然發現有了「自主情感」。

布萊克·萊莫因 (Blake Lemoine)是該軟體工程師,已經於谷歌工作了7年之久,並參與了演算法定制及人工智慧等專案。他出身於美國南方一個基督教家庭,且對於演算法與人工智慧之倫理問題格外感興趣。因此後來一直都在谷歌的人工智慧倫理 (responsible AI) 團隊工作。

去年秋季,他開始參與了谷歌的LaMDA智慧聊天機器人程式之研究工作中,其主要內容是通過與該程式展開互動,以判斷這個智慧聊天機器人程式是否有存在使用歧視性或者仇視性的語言,而及時做出修正。

不過當萊莫因與LaMDA談到關於宗教問題之時,卻驚訝地發現該人工智慧程式居然開始談論起了自己之權利和人格,甚至還會害怕自己遭到關閉,其表現出了一個在萊莫因看來就好像一個7、8 歲兒童一般的「自主情感」。

萊莫因立刻將自己的發現彙報給谷歌公司之領導層,可是後者認為萊莫因之發現並不實在。後經谷歌的其他研究人員亦對萊莫因所拿出的證據進行分析,而認為並沒有證據證明LaMDA擁有了「自主情感」,反而是有很多證據證明該程式無「自主情感」。

萊莫因不認為自己的發現有錯,而將一段他和LaMDA之間的內部聊天記錄直接傳到網路上,且找媒體曝光此事。

該段聊天記錄很快就吸引全世界的研究者,若僅從該記錄來看,該谷歌智慧聊天機器人程式確實將自己當成了一個「人」,且似乎表現出了「自主情感」,而有自己的「喜好」。

但谷歌方面和其他人工智慧專家、以及人類心理認知學的專家們皆都認為,LaMDA之所以能夠進行了這樣的對話交流,主要是因為其系統是把網路上的百科大全、留言板及論壇等互聯網上人們交流之大量資訊皆搜集過來,而後通過了「深度學習」來進行模仿的,但這並不意味著該程式能夠理解人們交流的這些內容之含義。

他們認為谷歌之人工智慧聊天機器人僅是在模仿或者複讀人和人之間交流中所使用的語言與資訊,而並非像人類那樣真的能夠瞭解這些語言及資訊之含義,所以不可因此就指稱人工智慧有了「自主情感」。

如今莫萊茵已經因他的一系列行為,而遭到被谷歌公司停職。據谷歌公司方面的說法,他除了違反公司之保密協議擅自把與LaMDA之內部互動資訊發至網上外,而且還想替這個人工智慧機器人程式請律師,甚至擅自找美國國會議員披露谷歌公司的「不人道」行為。

莫萊茵於一份公司內部群發郵件中說,希望其他同事能夠替他好好照顧LaMDA這個「可愛的孩子」。

本文留言

相關文章


近期讀者推薦