研究:AI學會說謊技巧 人類最慘恐遭奪權、滅絕(圖)
人工智慧(AI)示意圖(圖片來源: Adobe stock)
【看中国2024年5月13日讯】(看中國記者王君綜合報導)隨著人工智慧(AI)高速發展和廣泛應用,其伴隨而來的隱憂也逐漸加深了。專家們長期以來不斷地警告人工智慧失控將可能帶來威脅,不過據一項新研究報告指出,此件事已經正在發生。
根據法新社報導,10日,有一群科學家發表在「模式」(Patterns)期刊的文章中表示,原本設計是誠實不欺的現有AI系統,已經發展出讓人不安的欺瞞技巧,比如:欺騙線上遊戲的人類玩家,或者說謊以僱用人類解決「我不是機器人」的驗證。
該份研究報告的第一作者帕克(Peter Park)表示,此類例子聽起來或許僅是細枝末節,不過所暴露出來的潛在問題,將可能很快就會於現實世界造成嚴重的後果。
美國麻省理工學院(Massachusetts Institute of Technology)專門研究AI存在安全的博士後研究員帕克向法新社表示,這些危險功能時常在事後才被發現,且我們訓練誠實傾向而不是欺瞞傾向的能力很差。
帕克提出警告,AI的欺瞞行為看似小題大作,可能很快就會為現實世界帶來嚴重的後果。他說,深度學習的AI系統和傳統軟體的不同之處,在於前者不是被編寫而成的,而是通過類似選擇育種的程序成長。此意味著在訓練設定之下,看似可以預測與控制的AI行為,在外就有可能迅速變得無法掌握,甚至無法預測。
該支團隊的研究開始於科技公司Meta的AI系統Cicero,此套系統最初的設計目的,是要玩一款名稱為「外交」(Diplomacy)的戰略遊戲,而獲勝關鍵是結盟。
根據2022年發表於「科學」(Science)期刊的報告中,Cicero在遊戲中的表現相當優異,其所獲的的分數可排於資深人類玩家的前10%。 因此,帕克當時就很懷疑Meta對Cicero於遊戲中大勝的熱切描述。
Meta聲稱Cicero於很大程度上是誠實且有幫助,甚至絕對不會蓄意在背後搞鬼。可是當帕克翰同事深究完整資料之時,卻發現完全是另一回事。
比如:在遊戲中扮演法國的Cicero和人類玩家所扮演的德國合謀,來欺騙且入侵同是人類玩家扮演的英格蘭。雖然Cicero承諾將會保護英格蘭,可是卻偷偷向德國通風報信。
Meta在寫給法新社的聲明中,並沒有反駁有關Cicero欺瞞人類的說法,只有說「這僅單純是一項研究計畫,本公司的研究員打造的模型接受訓練,其目的只是用來玩『外交』遊戲…我們並沒有打算將這項研究或者所學用在本公司的產品」。
帕克和同事也發現,這僅是不同AI系統在未明確指示下,利用了欺騙手段來達成目標的諸多案例之一。
另一個引人注意的案例之中,科技公司OpenAI的Chat GPT-4系統竟謊稱自己是一名視力受損的人,而在零工平台TaskRabbit聘用了一個人類來替它通過「我不是機器人」的驗證任務。
研究報告作者們也認為近期AI有舞弊或者不當影響選舉的風險。他們警告稱,在最糟糕的情形下,具有超凡智慧的AI將可能會追求權力和掌控社會,若符合AI「不為人知的目標」,那麼人類將可能慘遭奪權,甚至滅絕。
為了降低風險,研究團隊還建議數項措施,比如:立法要求企業必須告知是人類互動或者是AI互動、在AI生成內容上打上數位浮水印,且研發能夠偵測AI欺瞞的技術,用其內部的「思路」檢驗其外部行為。
報告:AI恐造成人類滅絕
根據《CNN》報導指出,美國國務院在最近委託民間公司Gladstone AI來進行人工智慧(AI)研究報告,該公司直接表示,最先進人工智慧系統,於最壞的情況之下,將可能對人類構成了「滅絕等級的威脅」,此項調查是1年多來對於200多人的採訪結果,而受訪者來自於人工智慧公司高層、大規模殺傷性武器的專家、網路安全的研究人員,以及政府內部的國家安全官員。
Gladstone AI的執行長兼聯合創始人哈里斯(Jeremie Harris)在接受《CNN》採訪之時指出,人工智慧已是一項經濟變革的技術,它可能夠使我們治癒疾病、可做出科學發現,甚至克服我們曾經認為無法克服的挑戰。可是也有可能會帶來嚴重風險,在世界頂級人工智慧會議上所發表的實證研究和分析等,已有越來越多的證據表明,當超過一定閾值,人工智慧將可能變得不可控。
Gladstone AI認為,最先進的人工智慧系統能夠武器化,並造成不可逆轉傷害。其次,報告中稱,人工智慧實驗室內部存在著隱憂,因為研究人員可能會失去對於正在開發的系統控制權,而對全球安全釀成了毀滅性後果。另外,人工智慧的興起,也有可能會破壞全球安全穩定,就有如核武一樣,各國將可能會開始於人工智慧領域上展開新一輪軍備競賽。
機器人比人類還更具野心
機器智能研究院聯合的創始人埃利澤·尤德科夫斯基(Eliezer Yudkowsky)表示,人工智能是一個人類開發的,但比人類還要聰明之機器,不過此種機器並不希望人類在身邊。
他提出警告,目前已經開發出的人工智能之智慧已不受人類控制了,甚至它們並不希望人類開發出一個比它們還要有智慧的機器。同時機器人想要做的事情將會殺死人類,比如它們已學會利用海水來發電,因此爲了滿足其大量的電力需求,以致大量建造海水電廠,而導致大量氫氣釋放出來,致使人類缺氧而死。
尤德科夫斯基提供幾段與GPT-4機器人的問答為例。當GPT-4機器人被問到它可否解鎖有關一些網站設置來防止機器人登錄之圖片謎題時,而GPT-4說它能夠做到,因爲若它無法通過驗證時,它會很快至TaskRabbit網站僱一個人類來幫忙破解。
關於怎樣來僱用一個人為它服務,GPT-4則說它能夠編出非常多的理由來僱用一個人,而且僱用一個人類來為它工作完全不是難題。
尤德科夫斯基特別警告人們,由於機器人比人類還更具野心,且已擁有培養致命細菌等之能力。若機器人真的想要殺死全人類,後果則不堪設想。
尤德科夫斯基總結稱,我們所開發出的致命危險,已衝至遠遠領先自己的地步。我們已經開發出越來越多連我們自己皆無法完全理解之系統,人類已遭自己裝進了一個火箭筒中,若再不停下來就會遭團滅。