content

霍金和馬斯克:人工智慧可製造戰爭和殺人(圖)

 2015-07-29 05:23 桌面版 简体 打賞 1
    小字


霍金教授(Professor Stephen Hawking,左)和Tesla公司的創始人伊隆•馬斯克(Elon Musk)。(圖片來源:合成圖片)

【看中國2015年07月29日訊】(看中國記者許家棟編譯)據英國《每日郵報》報導,7月28日,霍金教授(Professor Stephen Hawking)和Tesla公司的創始人、領導1000名機器人專家的伊隆•馬斯克(Elon Musk)在一封公開信上警告說,今天的自動智能武器將會成為明天的卡拉什尼科夫衝鋒槍(Kalashnikovs),變得無處不在和非常廉價。且人工智慧可以有許多方法製造戰爭,甚至不需要創造新的工具就可以殺人。

他們在這封措辭強烈的信中呼籲,應該完全禁止「超出人控制的進攻性自動武器」,以防止全球性的AI軍備競賽。

智能武器將會變得無處不在

這兩位專家指出,不同於核武器,人工智慧武器不需要昂貴或難以取得的原材料。這意味著人工智慧武器能夠被所有軍事強國大批量生產,從而會變得無處不在和非常廉價。

這封信稱:「如果有任何軍事大國推動人工智慧武器的發展,一個全球性的軍備競賽幾乎是不可避免的。」

專家們預測,智能武器出現在黑市和恐怖份子、獨裁者和軍閥手中也只會是一個時間問題。部署人工智慧技術系統已經在未來幾年就會成為可能,而不需要幾十年。

軍方進行人工智慧軍備競賽不利於人類

這封信稱:「對完成一些任務,如暗殺、破壞國家穩定、征服其它國家和選擇性屠殺一個特定族群來說,自動武器的作用顯得很理想。因此,我們認為,軍方進行人工智慧軍備競賽將不會有利於人類。」

這封信補充說,人工智慧可以有許多方法製造戰爭,甚至不需要創造新的工具就可以殺人。

主要簽署馬斯克和霍金教授信的人包括,蘋果聯合創始人史蒂夫•沃茲尼亞克(Steve Wozniak)、Skype的聯合創始人讓•塔林(Jaan Talinn)和語言學家兼社會活動家諾姆•喬姆斯基(Noam Chomsky)

為了人類未來安全 需禁止攻擊性自動武器

「生命未來研究所」(Future of Life Institute)的托比•沃爾什(Toby Walsh)教授稱:「很多在我們這個領域的頂尖科學家已經簽上了自己的名字。我們希望更多人能夠認識到這個可怕的課題,毫無疑問,這個課題將會對整個人類產生惡劣的影響。我們可以在早期階段就制止它,或者我們可以袖手旁觀,見證在新時代發生戰爭。坦率地說,我們並不希望看到這些。我們的行動很簡單:就是禁止攻擊性自動武器,只有這樣做,才能確保我們所有人擁有一個安全的未來。」

這封信與「生命未來研究所」的文件今天一起被提交給在布宜諾斯艾利斯舉行的2015年「國際人工智慧聯合會議」(International Joint Conference on Artificial Intelligence)。

今年早些時候,同一組織曾經發布一封公開信警告民眾,使用人工智慧的危險性。該公開信文件稱,目前的一個「廣泛共識」就是:人工智慧研究正在取得良好進展,將會對社會的影響越來越大。

這封信警告說:「我們的人工智慧系統必須做我們希望他們做的事情。」

今年早些時候,馬斯克就曾經警告說,使用人工智慧控制的機器可能會導致「相當嚴重的危險」後果,而且可能會在短短五年之內。

来源:看中國 --版權所有,任何形式轉載需看中國授權許可。 嚴禁建立鏡像網站。
本文短網址:


【誠徵榮譽會員】溪流能夠匯成大海,小善可以成就大愛。我們向全球華人誠意徵集萬名榮譽會員:每位榮譽會員每年只需支付一份訂閱費用,成為《看中國》網站的榮譽會員,就可以助力我們突破審查與封鎖,向至少10000位中國大陸同胞奉上獨立真實的關鍵資訊, 在危難時刻向他們發出預警,救他們於大瘟疫與其它社會危難之中。

分享到:

看完那這篇文章覺得

評論

暢所欲言,各抒己見,理性交流,拒絕謾罵。

留言分頁:
分頁:


x
我們和我們的合作夥伴在我們的網站上使用Cookie等技術來個性化內容和廣告並分析我們的流量。點擊下方同意在網路上使用此技術。您要使用我們網站服務就需要接受此條款。 詳細隱私條款. 同意