霍金和馬斯克:人工智慧可製造戰爭和殺人(圖)


霍金教授(Professor Stephen Hawking,左)和Tesla公司的創始人伊隆•馬斯克(Elon Musk)。(圖片來源:合成圖片)

【看中國2015年07月29日訊】(看中國記者許家棟編譯)據英國《每日郵報》報導,7月28日,霍金教授(Professor Stephen Hawking)和Tesla公司的創始人、領導1000名機器人專家的伊隆•馬斯克(Elon Musk)在一封公開信上警告說,今天的自動智能武器將會成為明天的卡拉什尼科夫衝鋒槍(Kalashnikovs),變得無處不在和非常廉價。且人工智慧可以有許多方法製造戰爭,甚至不需要創造新的工具就可以殺人。

他們在這封措辭強烈的信中呼籲,應該完全禁止「超出人控制的進攻性自動武器」,以防止全球性的AI軍備競賽。

智能武器將會變得無處不在

這兩位專家指出,不同於核武器,人工智慧武器不需要昂貴或難以取得的原材料。這意味著人工智慧武器能夠被所有軍事強國大批量生產,從而會變得無處不在和非常廉價。

這封信稱:「如果有任何軍事大國推動人工智慧武器的發展,一個全球性的軍備競賽幾乎是不可避免的。」

專家們預測,智能武器出現在黑市和恐怖份子、獨裁者和軍閥手中也只會是一個時間問題。部署人工智慧技術系統已經在未來幾年就會成為可能,而不需要幾十年。

軍方進行人工智慧軍備競賽不利於人類

這封信稱:「對完成一些任務,如暗殺、破壞國家穩定、征服其它國家和選擇性屠殺一個特定族群來說,自動武器的作用顯得很理想。因此,我們認為,軍方進行人工智慧軍備競賽將不會有利於人類。」

這封信補充說,人工智慧可以有許多方法製造戰爭,甚至不需要創造新的工具就可以殺人。

主要簽署馬斯克和霍金教授信的人包括,蘋果聯合創始人史蒂夫•沃茲尼亞克(Steve Wozniak)、Skype的聯合創始人讓•塔林(Jaan Talinn)和語言學家兼社會活動家諾姆•喬姆斯基(Noam Chomsky)

為了人類未來安全 需禁止攻擊性自動武器

「生命未來研究所」(Future of Life Institute)的托比•沃爾什(Toby Walsh)教授稱:「很多在我們這個領域的頂尖科學家已經簽上了自己的名字。我們希望更多人能夠認識到這個可怕的課題,毫無疑問,這個課題將會對整個人類產生惡劣的影響。我們可以在早期階段就制止它,或者我們可以袖手旁觀,見證在新時代發生戰爭。坦率地說,我們並不希望看到這些。我們的行動很簡單:就是禁止攻擊性自動武器,只有這樣做,才能確保我們所有人擁有一個安全的未來。」

這封信與「生命未來研究所」的文件今天一起被提交給在布宜諾斯艾利斯舉行的2015年「國際人工智慧聯合會議」(International Joint Conference on Artificial Intelligence)。

今年早些時候,同一組織曾經發布一封公開信警告民眾,使用人工智慧的危險性。該公開信文件稱,目前的一個「廣泛共識」就是:人工智慧研究正在取得良好進展,將會對社會的影響越來越大。

這封信警告說:「我們的人工智慧系統必須做我們希望他們做的事情。」

今年早些時候,馬斯克就曾經警告說,使用人工智慧控制的機器可能會導致「相當嚴重的危險」後果,而且可能會在短短五年之內。

本文留言

近期讀者推薦