content

科學家:軍事機器人 威脅真人

 2010-03-13 22:46 桌面版 简体 打賞 0
    小字
上週在德國漢諾威電腦展(CeBIT)出場表演的足球機器人技驚四座,吸引了全場目光。然而,美國智庫布魯金斯研究所(Brookings Institution)資深研究員辛格博士(Dr Peter Warren Singer)警告,看似蓬勃發展的機器人技術,隱藏著令人憂心的問題。 據英國科技網站v3.co.uk報導,辛格表示,機器人產業目前所處的位置,類似1909年的汽車產業。未來,人類的日常生活將出現越來越多機器人,人類正面臨一場機器人革命,機器人將被賦予更多人性,伴隨而來的道德問題,對人類社會將造成巨大衝擊。 2015年 半數美軍是機器人 法新社報導,除了家用及產業用之外,最早研究機器人的美國把重心放在軍事及太空用途。目前全球戰場佈署了不少具備智慧的機器人,從機動榴彈發射器到可發射飛彈的無人飛機,都可自行偵測並鎖定目標,不需人類協助。 在伊拉克戰場上,美軍於地面部署了4,000多個武裝機器人,無人飛機也累積了數十萬小時的飛行時數。 辛格指出,美國空軍招募的無人飛機領航員數量,已超過了載人飛機的飛行員。美國軍方亦規劃在2015年之前,軍隊的一半人員由機器人所取代。 據美國防部 2007——2032年無人系統計畫(Unmanned Systems Roadmap 2007-2032)資料顯示,預計美國投入無人技術系統的總花費將達240億美元。專家預測,美國在10年內就可佈署編製有150名士兵與2,000名機器人的特遣部隊。 然而,其中問題重重。2008年,南非一架電腦控制的防空大炮出現所謂的軟體失靈(software glitch),自動開炮至彈藥耗盡,導致9名南非士兵死亡。 機器人軍備競賽 除了居領導地位的美國之外,其他國家也相繼投入重金研發機器人戰士,如南韓及以色列佈署了武裝機器人守衛邊界;中國、印度、俄羅斯與英國則加強軍隊使用機器人。 英國雪菲爾大學(University of Sheffield)人工智慧與機器人專家夏基(Noel Sharkey)教授警告:軍事機器人對人類構成威脅。 夏基指出,這些以戰爭為目的製造出來的持槍機器人,自主性愈來愈高,不但可輕易落入恐怖份子手中,隨著價格下跌,科技愈來愈簡單化,有朝一日或許會引發全球機器人軍備競賽。 迄今,機器人仍需由人類按下按鈕,或是扣扳機。但如果人類不小心,情況可能改觀。 人工智慧機器人戰士 掌握生死大權 夏基說,最令人憂心的是,目前佈署的半自動型軍用機器人,將發展到成為完全獨立的殺人機器。 據美國國家科學研究會(The US National Research Council)的資料,美國正積極開發全自動機械在戰爭中提供的可觀利益。美國海軍稱,全自動機器人的製造成本低廉,需求人力較少,在複雜的任務中表現較佳。只需一個戰場軍人操縱,就可在空中及地面展開大規模機器人攻擊。 美軍明白表示,想盡快擁有自主型機器人(autonomous robots),就成本效益來說,可打一場無傷亡風險的戰爭。 與美軍合作研發機器人的喬治亞理工學院學者艾金(Ronald Arkin)同意,機器人將會逐漸轉變成具自主行動能力。 夏基曾在英國《衛報》發表專文指出,美國防部為了平息反對聲浪,特別投資設計讓機器人士兵具備道德判斷能力。然而,機器人根本無法有效分辨前方是載滿敵軍的巴士或只是學童校車,遑論道德判斷。 人類士兵有《日內瓦公約》(Geneva conventions)作為準則,自動型機器人卻只能適用《武裝衝突法》(laws of armed conflict),但它們卻與其它標準武器不同。人類真要將自己的生死大權交給不夠聰明、也稱不上愚笨的機器人手中嗎? 在人類發展機器人早期,俄裔美籍作家兼生化學家以薩‧艾西莫夫(Isaac Asimov)在其科幻小說中發表了機器人三大定律: 1.機器人不能傷害人類,見到人類陷入危險也不能置之不理。 2.在不違反第一原則下,機器人必須服從人類命令。 3.在不違反第一、第二原則下,機器人必須保護自己。 但是,各國無視機器人三大定律,爭相製造戰爭機器,這個定律能發揮多少作用,由此可見一斑。 辛格表示,機器人內部所設定的道德程式不是重點,使用機器人的人類之道德水準才攸關重大。 夏基說:「我在人工智慧領域鑽研數十年,機器人可決定人類生死的想法,令我十分恐懼。」
--版權所有,任何形式轉載需看中國授權許可。 嚴禁建立鏡像網站。
本文短網址:


【誠徵榮譽會員】溪流能夠匯成大海,小善可以成就大愛。我們向全球華人誠意徵集萬名榮譽會員:每位榮譽會員每年只需支付一份訂閱費用,成為《看中國》網站的榮譽會員,就可以助力我們突破審查與封鎖,向至少10000位中國大陸同胞奉上獨立真實的關鍵資訊, 在危難時刻向他們發出預警,救他們於大瘟疫與其它社會危難之中。

分享到:

看完那這篇文章覺得

評論

暢所欲言,各抒己見,理性交流,拒絕謾罵。

留言分頁:
分頁:


x
我們和我們的合作夥伴在我們的網站上使用Cookie等技術來個性化內容和廣告並分析我們的流量。點擊下方同意在網路上使用此技術。您要使用我們網站服務就需要接受此條款。 詳細隱私條款. 同意