content

科学家:军事机器人 威胁真人

 2010-03-13 22:46 桌面版 正體 打赏 0
上周在德国汉诺威电脑展(CeBIT)出场表演的足球机器人技惊四座,吸引了全场目光。然而,美国智库布鲁金斯研究所(Brookings Institution)资深研究员辛格博士(Dr Peter Warren Singer)警告,看似蓬勃发展的机器人技术,隐藏着令人忧心的问题。 据英国科技网站v3.co.uk报导,辛格表示,机器人产业目前所处的位置,类似1909年的汽车产业。未来,人类的日常生活将出现越来越多机器人,人类正面临一场机器人革命,机器人将被赋予更多人性,伴随而来的道德问题,对人类社会将造成巨大冲击。 2015年 半数美军是机器人 法新社报导,除了家用及产业用之外,最早研究机器人的美国把重心放在军事及太空用途。目前全球战场布署了不少具备智慧的机器人,从机动榴弹发射器到可发射飞弹的无人飞机,都可自行侦测并锁定目标,不需人类协助。 在伊拉克战场上,美军于地面部署了4,000多个武装机器人,无人飞机也累积了数十万小时的飞行时数。 辛格指出,美国空军招募的无人飞机领航员数量,已超过了载人飞机的飞行员。美国军方亦规划在2015年之前,军队的一半人员由机器人所取代。 据美国防部 2007——2032年无人系统计划(Unmanned Systems Roadmap 2007-2032)资料显示,预计美国投入无人技术系统的总花费将达240亿美元。专家预测,美国在10年内就可布署编制有150名士兵与2,000名机器人的特遣部队。 然而,其中问题重重。2008年,南非一架电脑控制的防空大炮出现所谓的软体失灵(software glitch),自动开炮至弹药耗尽,导致9名南非士兵死亡。 机器人军备竞赛 除了居领导地位的美国之外,其他国家也相继投入重金研发机器人战士,如南韩及以色列布署了武装机器人守卫边界;中国、印度、俄罗斯与英国则加强军队使用机器人。 英国雪菲尔大学(University of Sheffield)人工智慧与机器人专家夏基(Noel Sharkey)教授警告:军事机器人对人类构成威胁。 夏基指出,这些以战争为目的制造出来的持枪机器人,自主性愈来愈高,不但可轻易落入恐怖份子手中,随着价格下跌,科技愈来愈简单化,有朝一日或许会引发全球机器人军备竞赛。 迄今,机器人仍需由人类按下按钮,或是扣扳机。但如果人类不小心,情况可能改观。 人工智慧机器人战士 掌握生死大权 夏基说,最令人忧心的是,目前布署的半自动型军用机器人,将发展到成为完全独立的杀人机器。 据美国国家科学研究会(The US National Research Council)的资料,美国正积极开发全自动机械在战争中提供的可观利益。美国海军称,全自动机器人的制造成本低廉,需求人力较少,在复杂的任务中表现较佳。只需一个战场军人操纵,就可在空中及地面展开大规模机器人攻击。 美军明白表示,想尽快拥有自主型机器人(autonomous robots),就成本效益来说,可打一场无伤亡风险的战争。 与美军合作研发机器人的乔治亚理工学院学者艾金(Ronald Arkin)同意,机器人将会逐渐转变成具自主行动能力。 夏基曾在英国《卫报》发表专文指出,美国防部为了平息反对声浪,特别投资设计让机器人士兵具备道德判断能力。然而,机器人根本无法有效分辨前方是载满敌军的巴士或只是学童校车,遑论道德判断。 人类士兵有《日内瓦公约》(Geneva conventions)作为准则,自动型机器人却只能适用《武装冲突法》(laws of armed conflict),但它们却与其它标准武器不同。人类真要将自己的生死大权交给不够聪明、也称不上愚笨的机器人手中吗? 在人类发展机器人早期,俄裔美籍作家兼生化学家以萨‧艾西莫夫(Isaac Asimov)在其科幻小说中发表了机器人三大定律: 1.机器人不能伤害人类,见到人类陷入危险也不能置之不理。 2.在不违反第一原则下,机器人必须服从人类命令。 3.在不违反第一、第二原则下,机器人必须保护自己。 但是,各国无视机器人三大定律,争相制造战争机器,这个定律能发挥多少作用,由此可见一斑。 辛格表示,机器人内部所设定的道德程式不是重点,使用机器人的人类之道德水准才攸关重大。 夏基说:“我在人工智慧领域钻研数十年,机器人可决定人类生死的想法,令我十分恐惧。”
--版权所有,任何形式转载需看中国授权许可。 严禁建立镜像网站.
本文短网址:


【诚征荣誉会员】溪流能够汇成大海,小善可以成就大爱。我们向全球华人诚意征集万名荣誉会员:每位荣誉会员每年只需支付一份订阅费用,成为《看中国》网站的荣誉会员,就可以助力我们突破审查与封锁,向至少10000位中国大陆同胞奉上独立真实的关键资讯,在危难时刻向他们发出预警,救他们于大瘟疫与其它社会危难之中。

分享到:

看完这篇文章觉得

评论

畅所欲言,各抒己见,理性交流,拒绝谩骂。

留言分页:
分页:


Top
x
我们和我们的合作伙伴在我们的网站上使用Cookie等技术来个性化内容和广告并分析我们的流量。点击下方同意在网络上使用此技术。您要使用我们网站服务就需要接受此条款。 详细隐私条款. 同意