上周在德国汉诺威电脑展(CeBIT)出场表演的足球机器人技惊四座,吸引了全场目光。然而,美国智库布鲁金斯研究所(Brookings Institution)资深研究员辛格博士(Dr Peter Warren Singer)警告,看似蓬勃发展的机器人技术,隐藏着令人忧心的问题。
据英国科技网站v3.co.uk报导,辛格表示,机器人产业目前所处的位置,类似1909年的汽车产业。未来,人类的日常生活将出现越来越多机器人,人类正面临一场机器人革命,机器人将被赋予更多人性,伴随而来的道德问题,对人类社会将造成巨大冲击。
2015年 半数美军是机器人
法新社报导,除了家用及产业用之外,最早研究机器人的美国把重心放在军事及太空用途。目前全球战场布署了不少具备智慧的机器人,从机动榴弹发射器到可发射飞弹的无人飞机,都可自行侦测并锁定目标,不需人类协助。
在伊拉克战场上,美军于地面部署了4,000多个武装机器人,无人飞机也累积了数十万小时的飞行时数。
辛格指出,美国空军招募的无人飞机领航员数量,已超过了载人飞机的飞行员。美国军方亦规划在2015年之前,军队的一半人员由机器人所取代。
据美国防部 2007——2032年无人系统计划(Unmanned Systems Roadmap 2007-2032)资料显示,预计美国投入无人技术系统的总花费将达240亿美元。专家预测,美国在10年内就可布署编制有150名士兵与2,000名机器人的特遣部队。
然而,其中问题重重。2008年,南非一架电脑控制的防空大炮出现所谓的软体失灵(software glitch),自动开炮至弹药耗尽,导致9名南非士兵死亡。
机器人军备竞赛
除了居领导地位的美国之外,其他国家也相继投入重金研发机器人战士,如南韩及以色列布署了武装机器人守卫边界;中国、印度、俄罗斯与英国则加强军队使用机器人。
英国雪菲尔大学(University of Sheffield)人工智慧与机器人专家夏基(Noel Sharkey)教授警告:军事机器人对人类构成威胁。
夏基指出,这些以战争为目的制造出来的持枪机器人,自主性愈来愈高,不但可轻易落入恐怖份子手中,随着价格下跌,科技愈来愈简单化,有朝一日或许会引发全球机器人军备竞赛。
迄今,机器人仍需由人类按下按钮,或是扣扳机。但如果人类不小心,情况可能改观。
人工智慧机器人战士 掌握生死大权
夏基说,最令人忧心的是,目前布署的半自动型军用机器人,将发展到成为完全独立的杀人机器。
据美国国家科学研究会(The US National Research Council)的资料,美国正积极开发全自动机械在战争中提供的可观利益。美国海军称,全自动机器人的制造成本低廉,需求人力较少,在复杂的任务中表现较佳。只需一个战场军人操纵,就可在空中及地面展开大规模机器人攻击。
美军明白表示,想尽快拥有自主型机器人(autonomous robots),就成本效益来说,可打一场无伤亡风险的战争。
与美军合作研发机器人的乔治亚理工学院学者艾金(Ronald Arkin)同意,机器人将会逐渐转变成具自主行动能力。
夏基曾在英国《卫报》发表专文指出,美国防部为了平息反对声浪,特别投资设计让机器人士兵具备道德判断能力。然而,机器人根本无法有效分辨前方是载满敌军的巴士或只是学童校车,遑论道德判断。
人类士兵有《日内瓦公约》(Geneva conventions)作为准则,自动型机器人却只能适用《武装冲突法》(laws of armed conflict),但它们却与其它标准武器不同。人类真要将自己的生死大权交给不够聪明、也称不上愚笨的机器人手中吗?
在人类发展机器人早期,俄裔美籍作家兼生化学家以萨‧艾西莫夫(Isaac Asimov)在其科幻小说中发表了机器人三大定律:
1.机器人不能伤害人类,见到人类陷入危险也不能置之不理。
2.在不违反第一原则下,机器人必须服从人类命令。
3.在不违反第一、第二原则下,机器人必须保护自己。
但是,各国无视机器人三大定律,争相制造战争机器,这个定律能发挥多少作用,由此可见一斑。
辛格表示,机器人内部所设定的道德程式不是重点,使用机器人的人类之道德水准才攸关重大。
夏基说:“我在人工智慧领域钻研数十年,机器人可决定人类生死的想法,令我十分恐惧。”
严禁建立镜像网站.
--版权所有,任何形式转载需看中国授权许可。 本文短网址:
- 关键字搜索:
- 科学
看完这篇文章觉得
排序