士兵在伊拉克北部城市哈维杰拆卸遥控爆炸物品探测机器人。传美国军方计划制造更先进的机器人士兵,且有美专家指出在战场机器人可以比人类士兵更遵守道德。
美国科学家提出6大策略防止机器人威胁人类
据英国《每日电讯报》11月30日报道,美国国防部再次斥巨额投资并邀请英国专家协助开发战争机器人。但与以往不同的是,这次他们要制造的是“机器人战士”,这些“战士”不会像它们的人类战友那样触犯战争罪。
到2010年为止,美国在战争机器人研究项目上的投资将达到40亿美元。美国陆军和海军同时雇佣了道德规范领域的英国专家,协助研制不会违反《日内瓦公约》的新型战争机器。这种机器人既能够自主辨别何时、向谁开枪,也不是像电影《终结者》那样超道德的杀人机器。
印第安那大学哲学家艾伦教授刚刚出版了一本新书,名为《道德机器:帮机器人分辨正误》。在这本书中,他详细阐述了如何将道德伦理“灌输”给机器人。佐治亚理工大学计算机专家阿尔金教授目前正在为美军研制应用于战争机器人的计算机软件,他写了一份相关报告。在这份报告中,他表示,尽管没有“在战场上绝对按道德行事”的机器人,但它们可以“比人类表现得更加合乎伦理”。这是因为机器人“不需要保护自己的身体,也没有感情,因而不会对战场上不断变化的情形发生情绪化反应”。这样,机器人战士既不会因恐惧心理作祟而不敢奔赴前线,也不会在抓获对方战俘后便出于报复心理而对其严刑拷打。
尽管目前已有大量的机器人在伊拉克和阿富汗战场上“服役”,但这一代机器人都是由人工进行远程控制的。而新一代的机器人将能够发现攻击的目标及其所使用的武器,区分敌方目标是武器火力还是武装士兵,并能够识别救护车和平民这样的软目标。专家会将符合《日内瓦公约》的战争规则写入到软件中,然后将它装到机器人体内,这样机器人就可以知道什么时候开枪了。
然而,一些分析人士担心,制造完全不犯错误的机器人是不可能的。设菲尔德大学的沙尔奇教授就是这一计划的主要批评者之一。他说:“听到这个设想我不禁打了个寒颤。我已经在人工智能领域工作多年,但让机器人来决定人类的终结,这种想法太可怕了。”