军火商与科学家 都反人工智慧武器

2016-1-27 18:51:11 分类:M8娱乐城下载 浏览:91 打印

M8娱乐城快讯:

没有透过人为控制机制的机器,若故障将有十足的毁灭性,不适合上战场。英国航太与国防集团总裁罗杰卡尔公开发言反对人工智慧AI武器,但现场包括一向反AI武器的加州大学柏克莱分校计算科学教授罗素表示,真正该关切的是这些机器是否遵循战争法则?

根据《法新社》报导,百位科学家、大学教授与军火商19到23日在瑞士冰雪覆盖的滑雪胜地达佛斯举行一场关于人工智慧机器人研讨会,来自德国的联合国高级裁军事务代表AngelaKane说,许多国家及国际社会的当权者,仍不清楚人工智慧武器到底意味着什么?

机器自主将成灾难

科学家表示,发展自主判断武器将把战争带进危险的新世纪,罗素表示,我们谈论的不是有人操控的无人机,而是不靠人类操控的自主性战争机器人。

西英格兰大学电子工程教授AlanWinfield说,作战决策过程中若排除人类环节将导致灾难性后果,这意味着人类被剥夺了道德责任,再者,人工智慧武器的行为也将难以预测,因为当它被放在一个混乱的环境中,行为就会变得混乱。

罗杰卡尔也同意这个观点,他警告,不论在战时或平时,一个人若从决策中排除了道德判断及人类行为规范,就会变得难以理解,更何况是机器人。罗杰卡尔这就是为什么机器仍需人机连线,像母亲与孩子的脐带相连,因为决定何时动用它们与何时该停止的决策都一样重要。

违反道德应禁AI

除了面临AI机器人与人类发生种族竞争以外,罗素认为真正该关切的是,这些机器是否遵循战争法则?机器人能否区别平民与军人?反抗军、叛乱份子还是民兵?它能否知道不该去杀一个从飞机跳伞逃脱的飞行员?

罗素表示,我是基于道德理由反对人工智慧武器,因为美国曾基于生物武器可能有天伤害到所有的人,而宣布放弃发展生物武器,希望有天它们也可以放弃对人工智慧武器。AngelaKane说,世界各国已渐渐采取措施,以保护人类免受致命技术的荼害,但仍嫌晚。