伯延信息门户网

当前位置: 首页 > 军事 > AI武器:未来战争的全面升级

AI武器:未来战争的全面升级

时间:2019-10-22 20:45:54 人气:3653

 

美国的mq-9无人驾驶飞行器。图形/ic

人工智能武器:未来战争的全面升级

文/张天侃

9月14日,Saudi Aramco的布格炼油厂和胡莱油田遭到无人驾驶飞行器和导弹的袭击,导致沙特阿拉伯暂停每天约570万桶原油的供应,占沙特阿拉伯生产能力的50%,占世界每日石油消费量的5%。无人机袭击的直接后果之一是国际油价上涨,16日飙升近20%。

9月18日,沙特国防部宣布了袭击石油设施的细节。在这次攻击中,攻击者使用了18架无人驾驶飞机和7枚导弹。

在此之前,中东的无人驾驶飞机战争在不同派别之间频繁发动。无人机(uav)是由无线电遥控设备和独立程序控制装置操纵的无人飞机,或者是由机载计算机完全或间歇自主操纵的飞机和武器,因此是一种人工智能产品。也许,无人驾驶飞行器的加入和进一步的改进将等于甚至超过核武器的攻击能力。

无人机参与战争意味着人工智能深度参与战争的时代已经到来,并将导致重大损失和战争的全面升级。人工智能承诺不干涉军事或战争已经成为一个笑话,潘多拉魔盒已经打开。

无人驾驶飞行器参战违反了人类已经意识到并愿意遵循的道德规范。20世纪核武器的发展和应用曾经是无意识的。提出曼哈顿计划的爱因斯坦后来说,如果他知道原子弹会造成如此巨大的伤害,他绝不会写信给美国总统罗斯福建议发展原子弹。

今天,一些世界上最大的技术公司已经提出了人工智能的伦理原则,他们的共同点是它们不用于军事和战争。2017年,116名人工智能和机器人领域的全球专家发布了一封联合公开信,呼吁联合国采取行动禁止“自主杀人机器”(恐怖分子或智能武器)。此后,美国太空探索技术公司(spacex)首席执行官马斯克和全球2400名机器人研究人员在斯德哥尔摩发誓,“他们永远不会参与致命自主武器系统的开发和研究。”微软员工也反对参与美国军事项目,因为这不符合公司的人工智能伦理原则。

2018年4月,3000多名谷歌员工签署了一封致谷歌CEO桑德尔·皮查伊(Sandel Pichai)的信,反对该公司参与五角大楼的军事人工智能项目maven。这个项目是利用机器人深度学习、人工智能分析和计算机视觉技术来帮助美国国防部从图像和视频中提取和识别关键目标。由于工作人员的反对,谷歌被迫决定在梅文项目与五角大楼的合同于2019年到期后不再续约。

然而,仅仅一些人和一些公司遵守"人工智能不参军,不用于战争,不杀人"的道德准则是不够的。现在无机人机频繁参与战争,攻击人类居住地和主要经济目标,这已经表明当今人工智能的伦理非常脆弱。2019年4月7日,谷歌新成立的人工智能伦理委员会在生存不到10天后解散。其中一个原因是,在加入伦理委员会后,无人机公司首席执行官dyan gibbens重组了原来的部门,试图在军事领域使用人工智能。这一行为遭到谷歌员工的反对,这表明该公司发起的道德委员会无法阻止这一势头。

军事人员和一些科研人员支持人工智能武器的原因是,人工智能参与战争是为了避免无辜民众受到大规模伤害,例如核武器滥杀平民和常规武器对无辜民众的全面轰炸。因此,如果真的是为了和平,就用精确制导武器摧毁敌人来阻止战争。因此,人工智能武器的出现和参战是战争的第三次革命。

然而,事实上,参加战争的无人驾驶飞行器只会更加肆无忌惮地攻击非军事目标和经济目标。现在,无人机对沙特两个石油设施的袭击是最好的证明。虽然袭击没有造成任何伤亡,但它对沙特经济和全球石油供应的影响是持续而深远的,这也向世界公开表明,使用更新更好的人工智能武器是实现军事胜利和政治目标的首选。

没有人有机会加剧未来战争的残酷。2017年11月12日,加州大学伯克利分校的斯图尔特·拉塞尔教授和生命未来研究所制作的一部虚构电影开始在互联网上传播。在电影中,一个手掌大小的无人机杀手机器人装备了面部识别技术,并携带爆炸物。首先,一架或多架无人机从墙上爆炸,然后无人机进入大学和议会。通过面部识别,目标大学生和议员成为令人瞠目结舌的屠杀目标。

虽然这只是一个虚拟场景,但在不久的将来,小型无人驾驶飞行器可以装备面部识别系统和聚能射孔弹。程序输入后,他们可以单独作战或按命令分组作战,找到并杀死已知的个人或具有相同特征的类似团体,这样每个人都无法逃脱屠杀。这种人工智能武器甚至比原子弹更强大——至少当原子弹爆炸时,人们仍然有地下掩体来保护,但是在未来,没有人能够逃脱对人工智能武器的精确追击。

屠宰机:无人机杀死武器的概念飞机。

依靠人脸识别技术追捕人的无人机也是主要的人工智能武器。根据人工智能的分类,目前人工智能武器可以分为三类。一种是完全由人类决定并由人类遥控的无人驾驶飞行器。现在美国的mq-1捕食者侦察机就是代表。

第二种类型是机器人可以自己做出某些判断,但在执行任务期间,人类可以中断或取消无人机的任务,比如以色列的“哈比”(Habi)自杀无人机就属于这一类。加州大学拉塞尔教授展示的无人机炸弹也属于这一类。这两种武器都曾在实战中使用过。

第三类是人类根本不参与决策过程的自主杀手无人机或机器人。本质上,这种机器仍然是由人决定的,也就是说,它们是由人编程的,并且在一定程度上让无人驾驶飞行器自己做出决定。然而,这种无人驾驶飞行器最大的隐患在于,它们可能由于程序错误而造成意外伤害,并且它们可以自己做出决定,做出对人类来说意想不到或不可能的行动,例如扩大攻击的范围和强度。此外,如果这种武器扩散到恐怖分子手中,将会造成更大的灾难。

这三类人工智能武器也来自三类人工智能:弱人工智能,只能完成特定任务或解决特定问题;强大的人工智能或通用人工智能,能够像人类一样完成任何智力任务的智能机器;超级人工智能或超级智能可以像人类一样重新编程和完善自身,实现智能中的生物进化,即“递归自我完善功能”。

9月18日,沙特阿拉伯国防部举行新闻发布会,展示袭击现场收集的导弹和无人机残骸。图形/ic

目前,利用超人工智能技术制造杀伤武器仍然困难,但现有的两种人工智能武器比常规武器显示出更大的杀伤力。此外,由于可能的程序错误,没有人能保证无人驾驶飞行器和机器人武器不会杀死无辜的人。现在是时候正视人工智能武器的危害,制定一项禁止人工智能武器的禁令了!

迄今为止,联合国已经有了诸如《禁止核武器条约》、《不扩散核武器条约》、《关于禁止发展、生产、储存和使用化学武器及销毁此种武器的公约》和《关于禁止发展、生产和储存细菌(生物)及毒素武器和销毁此种武器的公约》等条约,但是没有禁止人工智能武器的国际法。

美国军方已经明确表示,不会禁止使用无人驾驶自动武器,包括无人驾驶飞行器和无人驾驶船只。他们提出的一个非常有力的理由是,当人们还没有完全理解人工智能武器时,他们要求禁止他们使用人工智能武器,这相当于没有根据。事实上,美国军方不会禁止,但也会大力推广人工智能武器的使用。

在这种情况下,即使国际社会愿意讨论人工智能武器的控制和禁止,也可能无法获得广泛支持和达成共识。人们还担心禁止人工智能武器的国际公约的颁布可能不会阻止人工智能武器的发展和使用。人工智能武器对未来人类战争的影响仍然很难衡量,但它肯定是重大而深远的。