近年来,国际形势动荡,局部冲突频发,与之而来的,是一些自主武器系统的出现,这些武器系统可以在没有人为干预的情况下选择目标,并自主决定是否发起攻击。

自主武器系统引起了全世界的高度关注,这些带攻击属性的机器人带来了严重的人道主义、法律、道德和安全问题,一些国际组织不断呼吁限制甚至彻底禁止其使用,联合国为此在11月通过了关于这些武器系统的第一项决议。

据联合国官网披露,2023年10月5日,联合国发布声明,联合国秘书长和红十字国际委员会主席联合呼吁各国对自主武器系统制定新的禁令和限制。

声明中认为,战争机器人的发展和扩散有可能会导致战争的方式发生显著改变,加剧国际紧张局势和全球不稳定因素,战争机器人通过营造军队和平民面临的风险降低的印象,会降低参与冲突的门槛,从而无意中升级暴力。


什么是战争机器人?

战争机器人是自主武器系统的另一个称呼,是根据传感器输入而不是人类输入选择目标并向其开火的系统。战争机器人的开发已经经过了一段时间,现在这些拥有自主权的武器系统已经出现在战场上了。

关于战争机器人的认定,这个界限有点微妙,联合国也曾发布相关界定文件,参考了法律政府专家组提出的这些系统的特征。

在利比亚使用的一些系统和在纳戈尔诺-卡拉巴赫亚美尼亚和阿塞拜疆之间的种族和领土冲突中使用的其他系统显示出显着的自主权,因为它们可以自行操作来识别目标并进行攻击。它们被称为徘徊弹药,拥有较高的自主性,它们可以悬停在战场上空等待攻击,直到感知到目标。


战争机器人会带来法律与伦理问题

战争机器人的出现,伦理问题变得尤为严重,将生死决策委托给机器系统是越过了道德的红线的,这会使暴力失去了人性;此外,机器人存在算法偏见的风险,它可能基于偏见选择目标,引发种族、性别、残疾等歧视问题,成为人权界极为担忧的一点。

同时,自主武器系统引发了许多法律问题,包括系统无法区分士兵和平民、缺乏人类判断力、问责制的缺失等,特别是在战斗人员与平民混杂的环境中,机器系统难以进行有效的区分。

现代战争中,人们普遍遵循着一些国际公约和原则,但机器人对这些条例并没有很强的认知能力。

两地发生军事冲突时,会遵循《日内瓦公约》和《附加议定书》、国际人权法等,遵循比例原则、军事必要性、区分原则。这些协议中,无不强调冲突中对军事目标和平民对象的区分,强调采取军事行动时确保使用的武力是合理和适当的,但对于机器人而言,他的眼里只会分辨出人,极大可能造成无差别攻击。


联合国通过56号决议,并呼吁2026年完成立法

有人说,联合国等国际组织为什么不阻止这样的武器。

事实上,联合国等国际组织本身并没有直接的执法权,其成员国在联合国框架内通过协商和合作来解决问题,但联合国在维护国际和平与安全方面有一定的机制和角色。

联合国主要的维和工具是联合国安全理事会,安理会负有维护国际和平与安全的责任,它可以采取一系列措施,包括对冲突地区的制裁、实施军事行动等,并可以授权派遣维和部队,以协助冲突各方的和平进程。

同时,联合国可以在全球层面上制定和推动一些指导性的国际政策和协议,以应对全球性问题和挑战。

对于自主武器,联合国一直保持着反对的态度。2018年,联合国大会通过了一项决议,呼吁各国在开发和使用自主武器系统时遵循国际人道法的原则,并强调了国际社会需要就自主武器系统制定共同的规范和准则。

自2018年以来,联合国秘书长安东尼奥·古特雷斯一直坚称,致命性自主武器系统在政治上不可接受,在道义上令人反感,并呼吁根据国际法予以禁止。

秘书长在其2023年和平新议程中重申了这一呼吁,建议各国在2026年之前缔结一项具有法律约束力的文书,禁止在没有人类控制或监督的情况下发挥作用且不能按照以下规定使用的致命自主武器系统。

2023年11月1日,联合国大会第一委员会通过了有史以来第一个关于自主武器的决议,强调"国际社会迫切需要解决自主武器系统带来的挑战和关切"。

该决议由奥地利和43个共同提案国提出,被称为56号决议,决议中承认新兴技术的快速发展,并提到军事领域的新技术应用(包括与人工智能相关的技术应用)面临的严重挑战和担忧,认为自主武器系统对全球安全以及区域和国际稳定可能产生负面后果和影响,包括出现军备竞赛的风险、降低冲突和扩散的门槛等。

据了解,有164个国家在联合国大会上投赞成票,反对此类自主战争机器人,5个国家投反对票,8票弃权。