Sea Hunter是一种无人驾驶水面自动飞行器,抵达珍珠港,参加2022年环太平洋(RIMPAC)项目。(Aiko Bongolan/美国海军)

加里·安德森是海军陆战队新兴威胁与机遇中心的创始主任。

我们知道俄罗斯人一直在试验人工智能(AI)的武器化,但我们没有看到决定性的证据表明他们在俄乌战争中以任何有意义的方式使用了人工智能。

这有几个潜在的原因。最有可能的是,他们还没有进步到足以信任人工智能在战场上独立使用的程度。考虑到这种技术对乌克兰平民的残暴,以及它们相对不受阻碍地使用无差别的火炮和导弹打击,最不可能的是对使用这种技术制造武器感到道德上的内疚。我们还知道,中国和伊朗正在研究人工智能的军事化,但关于这一主题的开源信息并不多。

杀手AI长期以来一直是科幻小说猜测的来源。《终结者》(The Terminator)和《战争游戏》(WarGames)电影都是对此类武器失控的警示。在一个著名的“星际迷航”剧集中,人工智能被允许在军事演习中控制星舰企业号,并导致死亡和破坏,直到柯克上尉和他的船员重新获得指挥权。直到现在,这些问题都是推测性的。今天,技术进步迫使我们真正解决这些问题。

西方国家,尤其是美国,表现出不愿意让人工智能在没有成年人监督的战场上独立运作。然而,如果对手在使用人工智能方面表现出决定性的战术和作战优势,这种情况可能会改变。毫无疑问,人工智能可以比人类操作员更快地做出决策,但问题仍然是这些决策是否会更好?

2001年,奥萨马·本·拉登从阿富汗托拉博拉山逃走,这在很大程度上归咎于美国中央司令部目标小组的繁重决策过程,其中一个军官委员会未能同意开枪,直到预定目标消失在洞穴中。海军陆战队新兴威胁与机遇中心(CETO)进行了一项实验,以检验模拟人工智能决策过程是否可以改善目标问题。两个小组得到了一组相同的20个目标问题,模拟一架装备地狱火导弹的捕食者无人飞机。问题从简单到非常复杂。一些涉及平民与敌方敌对战士混战。

第一个小组是一个针对人类的小组,由情报人员、一名行动律师和一名公共事务专家组成,由一名经验丰富的行动官员领导,类似于托拉·博拉事件中的决策小组。第二个团队假设捕食者已经射击或不射击船上的决策人工智能。模拟人工智能的单个人类有一套严格的标准来进行决策,模拟计算机编程。结果非常有趣。毫不奇怪,人工智能模拟做出决策的速度比目标团队快,但两者都有20%的时间做出了错误的决定。两者出错的情况通常不同,但正如在实际战斗中一样,两者都无法避免战争的迷雾。

这里最大的区别是责任。人类团队可能要为自己的决定负责,当无辜的平民出现时,他们通常会出于安全考虑而犯错。人工智能受到的约束较小,需要严格按照编程指令的限制行事。在一起案件中,它向一个街道雨篷开火,一群武装叛乱分子躲在雨篷下,在一个模拟露天市场杀死了一群购物者。这样的情况引发了谁将对死亡负责的问题。是人工智能编程的人吗?会是制造商吗?我们总是可以让飞机退役,但这会解决什么问题?

这里真正的问题仍然是道德问题。除了机器人机器人的战斗,使用人工智能将要求机器人决定夺走人类的生命。如前所述,我们的潜在对手很可能不会被道德或法律问题吓倒,这可能会给他们带来独特的战术优势。

在某种程度上,我们今天在武器中使用有限的计算机决策。巡航导弹和其他“开火即忘”系统会自动飞向目标,但最初的交战决定仍然是由人在回路中做出的。如果无辜者被杀害,就有责任链。

战争中总会发生附带的平民损失,在拯救友军生命方面会做出权衡,但这是人类的决定。将人类排除在循环之外不应纯粹基于技术考虑。这是一个可能与地雷、化学武器和核武器一样严重的问题。如果战争太重要了,不能只留给将军们,我们需要问一下,我们是否希望它掌握在机器人手中。