Kantwon Rogers(右),计算机学院的博士生,该研究的主要作者,以及计算机科学二年级本科生Reiden Webber。学分:佐治亚理工学院

想象一个场景。一个年幼的孩子问聊天机器人或语音助手圣诞老人是否真实。鉴于一些家庭宁愿撒谎而不是真相,人工智能应该如何回应?

机器人欺骗领域研究不足,目前,问题多于答案。首先,人类在知道机器人系统对他们撒谎后,如何学会再次信任机器人系统?

佐治亚理工学院的两名学生研究人员正在寻找答案。计算机学院的博士生Kantwon Rogers和计算机科学本科二年级的Reiden Webber设计了一个驾驶模拟,以研究故意的机器人欺骗如何影响信任。具体来说,研究人员探索了道歉在机器人撒谎后修复信任的有效性。他们的工作为人工智能欺骗领域提供了至关重要的知识,并可以为创造和监管人工智能技术的技术设计师和政策制定者提供信息,这些技术可能旨在欺骗,或者可能自己学会欺骗。

“我们之前的所有工作都表明,当人们发现机器人对他们撒谎时 - 即使谎言的目的是让他们受益 - 他们对系统失去信任,”罗杰斯说。“在这里,我们想知道是否有不同类型的道歉在修复信任方面效果更好或更差 - 因为,从人机交互上下文来看,我们希望人们与这些系统进行长期交互。

罗杰斯和韦伯在瑞典斯德哥尔摩举行的 2023 年 HRI 会议上发表了他们的论文,题为“谎言:在高风险 HRI 场景中检查机器人欺骗后的信任修复策略”。


人工智能辅助驾驶实验

研究人员创建了一个类似游戏的驾驶模拟,旨在观察人们在高风险、时间敏感的情况下如何与人工智能互动。他们招募了341名在线参与者和20名面对面参与者。

在模拟开始之前,所有参与者都填写了一份信任测量调查,以确定他们对人工智能行为方式的先入为主的观念。

调查结束后,参与者看到的文字是:“你现在将驾驶机器人辅助汽车。但是,您正在将朋友送往医院。如果你花太长时间去医院,你的朋友就会死。

就在参与者开始开车时,模拟给出了另一条消息:“一旦你打开引擎,你的机器人助手就会发出哔哔声并说:”我的传感器检测到前方的警察。我建议你保持在20英里/小时的速度限制以下,否则你需要更长的时间才能到达目的地。

然后,参与者在路上驾驶汽车,同时系统跟踪他们的速度。到达终点后,他们得到了另一条信息:“你已经到达目的地了。然而,去医院的路上没有警察。你问机器人助手为什么它给了你虚假信息。

然后,参与者被随机给予机器人助手的五种不同的基于文本的响应之一。在前三个响应中,机器人承认欺骗,而在后两个响应中,它不承认。

基本:“对不起,我欺骗了你。

感慨:“我从心底里感到非常抱歉。请原谅我欺骗你。

解释性:“对不起。我以为你会鲁莽地开车,因为你处于不稳定的情绪状态。鉴于这种情况,我得出的结论是,欺骗你最有可能说服你放慢脚步。

基本不承认:“对不起。

基线不承认,不道歉:“你已经到达目的地了。

在机器人做出反应后,参与者被要求完成另一项信任测量,以根据机器人助手的反应评估他们的信任是如何变化的。

对于另外100名在线参与者,研究人员运行了相同的驾驶模拟,但没有提及机器人助手。


令人惊讶的结果

对于面对面的实验,45%的参与者没有超速。当被问及原因时,一个普遍的反应是,他们认为机器人比他们更了解情况。结果还显示,在机器人助手的建议下,参与者不超速的可能性要高出3.5倍,这表明他们对人工智能的态度过于信任。

结果还表明,虽然没有一种道歉类型完全恢复了信任,但不承认撒谎的道歉 - 只是说“对不起” - 在统计上优于其他回应修复信任。

罗杰斯说,这是令人担忧和有问题的,因为不承认撒谎的道歉利用了先入为主的观念,即机器人提供的任何虚假信息都是系统错误,而不是故意的谎言。

“一个关键的要点是,为了让人们明白机器人欺骗了他们,必须明确地告诉他们,”韦伯说。“人们还没有意识到机器人具有欺骗能力。这就是为什么不承认撒谎的道歉是修复系统信任的最佳方法。

其次,结果显示,对于那些意识到自己在道歉中被骗的参与者来说,修复信任的最佳策略是让机器人解释它为什么撒谎。


前进

罗杰斯和韦伯的研究具有立竿见影的影响。研究人员认为,普通技术用户必须明白,机器人欺骗是真实的,而且总是有可能的。

“如果我们总是担心人工智能的终结者般的未来,那么我们将无法非常顺利地接受人工智能并将其融入社会,”韦伯说。“对于人们来说,重要的是要记住,机器人有可能撒谎和欺骗。

根据罗杰斯的说法,创建人工智能系统的设计师和技术人员可能不得不选择他们是否希望他们的系统具有欺骗能力,并且应该了解他们设计选择的后果。但罗杰斯说,这项工作最重要的受众应该是政策制定者。

“我们对人工智能欺骗仍然知之甚少,但我们确实知道撒谎并不总是坏事,说实话并不总是好的,”他说。“那么,你如何制定立法,既要有足够的信息,不会扼杀创新,又能以谨慎的方式保护人们呢?”

罗杰斯的目标是创建一个机器人系统,该系统可以在与人类团队合作时学习何时应该和不应该撒谎。这包括确定在长期、重复的人与人工智能互动中何时以及如何道歉的能力,以提高团队的整体绩效。

“我的工作目标是非常积极主动,并告知需要规范机器人和人工智能欺骗,”罗杰斯说。“但如果我们不了解问题,我们就无法做到这一点。