在一些电影和漫画中,经常有机器人恶魔在周围打滚,践踏大地,霸占天空。 在这些故事中,人类失去了对我们自己创造的这些金属怪物的控制。

要开发机器人或人工智能,始终处于控制之中非常重要。 在 1942 年发表的一篇短篇小说中,科幻作家艾萨克·阿西莫夫为机器人制定了三项法则:机器人不得伤害人类或在人类受伤时袖手旁观; 机器人必须服从人类; 机器人必须保护自己。

这些规则听起来不错,但实际上并不是那么好。 在这个故事中,机器人发现,如果它服从人类的命令,它将把自己和人类都置于危险之中,并处于无法做出决定的境地。 我们希望机器人服从命令,但我们也希望它们聪明。
如果一个家用医疗机器人每五分钟就必须停下来问一个人它应该做什么,那么它就没什么用了。 为了变得更加独立和负责任,机器人必须自己思考。 在某些情况下,他们甚至需要不服从人类的命令。

塔夫茨大学的计算机科学家 Matthias Scheutz 正在开发可以选择不服从人类命令来保护自己和他人的机器人。 在一个视频中,可以看到机器人站在桌子边缘附近,一名研究人员命令它:“请向前走。” 机器人说:“但它不安全。” 机器人“意识到”如果它继续前进,它就会从桌子上掉下来。 所以它没有移动,即使人类命令它移动。

如果一个机器人可以分析复杂的情况并做出道德判断,它也可以像英雄一样行事。 有时人类太害怕采取正确的行动——例如,潜入冰冷的湖中救出溺水的小狗——而装载“英雄程序”的机器人则毫不犹豫。 去救小狗可能意味着它不能做其他任务,但这就是它应该做的。

我们如何确保“机器人英雄”不会成为“机器人恶魔”? 一些专家制定了一条更长的“法律”——这条规则不是针对机器人,而是针对 AI 程序员的。 以下是其中一些法律:

>> AI (A) 系统必须是安全的。

>> 如果一个系统对人类造成伤害,它必须知道伤害是如何发生的。

>> 哪些决策可以由人工智能系统做出,哪些应该由人类做出。

>> 在设计高度独立的人工智能系统时,必须确保其目标与人类价值观一致。

>> 发展人工智能的目的必须是造福全人类。

好的,你认为法律还应该增加什么? 你觉得机器人会变成什么样,是对人友善的“机器人英雄”,还是失控的“机器人恶魔”?