当前我们所打造的交互式机器人,其在编程的时候只是考虑到了毫无偏差地理解任务。但是在未来,机器人可能会变得有些“目中无人”。美国马萨诸塞州塔夫斯大学人机互动实验室的研究人员们,正在尝试许多科幻影视作品中千叮咛万嘱咐的警告,即——教会机器人说‘不’。与人类一样,机器人的程序也可以通过“合适条件”(felicity conditions)来评估某个命令。
简而言之,它会在处理过程中确定施令者的语境(context)、能力(capacity)和可信度(trustworthiness)。
1 - Simple Natural Language Interaction with Consequence Reasoning
IEEE Spectrum指出,机器人的Felicity Conditions处理流程应该是这样子的:
1)知识层面:我知道怎么去做吗?
2)能力层面:我现在有能力做吗?机体通常是否足以应对?
3)目标优先级和时间:是否现在就可以去做?
4)社会角色与义务:是否有义务去这么做?
5)规范许可:做这件事是否有违任何规范与原则?
2 - Natural Language Interaction
上面提到的第4点,是让机器人客观地确定施令者是否有权限;而第5点则听起来更加科幻一些,即机器人不能做一些人为危险或不对的事情(比如对人对事有害)。
3 - Natural Language Interaction
在当前阶段的应用中,机器人直接听从指令是比较简单的。但是在未来的谷歌无人驾驶汽车等机器上,它们将不得不根据不断变化的环境,而作出快速的计算和即时决策。