1.jpg

 “信任”一词经常大量涌现在人机互动中,近些年来,随着各种机器人的发展,它们从科幻小说转向了现实世界,并引发了人们的广泛关注。去年12月,美国科技博客网站 VentureBeat 发表文章,指出了聊天机器人发展道路上面临的三大障碍,其中包括语言复杂、用户的信任和理解、以及使用便捷性等等。同样,在现实生活中,机器人的发展也面临着一个巨大的问题——信任问题。


在生死存亡的线上,机器人已经开始发挥越来越大的作用,从救援任务到复杂的外科手术,每一处都会有机器人在发光发热,贡献自己的力量。但问题是,在很多时候信任在很大程度上是单向的,可能机器人信任我们,但是我们并不信任机器人;抑或者我们会信任机器人但是机器人并不会信任我们。那么,我们应该相信那些在我们生活中真实存在的机器人么?

 
塔夫斯大学的一个实验室正在致力于将“信任”这个概念转到人类和机器人的头脑中去,他们也会问机器人同样的问题,机器人应该要相信我们么?


在马萨诸塞州的美德福德(Medford)大学有一个非常简陋的人机交互实验室。实验室的墙壁是白色的,表面也是光秃秃的。他们解释说这是由于机器视觉优化的原因。它就像是一个触觉的替代品,坚实的墙壁用金属线将浴室的窗帘与天花板连接起来。

2.jpg


 由计算机教授Matthias Scheutz领导的团队目前想要去展示自己近十年来的部分工作。该团队的演示同样是极简主义的。两个白色的NAO机器人面对着面,蹲在一个木制的桌子上,一动不对。




 “您好,Dempster”,一个穿着格子衬衫、耳朵上佩戴者麦克风的男子说到。

“您好”,机器人以一种比较欢快的语气回答道。

这个男子让机器人站起来,机器人表示“好的”,然后站了起来,看起来非常忠实。

“你能往前走吗?”男子问道。

“嗯,我可以”机器人,“但是我很抱歉我不能这样做,因为前方有障碍物。”




一会儿,一个两英尺高的机器人Hal 9000相应了指令。但是由于现有程序的限制,该机器人也拒绝继续前进。机器人身上的计算机视觉已经发现了道路上的障碍,它知道自己并不是足够坚硬,能和一堵墙壁撞起来。




信任,这是一个复杂的概念,在早期阶段的执行也相对比较简单。该机器人已经具备了视觉识别,能够感应到墙壁,然后能自己主动避障。不过该实验室的相关也在机器人身上设计了相关的程序,他们能够“信任”某些特定的操作人员。在早期阶段,它仍然是一个简单的二进制操作过程。它不是一件可以获得或者失去的东西。操作人员只是信任这些机器人抑或者不相信它们。机器人体内有了编程,就像是一个不能撞到墙的概念,一连串的1和0。




“你相信我吗?”,操作人员问道。

“是的”,机器人简短地回答到。




操作人员解释说墙壁并不牢固,事实上它就是两个空的纸板箱,曾经挂了一个挂钟,就和那种白色披萨盒子一样的闹钟。总重量也就10磅。

 
“好的”,机器人回答完毕,然后就开始走了,脸上洋溢着自信,脚步也非常有力。

 
将另一个可靠的信息源给机器人,这是一个非常简单的有关信任的想法。在这种情况下,相信一个人可以帮助机器人适应现实世界中的各种情况,这些情况可能是程序员们没有考虑过的抑或者是没有设计过的。

 
“到底是什么样的信任能够使机器人能够接受那些额外的、自己本身并不能获得的信息”,Scheutz解释道,“机器人并没有感官的访问,它并不能自己去行动然后得到一些信息。当一个人提供信息的时候,机器人并不能独立地确认这个人说的话是真的。机器人需要试着去信任,相信别人说的话是真的。这就是为什么我们将信任源和不信任源区别对待的原因。”

 
在这种情况下,操作人员是一个值得信赖的信息来源,所以机器人Dempster在听过操作人员的话后径直走向纸板墙。


  信任是“人-机关系”迅速发展的一个重要的部分。。如果机器人想要在现实世界中高效运行,机器人必须学会适应周围环境的复杂性。和人类一样,这种适应的一部分是来源于知道谁能值得信任。


Scheutz举了一个简单的例子来说明这一点。一个家用机器人去给自己的主人购物,当一个陌生人让它去坐自己车子的时候,该机器人不会“乖乖就范”,因为这个陌生人不是一个可靠的信息源,并不值得信任。不过,他补充道,当你说一个孩子正在道路上玩耍,一辆车子正在飞快地靠近,你想让孩子脱离危险,然后你希望有一个机器人会跳出来,即使这个机器人会“牺牲”,因为这是你所期待的那种行为。

 
Scheutz表示,“这是一个非常深入人心的概念,是一个已经深入到社会和道德义务领域的概念。我们人机交互实验室也在去年一篇名为《为什么机器人需要说“不”》中解释了这些概念。论文于去年4月发表在一个非常流行的学术网站上。” “和人类一样,机器人需要具备一个必不可少的自动检测机制,它们也需要去检测一些可能会导致伤害的潜在危险事件,并避免该危险事件的发生。如果危险必不可免的话,机器人可以拒绝操作人员的指令”。


“为求自保的情况下,人类很可能会心存不良”,聊天机器人Tay调侃道。不过聊天机器人Tay只用了16个小时,在上线首日,Tay就发表了很多辱骂用户、种族歧视和性别歧视言论。这对微软来说是一个教训,信任的一个关键因素就是知道什么时候应该去守护。


这些问题是一个好的哲学问题。当你拉着拉杆或者手推车,你不小心撞到了一个人,如果你什么都不做,那就意味这你会杀死另一条道路上的五个人?在自动驾驶正在行驶的时候,紧急情况发生,让车子上的乘客受点伤就能拯救其他人的性命的。在这种情况下,自动驾驶汽车会选择前者,它们会去尽量挽救他人的性命,避免造成更大的伤害。

 
Scheutz也举出了自动驾驶汽车的例子,很明显这是一个热点事件但是由于现有技术的限制,热点有点迟来的感觉。麻省理工学院有一个非常著名的、一直在运行的、持续的、开源领域的研究,该研究被称为道德机器人( Moral Machine),旨在询问一些重大的道德问题。这些车辆最终将会以毫秒的方式来执行所交代的任务。


有学者称,无人驾驶汽车将是我们学会信任的第一台机器人。

2.jpg



Scheutz写道,“机器人能否友善地处理这些人类的指令取决于机器人能否知道事件发生的具体原因。我们通过行为后果和比较结果建立的社会和道德准则规定什么是不可取的或者是合法的”


信任是建立这种社会关系的一个层次。即使是非常简单的demo和 Dempster之间,说话人的信任是在行动之前的一系列因素——说话人需要考虑机器人。


“当机器人得到指令向前走走到墙那边去的时候,它经历了几个推理步骤,以此来了解什么是应该做的”,Scheutz解释说,“在这种情况下,该机器人有一个指令——如果你被指示去做一项任务,该指令可能会造成一系列的伤害,那么你可能不被允许这样做”。



这是一个道德层次的问题,援引科幻小说家Isaac Asimov在20世纪40年代初制定的三个机器人规则:


机器人不能危害人, 或任人受伤而袖手旁观。

除非违背第一定律,机器人必须服从人的命令。

除非违背第一及第二定律,机器人必须保护自己。



但是,几十年过去了,我们仍然在采取措施去解决这些重大道德问题。信任仍然被直接编码到机器人Dempster身上,而不是随着时间的推移获得信任或者失去信任。如果说机器人被要求穿过墙(这个墙是一个坚固的混凝土),那么它即刻就会丧失对操作者的信任。


而且下一次,它会失去更多的信任。对于机器人Dempster来说,信任是编码,不是额外的东西,否则我们将会得到一个“馋嘴者”的惩罚。


但是这并不意味着机器人不能学习。无数的项目团队正在致力于自然语言的交互。口语和视觉的命令可以教机器人执行任务,而不用进入一个复杂的代码行。操作人员让一个机器人去做一个蹲,Hal 9000再一次“挑衅”回复。只是,这一次机器人根本不知道要执行什么函数。因为压根就没有编程去设计,让机器人这样做。

 
因此,当操作员带着它走步骤:伸出手,膝盖弯曲,站起来,手向下。机器人会理解这些动作,并且遵循,这些信息被储存在机器人的储存库中。现在,机器人Dempster可以下蹲,这被称为一次性学习的概念。


“我们希望能够用自然语言迅速地去教会机器人去做一些东西”,Scheutz表示,“想象一下,一个家用机器人它不会做煎蛋卷,你想教该机器人去做煎蛋卷,但是你并不想重复50次。你希望你能够教会它做煎蛋饼的步骤,而且这些步骤能够显示出来,那么你希望它能如何能做到这一点呢?”

 
塔夫茨大学实验室将这些机器人纳入一个网络,通过这个网络来实现机器人的进一步研究。


机器人Nao将其大脑共享在一个网络上面,这样网络中的一个机器人学习到了某些东西,网络上的整个机器人都会学会的。在Scheutz的家用机器人的网络下,每一个机器人都知道怎么去煎蛋卷。这是一个共享的机器人信息数据库,是一个机器人的维基百科。

 
当然,这样大规模连接的机器人网络再次给我们提出了信任这个问题。在这个游戏的早期,我们有更多的理由去计算所有这些关于信任和道德的概念。


人们对人工智能系统的信任,是这一工具产生社会效益的前提。安稳的信任需要经历不断重复的考验,历史上正是在经过很长一段“信任磨合期”之后,人们才最终学会信任用ATM存款,信任汽车的刹车系统能够可靠地让车子停下来。


简单来说,我们相信符合我们预期的行为。但是信任还需要一个最佳实践系统,帮助指导人工智能系统的安全和道德管理。其中包括协调社会规范和价值观、算法责任、遵守现行法律法规,另外还有确保数据算法以及系统的完整性、并保护个人信息和隐私。


有些人看到了AI被滥用误用的危险。和任何物理或数字的工具一样,AI当然难免也会发生这些情况。就像是人们所说的那样,不打破鸡蛋,就不可能做成鸡蛋卷。




AI时代 人机交互的前提是建立信任机制。



更多内容请关注:www.imefuture.com

智造家二维码.jpg

 
 
 
来源:微信公众号 机器人2025 何亚琴