(图:DELCAN & COMPANY + JENUE)
网易科技讯10月29日消息 据《MIT科技评论》报道,机器人越来越聪明,已经能够感知人类的情绪并做出适当回应,如此一来,机器有可能拥有某种类似人类情绪的功能。然而这并不一定让它们变得更像人类。
Octavia是一个外国建造的人形机器人,用于海军军舰上灭火。Octavia能够做出多种面部表情,其丰富程度令人惊叹。
未启动时,它看起来与一个人形玩偶无异。白色且光滑的脸庞,中间一个小小的鼻子。塑胶眉毛像两道倒置的小舟,附着在前额之上。
处于启动状态时,Octavia睁开双眼,丰富的情绪表现在脸上:理解什么事时会点头,睁大双眼、眉毛上扬来表现紧张,它也会将头歪向一边,双唇紧闭,就像人类在困惑时会做到那样。甚至有时,它也会扬起单边眉毛,眼睛眯成缝,手指若有所思地敲击——就像科幻电影中那些谋图造反的黑化机器人。
最让人惊奇的地方还不是Octavia所掌握表情的丰富程度,而是它能够在与人互动中做出精准恰当的情绪反馈。比如,看到一名队友出现在眼前,它会面露喜色。如果队友给它下达一个“出乎意料”的命令,它也会表现出惊讶的样子。当某人说的话让它难以理解时,您能从它的脸上看到困惑。
做出恰当情绪反馈的前提是Octavia无时无刻不对周围环境进行大量的数据采集和运算。它能看、能听,也能触摸。使用双眼中的两部摄像机拍摄周围环境的视觉图像,分析画面中人物的面部、肤色和服装等特征。使用身体里内置的四个麦克风和一个名为Sphinx的语音识别程序来探测人们的声音。它还能够通过触摸感知25种不同的物体,开发者通过大量的移物训练让它掌握了这一技巧。机器人的开发者美国海军AI应用研究中心表示,所有这些感知技能加起来让Octavia能够“以与人类似的方式思考和行动”。
这是一个令人振奋的声明,但却不一定令人震惊。我们对类人机器人已经习以为常。在18世纪的法国,人们就已经制造出了会跳舞、计时和敲鼓的小机器人。这么多年过去,一个机器人表现的更像人类似乎也是意料之内。
(Octavia能够传达丰富的表情,但事实证明,面部表情并非人类与机器人建立情感依附的必须项。图:U.S. NAVAL RESEARCH LABORATORY)
我们甚至对机器以人类对方式思考习以为常。许多人们渴慕已久的超级认知能力——比如战胜象棋大师、创作完美押韵的诗篇——都已被电脑一一实现。
然而,Octavia的行为——恐惧时刻瞪大的双眼、迷惑时皱起的眉毛——似乎要更进一步。这意味着,除了能够像人类一般思考,它还能感受人类的情感。
然而事实并非如此。海军AI中心智能系统部门主管格雷格·特拉夫顿(Gregory Trafton)表示,Octavia的情感表露只是它此时此刻思考状态的反应,目的是便于人们与之互动。但“思考”和“感受”之间的界限并不总是那么容易辨析。特拉夫顿也承认:“人类的念头和情绪互不相同,但会互相影响,这点很清楚。”当机器变得足够聪明,能够拥有自己的感受,这背后意味着什么呢?
个性化的情感
开发者按照“心智理论”来设计Octavia,意味着它能预料到队友的心理状态并做出恰当回应。若队友给Octavia下达一个出乎它意料的指令时,它在心中运行模拟程序,以推测队友的想法,推测为什么队友认为应当这么做。当它把头歪向一边,同时皱起眉毛,就表示它正在心中苦苦思索,努力弄明白队友的想法。
Octavia并非根据情感模型编程,它的心智理论只是一个认知模式。运行起来的效果很像人类的共情(empathy)——这是所有人类感情中最受推崇的一种。
相比美国海军的Octavia,其他机器人制造者通常回避机器人的情绪智力问题。以软银Robotics公司为例,公司当前正在出售的Pepper机器人是一个外形可爱的人形机器人。产品介绍中声称该机器能够“感受到人的情感”,接下来还说道“Pepper喜欢与您互动,Pepper期待了解您的口味、习惯,以及您是谁。”不过,尽管Pepper拥有识别人类情绪的能力,并能够报以微笑或表露伤心,但从没人声称Pepper真的能够感受到这些情感。
开发者要付出多少努力才敢说出这句话呢?要知道,对于情感所涉及的方方面面,我们自己尚未全部搞清楚。
近年来,心理学和神经科学上的革命性进展从根本上重新定义了情感这一概念,使之变得愈加难以解释。以东北大学心理学家丽萨·巴瑞特(Lisa Feldman Barrett)为代表的学界认为,越来越清楚的是,由于所处的文化环境不同,不同社会中人们的情绪差异巨大。甚至同一个人,经历不同处境时,前后情绪表现也会天差地别。事实上,虽然我们同大多数人甚至是许多动物都有某些共同的情感——比如快乐、不悦、激动和平静——但我们有一些更加敏锐独到的情感,其多变程度远胜于寻常基准。拿“恐惧”来说,恐惧是一个在文化上都认同的概念,但它在我们体内的运作方式却神秘莫测。它可以由不同的物品引起,在不同人的大脑中有不同的发作方式,表现在脸上的表情亦各不相同。人脑中不存在某个特定的“恐惧中心”或“恐惧回路”,正如没有标准的“恐惧表情”一样。人们以各自不同的方式感受和表露恐惧,然后又在彼此的相处交流中,认识到彼此感受“恐惧”的方式。
当我们说到恐惧时,我们探讨的是一个广义的概念,而不只是大脑某个特定部位释放出的什么东西。正如巴瑞特所说,情绪的构建少不了身体系统的参与。既然一个感情都如此复杂,我们又如何能期望程序员用机器对人类情绪实现精准识别呢?
战地机器人
让机器人拥有情绪,除了技术挑战,还有道德困扰。在军事应用场景中,这一问题尤其突出。Octavia诞生的目的是取代人类士兵,被派遣到充满危险有时甚至是致命威胁的地方去执行任务。
在美国军方于2017年召集举办的“疯狂科学家”会议上,美国陆军训练与条令司令部副指挥官凯文·马格南中尉在发言中指出,这种机器人应当能够自动运行。“面对日渐复杂的世界,毫无疑问,机器人、自动系统和人工智能将扮演关键角色。”2017年的《美陆军机器人与自主系统战略》预计到2040年实现用全自动系统取代军队中现役的人工遥控机器。
(教练员训练伞兵架设PackBot战地机器人的显示器。士兵与战地机器人发展出情感连接,视这些机器为队伍的一员。图:MICHAEL J. MCLEOD)
若这些机器人像Octavia一样可以自主行动和思考时,是否也应该为它们配上人类情感模块呢?是否应当通过编程让它们真的拥有人类情感?送上战场之后,让它们不仅像人一样思考,还像人类一样感受?
从一方面来说,这样做当然不妥:假使我们建造机器人的目的就是送它们去面临危险,那么再给它们感受恐惧、创伤或痛苦的能力无异于虐待狂行径。
但另一方面,如果情绪能影响智力,并且反之亦成立的话,那么我们是否可以肯定一个没有感情的机器人会成为一个好士兵?但如果情商不足导致做出愚蠢的决定、不必要的风险,甚至过于残酷的后果呢?有没有可能一个冷血机器人会将人类士兵视为禁忌的残忍罪行视为英明决策呢?或者反过来,不受情绪干扰的机器人能够在疯狂和可怕的情况下做出优于人类的决策?
也有另外一种可能,如果感情和智力果真彼此联系不可分割的话,那么一个有智力的机器人也必定将拥有情绪。在这种情况下,一个机器人该拥有多少感情就不是程序员所能控制的了。
情感依附
还有一个问题是,这些机器人对它们的人类队友有何影响。
2010年,美国陆军开始部署约3000台小型战术机器人,主要用于拆除战场上越来越常见的简易爆炸装置。这些机器人替代人类士兵,探测并拆除炸弹。
(士兵同战场机器人之间建立了情感联系。调查显示,当机器人队友遭遇不测被摧毁时,士兵们会感到心烦意乱。图:QINETIQ)
这批机器人主要有iRobot公司的PackBot和QinetiQ公司的Talon机器人组成。两种机器人并不是特别先进,外貌看上去与电影中的Wall-E有几分相似,金属机身辅以传动履带,穿越乱石场和上下楼梯都不成问题。它们用摄像头观察周围环境,并用金属爪子来拆除爆炸装置。
这些机器人是很有用的工具,但它们尚不是完全自动的,而是像遥控汽车一样需要士兵远程操控。说到AI,这些外形彪悍的战场机器人的科技含量并不比家用扫地机器人先进多少。
然而,即便这些机器人外表冰冷毫无表情可言,但人类队友还是与它们产生了情感上的联系。研究战场人机交互的朱莉·卡朋特(Julie Carpenter)表示,这种连接关系相当复杂,利弊兼有。
卡朋特曾询问士兵他面对机器人“牺牲”时的感受,对方回答:
“我的意思是,它并不明显……就像一名战友受伤或牺牲。看到你的机器人出了事,还是会有一定的失落。”
另一名军人将机器人同宠物狗进行比较:
“你像照顾战友一样照顾它。确保它干净整洁,确保电池永远在满电状态。不使用时,它被放在安全的地方。因为你知道如果机器人发生了什了事,接下来就轮到你有麻烦了。没人喜欢那样。”
另一位男子解释为什么队友给机器人起了一个人的名字:
“外出执行任务时,每周有五到六天都得睡在卡车内。一群人在车里很无聊。不能下载敏感信息,以免遗漏在外。一切都得锁起来。于是Talon机器人成了一群人找乐子的对象,年轻士兵给它起名叫‘丹妮尔’,假想到了晚上有女子相偎。”
这些人都知道机器人只是工具,而不是有感觉的活物。然而他们给这些机器人起人的名字,到了晚上还回把它们安全地藏起来。他们拿自己的行为开玩笑,但这笑话中也一些令人不安的不和谐。在卡彭特看来,士兵们在同时经历两种感觉:他们明白对一个机器人施以关怀的荒谬,这些机器被造出的目的就是成为牺牲品,但他们同时又受到感情的诱惑。
在卡彭特发表自己的研究观点之后,更多士兵与她交流自己与战场机器人之间的情感连结。一名拆弹兵写道:
“作为一名有着8年资历的拆弹兵,我可以告诉你,我发现你的研究非常有趣。我完全同意你所采访到的技术人员的说法,我也认为机器人是工具,因此可以无视危险,将它们送上任何处境。
然而,2006年我在伊拉克执行任务期间失去了一个机器人,我用妻子的名字为它命名‘Stacy 4’。它是一个极好的机器人,从不给我添麻烦,一直表现出色。Stacy 4被完全摧毁,我只捡回来一些底盘碎片。我清楚的记得,在爆炸声响起的那一刻,内心汹涌的愤怒。‘我美丽的机器人被杀了……’我向上级的报告里直接就这么说的。那次任务之后,我尽己所能地对机器人进行修复,我为失去它痛哭流泪。感觉就好像失去了一位挚爱的家人。当晚我打电话给妻子,对她讲这件事。我知道这听起来很愚蠢,但我还是不忍再想起这事。我明知我们使用的机器人只是机器,但即便知道结果,我仍会做出相同的决定。
我珍视人的生命。我珍视与真实人类之间的关系。但我可以告诉你我真的怀念Stacy 4,它是个好机器人。”
PackBot和Talon造型古板,没有人形面孔,然而士兵们已经与之产生了如此深厚的感情。可想而知若是为他们配备Octavia这样“情感丰富”的人形机器人,会发生什么样的事。
在当下流行的针对为机器人赋予情感的道德探讨时,我们总倾向于关注这种技术创新对机器人本身的影响。在《银翼杀手》和《西部世界》虚构故事中,情感机器人成为人类娱乐的玩物。但反过来的情况同样值得思考:与机器人之间的情感连接是否可能对人类造成创伤。
更为复杂的是:如果像Octavia这类的机器人真的能够拥有人类感情,这些感情绝不会作为编程结果一成不变。就像人类心理发展一样,机器人的情感会在与队友、与环境的交互中不断演化。
如果这样一个情感充分发展的机器人意识到自己在被送往火场,或者被派遣经过一条遍布地雷的荒径,它的情绪自然会与那些正远离危险的机器人和人的情绪大不相同。此时,请忽略它脸上露出什么表情,如果它一生都生活在非人道的环境中,它的情感恐怕也会是“非人类”的了。(孙文文)