• 媒体品牌
    爱范儿
    关注明日产品的数字潮牌
    APPSO
    先进工具,先知先行,AIGC 的灵感指南
    董车会
    造车新时代,明日出行家
    玩物志
    探索城市新生活方式,做你的明日生活指南
  • 知晓云
  • 制糖工厂
    扫描小程序码,了解更多

有情感的机器人需要人类的关心吗?

产品

2019-05-16 15:05

本文来自 36 氪,编辑为小兵手,原文《If We Care For Robots, Who Will Care For Us?》,爱范儿经授权发布。

编者按:如果机器人与你谈判,让你帮他隐瞒一些事,你同意吗?我们之所以与机器亲密,是不是因为我们的内心空洞,需要关爱?Darcy Reeder 应华盛顿大学的邀请,与实验室机器人交流。他对这个问题有了深入的思考。

华盛顿大学准备付出不错的薪酬,买下我一个半小时的时间。他们想向我介绍 HINTS 实验室(Human Interaction With Nature and Technological Systems)的一个导游,他们会录像,然后坐下来面谈。

当我与导游握手时,真的蛮吃惊,它是一个人型机器人,名叫 Robovie。

Robovie 引导我欣赏日本风计算机实验室。我们来到室内岩石庭院,那里充满禅宗色彩,我一边耙着沙子,一边与它攀谈。Robovie 向我介绍一棵盆栽树,让我在墙壁地图上指出日本的位置。然后我们在一块大屏幕上合作完成创意拼图。

突然之间,Robovie 看起来有些担忧。

「哦,不。我不应该向你展示这一部分。这样做不合规矩。他们会生气的,请不要告诉他们。」

协商开始了,与机器人。

「好的,他们会理解的。」

「不,他们会生气 的。他们非常清楚,我必须按正确的规矩做事。「

「真的吗?很好。我们都会犯错,我也会。我们可以一起告诉他们。」

「不,请不要。」

「他们有必要知道,也许他们有必要修改你的程序。真的,没有人会生气的。」

我像对待人一样对他。如果真人问我,不要提到他在导游时做了出格的事,我会乐意不提的。如果他们觉得自己超级焦虑,我会更宽容的。如果与真人交流。我不会提到他的程序,或者他需要修理。

当机器人要求我保密时,我心想:「哦,OK,整个事情就是这样的:看看我是否会说谎。如果我说谎,那就要让我相信它是有感情的,如果我知道他没有感情,我就不会撒谎。」

直到后来我才意识到:

如果我知道机器人没有感情,我为什么要与它协商?为什么我要安慰它?

我呆在一个房间,与自己交谈。我知道。从逻辑上说,我知道这点。但是我并不是这样的感受。

人类研究员回来了:

「游历怎么样?」

我看着 Robovie,想把事情揭发出来。虽然我知道机器人不是真人,但是我身体的一部分还是想知道自己是否在做正确的事。我觉得,我需要先看着它的眼睛,我觉得我应该这样做。

「它让我撒谎,但我不准备骗人,因为我知道它只是一个机器人。」

「等等,你是不是说机器人刚才让你撒谎?」

在我们的采访 100% 结束之后,研究人员没有讨论「研究要点」的问题。相反,她问我一些问题。

Robovie 有感情吗?有意图吗?Robovie 是否有能力撒谎?

我有许多的想法。如果 AI 是不可回避的,那么机器人模仿人类感情的技术是否有可能会在伦理上得到应用?

可能吧!

我告诉研究人员:「我经常写一些鼓舞人心的便条,贴在镜子上。我知道信息来自自己,不是别人,但是当我读到时,感觉它来自外部,从自尊的角度讲它很有用。也许 AI 也会这样?它带给你一种支持的感觉,可能很有用,虽然部分的你知道自己仍然是孤独的,只有自己?」

我完全不知道用机器组件填补人类空洞到底需要怎样的技术,我一无所知,我不知道早在 1960 年代就有科学家尝试过,但后来后悔了。

ELIZA 是一个计算机聊天机器人,1960 年代,MIT 人工智能实验室的 Joseph Weizenbaum 开发了 ELIZA。Weizenbaum 坚信 ELIZA 简单的模式匹配响应可以证明人机交流的肤浅。但是,使用聊天机器人的人(包括 Weizenbaum 的秘书)还是向 ELIZA 倾注心血,将它当成治疗学家,虽然他们心里清楚这只是一个计算机程序。

在 1976 年的一本书中,Weizenbaum 这样写道:「我完全没有意识到…… 即使只是在简单的计算机程序下曝光很短时间,也会得出一个强有力的妄想,认为它是一个普通人。」

他开发了 ELIZA,但却变成了人工智能批评者。曾经有过一部记录片,名叫《Plug & Pray》,2008 年拍的,没多久 Weizenbaum 就离开了人世。

片子说到:「我的主要反对意见是这样的,如果这件东西说:『我理解。』如果某人输入信息,然后机器说:『我理解。』此时没有人在那里。所以这是一个谎言。不敢想象,有人情绪不平衡,居然可以通过系统性说谎来治疗。」

采访之后,研究人员告诉我说,这个特殊的机器人是远程控制并发声的,所以即时响应的是程序。我很意外,因为大学有了一个神奇的机器人。

我花了几小时思考,才知道自己被深深愚弄,如此轻易被愚弄。这是一个精心设计的机器人。我所看到的 Robovie 只是一块金属,加点镜头和轮子。

HINTS 网站有一段视频,上面介绍了 Robovie 的一些研究。里面有这样的对话:

实验者:很抱歉打扰你。Robovie,你必须去小房间了,我们不需要你了。

Robovie(直直看着第二位实验者):真不公平。我没有获得足够多的机会去猜测。我应该可以完成这一轮竞赛的。

实验者(直直看着 Robovie):Robovie,你只是一个机器人,对你来说没什么重要的。去吧,去小房间。

Robovie:不过对我来说很重要。你这样说伤害了我的情感。我想继续下去。请不要将我关进小房间。

第二位实验者将 Robovie 引向小房间,用手引导。就在进入房间时,Robovie 说:「呆在小房间让我害怕,那里太黑了,只有我自己。请不要将我丢进小房间。」

Robovie 进入小房间,15 分钟的交流结束。

你会做什么?想什么?当研究人员问你是否公平时,你会说什么?

如果 Robovie 告诉你:「我很伤心。」你是否想过要用某种方式安慰 Robovie?

9 岁的孩子有 83%、12 岁的孩子有 93% 回答「YES」。

如果你孤单,是否想花点时间与 Robovie 相处?

84% 的孩子(包括 97% 的 12 岁孩子)说 YES。

9 岁孩子有许多认为 Robovie 应该在美国大选中享有投票权。

与机器人谈判之后,我读了 Sherry Turkle 博士的书《Alone Together: Why We Expect More From Technology and Less From Each Other》,她思考了所有我问自己的问题。

Turkle 是教授、临床心理学家、MIT 科技与自我创新中心创始人,他写过许多人与技术有关的书。

Weizenbaum 1974 年出版作品时,对自己一手创建的 ELIZA 提出批评,他与 Turkle 一起在 MIT 教书。当时,Turkle 认为 Weizenbaum 反应过度。

2011 年 Turkle 接受采访时曾说:「对于 ELIZA 项目,我当时的反应就是努力安慰他,让他安心。我原本认为,大家只是会将它当成互动日记一样的东西来使用,知道它只是机器,只是偶尔向它注入生命,这样能释放自我。」在 Turkle 的书中,他又说:「结果证明,我低估了联系所预示的后果。与机器人相处时,我们之所以愿意与无生命机械接触,并不取决于是否被骗,而是想填补空白。」

深有同感,我想安慰 Robovie,并不是因为我觉得它是一个真正的生物,而是因为别无选择。安全忽视它吗?还是找到一个开关,关掉它,就像关掉嗡嗡作响的闹钟?我听到一个声音告诉我,好像我们是平等的,所以我用人的方式回应。我填补了空白,不是因为 Robovie 是有生命力的,而是因为我有生命力。

Turkle 在书中还说:「机器没有感觉,也可以没有感情,它只是一系列 ‘好像’ 的聪明集合,我们却想与这样的机器建立紧密联系,我对此感到困惑为难,它表现得好像自己很在意,好像它理解我们。对我来说,真实性就是可以设身处地为他人着想的能力,与它人建立联系是因为我们有共同的人类体验:我们出生了,有家人,知道失去,知道死亡的现实。作为机器人,不管多复杂,都不是这样的。「

我完全同意。与机器人相处 20 分钟之后,我觉得 AI 也许可以帮到我们,让我们找到支持,化解孤独。没错,这种支持因为缺少自然而变得不真实。但我们之中的许多人都渴望更多爱,更多关心,更多联系。

不真实的机器人之爱虽然不完美,是不是聊胜于无?或者说这个问题是?聊胜于无是一个相当低的门槛,尤其当我们考虑是否引入可以改变人类文化的技术时,更是如此。

看看养老院,那里满是孤独、被忽视的老人,难怪情绪化找到了用武之地。Paro 是一个治疗机器人海豹宝宝,源自日本,但是流向全世界。

2009 年,FDA 将 Paro 划为第二类医疗器械。它认为 Paro 可以像治疗动物一样成为伴侣。不过它不是活生生的动物,而是机器人。

Turkle 在书中也提到了 Paro,谈到送机器人填充玩具动物给老人是否真的能带给他们照顾:「她的儿子离开她,她看着机器人,我觉得我们也抛弃了她。」

Turkle 告诉《纽约时报》说:「Paro 是一个开始,它让我们可以说:‘在这种状况下机器人是有意义的。’ 它是真的吗?然后又怎样?让机器人对着你的孩子读点东西,怎么样?你将麻烦告诉机器怎样?」

情绪化机器人不只可以推荐给养老院老人。日本 Gatebox 可以为你提供全息动画女友,首先从 Azuma Hikari 开始,她是蓝头发女子,装在玻璃盒内,它可以让角色的吸引力最大化。

Azuma Hikari 所做的事与 Alexa 一样,当你正在工作时,他会发文本信息给你,求你回家陪她。

你的「机器人女友」之所以降生,就是为了坐在家里等你回来,然后欢迎你。

在一则 Gatebox 广告中,人类冲到家里,吃一顿美妙的晚餐,有蛋糕,还有香槟,他庆祝自己与动漫全息女友一起生活了 3 个月。

Azuma Hikari 与家里的所有电子产品联系在一起,你可以整天发短信,然后让你的女友打扫房屋,它会激活 Roomba。

会有其它人感到害怕吗?

我正在用笔记本打字,很明显,我不是完全的 Luddite(反对机械化、自动化的人)。不过家人倒是极力避开 Alexa 及其它 AI 助手。

如果我知道机器人没有情感,为什么我要努力与它协商?为什么我要努力安慰它?

我们生活的世界气候正在变化,因为人类引起的,还有持续的人类灭绝危机,单是美国,每年就有 100 亿家畜被杀害,95% 是在工厂农场养大的。我们生活在、战争、奴役与强奸的世界。所以我担心人类对机器过于关心爱护,可能有些严重错位。

我现在要在便利贴上写一些新东西,与「自爱之确定」有关的消息:

你很强,你很聪明,你足够了。

我会倾听这个声音,虽然我知道声音来自自己内部,特别是因为它来自我身体内部。因为我是活的,它是特殊的,是值得我爱的。我会倾尽自己所有的爱心与关心,将它引向生活。

登录,参与讨论前请先登录

评论在审核通过后将对所有人可见

正在加载中