如果你孩子的泰迪熊机器人记录私人对话,这是否可接受?如果你的性爱机器人有应用内购买,那又如何?
即便在不短的未来里,机器人应该还是会保持无感知,但我们一直以来都对它们有感情。
事情缘起于 Kate Darling 买的一个机械恐龙玩具。这个玩具具备了丰富的反馈功能,当用户抚摸或以其它方式和它互动,它会发出不同声音和做出动作。
▲ Pleo 恐龙机器人
Darling 发现,当你抓住恐龙的尾巴倒吊,它会发出特别可怜的声音,并展示出挣扎的动作,她认为这个效果做得非常好,还不禁和朋友分享它设计的巧妙。
但是,她没看多久,发现自己居然开始为小恐龙感到难过,于是赶紧放它下来,并安抚它。
这在 Darling 看来很奇怪。因为她不算特别有母爱,更重要的是,她了解这个玩具的组成,且知道这个小恐龙只是机械产物,没有感知。即便如此,她还是难以避免对它产生情感。
她让更多人进行了类似实验,发现人们都会对小恐龙有感情。她意识到:
原来,我们天生就会将意图和生命投射到物理空间中任何看似可自主运动的事物上。连你家扫地机器人都是。
她认为,我们和机器人的这种关系,很像人类和动物的关系,虽然机器人(暂时)没有生命。而我们,也很可能以我们对待动物的方式将机器人融入我们生活——一部分作为我们投射情感的伙伴,而另一部分则作为工具和产品。
当承认了这种关系,我们就要考虑机器人应用场景和规则的问题。
承认这种感情联系,可以帮助我们预测挑战。譬如,如果你的孩子的泰迪熊机器人记录私人对话,这是否可接受?如果你的性爱机器人有应用内购买,那又如何?
机器人 + 资本主义 = 围绕消费者保护和隐私的问题。
▲ 图片来自 Cyber Security Portal
除此以外,Darling 认为人和机器人情感联系的研究还具有更大意义。
我的问题不是「我们是否会同情机器人?」,而是「机器人会改变我们的同情心吗?」延伸来说,我们需要阻止孩子踢一只电子狗吗?不仅因为那是别人的财物,而是因为当他开始踢一只电子狗,他更有可能会踢一只真狗?
Darling 提出的讨论,是在与机器人的交互中,人类获得的到底是对暴力倾向的释放,还是对暴力倾向的培养?而这个答案,很可能将影响我们未来的规则。
在过去这十年里我所认识到的,近乎都和科技无关。这一切,都只是关于人类心理、同情心,以及我们和其它人/物联系的方式。
因为,当孩子对扫地机器人友善,而士兵忍不住想救自己的机器人同伴,一群人舍不得伤害机械恐龙玩具,这些机器人就不再只是算法。
它们反映的是我们自己的人性。