东西方文化的差异让 AI 价值观的制定变得困难
机器没有价值观吗?
恰恰相反,不是没有,只是人类还没有准备好而已,正如基辛格所说:
面对人工智能的兴起,人类社会在哲学、理智等各方面都还没有准备好。
当然,人类已经意识到了问题所在。
去年六月份,Google 决定放弃与美军续签一份 AI 军事合作合同,并在随后表示将会建立军事 AI 价值观原则。
随着 AI 在人类社会中扮演着越来越重要的角色,制定 AI 价值观的重要性显得更为重要。事实上,除了 Google 以外,像微软、IBM、百度、腾讯也都正在陆续建立自己的 AI 价值观原则。
所以在 AI 的竞争上,出了技术和应用本身外,价值观的建立,实际上已经成为了一条新的赛道。
然而,从目前的形势来看,要形成统一的价值观,所要走的道路还十分遥远。当中中西方文化的差异,也是统一 AI 价值观的一大阻碍。
在最近的世界人工智能伦理研讨会上,来自 Berggruen 研究所的 Song Bing 就表示:
西方在 AI 价值观的建立上更侧重于公平、透明、个人权利以及隐私。而对于中国来说,则会优先考虑开放、包容以及普适性。中西方文化的差异,让 AI 价值观的统一制定变得更加艰难。
其中一个例子,当西方 AI 科技巨头都在大力探索「AI 人性化」时,来自中国的观点则认为「人类是世界上最为糟糕的动物」,AI 应该制定出比人类更高的道德标准。
所以,从目前看来,在探究 AI 价值观的道路上,颇有百花齐放之势。但几乎一致认为的是,如果没有形成广泛的共识,没有形成统一的约束,割裂、分散的 AI 价值观探索所能起到的意义其实并不大。
而来自北京科学研的 Zeng Yi 对此则认为,中西方在制定 AI 价值观时并不存在竞争关系,反而需要相互完善,为人工智能能提供全球视野。