你的观点,真的不是 AI「灌」给你的吗?
我们和工具的关系,从来都不只是「使用」和「被使用」。
虽然 ChatGPT 让更多人关注到 AI 的潜力,但融入了 AI 的工具,我们其实使用已久。然而,我们对于工具于人的影响,相关研究认知还是偏少。
不少人已经知道,社交媒体平台的推荐算法,不仅让手机「越来越好刷」,同时也以「猜你喜欢」来把用户卷入信息茧房。
那些自动纠正拼写、自动生成邮件回复、生成 PPT 的 AI 工具,你也许会觉得是自己在指挥它们工作,但这些工具真的不是你想象中「中性」。
写着写着,你就被说服了
越来越多研究指出,AI 工具在人们没意识到的情况下改变人们的想法。
其中一个最新研究指出,当被研究对象用 AI 来辅助写论文,AI 会根据自身偏见,推动研究对象去写一篇支持或反对特定观点的论文。
同时,写论文这个过程也会大幅影响用户对这个话题的看法。
康奈尔大学的 Mor Naaman 将这称为「隐性说服」,并表示人们「可能根本不知道自己在被影响」。
AI 虽然能让人更高效,但也会潜移默化地改变人的观点。
而且,AI 改变人的方式更像一个人通过合作和社会活动去改变说服另一个人,没那么像社交媒体对我们的影响方式。
另一份研究则针对了 Gmail 的智能回复功能。
在这个功能辅助下,人们会发出更积极的回复,用户间的交流沟通也更加积极。
第二个研究则指出,这种自动回复,也会让接收者认为发出的人更温暖和愿意合作。
考虑到微软和 Google 等公司都在将 AI 有机地融入到各个办公软件里,AI 对人们进一步的影响也近在咫尺。
在最坏的情况下,掌握权力和技术的人,能够通过这些看似无害,还能提高生产效率的工具来推动和影响人们对特定事物的态度。
和社交媒体上应用的推荐算法、过滤泡泡和兔子洞外相比……这里最有趣的地方在于其「隐秘性」。
发现了这个情况的研究员认为,最佳的防御方式是让人们意识到这个问题的存在。
而从更长期来看,管制要求 AI 保持透明化也是另一种方式 —— 让用户知道特定 AI 持有的是怎样的偏见。
哥伦比亚大学教授 Lydia Chilton 指出,当人们了解 AI 具体持有什么偏见,并选择将此偏见为己所用,决定在何时使用,人们就会重新获得自主性。
是「偏见」,也是一种「目标观」
AI 无「价值观」,但因为训练素材和调教的人有价值偏向,所以 AI 会有偏见。
研究人员认为,这种偏见,在某些程度上能帮助我们了解特定群体对特定事件的态度。
然而,在利用前,我们要先研究清楚,AI 的偏向是什么。
Tatsunori Hashimoto 博士和同事们想到了一种方法 —— 让 AI 来做问卷调查。
Hashimoto 的团队让 AI 去做了皮尤研究中心理念的民意调查问卷,并将 AI 做出来的结果和皮尤本身划分的调研群体做对比,找出特定 AI 的「偏见」和什么群体更相似。
研究发现,OpenAI 语言模型(非最新版)的「偏见」并不符合大部分美国群体的观念,而是更接近大学生群体。
研究推测,可能因为这个群体的人最有可能负责类似语言模型的调整,所以语言模型也更能反映出这个群体的观念。
哥伦比亚大学教授 Lydia Chilton 认为,当人们能够看清 AI 背后的「偏见」立场是什么,我们不仅可以避免受到「隐性说服」的影响,也能更好地利用这些工具。
譬如,销售部分可以专门打造主攻销售的 AI 助手,立场就是要完成销售;客服部门也可以打造自己的服务型 AI 助手,目标就是要让客人开心。
而且,人们也可以会主动用特定 AI 来把自己推向特定表达方式(或者是他们心目中理想的表达方式):
我觉得要兴奋起来,用快乐的语气说话好累人。
一般来说,咖啡因对这有点帮助,而现在 ChatGPT 也能帮上忙了。