Google 黑人问号脸: 我 TensorFlow 搭地这么好, 你就用来制作小黄片?
本文发布于机器之能(微信公众号:almosthuman2017),编译:高静宜、王宇欣,来源: Quarz,转载请联系 [email protected]
2015 年,Google 宣布开源 TensorFlow,自此,人工智能在全世界范围内的发展基调开始发生变化。
用 Google CEO 劈柴大人的话来说,这项举措的出现相当于打造了一款如电能般影响深远的技术,它是开放的、免费的、任何人都可以上手使用的。
正因如此,人工智能的门槛大大降低,之前可能需要一个专业的博士才能完成的任务,现在一台笔记本电脑就可以实现,人们能够尽情地在人工智能的海洋里展开探索。
不过,这也意味着 TensorFlow 无可匹敌的能力有可能超出 Google 的掌控。
在 TensorFlow 开源后的两年多时间里,学术界和硅谷是利用这个软件并挖掘出其无限潜力的主力军。但是现在,事情起了变化。
导火索是 Reddit 上一个名为 deepfakes 的用户,他打造了一款人工智能软件,可以自动将任何脸部图像(几乎)无缝地拼接到视频中去。
之后,剧情直转急下——一些人开始利用这款软件把著名女性或是 Facebook 上朋友的脸拼接到了色情片女主的身上。
在人工智能的这种用途被媒体报道之后,deepfakes 在 Reddit 上创建了子版块,目前该板块已经聚集了超过 91000 名用户。
而后,Reddit 上又出现了一个化名为 deepfakeapp 的用户,他开放了一个名为 FakeApp 的工具,允许任何人下载这款人工智能软件,并在硬件允许的情况下能够自行使用这款软件。
爱范儿此前详细报道过此事,不了解的读者可以通过这里回顾 TensorFlow 怎么就了自制 AI 色情短片的利器。
情况显然已经有点不受控制了,终于逼得 Reddit 出面。
所有的工具以及不可描述画面都没有了,哈哈哈,你看不到
近日,Reddit 宣布禁止这种做法,并宣称其已经违反了网站的相关政策。
根据 FakeApp 给出的用户指南,这款软件建立在 TensorFlow 之上。
此前,Google 员工使用 TensorFlow 完成了很多开创性的工作,也曾训练算法生成许多全新的图像,只不过设置和主题略有不同。
从另一个角度看,deepfakes 也可以做出很多有趣的用法,例如把尼古拉斯·凯奇拼接到不同的电影中等等。可现实往往令人唏——订阅 Reddit 色情子版块的用户人数都达到 91000,这可不是个小数目。
不可否认的是,尽管 TensorFlow 的开源带来了很多积极的影响,比如潜在癌症检测算法,但是 FakeApp 这类开源的黑暗面也的却存在。
以 Google 为代表的科技巨头们似乎已经放弃了对这种威力巨大的技术能力的追索权和控制权。任何人都可以下载人工智能软件,再把它们用于自己创建的任何数据之上。
这意味着,从伪造政治演讲再到生成虚假的色情作品都成为了可能。
所有这些产品的数字媒介都是一系列的 1 和 0,人工智能证明了它可以巧妙地排列这些 1 和 0 生成之前从未有过的事物。
由于软件可以在本地计算机上运行,所以科技巨头们在软件离开自己服务器之后不得不「放手」。
开源这件事,或者说是现代软件开发看待开源的方式决定了,科技巨头们可以在他人利用软件进行犯罪的时候置身事外,也就是不用担负任何责任。
这样看来,开源跟枪或是跟香烟没有两样,都是双刃剑。
目前看来,这一现状还无法改变。
软件免费对于这些公司来说是一笔不错的生意,原因在于,开源允许更多人来开发人工智能。而每一个科技巨头都在尽可能地争夺人工智能人才,越多人涌入这个领域自然越好。
此外,人们使用代码展开新的工程也将会刺激新产品的诞生,公司外的人可以找到并修复代码中的漏洞,学生们还可以在本科和博士阶段基于这些软件进行学习,这些都相当于帮助公司吸取经验,更好地进行实践落地。
「人们往往会谈到过去五年中机器学习领域有重大突破,但是真正的突破其实并不在于算法。对于 70、80、90 年代来说,算法都是一样的,真正的突破在于开源。」
美国电报电话公司 AT&T 技术副总裁、前机器学习研究员 Mazin Gilbert 说道,「开源所做的就是降低了人们进入这一领域的门槛,让人工智能不再是 IBM、Google 和 Facebook 这些拥有雄厚实力的科技巨头们的专利。」
同样,开源软件也使人工智能发展中存在的道德问题变得更加复杂化。Google 如今提供的工具并不是创建 Skynet 或是其他超级智能的关键所在,但这些工具确实能造成实际的伤害。
Google 和微软这类提供开源人工智能框架的公司都一直表示,人工智能发展中遇到的伦理问题不会造成实际伤害,他们的科学家也都签署了保证书并且针对这一主题建立了研究小组。
可是,公司却不会为下载免费软件的用户们提供任何指导或是授权。
TensorFlow 网站会显示如何让软件运行,但是不会有任何形式的声明指导用户如何在伦理层面上正确使用软件或是确保用户的数据集不会出现偏差。
几个月前,微软人工智能副总裁 Harry Shum 在被问及,公司计划如何指导那些使用开源软件或是付费开发者工具的用户来创建符合伦理、无偏差的机器学习系统时,他的回答是,目前尚不清楚。
「这真的是一件非常非常困难的事情,我不认为我们现在会有一个简单的解决方案。我们逐渐学到的一件事情就是,在设计机器学习算法时,就要试图找到算法的盲点。」Shum 说道。
Google 也没有对类似的问题作出回应。
当然,取消人工智能的开源也不是一个理想的解决方案。因为这样的话,人们就很难看到这些科技巨头们是如何开发人工智能算法的。
把研究结构放在 ArXiv 之类的网站上,在 Github 上分享原始代码意味着,记者、学者和伦理学家都能发现其中潜在的缺陷并进行相应问责。
可是如果不加以管控,不久的未来会有更多种类的虚假视频出现在 Facebook 和 Twitter 等主流平台,人为推动的政治宣传也会落地生根。
虽然这些都不在科技巨头的职权范围内,但是各大公司的人工智能研究员也在寻找潜在的解决方案。
显而易见,在较短时间内解决这个问题并不现实。毕竟,软件都已经被下载了。
鉴于核心技术的开发者仍将拒绝对 deepfakes 这类软件作者所做的事情负责,所以这份自然重担就落在了分享视频和图像的平台肩上。
举个例子,动图托管平台 Gfycat 可以删除所有 deepfakes 托管在其网站上的动图,Reddit 也禁止这类子版块。
PornHub 也在接受采访时表示,将会删除这类视频。他们认为,这类视频是在没有经过双方同意的情况下擅自使用了某人的肖像。
不过,deepfakes.club 这个网站却仍然存在于主流社交媒体的权限之外。无论之后,deepfakes 软件将会走势如何,这都仅仅是一个开始。