霍金说 AI 可能是人类的灾难,有理有据你会信吗?
科幻小说《2001: 太空奥德赛》和根据它改编而成的经典电影《2001 太空漫游》,讲述了 AI 由人类帮手变为人类毁灭者的故事。我们亲手打造的 AI,会在未来葬送人类吗?霍金表示,这绝非危言耸听。
图片来自:视频截图
近日,在剑桥大学 Leverhulme 智能未来中心的开幕式上,霍金为火爆的 AI 行业泼了盆冷水。
“我们花了大量时间学习历史,” 霍金在演讲中说道,“而我们所面对的历史,大多是愚蠢的。所以,现在人们在研究智能的未来,这是一个令人欣慰的变化。”
霍金表示 AI 研究的确带来了许多积极因素,认为通过这项新技术,人类或许能够消除工业化对自然界造成的一些损害,而最终目标肯定是消除疾病和贫困。
“创造出智慧的潜在好处是巨大的,我们无法预测当我们的心智被 AI 增强时,我们将达到何种成就。”
“我们生活的方方面面都会被改变,总之,成功创造出 AI 可能是我们文明史上最重要的事。”
图片来自:Kiplinger
然而,作为享誉世界的物理学家,霍金对于 AI 持谨慎态度,他认为一旦人类创造出具有自我意识的超级智慧,可能会面临着自我毁灭的风险,因为 AI 的意志可能会与我们产生冲突。
“总之,强大的 AI 的兴起,或许将是人类最好或是最糟糕的事,这我们还不清楚。”
霍金之所以会有这种担忧,是因为在他看来,AI 的潜力是无限的,“生物大脑与电脑的能力并没有太区别。”
“因此,从理论上讲,计算机可以模仿人类智慧,并超越它。”
这已经不是霍金第一次对 AI 潜在威胁提出警告了。去年年初,霍金就与一些 AI 专家,还有马斯克、沃茨等名人发表联合声明,呼吁禁止武器化 AI 和自主作战系统。
图片来自:Gralien Report
当时霍金解释说,AI 的真正风险不在于其是否充满恶意而在于其能力。他举了个例子:你在负责一项水利工程时,不得不淹没蚁穴,尽管你并不是一个仇恨蚂蚁的人,但在完成目标时无意间就为蚂蚁带来了灭顶之灾。
所以,当一个能力 MAX 的超级人工智能在执行任务时,如果它的目标与人类不一致,那么人类就有可能面临与蚂蚁同样的厄运。
尽管目前人工智能的发展仍处于起步阶段,但霍金对于 AI 威胁的评价,或许值得我们深思:
“人工智能的短期影响取决于谁控制了它,而长期影响则取决于它到底能不能被控制。”
题图来自:Silver Ferox