我不认为人工智能的进化必然是良性的。一旦机器人达到自我进化的阶段,我们就无法预测它们的目标是否与我们一致。
受益于人工智能进行交流的史蒂芬·霍金一次次地向人们警告,人工智能很危险。
在接受美国王牌脱口秀主持人拉里·金(Larry King)的采访时,这位英国物理学家表示,人工智能进化的速度比人类的角度更快,而这种进化可能朝着人们无法预知的方向发展。
我不认为人工智能的进化必然是良性的。一旦机器人达到自我进化的阶段,我们就无法预测它们的目标是否与我们一致。
人工智能究竟是天使还是恶魔?尽管业界各执一词,但存在这样一个共识:人工智能不能堕为一种专制力量,人类必须确保需人工智能的设计符合道德伦理规范。
说白了,就是技术不能落到坏人手上了。
于是避免人工智能失控的组织出现了——未来生命研究所(Future of Life Institute),这个由 Skype 联合创始人 Jaan Tallinn 和麻省理工学院教授 Max Tegmark 主导的组织,在去年召集了一众人工智能领域的专家签署了一封公开信:
我们认为,人工智能技术的健康发展,和给人类文明带来更多益处同样重要。我们发展人工智能系统必须在可控范围之内。
签署这封公开信的就有 Elon Musk 和霍金。
有趣的是,Elon Musk 曾在一次公开访谈说道:
就像所有的神话中画着法阵捧着圣水的邪恶巫师一样,每个巫师都声称自己可以控制恶魔,但没有一个最终成功的。