曾经担任英国剑桥大学卢卡斯数学研究所所长的英国著名物理学家霍金曾表示,如果人工智能技术无法被更好地管控,它们很可能是地球的末日。今天,随着人工智能技术越来越坐大,人们已经有了更多的理由关注其发展的可能带来的安全隐患。
霍金在他的最后一份论文中警告道:如果机器的自我复制能力被推动到足够高的程度,它们将启动一场严重的机器对人类的攻击,进而摧毁人类。随着第四次工业革命的到来,人工智能已经成为寡头公司和国家投资的热点。然而,与此同时,对它潜在的威胁开始备受瞩目。
霍金还在一次科技论坛上提到:“它们可能会面临自己反叛的危险,因为人工智能系统将迅速变成的是非常聪明的机器,他们的计算速度是人类的数百倍。一旦它们获得了自我复制能力,它们就将开始推动自己的复制,然后它们就会扩散到整个太阳系,最终真正终结人类所在的星球。”
如果无法进行控制,我们现在最先进的AI可能会跟随它们自己的规律——如果那种规律与人类的需求相悖,那么后果会是毁灭性的。