霍金再发警告 人工智能的威胁进一步升级(2)
面对可能到来的人工智能的威胁,他已就人工智能对中产阶级工作岗位的影响向我们发出警告,并与特斯拉CEO埃隆·马斯克(ElonMusk)一起,呼吁禁止开发用于军事用途的人工智能机器人。他也担心人工智能可能会接管世界,或者更糟糕的是,它会终止这个世界。现在,他在接受英国《泰晤士报》采访时表示,防御人工智能崛起的最好方式,是组建可以控制这种技术的“某种形式的世界政府”。
霍金接着解释了他建立这样一家国际管理机构的理由:
自人类文明开始以来,人类的积极进取是有益的,因为它具有明确的生存优势。它是在达尔文进化过程中渗透到我们人类基因的。然而,现在技术的发展速度,使这种积极进取可能以核战争或生物战争的方式摧毁我们人类。我们需要利用逻辑和理性来控制这种继承下来的本能。
为了跟上人工智能的发展,我们必须学会适应。霍金在2014年年底表示:“人工智能的发展可能会导致人类的终结。它将自己发展自己,并以不断增长的速度重新设计自己。人类则受到缓慢的生物进化限制,将无法与它竞争,并最终将被它取代。”
他认为这些人工智能机器人抛弃我们,不会是出于任何情感的原因:“人工智能的真正风险不是它有恶意,而是它的能力。一个有超常智慧的人工智能能将非常善于实现目标,如果那些目标与我们的目标不一致,那我们就麻烦了。”
因此,根据霍金的看法,某种形式的管理机构和快速适应的能力——这是即将到来的人工智能或超级智能时代我们生存的法宝。
幸运的是,这样的机构已经出现。这些机构,例如“人工智能伙伴关系”(PartnershiponAI)和人工智能伦理与治理基金(EthicsandGovernanceofArtificialIntelligenceFund),已经开始制定有关指导方针或框架,以让人们更负责任地开发人工智能技术。国际电子电气工程协会(IEEE)还发布了世界首个有关人工智能道德准则的“指南”。