霍金再发警告 人工智能的威胁进一步升级
来源:邪恶姐时间:2017-08-30
目前人工智能制造已经备受科学家的关注,早前霍金就一直在提出人工智能对人类未来发展的危害性。最近,霍金再发警告,称人工智能已经慢慢脱离人类的控制,长此以往,人类将会成为弱势群体,而人工智能随着他们的进一步发展将可能具备某种优势,它们可能会通过生物战争摧毁我们。对于人工智能的威胁,人类究竟能不能成功解除?
最近,霍金对从地外生命到人工智能(AI)等一些热门话题表达了自己的观点。对于后者,他表示出非常担忧。他并不反对开发人工智能技术,事实上,他曾经说过人工智能可能是我们文明历史上最重大的事件。但是像今天世界上其他许多科学家和思想家一样,霍金担心人工智能的威胁可能带来各种负面的副作用。
报道说,霍金慷慨地分享他对世界的观察,并提出关于世界所面临的问题的警告。他认为,世界的毁灭已经逼近,人类创造了可以毁灭地球的科技,却没有建立有效的机制去防止毁灭的发生。
这位全球知名的物理学家认为,人类的科技进步太过迅速,而这个巨大的步伐却可能经由生化或核子战争的方式摧毁人类。人类唯一的办法,就是运用其逻辑与理性去控制这个可能即将到来的毁灭。
霍金还说,当这些人工智能学会自我思考并适了人类的环境,人类等于是慢慢走向灭绝。虽然人工智能的进展可以让人类受益,包括根除疾疾、战争与贫穷,但它也有负面的影响,人类的贪婪与愚蠢是人类毁灭的根源。
霍金最后总结道,人类的智商让他可以创造出最后将可毁灭世界的科技,但人类却至今没有发展出可以避开此命运的能力。
小亲们,点击文章图片可以快速进行(翻页)切换哦~