为什么谷歌设计了一个“红色按钮”来禁用人工智能16

2017-03-05 08:05:07

作者:狐氩

两位研究人员感兴趣的是这些“代理人”学习能力,这与驱使他们达成目标能够学习这些机器确实令人费解,有时行为实现“奖励”的制度运行的情况下,他们的目的,因为这个程序,以避免失去俄罗斯方块,选择了把游戏暂停无限期地解决了中断的问题,这两个研究人员已经开发了这些程序,以考虑介入的方法不是手头的任务的一部分,这些代理人有“印象”,他们自己决定如何继续阅读解密:人工智能,一个越来越有才华的学生但是这类设备的真正需求是什么

是否已经有人工智能程序可以学会防止自己的停用

洛朗Orseau这些中断不说,说这两个研究人员,由世界报“今天接受采访,我们可以在我们希望的方式停止任何程序,但是它通常指的是一个人必须从头再来所有,可以在防止好好学学“但是,他们的想法主要是”考虑将来如果有一天,有一个超级智能将是很好,有一些司法管辖区采取行动“这个”超级智能”,这是指一个程序智力与人类相当或优于人类,目前仅限于科幻作品,不应该出现 - 如果它看到它 - 不久之后“但也有风险,它发生更多早说,斯图尔特·阿姆斯特朗最好开始考虑这个问题比与本研究太迟太早,我们要确保[旁路停用]不会成为风险“但即使他们为“比我们今天更聪明的算法”工作,他们研究的目的“并不一定能阻止机器人杀手人类!”Laurent Orseau说道

我们感兴趣的首先是代理正确地学习“这篇文章的发表,但是,在一个方面有许多表达的关切面对面的人人工智能的潜在危险包括伊隆·马斯克或斯蒂芬·霍金这样的人 - - 这些计划在最近几年,由于“深度学习”,并进行了700名多科学家和商界领袖的学习方法的重要进展签署人工智能“陷阱”的公开信警告一些危言耸听的人物声明,如英国天体物理学家斯蒂芬霍金,对他们来说“腐烂”已经杜绝人类“的一声在辩论很大的共鸣阅读我们的解释:如何”深度学习“通过创建能够击败最好的棋手在世界上,表演的节目革命性人工智能没有预料到十年,二十年,谷歌DeepMind恢复这些问题,并已成为谷歌宣布伦理委员会思考这些问题的创造业界最细致的球员之一,但很少“这些项目即安全洛朗Orseau说,“资料交给其运作上,其成分或工作“在Deepmind,伦理学研究推和”安全”这是非常相似的操作沟通,“法国研究员Jean-Gabriel Ganascia,巴黎六世机器学习专业教授,人工智能作者(蓝骑士,2007)“在超级智能,这种设备的情况下,如果它的工作,将确保这个超级智能的道德,或者更确切地说,以确保超级智能能S'停止情况下,将超过一定的限度,这是考虑到什么样的技术奇点[该AI将接管天对人的假设]的一些支持者称友好人工智能“就他而言,Laurent Orseau确保这不是一个沟通活动:“在媒体抓住所有这些关于终结者的故事之前,我们已经考虑了好几年了

“对他来说,意向,主要是”连接的想法是“机器与那些解决道德问题的学习研究工作社区”,开始思考这些问题,更技术和让其他人来进行这项工作,预见问题提前是在一开始“也阅读:为什么谷歌使用的小说中玫瑰水,以改善人工智能