办事指南

自学成才,“超人”AI现在更聪明 - 制造者

点击量:   时间:2017-09-24 19:09:23

<p>巴黎:在一场需要“直觉”的战略棋盘游戏中击败最好的凡人球员,震撼人性的计算机变得更加智能,其制造商周三表示更令人吃惊的是,AlphaGo的更新版本完全是自学成才 - 迈出了重要的一步他们在科学杂志“自然配音AlphaGo Zero”中报告说,人工智能(AI)系统在几天之内学会了掌握中国古代棋盘游戏“人类智能”(AI)去“ - 据说是有史以来发明的最复杂的双人挑战它提出了自己的,新颖的举动,以消除人类几千年来所获得的所有Go敏锐度经过短短三天的自我训练后,它被放到了对AlphaGo的终极测试,它的前身已经取代人类顶级冠军AlphaGo Zero赢得了100场比赛的胜利,“AlphaGo Zero不仅重新发现了常见的模式和开口,人类倾向于玩......它最终放弃了它们,而不是人类现在甚至不知道或玩的自己的变种,“AlphaGo首席研究员大卫·西尔弗说,这个有着3000年历史的中国游戏玩黑白相间的石头在板上有更多的移动配置可能比宇宙中的原子AlphaGo成为世界头条新闻2016年3月以18-1的胜利震撼冠军Lee Se-Dol,这是该游戏的历史大师Lee的失败之一当时的专家表示人工智能的进展速度比人们普遍认为的要快,当时的专家呼吁制定规则以确保强大的人工智能始终完全由人类控制</p><p>今年5月,更新的AlphaGo大师计划在三场比赛中击败世界排名第一的科杰三个不受人类约束的不同之前,它通过对抗自身来练习数千人类游戏的数据,而AlphaGo Zero并没有向人类学习,也没有通过再次学习来学习据英国人工智能(AI)公司DeepMind的研究人员称,他们开发了“所有以前版本的AlphaGo ......”,他们被告知:'好吧,在这个位置上,人类专家发挥了这一特殊的作用,而在另一个位置“人类专家在这里玩”,“西尔弗在一段视频中解释说,AlphaGo Zero的进步已经超过了这一步</p><p>相反,它被编程为响应奖励 - 胜利的积极点与损失的负点从仅仅是Go的规则开始没有说明,系统学习游戏,设计策略并改进,因为它与自己竞争 - 从“完全随机游戏”开始,弄清楚如何获得奖励这是一个试错过程,被称为“强化学习”与其前辈不同,AlphaGo Zero“不再受人类知识限制的束缚”,Silver和DeepMind首席执行官Demis Hassabis在博客中写道,令人惊讶的是,AlphaGo Zero使用了一台机器一个模拟人类大脑的“神经网络” - 与击败Lee的多机器“大脑”相比它拥有四个数据处理单元,相比AlphaGo的48个,并且在三天内播放了4900万个训练游戏,相比之下,几个月内有3000万个到底</p><p> “人们倾向于认为机器学习完全是关于大数据和大量计算,但实际上我们用AlphaGo Zero看到的是算法更重要,”Silver表示,调查结果表明基于强化学习的人工智能比那些更好</p><p>依靠人类的专业知识,密歇根大学的Satinder Singh写了一篇同样由Nature撰写的评论“然而,这并不是任何目的的开始,因为AlphaGo Zero与所有其他成功的AI一样,在它所知道的内容中非常有限与人类甚至其他动物相比,它可以做些什么,“他说AlphaGo Zero自身学习的能力”可能看起来非常自主“,牛津大学人类未来研究所的Anders Sandberg补充说但是有一个重要的区别他告诉法新社,“人类拥有的通用智能和计算机软件的专业智能之间”是什么DeepMind过去已经证明了耳朵是人们可以制作可以变成不同领域专家的软件......但它并没有变得普遍聪明“还有值得注意的是,AlphaGo不是自己编程,桑德伯格说 “使Zero变得更好的聪明见解是由于人类,