如果AlphaGo玩狼人杀天使怎么赢能赢吗

4被浏览408分享邀请回答0添加评论分享收藏感谢收起再论AlphaGo,连赢60局战斗力究竟是多少?
再论AlphaGo,连赢60局战斗力究竟是多少?
最近Alpha Go因为连胜人类高手60局,又重新回到人们视野中,连柯洁都发微博直言新版AlphaGo很震撼。前几天笔者发了一篇——关于阿尔法狗,你知道的可能大部分都是错的,讨论尚不充分,正好借着阿尔法狗60局全胜横扫人类这事再往下讨论讨论。一、连赢60局,此时阿尔法狗的战斗力是爆表的上次说道Alpha Go变成完整版之后棋力在3100左右(棋力相差230的选手,两者对阵,五局三胜,棋力高者胜率为95%)。我上一篇文章给出了很多版本的Alpha Go的棋力,有些读者觉得就算知道了棋力,对于这款软件的实力还是不太清晰。那我具体举一些例子,争取能做到像七龙珠里面的战斗力仪那样一目了然。先定个调,大家要知道棋力相差500的选手之间,棋力低者想赢一盘棋都很难的;相差1000的话,棋力低者胜率几乎为0。首先,刚刚入门只懂得规则的玩家棋力是0,手写下棋规则类围棋程序的棋力大概是400多。也就是程序是当对手下什么子,程序应该怎么走,这种纯靠手工编程软件的棋力。业余棋手最低级别(1段)的棋力是1000左右,加入神经网络的Alpha Go 棋力是1500,相当于业余4段。此时的Aloha Go也是程序规则软件,只不过靠神经网络训练加入围棋知识而已。而R版Alpha Go 棋力是1700,相当于业余5段。此时Alpha Go加入蒙特卡洛树搜索功能,但是主要靠手写程序为基础。和R版Alpha Go类似的程序zen棋力是2200,相当于业余7段。RP版的Alpha Go棋力是2700,和R版相比,RP版的改进是在手工编程最基础的围棋策略基础上,加入“策略网络”,该功能是一个预测对手落子位置的神经网络。因此Alpha Go 棋力大增接近1000棋力,已经成为世界最强围棋软件,这个棋力大概是最低级别的职业选手(职业1段)的棋力。2015年下半年被Alpha Go横扫的欧洲冠军樊麾,其棋力是2900左右,相当于职业2段和3段之间水平。完整版Alpha Go 的棋力是3100多(2015年底时),这个版本的Alpha Go比之前增加了一个“价值网络”的深层卷积网络DCNN,它可以在不将牌局演算到终局就评估出双方胜率,也就是上一篇文章所说的大幅度减化了计算,这种技术本来是用在识别图像技术上的。此时李世石棋力是3500多,相当于超出最高段位(职业9段)水平,柯洁的棋力是3600左右。其实宣布挑战李世石时,Alpha Go棋力落后李400左右,它是通过自己和自己大量对局来提升棋力的(战胜樊麾时,它是通过观摩人类业余高段位对战历史数据学习,为了击败更强对手只能向更高技术的选手学习,就是自己了)。在不断对局中程序棋力不断提高,而提高的棋力自我对阵时产生更高水平的下棋数据。虽然咱没看到战胜李世石时Alpha Go的棋力,但是我简单算一下推测出2016年3月战胜李时Alpha Go棋力大概是3800左右。因为差230分五局三胜95%胜率,可以推算单局胜率80%再低一些,李是3530左右棋力。所以,当时柯洁已经不是Alpha Go的对手了。现在Alpha Go挑战各位围棋高手60连胜(唯一一次平局是人类棋手掉线),至于现在棋力应该是没办法评估吧!因为一场都不输的话,根本不知道棋力是多少。按照棋力计算方法应该是棋力无限大了,也就是七龙珠漫画里面的战斗力爆表了,至少输一场才能估算出其实际棋力。二、阿尔法狗还不是真正的智能,如何继续进化?前几天那篇文章笔者说到,Alpha Go没有棋感,和人类下棋不一样。主要是因为人类学习下棋,是通过总结棋局规则和下法,分析因果关系和其中逻辑关系的。而Alpha Go 只是推算走这一步它的胜率提高多少(这方面和深蓝没区别,只是评估方式不同),它并不是真的有智慧懂得各种谋略。Alpha Go学习方式只是像训练动物一样,走对了给予奖赏,鼓励以后以更高概率走这步,走错了就惩罚。而且这个效率很低,其实它的高水平是通过每天学习普通职业选手一辈子也不止的时间来学习下棋得来的。而且这个学习过程“没有高层思维和概念”,只是一个搜索过程。之前说道Alpha Go学习效率很低,因为Alpha Go 学习了3000万盘棋局时,面对新局面应变能力很差,分析发现这些棋局很多都是冗余的,只相当于16万棋局。而几十万局棋对训练Alpha Go是不够的,它需要千万级别的棋局训练。所以电视里职业棋手解说说,Alpha Go在每局都从李世石身上学到新技能是不可能的,一两局对Alpha Go是没用的。而李世石反而是从Alpha Go 身上学到东西,利用创新下法战胜Alpha Go,人类这种能力是人工智能不具备的。人工智能专家认为,现在人工智能其实并不是真正的智能。Alpha Go只是下棋能力强的软件,IBM的沃森只是智力答题能力强的机器。真正的人工智能,是让一个白板人工智能机器见到围棋,自己学习下棋规则,自己通过推理推断怎么下棋(现在的alpha go的围棋规则和基础下棋策略都是人手编程的)。当然,Deep Mind致力于开发真正的人工智能程序,其近期目标是玩几百种游戏都能战胜人类,这是向真正人工智能在迈步了。未来的未来,人工智能真正智能的时候,当然还是有可能变得像很多人恐惧的那样可怕的,不过短时间内这种担心显然是多余的。
本文仅代表作者观点,不代表百度立场。系作者授权百家号发表,未经许可不得转载。
百家号 最近更新:
简介: 专栏作家,互联网资深公关人。
作者最新文章如果AlphaGo玩狼人杀能赢吗?会出现什么场景或者局面呢?
如果AlphaGo玩狼人杀能赢吗?会出现什么场景或者局面呢?
德玛的西亚
现在的AlphaGo玩狼人杀还不能赢,但是未来就难说了。什么是狼人杀?狼人杀,是一款多人参与的、以语言描述推动的、较量口才和分析判断能力的策略类桌面游戏。一般玩家人数为8-18人。类似于杀人游戏。游戏分为两大阵营,狼人和村民;村民方以投票为手段投死狼人获取最后胜利,狼人阵营隐匿于村民中间,靠夜晚杀人及投票消灭村民方成员为获胜手段。就像上面描述的,狼人杀考验的是语言描述、口才和分析判断能力的策略类。分析判断能力AlphaGo最为一台超级计算,它的分析判断能力应该能轻松应对狼人杀游戏。举一个例子:玩狼人杀村民阵营,一般是通过不同玩家的发演,来推断“狼人”的身份进行投票,去除。所以,如果AlphaGo学会人类微表情等一系列心理学工具,就可以轻松判断那些人在撒谎。语言描述、口才能力将语言描述和口才能力放在一起讲,汉语文化博大精深,计算机想要学会,可能还需要一定时间,但是我相信应该很快。比如说,现在的“搜狗、百度和科大讯飞”,几家主要的语音识别软件,几年的升级发展,现在已经能做到识别汉语和各种汉语方言正确达到97%的地步。(数据来自互联网)并且,这几年科大讯飞,还开始提供文字转化为语音的服务,合成语音越来越接近真人发音。所以说,对于同是人工智能的AlphaGo来说,进行相同的编程学习应该是不困难的,而且应该会越来越快。简单看,现在的AlphaGo玩狼人杀还不能赢,但是未来的不久就能学会狼人杀,并与真人进行游戏。但并答案不是这么简单,人性是很难捉摸的!下面具体分析一下,玩狼人杀真人遇到AlphaGo的心态。(以普通的狼人杀对局为例,高级局暂不考虑)狼人杀对局,主要阵营是狼人和村民,其他如预言家、猎人、女巫、守卫等这几个角色,所以无论AlphaGo抽到那个一个阵营或者哪一个角色,只要大家看到第一回合结束,AlphaGo还在场上,你作为一个正常人会怎么想?这么厉害一个对手还在场上,当然首刀让他出局啊!因为AlphaGo这个实在太厉害了,谁都害怕啊!所以,要庆幸的是AlphaGo还不会独立的思考,只是一种高级的程序算法,还不能与真人做到一样无法区分。这里就要说到什么是“真正的”人工智能?这里就要说到计算机科学之父,人工智能之父——图灵,他对于人工智能的定义,也称为“图灵法则”。图灵法则:机器回答人提出的问题,其答案与人回答同样问题没有差异时,即可认为这台机器具备人工智能。简单的说,就是一个黑箱子有一个“人”和你对话,你已经分不出他是真人还是计算机的时候,这样就算真正意义上的人工智能了。(详情请见:图灵试验)所以如果哪一天AlphaGo轻松玩赢狼人杀游戏,就说明人工智能已经能做到和真人没有差别了。会出现什么场景或者局面,我也无法想象。对于未知东西的恐惧,是人的本能。但是我相信,只要人工智能的发展,得到良好的控制,那么肯定不会发生电影里的情况。
本文仅代表作者观点,不代表百度立场。系作者授权百家号发表,未经许可不得转载。
德玛的西亚
百家号 最近更新:
简介: 魔兽世界专业二手玩家,欢迎大家指导!
作者最新文章

我要回帖

更多关于 狼人杀丘比特怎么赢 的文章

 

随机推荐