L的dnf组队连接不上系统是什么原理没玩明白

语音识别的技术原理是什么?
简要给大家介绍一下语音怎么变文字的吧。需要说明的是,这篇文章为了易读性而牺牲了严谨性,因此文中的很多表述实际上是不准确的。对于有兴趣深入了解的同学,本文的末尾推荐了几份进阶阅读材料。下面我们开始。首先,我们知道声音实际上是一种波。常见的mp3等格式都是压缩格式,必须转成非压缩的纯波形文件来处理,比如Windows PCM文件,也就是俗称的wav文件。wav文件里存储的除了一个文件头以外,就是声音波形的一个个点了。下图是一个波形的示例。在开始语音识别之前,有时需要把首尾端的静音切除,降低对后续步骤造成的干扰。这个静音切除的操作一般称为VAD,需要用到信号处理的一些技术。要对声音进行分析,需要对声音分帧,也就是把声音切开成一小段一小段,每小段称为一帧。分帧操作一般不是简单的切开,而是使用移动窗函数来实现,这里不详述。帧与帧之间一般是有交叠的,就像下图这样:图中,每帧的长度为25毫秒,每两帧之间有25-10=15毫秒的交叠。我们称为以帧长25ms、帧移10ms分帧。图中,每帧的长度为25毫秒,每两帧之间有25-10=15毫秒的交叠。我们称为以帧长25ms、帧移10ms分帧。分帧后,语音就变成了很多小段。但波形在时域上几乎没有描述能力,因此必须将波形作变换。常见的一种变换方法是提取MFCC特征,根据人耳的生理特性,把每一帧波形变成一个多维向量,可以简单地理解为这个向量包含了这帧语音的内容信息。这个过程叫做声学特征提取。实际应用中,这一步有很多细节,声学特征也不止有MFCC这一种,具体这里不讲。至此,声音就成了一个12行(假设声学特征是12维)、N列的一个矩阵,称之为观察序列,这里N为总帧数。观察序列如下图所示,图中,每一帧都用一个12维的向量表示,色块的颜色深浅表示向量值的大小。接下来就要介绍怎样把这个矩阵变成文本了。首先要介绍两个概念:音素:单词的发音由音素构成。对英语,一种常用的音素集是卡内基梅隆大学的一套由39个音素构成的音素集,参见?。汉语一般直接用全部声母和韵母作为音素集,另外汉语识别还分有调无调,不详述。状态:这里理解成比音素更细致的语音单位就行啦。通常把一个音素划分成3个状态。语音识别是怎么工作的呢?实际上一点都不神秘,无非是:第一步,把帧识别成状态(难点)。第二步,把状态组合成音素。第三步,把音素组合成单词。如下图所示:图中,每个小竖条代表一帧,若干帧语音对应一个状态,每三个状态组合成一个音素,若干个音素组合成一个单词。也就是说,只要知道每帧语音对应哪个状态了,语音识别的结果也就出来了。图中,每个小竖条代表一帧,若干帧语音对应一个状态,每三个状态组合成一个音素,若干个音素组合成一个单词。也就是说,只要知道每帧语音对应哪个状态了,语音识别的结果也就出来了。那每帧音素对应哪个状态呢?有个容易想到的办法,看某帧对应哪个状态的概率最大,那这帧就属于哪个状态。比如下面的示意图,这帧在状态S3上的条件概率最大,因此就猜这帧属于状态S3。那这些用到的概率从哪里读取呢?有个叫“声学模型”的东西,里面存了一大堆参数,通过这些参数,就可以知道帧和状态对应的概率。获取这一大堆参数的方法叫做“训练”,需要使用巨大数量的语音数据,训练的方法比较繁琐,这里不讲。但这样做有一个问题:每一帧都会得到一个状态号,最后整个语音就会得到一堆乱七八糟的状态号,相邻两帧间的状态号基本都不相同。假设语音有1000帧,每帧对应1个状态,每3个状态组合成一个音素,那么大概会组合成300个音素,但这段语音其实根本没有这么多音素。如果真这么做,得到的状态号可能根本无法组合成音素。实际上,相邻帧的状态应该大多数都是相同的才合理,因为每帧很短。解决这个问题的常用方法就是使用隐马尔可夫模型(Hidden Markov Model,HMM)。这东西听起来好像很高深的样子,实际上用起来很简单:第一步,构建一个状态网络。第二步,从状态网络中寻找与声音最匹配的路径。这样就把结果限制在预先设定的网络中,避免了刚才说到的问题,当然也带来一个局限,比如你设定的网络里只包含了“今天晴天”和“今天下雨”两个句子的状态路径,那么不管说些什么,识别出的结果必然是这两个句子中的一句。那如果想识别任意文本呢?把这个网络搭得足够大,包含任意文本的路径就可以了。但这个网络越大,想要达到比较好的识别准确率就越难。所以要根据实际任务的需求,合理选择网络大小和结构。搭建状态网络,是由单词级网络展开成音素网络,再展开成状态网络。语音识别过程其实就是在状态网络中搜索一条最佳路径,语音对应这条路径的概率最大,这称之为“解码”。路径搜索的算法是一种动态规划剪枝的算法,称之为Viterbi算法,用于寻找全局最优路径。这里所说的累积概率,由三部分构成,分别是:观察概率:每帧和每个状态对应的概率转移概率:每个状态转移到自身或转移到下个状态的概率语言概率:根据语言统计规律得到的概率其中,前两种概率从声学模型中获取,最后一种概率从语言模型中获取。语言模型是使用大量的文本训练出来的,可以利用某门语言本身的统计规律来帮助提升识别正确率。语言模型很重要,如果不使用语言模型,当状态网络较大时,识别出的结果基本是一团乱麻。这样基本上语音识别过程就完成了。以上的文字只是想让大家容易理解,并不追求严谨。事实上,HMM的内涵绝不是上面所说的“无非是个状态网络”那么简单,如果希望深入了解,下面给出了几篇阅读材料:1. Rabiner L R. A tutorial on hidden Markov models and selected applications in speech recognition. Proceedings of the IEEE, ): 257-286.入门必读。深入浅出地介绍了基于HMM的语音识别的原理,不注重公式的细节推导而是着重阐述公式背后的物理意义。2. Bilmes J A. A gentle tutorial of the EM algorithm and its application to parameter estimation for Gaussian mixture and hidden Markov models. International Computer Science Institute, ): 126.详细介绍了用E-M算法训练HMM参数的推导过程,首先讲E-M的基本原理,然后讲解如何应用到GMM的训练,最后讲解如何应用到HMM的训练。3. Young S, Evermann G, Gales M, et al. The HTK book (v3.4). Cambridge University, 2006.HTK Book,开源工具包HTK的文档。虽然现在HTK已经不是最流行的了,但仍然强烈推荐按照书里的第二章流程做一遍,你可以搭建出一个简单的数字串识别系统。4. Graves A. Supervised Sequence Labelling with Recurrent Neural Networks. Springer Berlin Heidelberg, .基于神经网络的语音识别的入门必读。从神经网络的基本结构、BP算法等介绍到 LSTM、CTC。5. 俞栋, 邓力. 解析深度学习——语音识别实践, 电子工业出版社, 2016.高质量的中文资料非常稀有,推荐买一本。最早把深度学习技术应用于语音识别就是这本书的作者。
楼上张俊博的回答比较仔细的讲解了基础的经典语音识别算法。我想对算法背后的含义做一个简单的解释,对涉及到的特征提取(包括分帧)、音素建模、字典、隐式马尔科夫模型等可以参阅楼上的回答。语音识别的第一个特点是要识别的语音的内容(比声韵母等)是不定长时序,也就是说,在识别以前你不可能知道当前的 声韵母有多长,这样在构建统计模型输入语音特征的时候无法简单判定到底该输入0.0到0.5秒还是0.2到0.8秒进行识别,同时多数常见的模型都不方便处理维度不确定的输入特征(注意在一次处理的时候,时间长度转化成了当前的特征维度)。一种简单的解决思路是对语音进行分帧,每一帧占有比较短固定的时 长(比如25ms),再假设说这样的一帧既足够长(可以蕴含 足以判断它属于哪个声韵母的信息),又很平稳(方便进行短时傅里叶分析),这样将每一帧转换为一个特征向量,(依次)分别识别它们属于哪个声韵母,就可以 解决问题。识别的结果可以是比如第100到第105帧是声母c,而第106帧到115帧是韵母eng等。 这种思路有点类似微积分 中的『以直代曲』。另外在实际的分帧过程中,还有很多常用技巧,比如相邻两帧之间有所重叠,或引入与临近帧之间的差分作为额外特征,乃至直接堆叠许多语音帧等等,这些都可以让前述的两个假设更可靠。近年来,研究种也出现了一些更新颖的处理方式,比如用.wav文件的采样点取代分帧并处理后的语音帧,但这样的方法在处理速度及性能上 暂时还没有优势。当我们有了分帧后的语音特征之后,下一步常用的处理是使用某种分类器将之分类成某种跟语音内容相关的类别,如声韵母,这一步通常称作声学模型建模。对于分类目标的选取,最简单的选择可以是词组,或者是组成词组的汉字所对应的音节。但这样的选择方式通常会对训练模型的语音数据提出过高的要求,带来『数据稀疏』的问题,即数据中 很难包含汉语中的所有词组,同时每个词组也很难具有充足的训练样本以保证统计声学模型的可靠性。由于一个词组通常由多个音素的连续发音 构成,常见的音素都包含在国际音标表中,它们具有恰当的数目(通常几十个),以及清晰的定义(由特定的发声器官运动产生),于是音素成了各种语言中的语音识别中都最为常见的 建模选择(汉语的声韵母也是由一到三个音素构成), 识别中再结合词组到音素的发音字典使用。使用音素也方便对混合语言(如汉语种夹杂英语词汇)进行识别——当然不同母语的人对相同音素的发音也有区别,这是另外一个话题。另外由于人类发生器官运动的连续性,以及某些语言中特定的拼读习惯(比如英语中定冠词『the』在元音和辅音之前有不同读音),会导致发音,尤其是音素的发音受到前后音素的影响,称为『协同发音』。于是 可以进行所谓『上下文相关』的音素(或者考虑到音素实际的拼读,称为音子)分类。比如wo chi le这个序列,可以写为w o ch i l e,这样是普通的『上下文无关』音子序列,也可以考虑前一个音素对当前音素的影响写成sil-w w-o o-ch ch-i i-l l-e (sil表示语音开始前的静音,A-B表示收到A影响的B)或考虑后一个音素的影响写成w+o o+ch ch+i i+l l+e e+sil(sil表示语音结束后的静音,A+B表示受到B影响的A)。实际中以同时考虑前后各一个音素的三音子最为常见,最多也有人使用四音子模型。使用三音子或四音子模型会导致 分类目标的几何增长(如仅仅30个音素就可以扩展出30^3=27000个三音子), 并再次导致数据稀疏的问题。最常用的解决方法是使用基于决策树的方式对这些三音子或四音子模型进行聚类,对每一类模型进行参数共享以及训练数据的共享。在构建决策树的方式上以及决策树进行自顶向下的 分裂过程中,都可以 导入适当的语音学知识, 将知识与数据驱动的方法进行结合, 同时还可以 减少运算量并在识别中 使用训练数据中未出现的三音子模型等。有了具体的分类的目标(比如三音子)之后,下面就要选择具体的数学模型进行声学建模。这里可以根据语音学等研究 使用多种线性结构或非线性结构的模型或模型组合。目前最广泛使用的仍然是基于隐式马尔科夫模型的建模方法,即对每个三音子分别建立一个模型,具体可以参见楼上的回答。隐式马尔科夫模型的转移概率密度以几何分布最为常见,但语音合成中也常用高斯分布;观测概率密度函数传统上通常使用 高斯混合模型,也有人使用人工神经网络等,近年来随着深度学习的发展,使用各种深层神经网络的情况 越来越多。最近也有人使用不同方法直接利用递归神经网络进行建模,有一些工作也取得了比较好的效果。但无论使用哪种模型甚至非线性的模型 组合,背后的含义都是假设了对应于每种 类别(三音子)的语音帧在它所对应的高维空间中具有几乎确定的空间分布,可以通过对空间进行划分,并由未知语音帧的空间位置来对语音帧进行正确的分类。在完成声学模型建模后,就可以基于声学模型对未知语音帧序列进行语音识别了,这一过程通常称为搜索解码过程。解码的原理通常是在给定了根据语法、字典对马尔科夫模型进行连接后的搜索的网络(网络的每个节点可以是一个词组等)后,在所有可能的搜索路径中选择一条或多条最优(通常是最大后验概率)路径(字典中出现词组的词组串)作为识别结果,具体的搜索算法可以有不同的实现方式。这样的搜索可以对时序的语音帧根据其前后帧进行约束;注意使用多状态 隐式马尔科夫模型的理由之一是可以在 搜索中对每个三音子的最短长度施加限制。语音识别任务通常有不同的分类,最困难的问题是所谓大词表连续语音识别,即对可能由数万种日常用词组成的发音自然的语句(比如我们日常随意对话中的语句)进行识别,这样的 问题中通常要 将声学模型同概率语言模型联合使用,即在搜索中导入 统计获得的先验语言层级信息,优点是可以显著的提高识别器的性能,缺点是也会造成识别器明显偏向于识别出语言模型中 出现过的信息。以上就是我理解的语音识别的原理,包括大致的系统构成和基本设计思路。具体在最前沿的研究和评测 中,通常还需要把许多不同的语音识别器通过各种不同的手段进行系统组合,以便在最终使最终的(组合)系统 能够获得具有互补性的信息,从而得到最佳的识别效果。
看图编码:把语音变成向量 频域信息:人类是通过振动频率来判断声音的,所以要用傅里叶变换来完成时域频域之间的转换;特征:如,MFCC是依照人耳的听声特点提出的filter。然后我们有了语音向量。训练:从数据中学习对语音的判断,而不是用人工的规则。 声学模型(acoustic model):用于识别语音向量;可用GMM或DNN等方法来识别向量,用DTW或HMM或CTC来对齐(alignment)识别结果的输出(单词从何时开始,何时结束)字典(dictionary):多数模型并不是以单词,而是以音素为识别单位。当识别出ae p l这三个音素时,利用字典,就可以判断出所说的词是apple。语言模型(language model):我们在听老外说错误的中文时依然能够识别内容是因为我们有关于语法的知识,可以调整声学模型所识别出的不合逻辑的词语。这就是语言模型的作用解码:用训练好的模型组合起来就可以通过判断新的语音向量,来识别语音了。
补充个人的理解语音识别,狭义的识别,为文字内容识别;宽泛的识别,可以当作人耳,人能从语音中听出男女、语种、说话人、内容等,则意味着语音识别就是机器耳朵,能有性别、语种方言、声纹(类似指纹概念)、内容识别了。简单而言,目前识别就是2步,训练和测试。拿好理解的语种识别来说:训练,就是提取特征描述语音,是学习过程,例如搞一定量的汉语、英语,训练出2个语种模型;而识别测试,则每一条语音提取特征,然后和这2个语种模型特征对比,给出相似度判断即可。
大体的想法还是正确的,不过有一点:设计一个“标准”的模拟信号库,与用户输入比对这个,在网络上为你找了一点更详细的介绍:最早的基于电子计算机的语音识别系统是由AT&T贝尔实验室开发的Audrey语音识别系统,它能够识别10个英文数字。其识别方法是跟踪语音中的共振峰。该系统得到了98%的正确率。到1950年代末,伦敦学院(Colledge of London)的Denes已经将语法概率加入语音识别中。  1960年代,人工神经网络被引入了语音识别。这一时代的两大突破是线性预测编码Linear Predictive Coding (LPC), 及动态时间弯折Dynamic Time Warp技术。
语音识别的最重大突破是隐含马尔科夫模型Hidden Markov Model的应用。从Baum提出相关数学推理,经过Labiner等人的研究,李开复最终实现了第一个基于隐马尔科夫模型的大词汇量语音识别系统Sphinx,他也凭借此发明获得1988 美国商业周刊最重要发明奖。此后严格来说语音识别技术并没有脱离HMM框架,可以说现在手机上的语音拨号就脱胎于李开复的语音识别系统。 引用百度百科《语音识别系统》,
是根据统计概率计算出来的,国内做的比较好的是科大讯飞,目前的普通话考试用的就是他们的系统。吴军的《数学之美》对语音识别做了个通俗易懂的介绍,有兴趣可以去看看。
java 同学可以看看这个:
很多知友指出《数学之美》中讨论的只是自然语言处理部分的内容,与语音识别关系不大,对原先这个不太科学的回答可能造成的误导表示抱歉。回答这个问题的本意是分享一些自己所看到过的信息,所以还是把原来的回答保留在下面。==《数学之美》一书中对自然语言处理的主题有所提及,可以参考一下。我对此是外行,但从这本书中的描述来看,现在自然语言处理技术主要是基于统计学来做的,纯粹的传统意义上的基于规则的语义分析(类似于编译原理中讲的那些)这条路基本上是走不通的。
个人认为语音识别可以看成两个步骤的输入法:第一,根据声学模型把声音转换成音节(可以看成拼音),第二,就是就根据统计语言模型把拼音转换成文字了。主要问题是两个模型怎么去训练和使用
先通过经验模型转换为字符串再隐马模式识别转换为自然语言
已有帐号?
无法登录?
社交帐号登录只需一步,快速开始
组队三人以上大红,这是什么原理?
可用积分 点
APP积分 点
百分百是路由问题,那一天刚好是拉了电闸一小时,家里用电钻弄了些东西,然后再连上电,路由就出问题了, ...
既然你这么有兴趣,那你接上旧路由
内网到达网关延迟多少,内网通过DNS延迟多少,内网最终到达腾讯首页【】延迟多少
如果到达腾讯延迟很大,内网无延迟,用路由追踪看看是哪出问题就明白了
还有别忘记附带上你旧路由的型号和固件号,咱们再来谈谈
这人还没添加签名啦。别再看她啦
可用积分 点
APP积分 点
来自移动设备
组队就4人 3人以上大红 4人大红没见过
上传不行 电信玩网通 开加速器照卡
这人还没添加签名啦。别再看她啦
可用积分 点
APP积分 点
既然你这么有兴趣,那你接上旧路由
内网到达网关延迟多少,内网通过DNS延迟多少,内网最终到达腾讯首 ...
哦,是这样的,有一点我忘了说,我当时PING测过好几个网站的延迟(包括百度、163、DNF.QQ之类的),延迟大概都在30~~40毫秒,就这样看上去并无感觉出什么来。
但是,只有上DNF延迟才会如此大(我并不玩其它网络游戏不知道,DNF组队后站街有时都超过100),操作网络相关感觉不出差异。
而最重要的一点我说过了,一切的契机都在那一小时的断电,断电前一直用都毫无问题(断电前我电脑是先关机的,配置也无改变过,只是路由插头没拔,可能撞电了),所以只能认为路由问题了,毕竟断电前玩游戏一切正常啊。
这人还没添加签名啦。别再看她啦
可用积分 点
APP积分 点
既然你这么有兴趣,那你接上旧路由
内网到达网关延迟多少,内网通过DNS延迟多少,内网最终到达腾讯首 ...
补充一下,我用现在的路由刚测了一下,百度是40毫秒,DNF.QQ是9~10毫秒,为什么这样?
记得当初旧路由好几个网站平均都在30~~40的
这人还没添加签名啦。别再看她啦
可用积分 点
APP积分 点
4兆肯定不是光纤 上传不够
这人还没添加签名啦。别再看她啦
可用积分 点
APP积分 点
补充一下,我用现在的路由刚测了一下,百度是40毫秒,DNF.QQ是9~10毫秒,为什么这样?
记得当初旧路由好 ...
你不是网络相关专业的,不好解释啊。。你作为用户端只管用就对了,出问题找ISP
这人还没添加签名啦。别再看她啦
可用积分 点
APP积分 点
你不是网络相关专业的,不好解释啊。。你作为用户端只管用就对了,出问题找ISP
嗯,我的确是个小白,我只知道几个条件:
1、旧路由一直用无事,所有设置一直无变过,断电后就出事了
2、新路由的设置和旧路由一模一样,正常得很
3、旧路由尝试过出厂设置,设置也一模一样,问题依然在
就凭这三点,可以作出判断,可能是断电或者重新连接电源的一瞬间撞电导致路由出问题了。
这人还没添加签名啦。别再看她啦
Powered by
作者:八毛鱼
你有新的消息
弹出框标题
弹出框内容
弹出框标题
弹出框内容查看: 10962|回复: 137
听说机战L很神于是我玩了玩看看
头像被屏蔽
这真的不是K2.0吗?战斗画面好多都照搬K里的,参战作品也有不少重复,像钢铁神跟新大空魔龙,
豪丈夫,明明K里看过他们的故事,结果L又重复一遍... 还有MF的小飞机我怎么感觉是抄袭了全金的动作呢?
没想到K里被喷的奇葩搭档系统在L里又出现了。基础的芯片系统也被删减掉了。就算是实验性小作品
也没必要简化成这种程度吧。听说有”ROE破“参战我还兴奋了一下,可剧情被砍了80%,坑爹呢这是...
场景小家子气,登场系列少,登场角色的武装缩水,关卡少得可怜,各种卡兹卡兹的声效。你说版权不给力
至少把原创给我弄好点总行吧,但L偏偏没有后继机,原创BOSS也搞得像个杂兵似的...
说真的,我感觉掌机的机战都不太给力 。A的原创机抄袭64和F里的。J的真实系原创就是一坨& &,剧情也够中二的。
W剧情模仿了J,动作直接拿J里的,主角机设定上各种扯,时间驳论解决一切剧情矛盾... K出了个米斯特... D倒还不错,
可真盖塔只有一首BGM实在是残念。系统平衡问题也让超级系完全给废了。
想要掌机机战接近家用机的水平果然是我要求太多了吗,期待NEO妇科版上3DS.
头像被屏蔽
J的宇宙骑士算什么系的?
难度太低了,本人一周目零花钱零额外成长通关了
没有突出搭档系统的价值,如果再难一点搭档特技就能更好地凸显作用了
掌机奶粉作能有这样的尝试算不错了,比K好很多了
LZ画面党没什么好说的,也没有逼你玩
LZ一看就没玩过K在瞎喷。
就因为K里面把新大空和神Jeeg和好老公的故事都演过了,L这三部这次故事都是从中段开始的,而且都是捡K没演出过的段子来重现。
破这个确实没话说,当初大家都喷过了,PV欺诈。
L的系统我很喜欢的,比Z2的极力让你把单位往无双方向培养有技术含量多了。满改奖励也保证了维纳斯A这类万年板凳机体有用武之地。
k那个不叫搭档系统,叫累赘系统
虽然都是小队系统,但是细节差很多的。
K的小队系统基本是鸡肋,效果还不如自己玩无双,L配好起来还不错。
难度低倒是一贯的。
L真正的硬伤bug太多主楼反而没有提...
和K比,神得一塌糊涂
喷点错了,L的组队系统真心好,二线机体得以大放光彩。可以低难度让这个组队系统存在价值大减,这是最该喷的。
L的葵姐战斗动画秒Z2的一百条街
ls都已经说过了,L的搭档系统和K的完全不一样好吧……我反而觉得L那个才是组队系统应该有的样子,能充分体现出组队机体的价值,组队安排时也简单易行,不用和阿花还有Z1那样在编队时花费太多的游戏时间。
就当年a惊艳了一把。之后掌机的都浮了。
z还没玩不知道
头像被屏蔽
引用第9楼arion_00于 10:40发表的&&:
L的葵姐战斗动画秒Z2的一百条街 你确定不是因为DS上机能问题而需要堆砌一些有的没的来显的华丽些?
头像被屏蔽
Z2好玩吗?话说现在PSP模拟器整的咋样了
引用第12楼endless_nova于 11:26发表的&&:
你确定不是因为DS上机能问题而需要堆砌一些有的没的来显的华丽些?
这个还真不是,L里的演出好太多了啊,同样的一招断空剑L里的演出动感和cutin表现绝对好过Z2。并且我怎么觉得Z2才是爱加一些有的没得来乱切镜头和各种特效爆炸。
自己对比最实际
回 11楼(aiyoyo) 的帖子
掌机不是有神作w么
头像被屏蔽
W给人的感觉就是J2.0啊,玩过J后再玩W就直接脱力了,剧情也不是很给力。作品融合方面算一般般吧
头像被屏蔽
掌机机战的缺点就是内容重复性太高了,有点骗钱的嫌疑。
本来还想说点什么,看到LZ说W剧情不给力就知道多说无用了
L的新大空魔龙剧情可是从台矢开KAIKINK开始的,怎么就重复一遍了
而且L的小队系统比K的要好上很多,没了芯片系统是因为你能把僚机当芯片插,算是特色系统
引用第18楼游姬于 11:37发表的&&:
本来还想说点什么,看到LZ说W剧情不给力就知道多说无用了
都是寺田母舰一机清版流机战,就不要内讧了
你根本就是囫囵吞枣玩把 只看参战 剧情什么的都是直接R+START
头像被屏蔽
W的剧情确实不怎么样啊&&不管是阿花还是IMPACT剧情宏大和融合度都比W强不少
W里的时间驳论太老套了,主角机方面也太扯了
引用第23楼永远塞尔达于 11:51发表的&&:
W的剧情确实不怎么样啊
不管是阿花还是IMPACT剧情宏大和融合度都比W强不少
W里的时间驳论太老套了,主角机方面也太扯了 在全民穿越的现在说这些?如果你说剧情融合度,我只想说你真的好好看剧情了么?至于主角机方面……算了。我还是不说了。你不喜欢就不喜欢吧。其实也没什么~~~
不然你以为葵姐这个称号是因为Z2叫起来的?
至于说到CO和解决作品矛盾,反正难以解决的要不平行世界要不扔个XX大陆的坑,然后花N部作品都没填完的Z系列,还真是秒杀一个时间悖论解决的W啊!
我觉得,机战的所有玩家都像LZ这样就好了
跟无脑黑辩论是没有意义的……
系统都说过了,L的铁中二最终关是α3以来演出效果最棒的一话
引用第6楼Leliel于 06:46发表的&&:
L真正的硬伤bug太多主楼反而没有提...
有些bug很神啊,比如挂上热血或魂后,援护伤害有加成效果,热血或魂本机不攻击继续保留,比如999击坠后眼镜必定便当
L最诚意的就是五番队队长、葵姐、黄大河救史黛拉、小队系统
时间悖(bei)论
不是驳(bei)论
Powered by常用入口:| | |
常用攻略:| | |
> dnf春华称号组队触发测试 减CD原理是什么
dnf春华称号组队触发测试 减CD原理是什么
本文解答了dnf春华称号组队减CD原理是什么的问题。
春华的触发次数上限为队伍中佩戴春华的人数X
例如队伍中有X人佩戴春华,减cd上限即为0.7^x;
补充 : 有玩家反应,只要是组队状态,队友不戴春华也可以叠加啊
每只怪物单独计算冷却,当地图中只有一只怪物时最多减51%冷却,即0.7^2;
至少有3只以上怪物才能叠满
每次触发时,在buff面板的显示上减cd效果刷新,但实际上如图
每当一个buff到时间后,图标数值也会变化。
春华的减cdbuff与刺激药效果乘算。
目前可以确定是,你的buff是否叠加与队友是否触发春华并没有关系。
队友佩戴春华只会增加你的触发上限。
然而测试时也碰到了没人打怪但是全队出了一次buff的情况
手机看攻略,电脑玩游戏两不误!
加点再也不需要切来切去啦~
【地下城与勇士】最新消息第一时间推送给你
与相关的文章有:
国服魔枪士二觉
魔枪士二觉:
最新活动:
系统更新:
友情链接: | |
连续签到:&天&&累计签到:&天
今日抢签到排名

我要回帖

更多关于 dnf组队连接不上 的文章

 

随机推荐