Ae的cuda加速效果明显吗


摘要:这篇论文对于使用深度学习来改进IoT领域的数据分析和学习方法进行了详细的综述。

在物联网时代,大量的感知器每天都在收集并产生着涉及各个领域的数据。

由于商业和生活质量提升方面的诉求,应用物联网(IoT)技术对大数据流进行分析是十分有价值的研究方向。

这篇论文对于使用深度学习来改进IoT领域的数据分析和学习方法进行了详细的综述。从机器学习视角,作者将处理IoT数据的方法分为IoT大数据分析和IoT流数据分析。论文对目前不同的深度学习方法进行了总结,并详细讨论了使用深度学习方法对IoT数据进行分析的优势,以及未来面临的挑战。

为了更好的在IoT领域内应用深度学习方法,作者分析了IoT数据的关键特征和主要问题。

作者对于目前最先进的深度学习方法及其在物联网领域对于大数据和流数据的应用进行了详细的总结。

作者对于目前应用了深度学习方法的大量IoT应用进行了介绍,并且对不同类型的深度神经网络在各种IoT领域的应用进行了概括和对比。

强调了深度学习与物联网应用成功结合所面临的挑战和未来的研究方向。


物联网数据特征及分析要求

目前流数据分析都是基于数据并行计算或增量处理的框架,尽管这些技术减少了从流数据分析框架返回响应的时间延迟,对于IoT应用的严格时间要求,它们并不是最佳方案。

IoT需要在数据源附近的平台(甚至是IoT设备自身)上进行快速流数据分析,以达到实时或近实时性的要求,传统的流数据分析方法则面临着计算、存储以及数据源能量方面的局限和挑战。

IoT大数据具有“6V”特点:

容量(Volume): 数据量是将数据集视为大数据、或传统的大规模/超大数据的一个决定性因素,使用物联网设备产生的数据量比以前要多得多,明显符合这一特点。

速度(Velocity): 物联网大数据产生和处理速率要足够高,以支持实时大数据的可用性。鉴于这种高数据率,也证明了需要先进的工具和技术分析才能有效地运作。

多样性(Variety): 一般来说,大数据有不同的形式和类型。这可能包括结构化的、半结构化的和非结构化的数据。各种各样的数据类型可以通过物联网产生,如文本、音频、视频、传感器数据等等。

真实性(Veracity): 真实性是指质量,一致性,和数据的可信性,有真实性的数据才能进行准确的分析。这一点对于物联网来说尤其重要,特别是那些群体感知数据。

易变性(Variability): 这个属性是指数据流的速率不同。由于物联网应用的性质,不同的数据生成组件可能会有不一致的数据流。此外,在特定时间,一个数据源的数据加载速率可能不同。例如,利用物联网传感器的停车服务应用在高峰期的数据加载会达到峰值。

价值(Value): 价值是指大数据转化成为有用的信息和内容,为组织带来竞争优势。数据的价值的高度不仅仅取决于对数据的处理过程或服务,还取决于对待数据的方式。

数据流处理的主要障碍是缺少能部署在系统边缘,甚至是IoT设备上的框架或算法。当采用深度学习方法时,也要折衷考虑运行在系统边缘的网络的深度和性能。

与其他传统机器学习方法相比,深度学习结构在近几年受到越来越广泛的关注。


Google Trend显示近几年对深度学习的关注呈上升趋势



CNN的核心结构是卷积层,有一系列可学习的参数,称作滤波器。训练过程中,滤波器在全图按照卷积顺序进行移动,计算输入和滤波器的乘积,得到该滤波器的特征图。CNN的另一个结构是池化层,将输入划分成不重叠的区域,然后用每个区域的最大值作为输出。CNN的最后一个结构是ReLU激活函数层,既可以缩短训练时间,也能避免影响网络的泛化能力。

CNN和DNN的主要区别在于CNN具有局部相连、权值共享的特性,因此在视觉任务中具有独特的优越性,并且降低了网络的复杂性。


RNN主要适用于输入为序列(例如语音和文本)或时间序列的数据(传感器数据)。RNN的输入既包括当前样例,也包括之前观察的样例。也就是说,时间为t-1时RNN的输出会影响时间为t的输出。RNN的每个神经元都有一个反馈环,将当前的输出作为下一步的输入。该结构可以解释为RNN的每个神经元都有一个内部存储,保留了用之前输入进行计算得到的信息。


LSTM是RNN的一种扩展。LSTM中,每个神经元除了有反馈环这一储存信息的机制,还有用于控制神经元信息通过的“遗忘门”、“输入层门”及“输出层门”,防止不相关的信息造成的扰动。


AE的输入层和输出层由一个或多个隐层相连接,其输入和输出神经元数量相同。该网络的目标是通过用最简单的方式将输入变换到输出,以重建输入信息。


VAE对数据结构的假设并不强,是较为流行的生成模型框架。它很适用于IoT解决方案,因为IoT数据呈现的多样性,以及标记数据的缺失。模型由两个子网络组成:一个生成样例,一个进行假设推理。


GAN由两个神经网络组成,一个生成网络,一个判别网络,共同工作来产生合成的、高质量数据。生成器根据数据在训练数据集中的分布生成新数据,判别器学习判别真实数据和生成器生成的假数据。GAN的目标函数是基于极大极小博弈的,一个网络要最大化目标函数,而另一个要最小化目标函数。


RBM是一种随机神经网络,由两层组成,一层是包含输入的可见层,一层是含有隐变量的隐藏层。RBM中的限制是指同一层的任意两个神经元互不相连。除此之外,偏置单元与所有的可见层和隐藏层单元都相连。


虚线表示特征提取通道,实现表示生成通道。DBN是一种生成神经网络,由一个可见层可几个隐层组成。可以提取训练数据的多层表示,并且对输入数据进行重构。DBN的训练过程是逐层训练,将每一层视作一个RBM,在前一层的基础上进行训练。这样的机制使DBN成为深度学习中有效且快速的网络之一。


阶梯网络在无监督和半监督学习任务中达到了先进的水平。阶梯网络由两个编码器和一个解码器组成。编码器作为网络的有监督部分,解码器进行无监督学习。训练目标是最小化有监督部分和无监督网络的损失和。

使用深度学习模型对数据流进行快速实时的处理仍在起步阶段。

【1】是对超限学习机(Extreme learning machine,ELM)的扩展——OS-ELM,将一个实时序列学习算法应用到单隐层的前馈神经网络。

【2】Ren等人提出的Faster-RCNN在图片中的目标检测中达到了接近实时的速度。他们的目标检测框架的运行时间为5-17fps。然而对于图像处理任务,真正的实时效果需要系统的处理和分析时间达到30fps或更高。

【3】Redmon等人提出了YOLO,将目标检测的速度提高到45fps,以及更小版本的YOLO,速度更是达到了155fps,已经适用于智能相机。

深度学习与其他方法结合

深度增强学习是将增强学习和深度神经网络相结合的产物。其目标是创建能自主学习的个体(agent),通过建立成功的交互过程以获得长期的最大正反馈(reward)。

当环境(environment)可由大量状态表示时,传统的增强学习方法稍显不足,而深度神经网络则弥补了这一点。在IoT领域,【4】使用深度增强学习实现了半监督条件下智能校园环境中的定位。

迁移学习主要应用在域适应和多任务学习的领域。迁移学习对于许多难以收集训练数据的IoT应用来说都是一个可用的解决方案。

例如训练一个通过智能手机的低功耗蓝牙和Wifi fingerpringting的定位系统,同一时间,在同一地点的RSSI值(Received Signal Strength Indication接收的信号强度指示)对于不同的平台来说可能不同。

如果我们对一个平台训练了一个模型,该模型可以迁移到其他平台,而不需要对新平台再收集训练数据。

3)深度学习与在线学习算法

由于IoT的应用产生的数据流会上传到云平台来分析,在线机器学习算法的角色变得越来越重要,因为训练模型需要随数据的增加而更新。

近几年,随着深度学习在各个领域的应用热潮,各种深度学习框架也应运而生。

Tensorflow: Tensorflow是机器学习系统的开源库,可以使用多种深度神经网络。

Tensorflow使用图表示来建立神经网络模型。开发人员也在使用TensorBoard,能可视化神经网络模型,并且观测学习过程,包括参数更新。

Torch: Torch是一个机器学习开源框架,包含大量深度学习算法,可用于深度神经网络模型的简单开发。它基于Lua语言开发,是训练深度学习算法的轻量级快速框架。支持在CPU和GPU上开发机器学习模型,并且提供了训练深度神经网络的并行计算库。

Caffe: Caffe是一个深度学习算法和参考模型集的开源框架。基于C++,支持CUDA进行GPU运算,并且提供Python和Matlab接口。Caffe通过配置文件定义模型,而不需要在源代码中定义参数,将模型表示和实现分开。


深度学习在IoT领域的应用


IoT应用和基础服务。

IoT的一大部分应用场景中,输入深度学习的数据是图片或视频。每天,每个人都在用手机的高清摄像头拍摄者图片和视频,除此之外,家居、校园或工厂也在使用智能摄像头。所以,图像识别、分类、目标检测是这类设备的基础应用。

随着智能手机和可穿戴设备的普及,语音识别也成了人们和自己的设备互动的一种自然而方便的方式。Price等人【5】搭建了一个专用的低功耗深度学习芯片,用于自动语音识别。这种特制芯片的能量消耗要比目前手机上运行的语音识别工具的能量消耗低100倍。

室内定位在IoT领域有许多应用,例如智能家居、智能校园、或智能医院。例如DeepFi系统,在线下训练阶段,通过深度学习用之前储存的WiFi通道状态信息数据来训练网络权重,在线上定位阶段通过fingerpringting来测定用户位置。

4)生理和心理状态检测

IoT与深度学习的结合也应用在了检测各种生理或心理状态中,例如姿态、活动和情绪。许多IoT应用都在交付的服务中整合了人体姿态估计或活动识别模块,例如智能家居、智能汽车、XBox、健康、运动等等。

安全和隐私是所有IoT领域应用所关注的一个重要问题。事实上,系统功能的有效性取决于是否能保护机器学习工具和处理过程不受攻击。虚假数据注入(False Data Injection,FDI)是数据驱动系统的一种常见攻击类型。

He等人【6】提出用条件DBN从历史数据中提取FDI特征,然后利用这些特征进行实时攻击检测。作为物联网数据和应用程序的一大贡献者,智能手机也面临着黑客攻击的威胁。

Yuan等人【7】提出用深度学习框架来鉴别安卓应用中的恶意软件,准确率达到了96.5%。深度机器学习方法的安全性和隐私保护是能否在IoT领域应用的最重要因素。

Shokri等人【8】提出了一种解决分布式学习的深度学习模型隐私保护问题的方法。

智能家居的概念涉及广泛的基于IoT的应用,它有助于提高家庭的能源使用和效率,以及居住者的便利性、生产力和生活质量。如今,家电可以与互联网连接,提供智能服务。例如微软和 Liebherr的一个合作项目,对从冰箱内收集的信息应用了Cortana 深度学习。这些分析和预测可以帮助家庭更好地控制他们的家庭用品和开支,并结合其他外部数据,可用于监测和预测健康趋势。

智能城市服务跨越多个物联网领域,如交通、能源、农业等。智慧城市的一个重要问题是预测群体移动模式,Song等人【9】开发了基于深度神经网络模型的系统,在城市级别实现了这一目标。Liang等人【10】基于RNN模型搭建了实时群体密度预测系统,利用移动手机用户的通信数据对交通站的群体密度进行预测。废物管理和垃圾分类也是智慧城市的一个相关任务,可以通过基于视觉分类任务的CNN模型来实现自动化。Amato等人【11】基于智能相机和深度CNN开发了检测停车场的使用中和空闲车位的系统。

消费者与智能电网之间的双向通信是IoT大数据的来源。能源供应商希望学习当地的能源消费模式、预测需求,并根据实时分析做出适当的决定。在智能电网方面,从太阳能、风能或其他类型的自然可持续能源中预测电力是一个活跃的研究领域,深度学习在这一领域的许多应用中越来越多地被使用。

来自智能交通系统(ITS)的数据是大数据的另一个数据源。Ma等人【12】采用RBM和RNN结构设计了一个交通网络分析系统,模型输入是参与该系统的出租车GPS数据。该系统通过一小时内的累积数据预测交通拥堵的准确率高达88%。ITS也带动了交通标志检测和识别的发展,这一技术在自动驾驶、辅助驾驶系统中都有很重要的应用。除此之外,许多初创公司应用深度学习来完善自动驾驶汽车系统的检测行人、交通标志、路障等任务。

IoT结合深度学习也在为个人和组织提供医疗和健康方案中得到应用。例如,开发基于移动应用程序的精确测量饮食摄入量的解决方案,可以帮助提升个人健康和幸福感。Liu等人【13】采用CNN开发了识别食物图片和相关信息的系统。用深度学习对医学图片进行分类和分析是医疗领域的研究热点。Pereira等人【14】通过CNN识别手写图片来鉴定早期帕金森症。除此之外,深度学习与IoT的结合在声音异常检测、乳腺血管疾病检测中也得到了应用

生产健康作物和发展有效的种植方式是健康社会和可持续环境的要求。使用深度神经网络进行植物病害识别是一个可行的解决方案。深度学习也被用于遥感,进行土地和作物的检测与分类。研究显示,使用CNN进行作物识别准确率达到了85%,相比于MLP或随机森林有很大提高。自动耕作中的预测和检测任务也应用了深度学习。

IoT和深度学习的结合有助于提高教育系统的效率。移动设备可以收集学生的数据,深度分析方法可以用来预测和解释学生的进步和成就。增强现实技术结合可穿戴设备和移动设备也是深度学习在这一领域的潜在应用,激发学生的兴趣,让教育学习方法更有效。此外,深度学习可以用于个性化推荐模块,向教育者推荐更多相关内容。利用深度学习对大型开放式网络课程数据(MOOC)进行分析,可以帮助学生更好的学习。除此之外,利用CNN监测教室占用率是深度学习在教育方面的另一个应用。

对于工业部门来说,IoT和网络物理系统(CPS)是推动制造技术迈向智能制造(工业4.0)的核心要素。工业中的广泛应用均可以受益于深度学习模型的引入。通过将装配线中生产车辆的图像及其注释都输入深度学习系统,可以利用AlexNet、GoogLeNet等网络实现视觉检测。

许多涉及市政的各种任务需要精确的分析和预测。【15】利用美国地质调查局网络的历史数据训练LSTM网络,可进行地震预测。【16】利用极端气候的图片训练CNN,进行极端气候事件探测。此外,城市的基础设施,如道路、供水管道等的损害检测,是IoT和深度学习可以为政府提供便利的另一个领域。

运动分析近年来发展迅速,为团队或运动员带来了竞争优势。【17】提出了深度学习方法打造智能篮球场。【18】采用RNN识别NBA比赛中的球员违规。【19】结合了可穿戴设备传感数据和CNN进行排球运动员活动识别。【20】采用层级结构的LSTM模型研究排球队的整体活动。

随着移动设备的普及,网上购物的人数大大增加了。最近出现了通过视觉搜索技术向产品图像检索的转变。CNN一直用于服装和时尚市场的视觉搜索,帮助你在网店中找到在电影中看到的或在街上看到的商品。IoT结合深度学习可以搭建视觉购物辅助系统,包括智能眼镜、手套和购物车,目的是帮助视障人士购物。此外,智能购物车的开发可以实现实时自结账的功能。

IoT设备上的深度学习

深度学习在语音和视频方面的成功为IoT的基础服务打下了良好的基础,如何将它们的模型和方法部署在资源受限的设备上成了IoT领域的一个重要研究方向。到目前为止,深度学习方法难以应用于IoT和资源受限设备,因为它们需要大量的资源来运行,如处理器、电池能量和存储器。

幸运的是,近期研究显示,深度神经网络的许多参数是冗余的,有时也不需要大量的隐层。有效的去除这些参数或层可以减少网络的复杂度,同时对输出不会有太大的影响。

在资源受限设备上应用深度神经网络的方法之一是网络压缩,将密集的网络转化为一个稀疏的网络。主要局限性在于,它不足以支持所有类型的网络。它只适用于具有这种稀疏性的特定网络模型。另外,修剪多余的和不重要的参数或神经元,是在资源受限的设备上运行深度神经网络的另一个重要途径。


深度神经网络剪枝整体概念图

近似计算是实现在IoT设备上部署机器学习工具的另一种方法,并有助于主机设备的节能。在许多IoT应用中,机器学习的输出不一定是精确的,而是在可接受的范围内提供所需的质量。实际上,将深度学习模型与近似计算相结合,可以为资源受限设备提供更有效的深度学习模型。

设计特定的硬件和电路来优化IoT设备中深度学习模型的能量效率和内存占用是另一个活跃的研究方向。目前已有工作为DNN和CNN设计加速器,并且应用Post-CMOS技术进行电子自旋加速。

除了之前所提方法,开发具有强深度学习能力的小尺寸处理器也是研究热点。微处理器的设计尺寸在一立方毫米的范围内,可以用电池驱动,进行深度神经网络分析只消耗大约300毫瓦。通过这种技术,许多对时间要求较高的IoT应用程序可以在设备上执行决策,而不是将数据发送到高性能计算机,等待它们的响应。

IoT的雾和云中心深度学习

最近,人们提出了雾计算,使计算和分析更接近终端用户和设备,而不是仅仅停留在云计算上。实验表明,通过对雾计算节点进行数据分析,可以避免向遥远的云节点传输大量原始数据,从而提高整体性能。还可以在一定程度上进行实时分析,因为雾计算在本地,靠近数据源。


一些用于在雾或云上使用深度学习和服务的IoT领域的产品

尽管在雾计算架构上引入了深度学习分析,云计算仍然是许多无法在雾计算中处理的IoT应用的唯一可行的解决方案。因此,设计的可扩展的和高性能的云中心的DNN模型和算法,对大量的IoT数据进行分析,仍然是一个重要的研究领域。

除了在云平台上托管可扩展的深度学习模型基础设施的进步,还需要研究使深度学习模型通过API访问的机制和方法,以便容易地集成到IoT应用程序中。


在云平台中作为服务的深度学习模型

在雾计算节点上进行深度学习分析时,也会面临一些挑战:

深度学习服务发现:设备需要通过深度学习分析的某种扩展服务发现协议,来识别适当的分析提供者的来源。

深度学习模型和任务分布:在雾节点之间划分深度学习模型和任务的执行,以及在可用节点之间优化数据流分配,对于时间敏感的应用程序是至关重要的。

设计因素:研究如何雾计算环境的设计因素,以及在这种环境中部署深度学习模型如何影响分析服务的质量是很有必要的。

移动端:在设计终端辅助的深度学习分析系统时,需要考虑移动端计算环境的动态性,因为移动设备可能会加入或离开系统。

深度学习带来的IoT挑战,以及未来的研究方向

1)缺少大型IoT数据集:

缺乏可用的实际IoT应用大数据集将深度学习模型引入IoT的一个主要障碍,因为深度学习需要更多的数据来实现更高的精度。此外,更多的数据也可以防止模型过度拟合。

许多深度学习方法需要对数据进行预处理以产生更好的结果,对于IoT应用,预处理会更复杂,因为系统处理的是来自不同数据源的数据,可能有多种格式和分布,而且还可能有数据丢失。

确保数据安全和隐私是许多IoT应用的一个主要问题,因为IoT大数据将通过互联网进行分析,因此世界各地都有可能看得到。此外,深度学习训练模型也容易受到恶意攻击,如虚假数据注入或对抗性样本输入,其中IoT系统的许多功能或非功能性要求可能无法得到保证。

4)IoT大数据”6V“特性:

Volume(数据量)对于深度学习模型的时间消耗和结构复杂性提出了很大的挑战。并且数据量巨大也带来了包括噪声和未标注数据的挑战。

Variety(多样性)带来了管理不同数据源之间冲突的挑战。在数据源没有冲突的情况下,深度学习能够有效处理异质数据。

Velocity(速率)带来了高速处理和分析数据的要求,增强深度学习的在线学习和序列学习的技术仍需进一步研究。

Veracity(可信度),当输入数据不是来自可信的数据源时,IoT的大数据分析则是无用的。

Variability(可变性),IoT大数据的流速可变性对在线分析提出了挑战。

Value(价值),企业经理采用大数据的一个主要挑战是,他们不清楚如何使用大数据分析来获得价值,并改善他们的业务。

5)IoT设备上的深度学习:

在IoT设备上开发深度学习是一个新的挑战,要考虑在资源受限的设备上处理深度神经网络的需求。

尽管深度学习模型在许多应用中显示出令人印象深刻的结果,它仍然有局限性。研究发现,深度网络会将无法识别的图片分类到熟悉的种类中。并且深度神经网络的回归能力有待增强。

IoT数据的一大部分来自移动设备。研究利用移动大数据与深度学习方法相结合的有效方式,可以为IoT提供更好的服务,特别是在智慧城市场景中。

单靠IoT的 传感数据不能理解环境的情况。因此,IoT数据需要与其他数据源融合,即环境信息,以补充对环境的理解。

3)IoT分析的在线资源供应:

基于雾和云计算的深度学习快速数据分析部署需要在线配置雾或云资源来承载数据流。由于IoT数据的流特性,无法提前知道数据序列的容量。因此,我们需要一种新的基于当前数据流的算法,并且不依赖于数据流的先验知识。

为半监督学习而设计的先进的机器学习算法非常适合于智慧城市系统,可以使用少量的训练数据集训练模型,然后使用大量未标记数据来提高模型的准确性。

5)可靠的IoT分析:

深度学习方法可以通过分析大量的信息物理系统(CPS)和IoT系统的日志,以识别和预测可能受到攻击的系统的薄弱点。这将有助于系统防止或从故障中恢复,从而提高CPS和IoT系统的可靠性水平。

由于IoT设备的数量庞大,配置和维护他们的基本物理M2M通信和网络变得越来越难。虽然大量的网络节点及其相互关系对传统的机器学习方法是一个挑战,但它为深度学习体系结构提供了一个机会,通过提供自配置、自优化、自修复和自负载平衡等一系列的自我服务足以证明它们在这一领域的能力。

无人机:无人机被用于许多实时图像分析任务,如监视、搜索和救援行动,以及基础设施检查。这些设备的采用面临包括路由、节约能源、避免私人区域和避障等挑战。深度学习对于该领域的预测和决策任务有很大的影响,可以推动无人机达到最佳性能。

虚拟/增强现实:虚拟/增强现实是受益于IoT和深度学习的另一个应用领域。增强现实可以用于提供诸如目标跟踪、行为识别、图像分类和对象识别这样的服务。增强现实可以极大地影响如教育,博物馆,智能车等几大领域。

深度学习和IoT近年来受到研究人员和商业领域的广泛关注,这两项技术对我们的生活、城市和世界都产生了积极的影响。IoT和深度学习构成了一个数据生产者-消费者链,其中IoT生成由深度学习模型分析的原始数据,深度学习模型产生高层次的分析,反馈给IoT系统,以微调和改进服务。

cuda是mx250支持的,虽然性能不咋地,但是在pr里面获得的加速还是肉眼可见的。而且在支持cuda的情况下,完全可以支撑起intel的局面,最少面对amd在某些方面还是保留优势的。

最开始在win10 的资源管理器中是可以看见cuda加速的情况的

用着用着,然后在一升级发现这个菜单就没有了。这样有强迫症的我就会特别好奇,这个时候cuda到底有没有加速。经过我不端折腾发现一个非常简单有效的方法,去找官方最开始的驱动。这个官方不是nvida而是lenovo

实在不行就找这个版本的驱动也可以的。

希望50年后它依然存在,让我感觉我一直在做一件稍微有点cool的事情 喜欢一起交个朋友吧 微信/QQ :

AE制作大场景动画、或运行AE复杂项目时,播放预览动画超级慢,卡顿死机怎么办?

众所周知,AE有海量的炫酷模板,通过修改模板分分钟就能制作出大片感,但往往AE的大场景模板狂吃配置,即使高配电脑也吃不消,眼看着漂亮的模板却用不了。如何解决呢?

其实,预览卡顿不仅仅是配置缘故,不正确的系统、软、硬件设置,高配置主机也会很卡的。


实时预览(预渲染)速度快慢

一是与电脑的配置有关,

二是与预渲染的内容有关,预渲染的内容决定了数据运算量。(渲染的过程,就是运算的过程)

卡顿很大程度上与软件设置、系统设置有关,以及和工程复杂度、素材分辨率、特效、插件使用情况有关。

这4个方面解决问题,这4个办法实施难度从易到难,从简单复杂。从Ae内部设置外部系统设置,从软件解决再到硬件上解决,解决办法从易到难,可以逐个尝试解决


菜单——编辑——清理——所有内存。

这样能缓解一部分运行压力。


2、把预览分辨率调低:

(预览框下有个完整/二分之一之类的,改小就行了)

通常把预览的质量改成原来的一半,二分之一下肉眼看不出来什么区别,如果还不行,就选第三种,这种速度上是很快了没的说,但是有一些马赛克了。第四种不推荐,看不清楚。

注意:调整预览分辨率时,不用担心影响视频最终画质,制作视频时调成低分辨率的,只要渲染时调回完整分辨率就可以了,这样就不会影响视频的最终渲染质量。


3、关闭快速预览:(就是预览窗口下有个小的东西)


4、用小键盘0键预览:(即内存预渲染,卡顿时使用内存预渲染要好一点)

内存预渲染时,等绿线覆盖了以后再播放,绿线覆盖的部分是内存预览完毕的,蓝线覆盖的部分是磁盘预览缓存完毕的。

如果按了“0”键不起作用,在软件右侧的播放控制窗口里,也有这个按钮,按这个就可以。


预览关键原因之一:AE没有正确设置缓存盘位置以及缓存空间不够,AE缓存盘最好在SSD上,充分利用SSD的高速度

第一步,打开AE工程编辑前,清理之前的缓存,

第二步,将缓存路径设置到SSD上,并清理一下SSD,为缓存保留足够的空间。

第三步,将缓存的大小设置大一些,越大越好,当然受你固态硬盘容量限制。

第四步,制作结束后,渲染开始前,保留本次缓存,不要清理,(所以缓存空间要够大)这样渲染才能起到能起到加快渲染作用。


菜单——编辑——首选项——内存:

这个数值太小,系统不稳定,数值太大则AE不稳定。建议保留2——4G为好。


有时候按空格键播放了没效果, 时间线指针不走动,

这可能不是硬件问题,而是设置问题。

、菜单——窗口——预览。

②、在预览窗口把小眼睛图标点一下就可以了。(成蓝色显示状态就正常了)


有时候在时间线播放一卡一顿的是怎么回事呢?有可能是帧率设置问题。

① 可能是跳帧播放了,

还是在预览窗口,把帧速率旁边,跳过那一项改成0,就正常了。


AE播放预览时,没有声音,或者声音不同步,如何实现预览时声音同步?

选择——菜单——编辑-首选项-预览, 把下面这个勾去掉。

执行菜单——编辑——首选项——音频硬件,默认输出改为:扬声器输出。

注意:如果下拉菜单有多个扬声器,选择当前系统默认的扬声器就可以了,就是桌面右下角。


GPU的渲染要比CPU快的多,所以,能用GPU渲染时就尽量设置成GPU渲染。

①、在首选项的预览选项卡下,点击GPU信息按钮。

②、 弹出对话框,光线追踪选择“GPU”。

注意:开启GPU,需要显卡支持OpenGL或CUDA,即显示下列详细信息:

如果没有OpenGLCUDA的详细信息,那么需要以下步骤让显卡被AE识别:

1、在我的电脑上右键——设备管理器——显示设备,点开后抄下来显卡型号

2、在AE图标上右键——打开AE根目录。

4、将第一行改为你刚才记下的显卡型号。(即你自己的显卡型号)

5、关闭文件,再从根目录找到AEGPUSniffer文件,双击运行,弹出黑色命令框,开始运行。

6、回到AE中,发现GPU详细信息可以查看了,说明显卡识别成功了。

如果不能识别你的显卡,更新一下驱动,或升级显卡硬件。

7、显卡识别成功后,开启水银加速:

打开——文件——项目设置,弹出对话框,选择——GPU加速(CUDA)

CUDA水银加速能加快复杂特效、3D效果的预览速度,前提是显卡要够好,是中高端的N卡。


①、频繁安装/卸载装各版本PR、AE,导致注册表不完整,切记:卸载的PR/AE等Adobe全家桶软件时,一定要卸载干净,以保证新版软件安装的正确性。

②、电脑安装大量看电影、看视频的播放器,导致编码库、编码器混乱,建议:卸载暴风、迅雷、风行等等捆绑类播放器,然后安装到其它家用、娱乐电脑上去。

③、关闭一些启动程序。桌面——开始——运行——输入msconfig—确定

-在“系统配置实用程序”——“启动”选项卡下

除显卡、声卡驱动、输入法(Ctfmon)、杀毒软件外,其他的程序都可以取消勾选。

其他程序可以等到使用时再双击运行,而不用一开机就运行。

④、建议只装一个主杀毒软件,杀不要小看杀毒软件,杀毒软件对系统资源的占用是惊人的,会经常在后台运行监测和上传数据等隐晦的操作,安装多个杀毒软件非常占电脑资源,会使电脑很慢很慢,建议只装一个杀软、定期更新病毒库就可以了。

⑤、经常浏览不安全网站,安装了大量未知的捆绑软件导致系统臃肿,建议做后期的电脑和娱乐、游戏类的电脑分开,这样不仅可以提速而且保证数据安全。

⑥、定期的对整理磁盘碎片进行整理,

打开我的电脑—— 在AE的安装盘上右键(比如D盘)—属性—工具--立即进行磁盘整理

弹出“磁盘碎片整理程序”窗口——选择AE的安装盘(D盘)—分析

等分析结束后,查看磁盘碎片的数量,如果很多,点击分析旁边的—碎片整理—系统即开始整理。

除了定期清理AE安装盘的磁盘碎片,可以一定程度上加快AE预览速度。

⑦、定期清理系统缓存、并杀毒,用360卫士或者电脑管家都有自带的垃圾清理程序,操作简单,可以手动定期清理一下,或者在软件上设置自动清理程序。

⑧、设置虚拟缓存,即使你有64G内存也还是要设置虚拟内存的,虚拟内存可以设置在SSD上,加快运行速度,设置的方法见经验链接:

⑨、使用一段时间后,系统盘会变得异常庞大,需要清理C盘,以腾出SSD的空间,方法1是清理碎片缓存,2是软件搬家,第2种要见效一些,方法见链接:


㈠、降低素材自身运算量

有些模板为了达到高质量或电影级效果,往往采用16、32位色彩模式,运算量会几何倍增加大。

打开——文件——项目设置——颜色设置,将颜色深度改成普通的8位。

其实如果没有特殊要求,选择8位的就可以了,肉眼上几乎区分不出8位和16位的区别。

除非修改色深时会出现色阶等色彩断层,一些3D光效会消失,那就要权衡使用了。

①是否有大量4K级别的素材先转码成1080P或者720P尺寸大的再导入AE中。

②、对于超大分辨率尺寸的预合成,将预合成尺寸设置成小尺寸的分辨率。

③、根据平台要求,选择恰好合适的输出合成大小,比如大部分网络平台720P的大小就满足了,没必要导出1080P的,这样预览的时间徒增好几倍。

注意:如果你不想降低分辨率,可以通过后面设置AE代理的方法解决。

检查每个JPG图片大小,有没有那种分辨率不高,但体积很大的,这会大大提高数据处理量,用PS或者画图工具将图片大小缩小,然后再导入AE中。

有时,视频文件的体积也会异常的大,超出了正常范围,这是就是有问题的视频素材,需要用AME或者格式工厂将其转码成标准格式和体积的素材,再导入AE中编辑、制作。

比如你只需要25帧的输出,合成也是25帧的设置,而而模板中的个别视频、预合成、或素材却都是30帧、50帧的,那么预渲染时就需要加入大量的插值补帧的运算,会大大拖慢渲染速度。

所以需要将每个素材和预合成的帧率统一成输出的帧率,比如都是25帧。

①、查看素材帧率,将素材帧率改为输出帧率。

素材上右键——解释素材——修改帧率。

②、查看预合成帧率,将预合成帧率改为输出帧率。

合成上右键——合成设置——修改帧率。

统一了帧率就能大大减少不必要的运算量。

—— ㈡、降低特效运算量:

1、减少粒子等复杂特效使用

如果涉及到有粒子等复杂效果的AE工程,肯定会大大增加预览时的预渲染时间。可以减少复杂特效的使用量,减少预渲染压力。

如果实在无法减少特效,怕影响到最终的效果,可以通过下面的设置AE代理的方法解决。

2、将图层堆叠转成三维文字

有些模板为了保证版本间的兼容性,舍弃了高效率的插件,改用AE再带的图层堆叠的三维模式,虽然兼容性更好了,但大大拖慢了渲染速度。可以用E3D将文字转化为三维文字,E3D可以利用上GPU渲染,速度非常快,如果对E3D替换文字不太熟悉,看这个链接:

E3D插件制作三维文字

运动模糊需要大量的CPU计算,如果下载的模板开启了大量的移动模糊效果,可以关掉,这可以大大提高渲染速度。

②其次,摄像机的虚焦效果也会增加运算量,可以适当降低一下虚焦范围和模糊程度,速度也会有很大改善。

渲染输出前整理时间线,可以手动整理,也可以自动整理。

选择菜单——文件——整理工程,

然后分2次点击①"删除未用过的素材”和 ②“减少项目”,然后再导出。

这会将没有从项目面板导入到时间线的合成、素材删除,精简工程文件。

上述降低运算量的做法可以一定程度上缓解系统压力,但也会减少视频的动态效果,如果想保留这些特效、3D效果,可以用设置代理的方法:

AE设置代理可以将一些粒子、特效,转场,滤镜、4k、6K素材等,很耗费资源的图层或者合成转换为一个代理合成,起到降低资源占用的作用,同时也能预览到这些特效和素材在修改时的实时效果,这样整个AE工程在修改大场景文件时就不卡了,修改完成后关闭代理,切换正常显示再输出高清的模板就可以了,设置代理的详细方法如下:


通过AE代理流程,这样既保留了粒子、3D等特效,又缓解了系统压力,可谓一举两得。只是设置代理的步骤稍微麻烦一点,需要输出一个低画质的视频最为代理文件。


AE的预渲染主要和CPU、内存、硬盘有关,在预渲染一些GPU特效时,比如PL粒子,E3D,OF光效等,显卡也可以起到加速作用,约能提升30%速度。

因此,AE中显卡不是最重要的,最重要的就是内存、硬盘和CPU,由于CPU的价格较高,内存和硬盘的价格较便宜,预算不足时优先考虑升级内存、硬盘。

播放预览卡顿,优先考虑内存原因。AE对内存的需求是没有上限的,128g内存都能吃满。
所以再大的主机内存都需要设置虚拟内存的。

AE内存至少16G起步。

当然内存也不是越大越好,超过一定限度就没有意义了。

内存的选择,需要根据你场景的复杂程度来选择内存大小:

①中等分辨率,工程简单,图层、合成数量适中,粒子特效,光效等使用较少,没有开启三维图层,运动模糊,摄像机动画,复杂图形动画较少,

——选择:16G内存就足够了,

②如果分辨率较高,工程复杂,图层数量众多,大量粒子、光效插件的使用,开启了运动模糊,三维图层,很多复杂的图形动画,那么就需要非常大的内存

——选择:32G以上至128G。

内存频率低了也不能发挥出CPU的性能,内存选择3200MHz频率的DDR4内存就合适了。

现在的DDR4内存价格不是很贵,3200MHz的16G才500元左右,可以说升级内存和硬盘是预算不足时性价比最高的提升配置方式了,预算不足时,优先考虑升级内存和硬盘。

如果你现在使用的是机械硬盘,那么升级硬盘也是最划算的提升硬件性能的方式。建议将机械升级成516G的M.2固态硬盘,然后把系统和AE都安装到固态上,这样能大大提升AE的启动速度,以及提升加载视频素材和图片素材速度。AE调用插件的速度也会加快。

如果制作的AE工程里包含4k素材,那就需要1T的SSD或者磁盘阵列才能满足速度要求。

如果是时长在15分钟以内的4k工程,建议选择1T固态,

现在固态硬盘的价格便宜,而且安装方便。

如果4k工程超过15分钟的,就考虑2T固态或者固态组成的磁盘阵列了,价格自然会很高。

有时内存很大了,依然很卡是什么原因呢?

比如已经32G内存了,运行仍然很卡顿是什么原因呢?

视频的预渲染主要依靠CPU的编解码计算,

CPU核数越多、CPU频率越高,编解码计算能力就越强, 选择一个多核心超线程的CPU至关重要。

所以,大内存同时需要一个非常强劲的CPU才行,不然内存利用不满。

比如,有时16G内存才占用70%,32G占用40%这样的现象很普遍。

因为AE里面的内存需要靠CPU分配,

要使内存利用满,CPU的性能要够强,CPU的主频要远远超过内存的频率。

CPU要满足:主频不低于3.6Ghz,睿频不低于4.4GHZ,在这个频率的基础上,

尽量选择线程数多的CPU ,至少16线程以上:

包括16线程、24线程、32线程的CPU

3.5G——4.7GHz,16核32线程,预计价格:5千元——6千元左右。

值得一提的是3700X、3900X是第3代锐龙,之所以发烧级的CPU没有选择Intel的,是因为志强系列以及CoreX系列等英特尔高端CPU的主频较低,选择AMD的线程撕裂者Threadripper ,既有很多的核心数、线程数,同时,频率也不至于太低。

AE预览、渲染进程还是以CPU为主力,GPU(显卡)为辅助这样的一个现状。

GPU加速大概能提升20——40%的预渲染速度。

一般的模板用中高显卡就能满足了,不用发烧级显卡。

需要满足的配置:位宽256——384bit,显存6-8G,

价格在1500元——2100元之间。

更好一点的中端显卡推荐RTX2070Super:元之间。

显存容量:8GB,显存位宽:256bit,12纳米工艺。

是一款不错的中端显卡。

如果你经常应对复杂工程,特效特别多,图层很多、粒子、光效、E3D插件等大量使用,那么可以配置一款稍好的显卡,比如2080Ti,渲染时能起到很部分GPU加速作用。


一、优化软件(简单有效)

二、优化操作系统(有效,稍显繁琐)

三、降低运算量(较复杂,但很有效)

四、升级硬件(最麻烦,却最有效)


—— 所有方法概括 ——

4、用小键盘0键预渲染

7、开启播放小眼睛按钮

9、解决预览没声音问题(取消同步静音、默认扬声器)

10、开启CUDA水银加速

1、彻底删除干净安装PR/AE等Adobe全家桶软件时的残余。

2、卸载暴风、迅雷、风行等等捆绑类播放器。

3、只安装一个杀毒软件。

4、关闭一些启动程序:后台只保留驱动程序、杀软以及输入法。

5、定期清理磁盘碎片。

6、设置虚拟内存。(64G内存依然要设置)

㈠、降低素材自身的运算量 :

1、减少粒子等复杂特效使用

2、将图层堆叠转成三维文字

AE的预览速度=内存+CPU+显卡+硬盘

实时预览卡顿优先考虑内存,其次是CPU,

CPU的频率越高,内存的利用率就越高。

处理高分辨率素材、以大量插件特效,3D效果时,

处理4k素材时需要阵列或者SSD才能满足传输速度。

选择CPU核心在6核——12核之间的频率尽量选择高的, 最少3.6GHZ,更高的5GHZ。

内存的选择:中等场景16G,大场景32G,64G。

常规工程选择中端显卡就可以了,比如1660Ti ,复杂工程,预算充足可以考虑2080Ti 。 4K、8K素材需要高速阵列或者1T 固态来提速。

这里的花费CPU最大,显卡次之,然后是内存

当然,如果你看中某一性能,也可以在这个配置上多花一些钱。 比如平时3D效果多,显卡就买好发烧级的,平时4K素材多,资金就投入到硬盘阵列上。

其他: 电源的额定功率要略大于主机的功率主板的频率要和CPU相当,主板插槽要适合最新几代的CPU,方便升级更换

机箱的散热结构设计要够科学合理,如果配置了高端的CPU和显卡, 就考虑买一个风冷+水冷结合的机箱

预算不足时优先升级硬盘和内存,预算充足时再升级CPU、显卡,显卡不用专业卡,中高端的游戏卡就可以了,把钱多投入到CPU上,对预渲染有很大帮助。(三维、特效非常多才需要高端显卡)


CPU、显卡、内存、硬盘的详细参数可以在官网查询,也可以在太平洋电脑网、中关村在线等网站输入CPU、显卡、硬盘等型号,查看详细参数。

我是原创:开心一哥岁月,希望大家点赞支持我。部分图片来源于网络,侵权可联系删除。

1、关于AE渲染、导出:

AE渲染失败的解决办法:

AE渲染导出最佳画质视频的方法:

2、关于PR渲染、导出:

PR渲染速度慢的解决办法:

PR输出最佳画质视频的方法:

我要回帖

更多关于 ae粒子跟踪灯光为啥没在中心 的文章

 

随机推荐