[译] 改善 DaVinci Resolve 性能的 5 个秘诀

简介: [译] 改善 DaVinci Resolve 性能的 5 个秘诀

原文:blog.frame.io/2020/02/24/…

暴风雨中的老爷车

你还记得有 GPS 之前如何开车去远方吗?在那些不算太坏的旧时光里,找到新的目的地的唯一办法就是依靠纸质地图上那些过期的路标。

对于从未体验过手机地图导航和 AI 语音助手之前生活的小伙伴们,让我来描述那是什么样的吧 -- 你要全靠方向感、对路径的熟悉程度,还得能够看清周围的情况才行。

只要条件都满足,而且你也已经了解了如何找到要去的地方,那么老办法也是非常 ok 的。

可是一旦被黑夜笼罩或是天气变坏,你的寻路能力可就一落千丈了(如果再不足够小心的话,车子也会让你好看)。天气越糟糕,就越难以决定路在何方。

对于专业的视频剪辑者来说,这就相当于在没有实时回放的情况下试图在 NLE(译注:非线性编辑软件,即专业视频编辑软件)中作出创意决定。

回想一下你上一次不得不在没有流畅回放的情况下剪切、配光、调色时的情况吧。不光是速度慢让人上火,你的创意决定也会受阻。没有流畅视频回放的情况下,想挑选出演员最棒的一段表演,或是基于情感线索决定从那里剪切,都是很难的。

时间线上的实时回放,和在风暴中驾车时的 GPS 同等重要。没有清晰的视野,要对影片作出有效的创意决策是很有挑战的。

在本文中,要展示的就是五种在 DaVinci Resolve 中优化性能的最佳途径,以便尽可能地让你的创意决定顺畅而实时。

如何衡量回放性能

在你学会优化 DaVinci Resolve 的回放性能之前,你需要先知道它是怎样运作的。

在 DaVinci Resolve 主预览窗口的左上角,有一个 性能指示灯 以及一个 每秒帧数 (FPS) 的显示。

正如你可能已经猜到的,性能指示灯会告诉你总体上来说系统资源是否可以获得实时回放,或是流畅的回放体验;而 FPS 告诉你系统每秒可以负担的帧数。

性能指示灯是绿色的意味着系统实现了实时回放,而变红则表示没有足够的系统资源可用来实现实时回放。

注意:红灯可能表示 CPU、GPU 或存储资源之一,或是三者的任何组合有所不足。

image.png

幸好,如果你因为无法获得实时回放而浑身难受,还有若干可用的特性和选项,可以在不改变任何最终输出质量的前提下改善视频编辑时的性能。

虽说用多个特性实现看起来相似的目的或许有些多余,但面对不同的情况和硬件配置时,每一种特性都是独特而有用的。

1. 性能模式 & 其他回放微调

性能模式(Performance Mode) 是 DaVinci Resolve 最近添加的一项绝佳特性。

它会智能分析你电脑的硬件配置并自动调整 DaVinci Resolve 的图片处理过程。这将带来流畅的回放,而最终输出的分辨率或码率皆不受损。

换句话说,即便你的电脑稍微过时了,性能模式也能在不降低最终视频质量的前提下,给你更好的性能和更流畅的创意体验。

是的,眼尖的完片艺术指导(finishing artists)和调色师(colorists)可能注意到了屏幕预览窗口中的画面质量略微地下降了,但 Blackmagic(译注:DaVinci Resolve 的开发商)也给了我们一些调整性能模式的控制方法。

默认情况下,性能模式是自动被启用的,但你可以在 DaVinci Resolve > Preferences > Users > Playback Settings 里调整它或是完全禁用之。

我推荐使用这个菜单中的 “Hide UI Overlays”(隐藏 UI 堆叠)和 “Minimize interface updates during playback”(回放时最小化界面更新)两个选项。这些选项会牺牲一些回放时界面上的控制操作(诸如鼠标、Power Window、调整窗口分屏等)效果,这些效果总是会从 GPU 挤占一些额外的 FPS。

值得一提的是,虽然免费版的 Resolve 和专业版的 Resolve Studio 非常相似,但后者对 H.264 和 H.265 这类常见压缩编码有更好的利用和硬件加速。这可以显著地加速回放、转码,以及导出。但免费版不包含,也就是在你使用那些编码时可能性能会略有下降...

image.png

2. 代理模式

首先要阐明的是,代理模式(Proxy Mode)并非典型的 “线上/线下代理工作流程”。

相反,DaVinci Resolve 的代理模式暂时地降低了整个时间线被处理的分辨率,但并不影响真正的素材或序列设置。

这就像工作时(编辑、颜色分级等)在项目设置中把时间线的分辨率从超高清(HD)改为高清(UHD),等最终输出时再改回超高清一样。你所有的素材和效果仍是超高清数据,只是在回放期间他们被当作高清处理了。

受惠于 DaVinci Resolve 被设计为不受分辨率约束的,你得以在不必害怕损失素材/序列质量的前提下做这些调整。所以不用担心,使用代理模式不会损害你的精确调整、镜头相关的调整,如关键帧、Power Window、自动追踪等。

注意:如果你想要更多的控制,暂时地改变时间线分辨率也是可以的;这本质上就像建立你的自定义代理模式,只不过渲染之前可别忘了改回去。

代理模式是通过 Playback 菜单控制的,你会看到两个选项:半分辨率(Half Resolution) 和 四分之一分辨率(Quarter Resolution)。

image.png

我推荐先试试半分辨率,看看这样能否在回放时获得一个绿色的 GPU 状态指示。如果还不行,四分之一分辨率几乎不会有差池了(除非你在编辑 8K RED Helium 拍摄的影片之类的)。

四分之一分辨率可能会看起来有点模糊,但比之于额外的像素,流畅的回放对于你的创意决定通常是更重要的。

一个坏消息是,如果你特定的性能限制来源于你的源媒体,代理模式将无能为力。

另一个好消息则是,DaVinci Resolve 对这种情况还有其他的妙招。

3. 创建优化过的媒体

优化过的媒体(Optimized Media) 基本上是线下代理在 DaVinci Resolve 中的同义词。

这项优化针对原始素材创建低质量的工作版本,并在输出前回退到初始质量。

这对于计算密集型的格式特别管用,如高压缩的 H.264/H.265(无反相机、无人机、移动电话)、高分辨率的 raw(RED、Blackmagic、Arri 等摄影/摄像机),甚至是 OpenEXR 或 DPX 等图片格式。

与代理工作流有所不同的是,不用太多用户输入或技术设置,DaVinci Resolve 将自动处理优化过的媒体。

只需要在你想优化的片段上右键点击 “生成优化过的媒体(Generate Optimized Media)”,DaVinci Resolve 就将智能地为代理媒体选择最合适的分辨率(基于时间线分辨率),而后直接在暂存磁盘上创建代理素材。

你甚至可以利用一个 Smart Bin 智能化地排序媒体,用以帮助你优化 RED 和 CinemaDNG 等特定格式。

最棒的部分是不用在输出之前重新链接原始素材。DaVinci Resolve 的处理方式避免了代理工作流中常见的一些麻烦。

你可以通过在 Playback 菜单中切换 “使用优化过的媒体(Use Optimized Media)” 在原始素材和优化过的文件之间来回切换。

如果你乐于自定义用于创建优化过的“代理”的选项,可以在 Project Settings > Master Settings 中办到。类似于其他代理工作流,可以手动选择所用的分辨率和编码,从而提供更精细的控制。

比如,如果你在使用 raw 源文件,并打算先从优化过的文件中开始配色,可以指定 ProRes 4444 或 DNxHR 444 以避免剪辑或数据的损失。这将让你游刃有余地探索配色选项,又不用被 raw 计算负担所累。

image.png

你甚至还可以强制 DaVinci Resolve 利用优化过的媒体作为源,以导出一个“检视”版本,比如用于上传到一些视频剪辑协作平台上。这将彻底改善输出速度。

这些设置可以在 Deliver 页签找到。只需要在 Advanced Settings > Custom 下选中 “Use optimized media” 选项即可。


4. 缓存

DaVinci Resolve 具备缓存的能力,也就是将其整个时间线“预渲染”为一个处理器友好的格式,以利于所有的编辑、配色和效果,所有这些调整都应用到媒体的一个单独的流上。

虽说牺牲了渲染时间和存储空间,但这带来了流畅、无缝的回放。

尽管增加了渲染需求,但缓存可以有助于我们已经讨论过的一系列问题 -- 从浏览器密集型的媒体到效果繁复的时间线,也能帮助你老旧的电脑实现实时回放。

在编辑页面,可以通过出现在时间线标尺下边缘的彩线看到剪辑是否已被缓存。蓝色的线表示剪辑已被成功缓存,反之是红线。

image.png

在颜色页面,你将会在节点上注意到相似的红蓝指示。这些表示的是相应节点是否被缓存。

你会注意到,缓存发生在任何一次手动回放未缓存剪辑(标红)的时候。每当电脑空闲超过 5 秒时,一个叫做后台缓存(Background Caching)的特性也将开始生效。

可以通过 Project Settings > Master Settings > Optimized Media and Render Cache 调整设置。

image.png

有两个主要的缓存选项:智能模式(Smart Mode)和用户模式(User Mode)。

智能模式 提供一种 “设置后不管” 的缓存策略,即自动为已知的性能密集型媒体和效果启用缓存,对于单独的节点则提供了一些手动缓存控制。

用户模式 并不自动设置,需要你自己处理缓存。

5. 组合制胜

这些特性最强大的一面就是它们不需要彼此独立地使用。你可以轻易地组合其中的某几项以优化工作流并获得实时回放。

譬如,你可能为 4.6K BlackMagic raw 创建了优化过的媒体以改善其回放,又对超高清时间线应用了暂时的代理模式。其后你还可以为降低噪音和应用了第三方 OpenFX 效果的剪辑混响增加缓存,以提高性能。

这五种工具和策略方法的任何一项各司其职,但也可以在需要时联合起来达到更好的效果。

总结

如你所见,DaVinci Resolve 在性能优化方面并不捉襟见肘。它提供了丰富的特性和设置以便让你精细地优化电脑或工作流。

若尝试了某一项但并不奏效,一定要试试混合搭配几种手段。DaVinci Resolve 非常出色,这些特性将助你在即便没有一台顶配 Mac Pro 的情况下也能实现创意。

翻译术语参考



相关文章
|
6月前
|
机器学习/深度学习 计算机视觉 网络架构
【GhostNet】复现CVPR2020| 保证模型轻量化的同时,提升网络的性能表现
【GhostNet】复现CVPR2020| 保证模型轻量化的同时,提升网络的性能表现
707 0
【GhostNet】复现CVPR2020| 保证模型轻量化的同时,提升网络的性能表现
|
16天前
|
机器学习/深度学习 自然语言处理 计算机视觉
KAN结合Transformer,真有团队搞出了解决扩展缺陷的KAT
【10月更文挑战第15天】Transformer模型在深度学习中广泛应用,但其扩展性存在局限。为此,研究人员提出了Kolmogorov-Arnold Transformer(KAT)模型,通过引入理性基函数、Group KAN和方差保持初始化等创新设计,显著提升了模型的性能和扩展性。实验结果显示,KAT在图像识别、目标检测和语义分割任务中均表现出色,但在计算成本和训练资源方面仍有改进空间。
36 1
|
25天前
|
机器学习/深度学习 人工智能 自然语言处理
探索未来AI趋势:掌握Function Calling技巧,解锁大模型精度提升的秘密武器,让你的数据科学项目事半功倍!
【10月更文挑战第6天】随着深度学习技术的发展,神经网络模型日益复杂,Function Calling作为一种机制,在提升大模型准确度方面发挥重要作用。本文探讨Function Calling的概念及其在大模型中的应用,通过具体示例展示如何利用其优化模型性能。Function Calling使模型能在运行过程中调用特定函数,提供额外的信息处理或计算服务,增强模型表达能力和泛化能力。例如,在文本生成模型中,根据上下文调用词性标注或实体识别等功能模块,可使生成的文本更自然准确。通过合理设计条件判断逻辑和功能模块权重,Function Calling能显著提升模型整体表现。
28 3
|
2月前
|
人工智能 固态存储 调度
【Paper Reading】结合 NanoFlow 研究,优化大语言模型服务效率的探索
本文将深入探讨 NanoFlow 的关键思路和核心技术,分析 NanoFlow 与 阿里云人工智能平台 PAI 在实际工作中应用的潜力。
|
3月前
|
自然语言处理 iOS开发 开发者
ChatGPT 等相关大模型问题之大模型提升开发效率如何解决
ChatGPT 等相关大模型问题之大模型提升开发效率如何解决
|
5月前
|
语音技术 计算机视觉
CVPR 2024 Highlight :北航等发布时间特征维护:无需训练,极致压缩加速Diffusion
【6月更文挑战第28天】在CVPR 2024会议上,北航等研究团队提出了**时间特征维护**技术,针对Diffusion模型实现无需训练的高效压缩与加速。通过选择性保留关键时间特征,他们在保持生成质量的同时,实现了模型4bit极致压缩和超过2.38倍硬件加速,简化了复杂模型,提升了运行效率。这一创新方法有望改善Diffusion模型在实际应用中的资源需求,但其鲁棒性和泛化能力尚需更多验证。[论文链接](https://arxiv.org/pdf/2311.16503)
53 5
|
6月前
|
机器学习/深度学习 人工智能 算法
仅靠开源数据复刻出LLaMA3指令学习效果,在线迭代RLHF全流程解决方案来了
【5月更文挑战第27天】在线迭代RLHF方案使用开源数据复现LLaMA3指令学习效果,提供了一种动态收集和更新模型的新方法,提升大型语言模型的性能。通过代理偏好模型模拟人类反馈,降低训练成本,促进技术民主化。虽然面临数据利用、探索与利用平衡等挑战,且需解决长尾分布数据处理问题,该方案已在多基准测试中展现优秀性能,为LLM训练提供高效途径。论文链接:https://arxiv.org/pdf/2405.07863
60 1
|
5月前
|
机器学习/深度学习 自然语言处理 物联网
ICML 2024:脱离LoRA架构,训练参数大幅减少,新型傅立叶微调来了
【6月更文挑战第4天】在ICML 2024上,研究团队提出了傅立叶变换微调(FourierFT),一种减少训练参数的新方法,替代了依赖LoRA的微调。FourierFT通过学习权重变化矩阵的稀疏频谱系数,实现了LFMs的高效微调。在多项任务上,FourierFT展示出与LoRA相当或更优的性能,参数量却大幅减少,如在LLaMA2-7B模型上,仅需0.064M参数,对比LoRA的33.5M。广泛实验验证了其在NLP和CV任务上的效果,但未来还需探索其适用性和泛化能力。论文链接:[arxiv.org/abs/2405.03003](https://arxiv.org/abs/2405.03003)
99 0
|
数据采集 自然语言处理 达摩院
四年了,基础开源模型没有真正进步,指令调优大模型评估惊人发现
四年了,基础开源模型没有真正进步,指令调优大模型评估惊人发现
126 0
|
机器学习/深度学习 编解码 自然语言处理
超简单高效方法 | 谷歌提出MOAT Backbone,base+tiny版本实现全方位超越(一)
超简单高效方法 | 谷歌提出MOAT Backbone,base+tiny版本实现全方位超越(一)
97 0