PyTorch 提高生产力的技巧

本文涉及的产品
检索分析服务 Elasticsearch 版,2核4GB开发者规格 1个月
实时计算 Flink 版,5000CU*H 3个月
智能开放搜索 OpenSearch行业算法版,1GB 20LCU 1个月
简介: PyTorch 提高生产力的技巧
推荐:使用 NSDT场景编辑器 助你快速搭建3D应用场景

介绍

您是否曾经花费数小时调试机器学习模型,但似乎找不到准确性没有提高的原因?你有没有觉得一切都应该完美地工作,但由于某种神秘的原因,你没有得到模范的结果?

好吧,没有了。作为初学者探索 PyTorch 可能会令人生畏。在本文中,您将探索久经考验的工作流程,这些工作流程肯定会改善您的结果并提高模型的性能。

1. 过拟合单个批次

曾经在大型数据集上训练模型数小时只是为了发现损失没有减少,准确性只是扁平化?好吧,先做一个健全性检查。

在大型数据集上训练和评估可能非常耗时,并且首先在一小部分数据上调试模型更容易。一旦我们确定模型正常工作,我们就可以轻松地将训练扩展到完整的数据集。

与其在整个数据集上进行训练,不如始终在单个批次上进行训练以进行健全性检查

batch = next(iter(train_dataloader)) # Get a single batch
# For all epochs, keep training on the single batch.
for epoch in range(num_epochs):
    inputs, targets = batch    
    predictions = model.train(inputs)

考虑上面的代码片段。假设我们已经有一个训练数据加载器和一个模型。我们无需迭代完整的数据集,而是可以轻松获取第一批数据集。然后,我们可以对单个批次进行训练,以检查模型是否可以学习这一小部分数据中的模式和方差。

如果损失减少到一个非常小的值,我们知道模型可以过度拟合这些数据,并且可以确保它在短时间内学习。然后,我们可以通过简单地更改一行来在整个数据集上对其进行训练,如下所示:

# For all epochs, iterate over all batches of data.
for epoch in range(num_epochs):
    for batch in iter(dataloader):
        inputs, targets = batch    
        predictions = model.train(inputs)

如果模型可以过度拟合单个批次,它应该能够学习完整数据集中的模式。这种过拟合批处理方法使调试更容易。如果模型甚至不能过度拟合单个批次,我们可以确定模型实现而不是数据集存在问题。

2. 规范化和随机播放数据

对于数据序列不重要的数据集,对数据进行随机排序会很有帮助。例如,对于图像分类任务,如果在单个批次中馈送不同类的图像,则模型将更好地拟合数据。以相同的顺序传递数据,我们冒着模型根据传递的数据序列学习模式的风险,而不是学习数据中的内在方差。因此,最好传递随机数据。为此,我们可以简单地使用 PyTorch 提供的 DataLoader 对象并将 shuffle 设置为 True。

from torch.utils.data import DataLoader
dataset = # Loading Data
dataloder = DataLoader(dataset, shuffle=True)

此外,在使用机器学习模型时规范化数据非常重要。当我们的数据存在较大方差并且特定参数的值高于数据集中的所有其他属性时,这一点至关重要。这可能会导致其中一个参数主导所有其他参数,从而导致精度降低。我们希望所有输入参数都在同一范围内,最好有 0 均值和 1.0 方差。 为此,我们必须转换我们的数据集。知道数据集的均值和方差后,我们可以简单地使用torchvision.transforms.Normalize函数。

import torchvision.transforms as transforms
image_transforms = transforms.Compose([
  transforms.ToTensor(),
  # Normalize the values in our data
  transforms.Normalize(mean=(0.5,), std=(0.5))
])

我们可以在变换中传递每个通道的平均值和标准差。归一化函数,它将自动转换平均值为 0 且标准差为 1 的数据。

3. 渐变剪切

梯度爆炸是RNN和LSTM中的一个已知问题。但是,它不仅限于这些体系结构。任何具有深层的模型都可能遭受梯度爆炸的影响。高梯度上的反向传播会导致发散,而不是损耗逐渐减少。

请考虑以下代码片段。

for epoch in range(num_epochs):
  for batch in iter(train_dataloader):
      inputs, targets = batch
      predictions = model(inputs)
      optimizer.zero_grad() # Remove all previous gradients
      loss = criterion(targets, predictions)
      loss.backward() # Computes Gradients for model weights
      # Clip the gradients of model weights to a specified max_norm value.
      torch.nn.utils.clip_grad_norm_(model.parameters(), max_norm=1)
      # Optimize the model weights AFTER CLIPPING
      optimizer.step()

为了解决梯度爆炸问题,我们使用渐变裁剪技术,将梯度值裁剪在指定范围内。例如,如果我们使用 1 作为上面的裁剪或范数值,则所有渐变都将在 [-1, 1] 范围内裁剪。如果我们的爆炸梯度值为 50,它将被裁剪为 1。因此,梯度裁剪解决了梯度爆炸问题,允许对模型进行缓慢的优化,使其趋同。

4.切换列车/评估模式

这一行代码肯定会提高模型的测试准确性。深度学习模型几乎总是使用辍学层和规范化层。这些只是稳定训练和确保模型不会因数据差异而过度拟合或发散时才需要的。BatchNorm 和 Dropout 等层在训练期间为模型参数提供正则化。但是,一旦经过培训,就不需要它们。将模型更改为评估模式将禁用仅训练所需的层,并且完整的模型参数用于预测。

For a better understanding, consider this code snippet.

for epoch in range(num_epochs):
  # Using training Mode when iterating over training dataset
  model.train()
  for batch in iter(train_dataloader):
          # Training Code and Loss Optimization
  # Using Evaluation Mode when checking accuarcy on validation dataset
  model.eval()
  for batch in iter(val_dataloader):
          # Only predictions and Loss Calculations. No backpropogation
          # No Optimzer Step so we do can omit unrequired layers.

评估时,我们不需要对模型参数进行任何优化。在验证步骤中,我们不计算任何梯度。为了更好地评估,我们可以省略 Dropout 和其他规范化层。例如,它将启用所有模型参数,而不是像 Dropout 图层中那样仅启用权重子集。这将大大提高模型的准确性,因为您将能够使用完整的模型。

5. 使用模块和模块列表

PyTorch 模型通常继承自 torch.nn.Module 基类。根据文档:

以这种方式分配的子模块将被注册,并在调用 to()时转换其参数。

模块基类允许的是注册模型中的每个层。然后,我们可以使用 model.to() 和类似的函数,例如 model.train() 和 model.eval(),它们将应用于模型内的每一层。如果不这样做,将不会更改模型中包含的每个层的设备或训练模式。您必须手动执行此操作。一旦您仅在模型对象上使用函数,Module 基类将自动为您进行转换。

此外,一些模型包含类似的顺序层,可以使用 for 循环轻松初始化并包含在列表中。这简化了代码。但是,它会导致与上述相同的问题,因为简单 Python 列表中的模块不会在模型中自动注册。我们应该使用 ModuleList 来包含模型中类似的顺序层。

import torch
import torch.nn as nn
# Inherit from the Module Base Class
class Model(nn.Module):
      def __init__(self, input_size, output_size):
          # Initialize the Module Parent Class
          super().__init__()
           self.dense_layers = nn.ModuleList()
          # Add 5 Linear Layers and contain them within a Modulelist
          for i in range(5):
              self.dense_layers.append(
                  nn.Linear(input_size, 512)
              )
          self.output_layer = nn.Linear(512, output_size)
  def forward(self, x):
          # Simplifies Foward Propogation.
          # Instead of repeating a single line for each layer, use a loop
          for layer in range(len(self.dense_layers)):
          x = layer(x)
          return self.output_layer(x)

上面的代码片段显示了使用模型创建模型和子层的正确方法。使用模块和模块列表有助于避免在训练和评估模型时出现意外错误。

结论

上述方法是 PyTorch 机器学习框架的最佳实践。它们被广泛使用,并被 PyTorch 文档推荐。使用这样的方法应该是机器学习代码流的主要方式,并且肯定会改善你的结果。

3D建模学习工作室 整理翻译,转载请注明出处!

目录
相关文章
|
9月前
|
人工智能 PyTorch TensorFlow
人工智能应用工程师技能提升系列1、——TensorFlow2
人工智能应用工程师技能提升系列1、——TensorFlow2
129 0
|
5月前
|
机器学习/深度学习 供应链 TensorFlow
深度学习实战营:TensorFlow+Python,打造你的数据驱动决策引擎
【9月更文挑战第13天】在数据爆炸时代,企业日益依赖精准分析进行决策。深度学习凭借其卓越的特征提取与模式识别能力,成为构建数据驱动决策引擎的关键技术。本项目通过TensorFlow和Python,利用LSTM构建零售业销量预测模型,优化库存管理和营销策略。首先确保安装TensorFlow,然后使用Keras API搭建模型,并通过训练、评估和部署流程,展示深度学习在数据驱动决策中的强大应用潜力,助力企业提升经营效率。
59 3
|
5月前
|
机器学习/深度学习 数据挖掘 TensorFlow
解锁Python数据分析新技能,TensorFlow&PyTorch双引擎驱动深度学习实战盛宴
在数据驱动时代,Python凭借简洁的语法和强大的库支持,成为数据分析与机器学习的首选语言。Pandas和NumPy是Python数据分析的基础,前者提供高效的数据处理工具,后者则支持科学计算。TensorFlow与PyTorch作为深度学习领域的两大框架,助力数据科学家构建复杂神经网络,挖掘数据深层价值。通过Python打下的坚实基础,结合TensorFlow和PyTorch的强大功能,我们能在数据科学领域探索无限可能,解决复杂问题并推动科研进步。
89 0
|
5月前
|
机器学习/深度学习 数据挖掘 TensorFlow
从数据小白到AI专家:Python数据分析与TensorFlow/PyTorch深度学习的蜕变之路
【9月更文挑战第10天】从数据新手成长为AI专家,需先掌握Python基础语法,并学会使用NumPy和Pandas进行数据分析。接着,通过Matplotlib和Seaborn实现数据可视化,最后利用TensorFlow或PyTorch探索深度学习。这一过程涉及从数据清洗、可视化到构建神经网络的多个步骤,每一步都需不断实践与学习。借助Python的强大功能及各类库的支持,你能逐步解锁数据的深层价值。
95 0
|
7月前
|
机器学习/深度学习 算法
探索数据科学中的模型优化之道
在这篇文章中,我们将深入探讨数据科学中的一个核心议题——模型优化。通过分析不同模型优化技术的应用与效果,本文旨在为读者提供一套系统的方法论,以改善和提升机器学习模型的性能。文章首先概述了模型优化的重要性和基本原则,随后详细介绍了几种主流的模型优化方法,包括超参数调优、集成学习以及正则化技术等。每种方法都配以实例和数据支持,确保理论与实践相结合。最后,文章讨论了模型优化过程中可能遇到的挑战及应对策略,旨在帮助读者构建更加精确和高效的数据模型。
79 0
|
9月前
|
机器学习/深度学习 自然语言处理 PyTorch
【热门话题】PyTorch:深度学习领域的强大工具
PyTorch是Facebook推出的深度学习库,以其动态图、直观API和强大的社区支持深受青睐。与TensorFlow相比,PyTorch的动态图机制简化了模型开发和调试,API设计更简洁。核心特性包括张量操作、自动微分、模块化编程、数据加载与预处理、优化器和损失函数。广泛应用于CV、NLP、推荐系统和强化学习,支持模型部署和推理。丰富的开源库(如torchvision、torchaudio、torchtext)和社区资源(如PyTorch Lightning、PyTorch Hub)为用户提供了全栈式解决方案。
77 0
|
机器学习/深度学习 数据可视化 PyTorch
PyTorch 与 TensorFlow:机器学习框架之战
PyTorch 与 TensorFlow:机器学习框架之战
284 0
|
机器学习/深度学习 PyTorch 算法框架/工具
pytorch教程 (一) -- 深度学习项目流程
pytorch教程 (一) -- 深度学习项目流程
166 0
|
机器学习/深度学习 数据采集 人工智能
人工智能|备战Tensorflow技能认证之两种快速构建模型的常用方式
人工智能|备战Tensorflow技能认证之两种快速构建模型的常用方式
142 0
|
机器学习/深度学习 人工智能 算法
兼容PyTorch、TF,史上最灵活Python机器学习框架发布 | 一周AI最火论文
兼容PyTorch、TF,史上最灵活Python机器学习框架发布 | 一周AI最火论文
289 0