【pytorch】padding的几种填充方法

简介: padding的几种填充方法

今天总结一下,pytorch框架下的几种边界填充方法:

1、torch.nn.ReflectionPad2d(padding)

功能:使用输入边界的反射填充输入张量。

1.1、若 padding是int类型,则在所有边界填充使用相同的

举例:

padding=1
(左、右、上、下 4个方向分别填充长度为1的映射)
在这里插入图片描述
padding=2
(左、右、上、下 4个方向分别填充长度为2的映射)
在这里插入图片描述

1.1、若 padding是tuple类型,根据tuple里的数值进行映射

在这里插入图片描述
左边填充长度为1的映射,右边填充长度为1的映射,上方填充长度为2的映射,下方填充长度为0的映射。

2、torch.nn.ZeroPad2d(padding)

padding是int类型,表示填充长度。
功能:用零填充输入张量边界。
在这里插入图片描述

3、torch.nn.ConstantPad2d(padding, value)

padding是int类型,表示填充长度,value表示要填充的常数值。
功能:用一个常数值填充输入张量边界。
在这里插入图片描述

4、torch.nn.ReplicationPad2d(padding)

功能:使用输入边界的复制填充输入张量。
padding = int or tuple:填充的大小。

4.1、 如果是int, 则在所有边界使用相同的填充;

在这里插入图片描述

4.2、 如果是4个元组, 则使用(paddingLeft, paddingRight, paddingTop, paddingBottom)

在这里插入图片描述

文章首发于:https://blog.csdn.net/AugustMe/article/details/116453250

参考

https://blog.csdn.net/weixin_38258767/article/details/109444299

https://www.zhihu.com/question/298049893/answer/509983136

相关文章
|
4月前
|
机器学习/深度学习 存储 PyTorch
Pytorch中in-place操作相关错误解析及detach()方法说明
Pytorch中in-place操作相关错误解析及detach()方法说明
271 0
|
3月前
|
机器学习/深度学习 PyTorch 算法框架/工具
【从零开始学习深度学习】18. Pytorch中自定义层的几种方法:nn.Module、ParameterList和ParameterDict
【从零开始学习深度学习】18. Pytorch中自定义层的几种方法:nn.Module、ParameterList和ParameterDict
|
3月前
|
机器学习/深度学习 算法 PyTorch
【从零开始学习深度学习】45. Pytorch迁移学习微调方法实战:使用微调技术进行2分类图片热狗识别模型训练【含源码与数据集】
【从零开始学习深度学习】45. Pytorch迁移学习微调方法实战:使用微调技术进行2分类图片热狗识别模型训练【含源码与数据集】
|
3月前
|
机器学习/深度学习 PyTorch 算法框架/工具
【从零开始学习深度学习】17. Pytorch中模型参数的访问、初始化和共享方法
【从零开始学习深度学习】17. Pytorch中模型参数的访问、初始化和共享方法
|
4月前
|
机器学习/深度学习 PyTorch 算法框架/工具
使用FP8加速PyTorch训练的两种方法总结
在PyTorch中,FP8数据类型用于高效训练和推理,旨在减少内存占用和加快计算速度。虽然官方尚未全面支持,但在2.2版本中引入了`torch.float8_e4m3fn`和`torch.float8_e5m2`。文章通过示例展示了如何利用FP8优化Vision Transformer模型,使用Transformer Engine库提升性能,并探讨了PyTorch原生FP8支持的初步使用方法。实验表明,结合TE和FP8,训练速度可提升3倍,性能有显著增强,特别是在NVIDIA GPU上。然而,PyTorch的FP8支持仍处于试验阶段,可能带来不稳定性。
148 0
|
4月前
|
机器学习/深度学习 PyTorch 算法框架/工具
基于PyTorch实战权重衰减——L2范数正则化方法(附代码)
基于PyTorch实战权重衰减——L2范数正则化方法(附代码)
343 0
|
并行计算 PyTorch 算法框架/工具
离线下载安装PyTorch的不报错方法
离线下载安装PyTorch的不报错方法
|
PyTorch 算法框架/工具
【PyTorch】两种不同分类层的设计方法
【PyTorch】两种不同分类层的设计方法
65 0
|
存储 PyTorch 算法框架/工具
聊一聊pytorch中的张量基本方法
聊一聊pytorch中的张量基本方法
121 0
|
机器学习/深度学习 人工智能 PyTorch
【Pytorch神经网络理论篇】 15 过拟合问题的优化技巧(二):Dropout()方法
异常数据的特点:与主流样本中的规律不同,在一个样本中出现的概率要比主流数据出现的概率低很多。在每次训练中,忽略模型中一些节点,将小概率的异常数据获得学习的机会变得更低。这样,异常数据对模型的影响就会更小。
229 0