Pytorch-张量形状操作

简介: PyTorch中,张量形状操作至关重要,如reshape用于改变维度而不变元素,transpose/permute用于维度交换,view改形状需内存连续,squeeze移除单维度,unsqueeze添加维度。这些函数帮助数据适应神经网络层间的转换。例如,reshape能调整数据适配层的输入,transpose用于矩阵转置或多维排列,而squeeze和unsqueeze则用于处理单维度。理解并熟练运用这些工具是深度学习中必要的技能。

接下来我们进入到pytorch的形状操作


介绍: 在搭建网络模型时,掌握对张量形状的操作是非常重要的,因为这直接影响到数据如何在网络各层之间传递和处理。网络层与层之间很多都是以不同的 shape 的方式进行表现和运算,我们需要掌握对张量形状的操作,以便能够更好处理网络各层之间的数据连接,确保数据能够顺利地在网络中流动,接下来我们看看几个常用的函数方法🌹


reshape 函数


💎reshape 函数可以在保证张量数据不变的前提下改变数据的维度,将其转换成指定的形状,在后面的神经网络学习时,会经常使用该函数来调节数据的形状,以适配不同网络层之间的数据传递。


import torch
 
# 创建一个张量
tensor = torch.tensor([[1, 2], [3, 4]])
print("原始张量:")
print(tensor)
# (2,2)
 
# 使用reshape函数修改张量形状
reshaped_tensor = tensor.reshape(1, 4)
print("修改后的张量:")
print(reshaped_tensor)
# (1,4)


当第二个参数为-1时,表示自动计算该维度的大小,以使得张量的元素总数不变,这样我们可以免去思考的时间。


import torch
 
# 创建一个张量
tensor = torch.tensor([[1, 2], [3, 4]])
print("原始张量:")
print(tensor)
 
# 使用reshape函数修改张量形状,第二个参数为-1
reshaped_tensor = tensor.reshape(1, -1)
print("修改后的张量:")
print(reshaped_tensor)
 
 
原始张量:
tensor([[1, 2],
        [3, 4]])
修改后的张量:
tensor([[1, 2, 3, 4]])


transpose 和 permute 函数


💎transpose 函数可以实现交换张量形状的指定维度,permute 函数可以一次交换更多的维度。


  • transpose:transpose用于交换张量的两个维度。它并不改变张量中元素的数量,也不改变每个元素的值,只是改变了元素在张量中的排列顺序。在二维情况下,transpose相当于矩阵的转置,将行变为列,列变为行。在多维情况下,它会按照提供的轴(dimension)参数来重新排列维度。
  • reshape:reshape则是改变张量的形状,而不改变任何特定的维度位置。你可以使用reshape将张量从一种形状变换到另一种形状,只要两个形状的元素总数相同。这个过程不涉及元素之间的交换,只是调整了元素在内存中的分布,以适应新的形状。在内部实现上,reshape通常通过修改张量的元数据(如shape和strides属性)来实现,而不需要重新排列数据本身。
  • 如果你需要保持张量中元素的相对位置不变,仅调整张量的维度顺序,那么应该使用transpose;如果你需要改变张量的整体形状而不关心维度的顺序,reshape会是正确的选择。


data = torch.tensor(np.random.randint(0, 10, [3, 4, 5]))
print('data shape:', data.size())
 
交换1和2维度
new_data = torch.transpose(data, 1, 2)
print('data shape:', new_data.size())
 
#将 data 的形状修改为 (4, 5, 3)
new_data = torch.transpose(data, 0, 1)
new_data = torch.transpose(new_data, 1, 2)
print('new_data shape:', new_data.size())
 
# 使用 permute 函数将形状修改为 (4, 5, 3)
new_data = torch.permute(data, [1, 2, 0])
print('new_data shape:', new_data.size())
 
# 结果
data shape: torch.Size([3, 4, 5])
data shape: torch.Size([3, 5, 4])
new_data shape: torch.Size([4, 5, 3])
new_data shape: torch.Size([4, 5, 3])


view 和 contigous 函数


💎view 函数也可以用于修改张量的形状,只能用于存储在整块内存中的张量。在 PyTorch 中,有些张量是由不同的数据块组成的,它们并没有存储在整块的内存中,view 函数无法对这样的张量进行变形处理,如果张量存储在不连续的内存中,使用view函数会导致错误。在这种情况下,可以使用contiguous函数将张量复制到连续的内存中,然后再使用view函数进行形状修改。


import torch
 
# 创建一个张量
tensor = torch.randn(2, 3, 4)
 
# 使用view函数改变张量的形状
reshaped_tensor = tensor.view(6, 4)
 
# 使用contiguous函数使张量在内存中连续存储
contiguous_tensor = tensor.contiguous()


使用 transpose 函数修改形状或者 permute 函数的处理之后,就无法使用 view 函数进行形状操作,这时data.contiguous().view(2, 3)即可。


squeeze 和 unsqueeze 函数


💎squeeze函数用于移除张量中维度为1的轴,而unsqueeze函数则用于在指定位置插入一个新的维度


torch.squeeze(input, dim=None)


  • input: 输入张量。
  • dim: 可选参数,指定要移除的维度。如果不指定,则移除所有大小为1的维度。


import torch
 
A = torch.tensor([[[1, 2, 3], [4, 5, 6]]])
print(A.shape) # 输出:torch.Size([1, 2, 3])
B = torch.squeeze(A)
print(B.shape) # 输出:torch.Size([2, 3])
C = torch.squeeze(A, 0)
print(C.shape) # 输出:torch.Size([2, 3])
D = torch.squeeze(A, 1)
print(D.shape) # 输出:torch.Size([1, 3])


torch.unsqueeze(input, dim)


  • input: 输入张量。
  • dim: 指定要插入新维度的位置。


import torch
 
A = torch.tensor([1, 2, 3])
print(A.shape) # 输出:torch.Size([3])
B = torch.unsqueeze(A, 0)
print(B.shape) # 输出:torch.Size([1, 3])
C = torch.unsqueeze(A, 1)
print(C.shape) # 输出:torch.Size([3, 1])


🎰小结


  1. reshape函数可以在保证张量不变的前提下改变数据维度。
  2. transpose(转置)函数可以实现交换张量形状的指定维度,permute可以一次交换更多维度。
  3. view函数也可以用于修改张量的形状,但是他要求被转换的张量内存必须连续,所以一般配合contiguous(连续的)函数使用。
  4. squeeze(挤压)函数和unsqueeze函数可以用来增加或者减少维度。


相关文章
|
2月前
|
机器学习/深度学习 PyTorch 算法框架/工具
|
1月前
|
机器学习/深度学习 人工智能 PyTorch
掌握 PyTorch 张量乘法:八个关键函数与应用场景对比解析
PyTorch提供了几种张量乘法的方法,每种方法都是不同的,并且有不同的应用。我们来详细介绍每个方法,并且详细解释这些函数有什么区别:
35 4
掌握 PyTorch 张量乘法:八个关键函数与应用场景对比解析
|
1月前
|
机器学习/深度学习 算法 PyTorch
【深度学习】TensorFlow面试题:什么是TensorFlow?你对张量了解多少?TensorFlow有什么优势?TensorFlow比PyTorch有什么不同?该如何选择?
关于TensorFlow面试题的总结,涵盖了TensorFlow的基本概念、张量的理解、TensorFlow的优势、数据加载方式、算法通用步骤、过拟合解决方法,以及TensorFlow与PyTorch的区别和选择建议。
86 2
|
1月前
|
存储 PyTorch API
Pytorch入门—Tensors张量的学习
Pytorch入门—Tensors张量的学习
15 0
|
3月前
|
算法 PyTorch 算法框架/工具
Pytorch - 张量转换拼接
使用 Tensor.numpy 函数可以将张量转换为 ndarray 数组,但是共享内存,可以使用 copy 函数避免共享。
|
3月前
|
机器学习/深度学习 人工智能 PyTorch
PyTorch-张量
PyTorch 是Facebook AI团队开发的深度学习框架,其核心是张量,它是同类型数据的多维数组。张量可以通过`torch.tensor()`、`torch.Tensor()`、指定类型如`IntTensor`等创建。张量操作包括线性(`torch.arange`, `torch.linspace`)、随机(`torch.randn`, `torch.manual_seed`)和全0/1张量(`torch.zeros`, `torch.ones`)。张量间可进行阿达玛积(逐元素相乘),类型转换用`type()`或`double()`。
|
3月前
|
机器学习/深度学习 PyTorch 算法框架/工具
Pytorch-张量基础操作
张量是一个多维数组,它是标量、向量和矩阵概念的推广。在深度学习中,张量被广泛用于表示数据和模型参数。
|
3月前
|
并行计算 PyTorch 算法框架/工具
pytorch张量的创建
• 张量(Tensors)类似于NumPy的ndarrays ,但张量可以在GPU上进行计算。从本质上来说,PyTorch是一个处理张量的库。一个张量是一个数字、向量、矩阵或任何n维数组。
|
25天前
|
机器学习/深度学习 PyTorch 编译器
PyTorch 与 TorchScript:模型的序列化与加速
【8月更文第27天】PyTorch 是一个非常流行的深度学习框架,它以其灵活性和易用性而著称。然而,当涉及到模型的部署和性能优化时,PyTorch 的动态计算图可能会带来一些挑战。为了解决这些问题,PyTorch 引入了 TorchScript,这是一个用于序列化和优化 PyTorch 模型的工具。本文将详细介绍如何使用 TorchScript 来序列化 PyTorch 模型以及如何加速模型的执行。
34 4
|
23天前
|
机器学习/深度学习 边缘计算 PyTorch
PyTorch 与边缘计算:将深度学习模型部署到嵌入式设备
【8月更文第29天】随着物联网技术的发展,越来越多的数据处理任务开始在边缘设备上执行,以减少网络延迟、降低带宽成本并提高隐私保护水平。PyTorch 是一个广泛使用的深度学习框架,它不仅支持高效的模型训练,还提供了多种工具帮助开发者将模型部署到边缘设备。本文将探讨如何将PyTorch模型高效地部署到嵌入式设备上,并通过一个具体的示例来展示整个流程。
86 1