对两个flatten函数的探究

简介: 对两个flatten函数的探究

1 问题

对torch.nn.flatten()和torch.flatten()两个函数的理解。


2 方法

对于torch.nn.Flatten():
其默认参数为start_dim = 1 , end_dim = -1,即从第1维(第0维不变)开始到最后一维结束将每个batch拉伸成一维:


当仅设置一个参数时,该参数表示 start_dim 的值,即从该维度开始到最后一个维度结束,将每个batch拉伸成一维,其余维度不变:


当设置两个参数时,两个参数分别表示开始维度和结束维度:


Torch.nn.flatten()函数官方文档:

对于torch.flatten():
torch.flatten()函数默认start_dim = 0 , 其余与torch.nn.flatten()相同。


torch.flatten()函数官方文档:

3 结语

通过对照实验,对两个函数的参数进行比照分析,得出结论。

目录
相关文章
|
8月前
|
机器学习/深度学习 PyTorch 算法框架/工具
PyTorch基础之激活函数模块中Sigmoid、Tanh、ReLU、LeakyReLU函数讲解(附源码)
PyTorch基础之激活函数模块中Sigmoid、Tanh、ReLU、LeakyReLU函数讲解(附源码)
385 0
WK
|
4月前
|
机器学习/深度学习 算法
为什么Sigmoid函数比Tanh函数更好
在神经网络中,Sigmoid和Tanh函数各有优劣,选择取决于具体应用场景。Sigmoid函数输出范围为(0,1),适合二分类问题,但存在梯度消失和非零中心化的问题;Tanh函数输出范围为(-1,1),以0为中心,有利于加速收敛,但同样涉及较大的计算复杂度。两者均存在梯度消失风险,但在多数情况下,Tanh梯度问题较轻。随着技术发展,ReLU等新型激活函数因能有效缓解梯度消失并提高计算效率,已成为许多任务的首选。因此,不能简单地说Sigmoid比Tanh更好,需依据任务需求和网络结构进行选择。
WK
202 1
|
8月前
|
机器学习/深度学习 PyTorch 算法框架/工具
PyTorch深度学习基础之Tensor对象及其应用的讲解及实战(附源码 简单易懂 包括分段 映射 矩阵乘法 随机数等等)
PyTorch深度学习基础之Tensor对象及其应用的讲解及实战(附源码 简单易懂 包括分段 映射 矩阵乘法 随机数等等)
96 1
|
算法 编译器 C++
C++ :Lambda函数的浅学习
C++ :Lambda函数的浅学习
193 0
|
存储 PyTorch 算法框架/工具
聊一聊pytorch中的张量基本方法
聊一聊pytorch中的张量基本方法
148 0
|
Python
numpy 的newaxis 和 concatenate函数应用解释及应用举例
numpy 的newaxis 和 concatenate函数应用解释及应用举例
212 0
numpy 的newaxis 和 concatenate函数应用解释及应用举例
|
机器学习/深度学习 存储 PyTorch
一个快速构造GAN的教程:如何用pytorch构造DCGAN(上)
一个快速构造GAN的教程:如何用pytorch构造DCGAN
174 0
一个快速构造GAN的教程:如何用pytorch构造DCGAN(上)
|
机器学习/深度学习 存储 并行计算
一个快速构造GAN的教程:如何用pytorch构造DCGAN(下)
一个快速构造GAN的教程:如何用pytorch构造DCGAN
174 0
一个快速构造GAN的教程:如何用pytorch构造DCGAN(下)
|
机器学习/深度学习 算法框架/工具
5分钟入门GANS:原理解释和keras代码实现
5分钟入门GANS:原理解释和keras代码实现
236 0
5分钟入门GANS:原理解释和keras代码实现
|
人工智能 自然语言处理 Python
TF-IDF:概念与python实现
TF-IDF:概念与python实现
TF-IDF:概念与python实现