一文带你入门神经网络需要的PyTorch基础

简介: PyTorch 是一个开源的机器学习库,提供了强大的计算能力和灵活的用于构建和训练神经网络的工具。

1 PyTorch简介



01d978d399f848a7aebaff24cd28155c.png

PyTorch 是一个开源的机器学习库,提供了强大的计算能力和灵活的用于构建和训练神经网络的工具。它的核心特点包括:


动态图计算:与其他机器学习库(如 TensorFlow)不同,PyTorch 允许在运行时动态构建计算图,这使得可以使用 Python 控制流操作(如 if、for、while)来构建模型。


快速 GPU 加速:PyTorch 提供了与 CUDA 相关的 API,可以使用 GPU 加速计算。这使得可以使用 PyTorch 训练大型深度学习模型,而无需太多编码工作。


简单易用:PyTorch 提供了丰富的 API 和数据结构,使得机器学习任务变得简单易用。同时,它还与其他机器学习库(如 NumPy)相集成,使得可以方便地将 PyTorch 与其他库集成在一起。


PyTorch 适用于各种机器学习任务,包括图像分类、自然语言处理、生成对抗网络(GAN)等。它已被广泛应用于学术界和工业界,并被许多公司和组织用于实际应用中。


2 PyTorch张量


正常情况下,我们会直接定义一个变量以及进行变量的加减。


x = 10
y = 2*x*x+3
print(x,y)
# 10 103


但如果使用Pytorch定义变量的话,会以张量(tensor)的形式存在。使用张量进行赋值计算的新变量,也会成为张量。


x = torch.tensor(10)
print(x)
#tensor(10)
y = 2*x*x+3
print(y)
#tensor(203)


在深度学习里,Tensor实际上就是一个多维数组(multidimensional array)。而Tensor的目的是能够创造更高维度的矩阵、向量。


3 PyTorch的自动求导机制


3.1单变量求导

自动求导机制是PyTorch相比numpy的最重要区别之一。我们在创建张量的时候,需要给Torch一个额外的参数:require_grad=True。这个参数的意思是:梯度反传时对该 Tensor 计算梯度。


x = torch.tensor(10.0, requires_grad=True)
print(x)
1


此时的打印结果是tensor(10., requires_grad=True)。可以发现上面的代码输入的还是10,这次我改成了10.0,是因为如果进行求导的话,torch要求的数据格式是float类型而不能是int类型。


y = 2*x*x+3
print(y)


此时的打印结果是tensor(203., grad_fn=),可以看到y也随之发生了变化。接下来我们来计算梯度。

y.backward()
print(x.grad)


此时的打印结果是tensor(200.),这里backward函数完成了计算梯度工作,而x.grad则为在x点的梯度值。


3.2多变量求导与链式求导

在实际的神经网络建模中,一定不只一个节点和一个中间层,因此多变量求导与链式求导是常态,Torch对此也是完美支持。

假设此时我们增加一个变量z,z是y的函数,y是x的函数,那么当我们需要求dz/dx时,就需要用来链式求导法则。


import torch
x = torch.tensor(10.0, requires_grad=True)
y = 2*x*x+3
z = 5*y+6
z.backward()
print(x.grad)
# tensor(200.)



这个结果与dz/dy * dy/dx 完全相同。

接下来让上面的函数变的更复杂些,加入变量a与b,函数间的关系如下:



c692e2efe5274551af0f3322be96e37b.png


这同时也和神经网络更像了,可以把x和a想象成输入层,y和b想象成隐含层,z想象成输出层。如果我们需要求dz/dx,那需要对所有的途径分别求导并相加,也就是:


image.png


d z d x = d z d y ∗ d y d x + d z d b ∗ d b d x \frac{dz}{dx}=\frac{dz}{dy}*\frac{dy}{dx}+\frac{dz}{db}*\frac{db}{dx}
dx
dz
 = 
dy
dz
dx
dy
 + 
db
dz
dx
db


Torch同样可以轻松完成以上操作。


import torch
a = torch.tensor(5.0,requires_grad=True)
x = torch.tensor(10.0, requires_grad=True)
y = 2*x*x+3*a
b = 6*x*a
z = y*y+1/(b*y)
z.backward()
print(x.grad)
# tensor(17200.)


可以看到,PyTorch会根据我们输入的变量关系,计算出z对x的导数。


以上内容并未覆盖Pytorch的全部内容,但是包含了神经网络建模的大多知识点与相关思想。如果希望进一步了解Pytorch,可以查看下一篇博文,如何使用Pytorch搭建一个简单的三层神经网络模型(撰写中)。


相关文章
|
2月前
|
机器学习/深度学习 人工智能 算法
深度学习入门:理解神经网络与反向传播算法
【9月更文挑战第20天】本文将深入浅出地介绍深度学习中的基石—神经网络,以及背后的魔法—反向传播算法。我们将通过直观的例子和简单的数学公式,带你领略这一技术的魅力。无论你是编程新手,还是有一定基础的开发者,这篇文章都将为你打开深度学习的大门,让你对神经网络的工作原理有一个清晰的认识。
|
4天前
|
机器学习/深度学习 自然语言处理 前端开发
前端神经网络入门:Brain.js - 详细介绍和对比不同的实现 - CNN、RNN、DNN、FFNN -无需准备环境打开浏览器即可测试运行-支持WebGPU加速
本文介绍了如何使用 JavaScript 神经网络库 **Brain.js** 实现不同类型的神经网络,包括前馈神经网络(FFNN)、深度神经网络(DNN)和循环神经网络(RNN)。通过简单的示例和代码,帮助前端开发者快速入门并理解神经网络的基本概念。文章还对比了各类神经网络的特点和适用场景,并简要介绍了卷积神经网络(CNN)的替代方案。
|
1月前
|
弹性计算 人工智能 运维
Terraform从入门到实践:快速构建你的第一张业务网络(上)
本次分享主题为《Terraform从入门到实践:快速构建你的第一张业务网络》。首先介绍如何入门和实践Terraform,随后演示如何使用Terraform快速构建业务网络。内容涵盖云上运维挑战及IaC解决方案,并重磅发布Terraform Explorer产品,旨在降低使用门槛并提升用户体验。此外,还将分享Terraform在实际生产中的最佳实践,帮助解决云上运维难题。
118 1
Terraform从入门到实践:快速构建你的第一张业务网络(上)
|
16天前
|
Java
[Java]Socket套接字(网络编程入门)
本文介绍了基于Java Socket实现的一对一和多对多聊天模式。一对一模式通过Server和Client类实现简单的消息收发;多对多模式则通过Server类维护客户端集合,并使用多线程实现实时消息广播。文章旨在帮助读者理解Socket的基本原理和应用。
15 1
|
2月前
|
域名解析 网络协议 应用服务中间件
网络编程入门如此简单(四):一文搞懂localhost和127.0.0.1
本文将以网络编程入门者视角,言简意赅地为你请清楚localhost和127.0.0.1的关系及区别等。
137 2
网络编程入门如此简单(四):一文搞懂localhost和127.0.0.1
|
1月前
|
机器学习/深度学习 PyTorch 算法框架/工具
深度学习入门案例:运用神经网络实现价格分类
深度学习入门案例:运用神经网络实现价格分类
|
1月前
|
机器学习/深度学习 人工智能 自然语言处理
深度学习中的卷积神经网络(CNN)入门与实践
【8月更文挑战第62天】本文以浅显易懂的方式介绍了深度学习领域中的核心技术之一——卷积神经网络(CNN)。文章通过生动的比喻和直观的图示,逐步揭示了CNN的工作原理和应用场景。同时,结合具体的代码示例,引导读者从零开始构建一个简单的CNN模型,实现对图像数据的分类任务。无论你是深度学习的初学者还是希望巩固理解的开发者,这篇文章都将为你打开一扇通往深度学习世界的大门。
|
1月前
|
机器学习/深度学习 存储 自然语言处理
深度学习入门:循环神经网络------RNN概述,词嵌入层,循环网络层及案例实践!(万字详解!)
深度学习入门:循环神经网络------RNN概述,词嵌入层,循环网络层及案例实践!(万字详解!)
|
1月前
|
机器学习/深度学习 PyTorch API
深度学习入门:卷积神经网络 | CNN概述,图像基础知识,卷积层,池化层(超详解!!!)
深度学习入门:卷积神经网络 | CNN概述,图像基础知识,卷积层,池化层(超详解!!!)
|
5月前
|
机器学习/深度学习 PyTorch 算法框架/工具
【从零开始学习深度学习】28.卷积神经网络之NiN模型介绍及其Pytorch实现【含完整代码】
【从零开始学习深度学习】28.卷积神经网络之NiN模型介绍及其Pytorch实现【含完整代码】
下一篇
无影云桌面