【AI系统】AI 系统与程序代码关系

简介: 本文探讨了AI系统与程序代码之间的关系,通过PyTorch实现LeNet5神经网络模型为例,详细介绍了AI训练流程原理、网络模型构建方法、算子实现的系统问题以及AI系统执行的具体计算过程。文章不仅解释了神经网络的前向传播和反向传播机制,还深入分析了算子在AI框架中的作用及其底层实现,包括卷积层的具体计算和优化问题。此外,文章对比了使用PyTorch与直接使用cuDNN+CUDA编程实现神经网络模型的差异,强调了AI框架在提高开发效率、自动化内存管理和实现自动微分等方面的重要性。

AI 系统与程序代码关系

模型算法的开发者一般会通过使用 AI 框架提供 Python 等高级语言的 API,来编写对应的 AI 算法,而 AI 算法的底层系统问题被当前层抽象隐藏。到底在代码背后 AI 系统的每一层发生和执行了什么?有哪些有意思的系统设计问题?

本文我们将从一个具体的 PyTorch 实现一个 LeNet5 神经网络模型作为实例开始,启发读者和后面 AI 系统的每一层和各篇文章构建起桥梁与联系。

神经网络样例

AI 训练流程原理

如图所示,可以看到一个神经网络模型可以接受输入(如当前手写数字图片),产生输出(如数字分类),这个过程叫前向传播(Forward Propagation)。

04Sample02.png

那么如何得到一个针对当前已有的输入输出数据上,预测效果最好的神经网络模型呢?这个时候需要通过对网络模型进行训练,训练过程可以抽象为数学上的优化问题,优化目标为:

$$\theta = argmin_{\theta}\sum[Loss(f_{\theta}(x), y)]\\$$

其中:

  • $f_{\theta}$ 表示神经网络模型,例如 LeNet;
  • $Loss\quad\quad$ 表示损失函数;
  • $x\quad$表示输入数据,数据中的输入也就是图像;
  • $y\quad$表示标签值,也代表网络模型的输出;

训练的过程就是找到最小化 $Loss\quad\quad$ 的 $\theta\quad$取值,$\theta\quad$也称作权重,即网络模型中的参数。在训练过程中将通过梯度下降等数值优化算法进行求解:

$$\theta = \theta - \alpha \delta_{\theta}Loss(\theta)\\$$

其中,$\alpha\quad$也称为学习率(Learning Rate)。当神经网络模型训练完成,就可以通过 $\hat{y} = f_\theta(x)\quad\quad$ 进行推理,使用和部署已经训练好的网络模型。

如图所示,左上角展示输入为手写数字图像,输出为分类向量,中间矩形为各层输出的特征图(Feature Map),我们将其映射为具体的实现代码,其结构通过 AI 框架提供的 API 来定义和构建。神经网络模型就是通过各个层,将输入图像通过多个隐藏层的算子进行计算,得到为类别输出概率向量。

算子:深度学习算法由一个个计算单元组成,称这些计算单元为算子(Operator,Op)。AI 框架中对张量计算的种类有很多,比如加法、乘法、矩阵相乘、矩阵转置等,这些计算被称为算子(Operator)。

为了更加方便的描述计算图中的算子,现在来对算子这一概念进行定义:

数学上定义的算子:一个函数空间到函数空间上的映射 O:X→X,对任何函数进行某一项操作都可以认为是一个算子。

  • 狭义的算子(Kernel):对张量 Tensor 执行的基本操作集合,包括四则运算,数学函数,甚至是对张量元数据的修改,如维度压缩(Squeeze),维度修改(reshape)等。

  • 广义的算子(Function):AI 框架中对算子模块的具体实现,涉及到调度模块,Kernel 模块,求导模块以及代码自动生成模块。

对于神经网络模型而言,算子是网络模型中涉及到的计算函数。在 PyTorch 中,算子对应层中的计算逻辑,例如:卷积层(Convolution Layer)中的卷积算法,是一个算子;全连接层(Fully-connected Layer,FC layer)中的权值求和过程,也是一个算子。

网络模型构建

开发者一般经过两个阶段进行构建:

  1. 定义神经网络结构,如图中和代码实例中构建的 LeNet5 网络模型,其中包含有卷积(Conv2D)层,最大池化层(MaxPool2D),全连接(Linear)层。

  2. 开始训练,遍历一个批大小(Batch Size)的数据,设置计算的 NPU/GPU 资源数量,执行前向传播计算,计算损失值(Loss),通过反向传播实现优化器计算,从而更新权重。

现在使用 PyTorch 在 MNIST 数据集上训练一个卷积神经网络 LeNet 的代码实例。

import torch
import torch_npu

# 如果模型层数多,权重多到无法在单 GPU 显存放置,我们需要通过模型并行方式进行训练
class LeNet(nn.Module):
    def __init__(self):
        super(LeNet, self).__init__()
        # 通过循环 Loop 实现卷积理解卷积的执行逻辑,可以深入思考其中编译和硬件执行问题
        # 我们将会在第二章、第三章详细展开计算到芯片的关系
        self.conv1 = nn.Conv2d(3, 6, 5)
        self.conv2 = nn.Conv2d(6, 16, 5)
        self.fc1 = nn.Linear(16*5*5, 120)
        self.fc2 = nn.Linear(120, 84)
        self.fc2 = nn.Linear(84, 10)

    def forward(self, x):
          # 具体的执行 API 单位是算子,实际编译器或者硬件执行的是 Kernel
          # 我们将会在第四章推理引擎 Kernel 优化详细介绍算子计算执行的方式
        out = F.relu(self.conv1(x))
        out = F.max_pool2d(out, 2)
        out = F.relu(self.conv2(out))
        out = F.max_pool2d(out, 2)
        out = out.view(out.size(0), -1)
        out = F.relu(self.fc1(out))
        out = F.relu(self.fc2(out))
        out = self.fc3(out)
        return out


def train(args, model, device, train_loader, optimizer, epoch):
    # 如何进行高效的训练,运行时 Runtime 是如何执行的
    # 我们将在第五章 AI 框架基础进行介绍
    model.train()
    for batch_idx, (data, target) in enumerate(train_loader):
        data, target = data.to(device), target.to(device)
        optimizer.zero_grad()
        output = model(data)
        loss = F.nll_loss(output, target)
        loss.backward()
        optimizer.step()
        ...


def test(model, device, test_loader):
    model.eval()
    ... 
    with torch.no_grad():
        for data, target in test_loader:
            data, target = data.to(device), target.to(device)
            # 推理系统如何高效进行模型推理
            # 我们将在第四章 AI 推理系统进行介绍
            output = model(data)
            ...


def main():
    ...
    # 当前语句决定了使用哪种 AI 加速芯片
    # 可以通过第二章的 AI 芯片基础去了解不同 AI 加速芯片的体系结构及芯片计算底层原理
    device = torch.device("npu" if use_cuda else "cpu")

    # 如果 batch size 过大,造成单 NPU/GPU HBM 内存无法容纳模型及中间激活的张量
    # 读者可以参考第分布式训练算法,进行了解如何分布式训练
    train_kwargs = {
   'batch_size': args.batch_size}
    test_kwargs = {
   'batch_size': args.test_batch_size}
    ...

    # 如果数据量过大,那么可以使用分布式数据并行进行处理,利用集群的资源
    dataset1 = datasets.MNIST('../data', train=True, download=True, transform=transform)
    dataset2 = datasets.MNIST('../data', train=False, transform=transform)
    train_loader = torch.utils.data.DataLoader(dataset1,**train_kwargs)
    test_loader = torch.utils.data.DataLoader(dataset2, **test_kwargs)
    model = LeNet().to(device)
    optimizer = optim.Adadelta(model.parameters(), lr=args.lr)
    ... 

    for epoch in range(1, args.epochs + 1):
        train(args, model, device, train_loader, optimizer, epoch)
        # 训练完成需要部署,如何压缩和量化后再部署
        # 可以参考第四章推理系统进行了解
        test(model, device, test_loader)
        ... 

if __name__ == '__main__':
    main()

算子实现的系统问题

在神经网络中所描述的层(Layer),在 AI 框架中称为算子,或者叫做操作符(Operator);底层算子的具体实现,在 AI 编译器或者在 AI 芯片时称为 Kernel,对应具体 Kernel 执行的时候会先将其映射或转换为对应的矩阵运算(例如,通用矩阵乘 GEMM),再由其对应的矩阵运算翻译为对应的循环 Loop 指令。

卷积实现原理

下图的卷积层实例中,每次选取输入数据一层的一个窗口(和卷积核一样的宽高),然后和对应的卷积核($5 \times5\quad\quad$卷积核代表高 5 维宽 5 维的矩阵)进行 矩阵内积(Dot Product) 运算,最后将所有的计算结果与偏置项 $b\quad$相加后输出。

import torch

class LeNet(nn.Module):
    def __init__(self):
        super(LeNet, self).__init__()
        ...
        self.conv2 = nn.Conv2d(3, 2, 5)
        ...

    def forward(self, x):
          out = self.conv1(x)
          ...

原始的卷积操作首先一次沿着行进行滑动一定的步长 Step,再进行下次矩阵内积计算,直到滑到边界后再沿着一定步长跳到下一列重复刚才的滑动窗口。最终把每一步的结果组合成输出矩阵,即产生特征图(Feature Map)。

如图中所示,输入张量形状(Tensor Shape)为 $3 \times 32 \times 32\quad\quad\quad\quad$(3 代表通道数,32 代表张量高度和宽度),经过 $2 \times 3 \times 5 \times 5\quad\quad\quad\quad$ 的卷积(2 代表输出通道数,3 代表输入通道数,5 代表卷积核高度和宽度)后,输出张量形状为 $2 \times 28 \times 28\quad\quad\quad$ (2 代表通道,28 代表高度和宽度)。

04Sample04.png

卷积执行样例

示例的卷积计算,最终在程序上表达为多层嵌套循环,为简化计算过程,循环展开中没有呈现维度(Dimension)的形状推导(Shape Inference)。以 Conv2D 转换为如下 7 层循环进行 Kerenl 计算的代码:

# 批尺寸维度 batch_size
for n in range(batch_size):
   # 输出张量通道维度 output_channel
   for oc in range(output_channel):
       # 输入张量通道维度 input_channel
       for ic in range(input_channel):
          # 输出张量高度维度 out_height
          for h in range(out_height):
              # 输出张量宽度维度 out_width
              for w in range(out_width):
                  # 卷积核高度维度 filter_height
                  for fh in range(filter_height):
                      # 卷积核宽度维度 filter_width
                      for fw in range(filter_width):
                          # 乘加(Multiply Add)运算
                          output[h, w, oc] += input[h + fw, w + fh, ic]\
                                              * kernel[fw, fh, ic, oc]

AI 系统遇到的问题

在实际 Kernel 的计算过程中有很多有趣的问题:

  • 硬件加速:通用矩阵乘是计算机视觉和自然语言处理模型中的主要的计算方式,同时 NPU、GPU,又或者如 TPU 脉动阵列的矩阵乘单元等其他专用 AI 芯片 ASIC 是否会针对矩阵乘作为底层支持?(第二章 AI 芯片体系结构相关内容)

  • 片上内存:其中参与计算的输入、权重和输出张量能否完全放入 NPU/GPU 片内缓存(L1、L2、Cache)?如果不能放入则需要通过循环块(Loop Tile)编译优化进行切片。(第二章 AI 芯片体系结构相关内容)

  • 局部性:循环执行的主要计算语句是否有局部性可以利用?空间局部性(缓存线内相邻的空间是否会被连续访问)以及时间局部性(同一块内存多久后还会被继续访问),这样我们可以通过预估后,尽可能的通过编译调度循环执行。(第三章 AI 编译器相关内容)

  • 内存管理与扩展(Scale Out):AI 系统工程师或者 AI 编译器会提前计算每一层的输出(Output)、输入(Input)和内核(Kernel)张量大小,进而评估需要多少计算资源、内存管理策略设计,以及换入换出策略等。(第三章 AI 编译器相关内容)

  • 运行时调度:当算子与算子在运行时按一定调度次序执行,框架如何进行运行时管理?(第四章推理引擎相关内容)

  • 算法变换:从算法来说,当前多层循环的执行效率无疑是很低的,是否可以转换为更加易于优化和高效的矩阵计算?(第四章推理引擎相关内容)

  • 编程方式:通过哪种编程方式可以让神经网络模型的程序开发更快?如何才能减少或者降低算法工程师的开发难度,让其更加聚焦 AI 算法的创新?(第五章 AI 框架相关内容)

AI 系统执行具体计算

目前算法工程师或者上层应用开发者只需要使用 AI 框架定义好的 API 使用高级编程语言如 Python 等去编写核心的神经网络模型算法,而不需要关注底层的执行细节和对一个的代码。底层通过层层抽象,提升了开发效率,但是对系统研发却隐藏了众多细节,需要 AI 系统开发的工程师进一步探究。

在上面的知识中,开发者已经学会使用 Python 去编写 AI 程序,以及深度学习代码中的一个算子(如卷积)是如何翻译成底层 for 循环从而进行实际的计算,这类 for 循环计算通常可以被 NPU/GPU 计算芯片厂商提供的运行时算子库进行抽象,不需要开发者不断编写 for 循环执行各种算子操作(如 cuDNN、cuBLAS 等提供卷积、GEMM 等 Kernel 的实现和对应的 API)。

目前在编译以及计算架构层已经直接抽象到 Kernel 对具体算子进行执行这一层所提供的高级 API,似乎已经提升了很多开发效率,那么有几个问题:

  • 为什么还需要 AI 框架(如 PyTorch、MindSpore 等)?
  • AI 框架在 AI System 中扮演什么角色和提供什么内容?
  • 用户编写的 Python 代码如何翻译给硬件去执行?

我们继续以上面的例子作为介绍。如果没有 AI 框架,只将算子 for 循环抽象提供算子库(例如,cuDNN)的调用,算法工程师只能通过 NPU/GPU 厂商提供的底层 API 编写神经网络模型。例如,通过 CUDA + cuDNN 库书写卷积神经网络,

因此如图自底向上分为不同的步骤和处理流程。后面以 cuDNN 书写的卷积神经网络 LeNet 实例 作为简单示例。

04Sample05.png

  1. 通过 cuDNN + CUDA API 编程实现 LeNet

    参考实例 cudnn-training,需要~1000 行实现模型结构和内存管理等逻辑。

    // 内存分配,如果用 AI 框架此步骤会省略
    ...
    cudaMalloc(&d_data, sizeof(float) * context.m_batchSize * ch 
    annels * height * width);
    cudaMalloc(&d_labels, sizeof(float) * context.m_batchSize * 1  * 1 * 1);
    cudaMalloc(&d_conv1, sizeof(float) * context.m_batchSize * conv1.out_channels * conv1.out_height * conv1.out_width);
    ...
    
    // 前向传播第一个卷积算子(仍需要写其他算子)
    ...
    cudnnConvolutionForward(cudnnHandle, &alpha, dataTensor,
                         data, conv1filterDesc, pconv1, conv1Desc, 
                         conv1algo, workspace, m_workspaceSize, &beta,
                         conv1Tensor, conv1);
    ...
    // 反向传播第一个卷积算子(仍需要写其他算子),如果用 AI 框架此步骤会省略
    cudnnConvolutionBackwardBias(cudnnHandle, &alpha, conv1Tensor,
                              dpool1, &beta, conv1BiasTensor, gconv1bias);
    
    cudnnConvolutionBackwardFilter(cudnnHandle, &alpha, dataTensor,
                                data, conv1Tensor, dpool1, conv1Desc,
                                conv1bwfalgo, workspace, m_workspaceSize, 
                                &beta, conv1filterDesc, gconv1));
    
    // 第一个卷积权重梯度更新(仍需要写其他算子),如果用 AI 框架此步骤会省略
    cublasSaxpy(cublasHandle, static_cast<int>(conv1.pconv.size()),
             &alpha, gconv1, 1, pconv1, 1);
    cublasSaxpy(cublasHandle, static_cast<int>(conv1.pbias.size()),
             &alpha, gconv1bias, 1, pconv1bias, 1);
    
    // 内存释放,如果用 AI 框架此步骤会省略
    ...
    cudaFree(d_data);
    cudaFree(d_labels);
    cudaFree(d_conv1);
    ...
    
  2. 通过 PyTorch 编写 LeNet5

    只需要 10 行构建模型结构。

    class LeNet(nn.Module):
     def __init__(self):
         super(LeNet, self).__init__()
         self.conv1 = nn.Conv2d(3, 6, 5)
         self.conv2 = nn.Conv2d(6, 16, 5)
         self.fc1 = nn.Linear(16*5*5, 120)
         self.fc2 = nn.Linear(120, 84)
         self.fc2 = nn.Linear(84, 10)
    
     def forward(self, x):
         out = F.relu(self.conv1(x))
         out = F.max_pool2d(out, 2)
         out = F.relu(self.conv2(out))
         out = F.max_pool2d(out, 2)
         out = out.view(out.size(0), -1)
         out = F.relu(self.fc1(out))
         out = F.relu(self.fc2(out))
         out = self.fc3(out)
         return out
    

    通过 PyTorch + LeNet5 对比 cuDNN + CUDA,明显 cuDNN + CUDA 其抽象还不足以让算法工程师非常高效的设计神经网络模型和算法。同样实现 LeNet5,使用 AI 框架只需要 9 行代码,而通过 cuDNN 需要上千行代码,而且还需要精心的管理内存分配释放,拼接模型计算图,效率十分低下。

因此 AI 框架对算法工程师开发神经网络模型、训练模型等流程非常重要。从而可知 AI 框架一般会提供以下功能:

  1. 以 Python API 供读者编写网络模型计算图结构;
  2. 提供调用基本算子实现,大幅降低开发代码量;
  3. 自动化内存管理、不暴露指针和内存管理给用户;
  4. 实现自动微分功能,自动构建反向传播计算图;
  5. 调用或生成运行时优化代码,调度算子在指定 NPU 的执行;
  6. 并在运行期应用并行算子,提升 NPU 利用率等优化(动态优化)。

AI 框架帮助开发者解决了很多 AI System 底层问题,隐藏了很多工程的实现细节,但是这些细节和底层实现又是 AI System 工程师比较关注的点。如果没有 AI 框架、AI 编译器和算子库的支持,算法工程师进行简单的神经网络模型设计与开发都会举步维艰,所以应该看到 AI 算法本身飞速发展的同时,也要看到底层系统对提升整个算法研发的生产力起到了不可或缺的作用。

如果您想了解更多AI知识,与AI专业人士交流,请立即访问昇腾社区官方网站https://www.hiascend.com/ 或者深入研读《AI系统:原理与架构》一书,这里汇聚了海量的AI学习资源和实践课程,为您的AI技术成长提供强劲动力。不仅如此,您还有机会投身于全国昇腾AI创新大赛和昇腾AI开发者创享日等盛事,发现AI世界的无限奥秘~

相关实践学习
部署Stable Diffusion玩转AI绘画(GPU云服务器)
本实验通过在ECS上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。
目录
相关文章
|
1天前
|
机器学习/深度学习 人工智能 编译器
【AI系统】AI 编译器历史阶段
本文概述了AI编译器的发展历程,从朴素AI编译器、专用AI编译器到未来的通用AI编译器,详细介绍了各阶段的技术特点与优化目标。AI编译器旨在优化AI和机器学习应用,通过多层IR设计、面向神经网络的深度优化及对DSA芯片的支持,实现高性能计算。随着技术的进步,通用AI编译器将实现计算图与算子的统一表达、自动化优化及模块化设计,推动AI技术的广泛应用和发展。
9 2
|
1天前
|
机器学习/深度学习 人工智能 前端开发
【AI系统】AI 编译器基本架构
本文承接前文关于AI编译器发展的三个阶段,深入探讨通用AI编译器架构。文章首先回顾现有AI编译器架构,如PyTorch的转换流程及优化策略,然后介绍理想化的通用AI编译器架构,涵盖从前端接收多框架模型输入到后端生成特定硬件代码的全过程。重点解析了编译器的中间表达IR、前端与后端优化技术,以及现有AI编译器全栈产品的层次结构,为读者提供了全面的技术概览。
10 2
|
5天前
|
机器学习/深度学习 人工智能 并行计算
【AI系统】NVLink 原理剖析
随着AI技术的发展,大模型参数量激增,对底层硬件和网络架构提出新挑战。高效训练这些模型需要大规模GPU集群及高速网络连接,以实现快速数据交换。然而,网络瓶颈限制了GPU性能的充分发挥,表明单纯增加GPU数量不能线性提升算力。因此,算存互连和算力互连技术成为关键,如PCIe、NVLink和NVSwitch等,它们通过提高数据传输速度和效率,支持大规模并行计算,解决了大规模GPU集群中的通信延迟问题,推动了万亿级模型训练的实现。
20 2
|
7天前
|
机器学习/深度学习 人工智能 算法
【AI系统】AI系统概述与设计目标
本文介绍了AI系统的全栈架构,涵盖设计目标、组成和生态。AI系统旨在连接硬件与应用,提供高效的模型服务和开发支持。文中探讨了高效编程语言、开发框架、工具链的重要性,以及AI任务系统级支持、自动编译优化和云原生自动分布式化等关键设计目标。此外,还详细讨论了AI训练与推理框架、AI编译与计算架构、AI硬件与体系结构等组成部分,以及AI算法和框架、更广泛的生态系统等。
38 1
|
3月前
|
人工智能 算法 自动驾驶
用AI自动设计智能体,数学提分25.9%,远超手工设计
【9月更文挑战第18天】《智能体自动设计(ADAS)》是由不列颠哥伦比亚大学等机构的研究者们发布的一篇关于自动化设计智能体系统的最新论文。研究中提出了一种创新算法——“Meta Agent Search”,此算法通过迭代生成并优化智能体设计,从而实现更高效的智能体系统构建。实验表明,相比人工设计的智能体,Meta Agent Search生成的智能体在多个领域均有显著的性能提升。然而,该方法也面临着实际应用中的有效性与鲁棒性等挑战。论文详细内容及实验结果可于以下链接查阅:https://arxiv.org/pdf/2408.08435。
92 12
|
2月前
|
机器学习/深度学习 人工智能 PyTorch
【AI系统】AI 系统与程序代码关系
在人工智能领域,系统与程序代码间的关系错综复杂。AI系统的设计需高效代码支撑,而代码优化与执行又受制于系统设计。本文剖析二者间的互动及其对AI进步的关键作用,涵盖AI训练流程、经典模型LeNet5实现、底层算子与系统问题,并探讨如何通过高效代码与系统优化推动AI技术革新,提升模型性能。欢迎访问昇腾社区获取更多AI学习资源与实践机会。
45 0
|
2月前
|
机器学习/深度学习 人工智能 算法
【AI系统】AI 框架与编译器的作用
AI框架如PyTorch和TensorFlow提供丰富的API,简化神经网络模型的实现与训练,抽象硬件操作并自动管理内存。AI编译器将高级语言编写的模型转换为硬件可执行代码,通过多层次优化提升性能。这使得算法工程师可以专注于模型设计与创新,而无需关注底层计算细节。AI框架和编译器不仅提高开发效率,还能充分利用硬件资源,是推动AI系统性能提升的关键技术。访问昇腾社区官网或下载APP,获取更多AI学习资源和参与各类活动。
64 0
|
2月前
|
机器学习/深度学习 人工智能 安全
【AI系统】AI系统的设计目标与挑战
本文探讨了AI系统设计的核心目标及其面临的挑战。AI系统作为硬件与应用间的桥梁,需提升开发效率、优化用户体验,并支持数据处理、模型训练等全生命周期环节。此外,还需在系统级上灵活支持多样化AI任务,应对新技术带来的挑战,如动态图支持、大规模部署及安全需求。未来,AI系统设计将更注重高效、灵活与安全。
91 0
|
5月前
|
人工智能 算法 安全
强 AI 和弱 AI 之间的区别
强 AI 和弱 AI 之间的区别
|
5月前
|
人工智能 算法
AI问题之ToT结构替代了人类的哪些过程
AI问题之ToT结构替代了人类的哪些过程