【学习记录】《DeepLearning.ai》第十一课:深度卷积网络:实例探究(Deep convolutional models:case studies)

简介: 2021/9/11

第十一课:深度卷积网络:实例探究(Deep convolutional models:case studies)

2.1 为什么要进行实例探究

PASS


2.2 经典网络(Classic networks)

三种经典的网络结构

1.LeNet-5

image

该网络结构没有使用padding,对于池化层,如果s=2,f=2,则图像的高度和宽度都缩小2倍,随着网络层的增加,图像的高度和宽度在缩小,而通道数在增加。

用的是平均池化

2.AlexNet

image

使用了same卷积,使用后图像的高度和宽度不变,使用了最大池化后宽度和高度减半。

3.VGG-16

image

Conv 64表示卷积核有64个,VGG-16表示有16个网络层和全连接层。其本身结构简单,没经过一次网络层,宽度和高度都减半,通道数都翻倍。


2.3 残差网络(ResNets)

国内的何恺明大佬提出的

image

个人理解:如上图,对于两层神经网络,若要计算$a^{[l+2]}$,需要进行一步步线性操作以及使用Relu激活函数,也就是,信息从$a^{[l]}$到$a^{[l+2]}$​需要经过上面的计算过程。​

image

而残差网络相当于直接跳过了$a^{[l+1]}$直接拷贝到神经网络的深层,然后在ReLU非线性激活函数上加上$a^{[l]}$,如下:

$$ a^{[l+2]}=g(z^{[l+2]}+a^{[l]}) $$

也就是加上了$a^{[l]}$产生了残差块。

image

如上图,蓝色框里面都是残差块,残差网络能使得神经网络在训练过程中误差一直减少。


2.4 残差网络有用的原因?

对于普通的网络,如果深度越深,训练效率就会变慢。

对于残差网络来说,如果残差块里面的隐层单元学到了一些东西,则它比学习恒等函数(在之前设置其权重和b都为0的时候)表现得更好。如下图

image

ResNets使用了很多的same卷积,保留了之前的维度。

image

image

前面是在全连接层使用残差网络,这块是在卷积层使用残差网络,跳跃连接。


2.5 网络中的网络以及1*1卷积

image

image

$1*1$网络让我们能够任意变换原输入的通道数,或者加上ReLU线性修正激活函数。


2.6 谷歌Inception网络(Inception network motivation)

image

基本思想是 Inception网络不需要人为决定使用哪个过滤器或者是否需要池化,而是由网络自行确定这些参数,你可以给网络添加这些参数的所有可能值,然后把这些输出连接起来,让网络自己学习它需要什么样的参数,采用哪些过滤器组合。

image

image

上面两个图表示了使用$1*1$​卷积之后可以减小计算量,降低计算成本。这是Inception模块的主要思想。


2.7 Inception网络

image

上面是一个Inception模块

image

这是一个Inception网络,就是将很多Inception模块连接起来。


2.8 使用开源实现方案

ResNets实现的 GitHub地址 https://github.com/KaimingHe/deep-residual-networks


2.9 迁移学习(Transfer learning)

image

将网络上的神经网络和已经训练好的权重拿来进而通过冻结某些层数来训练自己的数据。


2.10 数据增强(Data augmentation)

和之前重复了好像

PASS


2.11 计算机视觉现状

通常需要大量人工

总之,多参考别人的训练项目。


OVER

冲!

相关文章
|
4月前
|
机器学习/深度学习 人工智能 TensorFlow
神经网络深度剖析:Python带你潜入AI大脑,揭秘智能背后的秘密神经元
【8月更文挑战第1天】在当今科技飞速发展的时代,AI已成为日常生活中不可或缺的一部分。神经网络作为AI的核心,通过模拟人脑中的神经元连接方式处理复杂数据模式。利用Python及其强大的库TensorFlow,我们可以轻松构建神经网络模型。示例代码展示了如何建立一个含有两层隐藏层的简单神经网络,用于分类任务。神经网络通过反向传播算法不断优化权重和偏置,从而提高预测准确性。随着技术的进步,神经网络正变得越来越深、越来越复杂,能够应对更加艰巨的挑战,推动着AI领域向前发展。
52 2
|
1月前
|
网络协议 Go
Go语言网络编程的实例
【10月更文挑战第27天】Go语言网络编程的实例
21 7
|
3月前
|
机器学习/深度学习 人工智能 TensorFlow
神经网络深度剖析:Python带你潜入AI大脑,揭秘智能背后的秘密神经元
【9月更文挑战第12天】在当今科技飞速发展的时代,人工智能(AI)已深入我们的生活,从智能助手到自动驾驶,从医疗诊断到金融分析,其力量无处不在。这一切的核心是神经网络。本文将带领您搭乘Python的航船,深入AI的大脑,揭秘智能背后的秘密神经元。通过构建神经网络模型,我们可以模拟并学习复杂的数据模式。以下是一个使用Python和TensorFlow搭建的基本神经网络示例,用于解决简单的分类问题。
49 10
|
3月前
|
机器学习/深度学习 人工智能 TensorFlow
深入骨髓的解析:Python中神经网络如何学会‘思考’,解锁AI新纪元
【9月更文挑战第11天】随着科技的发展,人工智能(AI)成为推动社会进步的关键力量,而神经网络作为AI的核心,正以其强大的学习和模式识别能力开启AI新纪元。本文将探讨Python中神经网络的工作原理,并通过示例代码展示其“思考”过程。神经网络模仿生物神经系统,通过加权连接传递信息并优化输出。Python凭借其丰富的科学计算库如TensorFlow和PyTorch,成为神经网络研究的首选语言。
52 1
|
3月前
|
人工智能 TensorFlow 算法框架/工具
AI计算机视觉笔记十七:实例分割
本文介绍了计算机视觉中的实例分割技术,通过结合目标检测和语义分割的方法,实现对图像中不同实例的精确区分与标记。以识别多只猫为例,详细描述了使用Mask R-CNN模型进行实例分割的过程,并提供了相关代码及环境搭建指南。通过实例演示,展示了如何利用该技术成功识别并分割出图像中的各个对象。
|
3月前
|
机器学习/深度学习 人工智能 算法
首个像人类一样思考的网络!Nature子刊:AI模拟人类感知决策
【9月更文挑战第8天】近日,《自然》子刊发表的一篇关于RTNet神经网络的论文引起广泛关注。RTNet能模拟人类感知决策思维,其表现与人类相近,在反应时间和准确率上表现出色。这项研究证明了神经网络可模拟人类思维方式,为人工智能发展带来新启示。尽管存在争议,如是否真正理解人类思维机制以及潜在的伦理问题,但RTNet为人工智能技术突破及理解人类思维机制提供了新途径。论文详细内容见《自然》官网。
69 3
|
3月前
|
人工智能 监控 算法
AI计算机视觉笔记二十 八:基于YOLOv8实例分割的DeepSORT多目标跟踪
本文介绍了YOLOv8实例分割与DeepSORT视觉跟踪算法的结合应用,通过YOLOv8进行目标检测分割,并利用DeepSORT实现特征跟踪,在复杂环境中保持目标跟踪的准确性与稳定性。该技术广泛应用于安全监控、无人驾驶等领域。文章提供了环境搭建、代码下载及测试步骤,并附有详细代码示例。
|
4月前
|
人工智能 安全 网络安全
网络犯罪分子开始利用AI绕过现代电子邮件安全措施
网络犯罪分子开始利用AI绕过现代电子邮件安全措施
|
3月前
|
机器学习/深度学习 人工智能 TensorFlow
神经网络入门到精通:Python带你搭建AI思维,解锁机器学习的无限可能
【9月更文挑战第10天】神经网络是开启人工智能大门的钥匙,不仅是一种技术,更是模仿人脑思考的奇迹。本文从基础概念入手,通过Python和TensorFlow搭建手写数字识别的神经网络,逐步解析数据加载、模型定义、训练及评估的全过程。随着学习深入,我们将探索深度神经网络、卷积神经网络等高级话题,并掌握优化模型性能的方法。通过不断实践,你将能构建自己的AI系统,解锁机器学习的无限潜能。
54 0
|
4月前
|
机器学习/深度学习 人工智能 PyTorch
AI智能体研发之路-模型篇(五):pytorch vs tensorflow框架DNN网络结构源码级对比
AI智能体研发之路-模型篇(五):pytorch vs tensorflow框架DNN网络结构源码级对比
80 1