毕业设计(基于TensorFlow的深度学习与研究)之完结篇

简介: 本文是我的毕业设计基于TensorFlow的深度学习与研究的完结篇,在本篇推文中,我将分为三个部分去写:第一部分是对我毕业设计系列推文的总体安排;第二部分是对我毕业设计的总结概括;第三部分我将引入一个入门级的案例(借助fashion_mnist数据集),一方面是帮助初学者对深度学习和卷积神经网络有一定的了解,另一方面是此案例与我毕设中的一个案例相似度较高(另外,我毕设中涉及的两个案例的源代码我将在答辩之后更新到Github上)。

前言


本文是我的毕业设计基于TensorFlow的深度学习与研究的完结篇,在本篇推文中,我将分为三个部分去写:


  • 第一部分是对我毕业设计系列推文的总体安排;
  • 第二部分是对我毕业设计的总结概括;
  • 第三部分我将引入一个入门级的案例(借助fashion_mnist数据集),一方面是帮助初学者对深度学习和卷积神经网络有一定的了解,另一方面是此案例与我毕设中的一个案例相似度较高(另外,我毕设中涉及的两个案例的源代码我将在答辩之后更新到Github上)。



毕设系列推文总体安排



从毕业设计开始到现在,我总共发过两篇与其相关的推文,第一篇是于2020.01.13发布的TensorFlow环境搭建,第二篇是于2020.03.18发布的毕业设计(基于TensorFlow的深度研究与实现)之番外篇大家可以去我的公号翻一下,等到我的所有毕设相关的推文更新完之后,我会做下整理,方便大家查阅。


微信图片_20220610221029.png

图 1.1 毕设相关推文


毕设系列推文总体安排如下(打 为已完成内容,打 × 为未完成内...ing 为正在编写的内容):


  1. TensorFlow环境搭建(1篇)
  2. 基础知识内容(包括TensorFlow 2.0简单介绍、卷积神经网络基础介绍,预估2~3篇)×
  3. 项目案例讲解及代码展示(两个案例:利用AlexNet完成MNIST手写字的识别、利用AlexNet完成五种花的分类,预估2篇)×
  4. 毕业设计(基于TensorFlow的深度研究与实现)之番外篇(内容涉及通过华为云AI开发平台ModelArts完成五种花分类项目案例的部署测试及滑动验证码缺口识别)
  5. 毕设最终篇(内容涉及系列推文总体安排、项目总结以及初学者入门深度学习的一个demo讲解)...ing



毕设仿真项目总结


我的毕业设计总体架构可以分为三大板块:



  1. 相关知识了解(包括英文文献翻译、第一章绪论部分、第五章总结与期望部分、致谢部分、参考文献部分等,这些部分内容大都与仿真项目关系不大,但是这些都是为更好完成仿真项目必要的准备工作)
  2. 基础知识部分(包括TensorFlow 2.0中对高阶API tf.keras.models的使用方法的介绍以及使用Sequential按顺序构建模型序列的介绍)。
  3. 项目仿真部分(主要包括两个案例:第一个是利用AlexNet搭建卷积神经网络完成MNIST手写字的识别,要求准确率在95%,且规定Conv=3层、MaxPool=2层、ReLU=3层,Dense=1层,连接神经元个数为1024,最后一个全连接层使用softmax函数;第二个案例是使用AlexNet标准网络结构完成五种花分类的识别,并通过ModelArts进行部署测试)


以下是我的毕业设计的目录梗概部分:


微信图片_20220610221056.png

图 2.1 第1-2章知识结构


微信图片_20220610221101.png

图 2.2 第3章知识结构


微信图片_20220610221105.png

图 2.3 第4-5章知识结构



入门级案例演示



上述两部分内容是我对我毕设系列推文的一个总结及下一阶段发推文的安排,并不涉及太多知识层面的讲解,接下来我将通过一个入门级案例来简单介绍一下相关的知识。


案例内容概览:

在本案例中我们使用TensorFlow 2.0版本中的高阶API tf.keras.modelstf.keras.datasets并通过Sequential按顺序构建神经网络(最简单的神经网络,代码中构建了隐藏层为三个全连接层的简单神经网络)来完成对fashion_mnist数据集的训练。其中我们损失函数使用的是sparse多分类交叉熵损失函数(sparse_categorical_crossentropy),优化器使用的是随机梯度下降法(sgd),前两个全连接层后面均有sigmoid损失函数,且最后一个全连接层后面接softmax损失函数。


写代码咯:


我们使用该数据集的前5000张作为验证集图片,其余图片均作训练集,借助matplotlib中的函数先展示这个数据中的15张图片(3*5,前3行、5列的图像)


展示图像的代码如下所示:

def show_imgs(n_rows,n_cols,x_data,y_data,class_names):
    assert len(x_data) == len(y_data)
    assert n_rows * n_cols < len(x_data)
    plt.figure(figsize=(n_cols*1.4,n_rows*1.6))
    for row in range(n_rows):
        for col in range(n_cols):
            index = n_cols * row +col
            plt.subplot(n_rows,n_cols,index+1)
            plt.imshow(x_data[index],cmap="binary",interpolation="nearest")
            plt.axis("off")
            plt.title(class_names[y_data[index]])
        plt.show()
class_names = ["T-shirt","Trouser","Pullover","Dress","Coat","Sandal","Shirt","Sneaker","Bag","Ankle boot"]

效果如下图所示:


微信图片_20220610221116.png

图 2.4 1*5图像展示



微信图片_20220610221121.png

图 2.5 2*5图像展示



微信图片_20220610221126.png

图 2.6 3*5图像展示


image.gif


了解了fashion_mnist数据集的大概情况之后,我们来通过Sequential构建模型,代码如下:



model = tf.keras.models.Sequential([
     tf.keras.layers.Flatten(input_shape = [28,28]),
     tf.keras.layers.Dense(300,activation="relu"),
     tf.keras.layers.Dense(100,activation="relu"),
     tf.keras.layers.Dense(10,activation="softmax")
 ])

我们通过如下代码:


model.summary()


在控制台瞅瞅我们搭建的模型,如下图所示:


微信图片_20220610221132.png

图 2.7 查看模型


完成之后,我们开始对数据集进行训练,迭代次数10次,默认batch_size=32,数据集不算太大,我们就在本机cpu跑就行了(小伙伴们当然可以买一块GPU来运算,但是如果和我一样穷的话,建议大家像这种入门级的demo跑在本机就可以了,稍微数据量大点的大家可以借助Google Cloud或者AWS云平台托管运算,更大数据量的还请各位小伙伴少吃点肉把钱节省下来买GPU)所有代码如下:


import tensorflow as tf
fashion_mnist = tf.keras.datasets.fashion_mnist
(x_train_all,y_train_all),(x_test,y_test) = fashion_mnist.load_data()
x_valid,x_train = x_train_all[:5000],x_train_all[5000:]
y_valid,y_train = y_train_all[:5000],y_train_all[5000:]
model = tf.keras.models.Sequential([
    tf.keras.layers.Flatten(input_shape = [28,28]),
    tf.keras.layers.Dense(300,activation="sigmoid"),
    tf.keras.layers.Dense(100,activation="sigmoid"),
    tf.keras.layers.Dense(10,activation="softmax")
])
model.compile(loss = "sparse_categorical_crossentropy",optimizer="sgd",metrics=["accuracy"])
history = model.fit(x_train,y_train,epochs = 10 ,validation_data = (x_valid,y_valid))

其最终结果如下所示:


微信图片_20220610221137.png


其最终识别率在80%左右,我的毕设中关于使用AlexNet识别MNIST的例子其准确率在98%左右,关于五种花的识别的准确率在76%(受限于样本集个数)。总体来说,识别率较高,若小伙伴们还想继续提高识别率,建议在原有的基础上改善隐藏层结构(代码中隐藏层的结构过于简单)。

相关文章
|
8天前
|
机器学习/深度学习 供应链 TensorFlow
深度学习实战营:TensorFlow+Python,打造你的数据驱动决策引擎
【9月更文挑战第13天】在数据爆炸时代,企业日益依赖精准分析进行决策。深度学习凭借其卓越的特征提取与模式识别能力,成为构建数据驱动决策引擎的关键技术。本项目通过TensorFlow和Python,利用LSTM构建零售业销量预测模型,优化库存管理和营销策略。首先确保安装TensorFlow,然后使用Keras API搭建模型,并通过训练、评估和部署流程,展示深度学习在数据驱动决策中的强大应用潜力,助力企业提升经营效率。
18 3
|
2天前
|
机器学习/深度学习 数据挖掘 TensorFlow
解锁Python数据分析新技能,TensorFlow&PyTorch双引擎驱动深度学习实战盛宴
在数据驱动时代,Python凭借简洁的语法和强大的库支持,成为数据分析与机器学习的首选语言。Pandas和NumPy是Python数据分析的基础,前者提供高效的数据处理工具,后者则支持科学计算。TensorFlow与PyTorch作为深度学习领域的两大框架,助力数据科学家构建复杂神经网络,挖掘数据深层价值。通过Python打下的坚实基础,结合TensorFlow和PyTorch的强大功能,我们能在数据科学领域探索无限可能,解决复杂问题并推动科研进步。
12 0
|
11天前
|
机器学习/深度学习 数据挖掘 TensorFlow
从数据小白到AI专家:Python数据分析与TensorFlow/PyTorch深度学习的蜕变之路
【9月更文挑战第10天】从数据新手成长为AI专家,需先掌握Python基础语法,并学会使用NumPy和Pandas进行数据分析。接着,通过Matplotlib和Seaborn实现数据可视化,最后利用TensorFlow或PyTorch探索深度学习。这一过程涉及从数据清洗、可视化到构建神经网络的多个步骤,每一步都需不断实践与学习。借助Python的强大功能及各类库的支持,你能逐步解锁数据的深层价值。
23 0
|
20天前
|
持续交付 测试技术 jenkins
JSF 邂逅持续集成,紧跟技术热点潮流,开启高效开发之旅,引发开发者强烈情感共鸣
【8月更文挑战第31天】在快速发展的软件开发领域,JavaServer Faces(JSF)这一强大的Java Web应用框架与持续集成(CI)结合,可显著提升开发效率及软件质量。持续集成通过频繁的代码集成及自动化构建测试,实现快速反馈、高质量代码、加强团队协作及简化部署流程。以Jenkins为例,配合Maven或Gradle,可轻松搭建JSF项目的CI环境,通过JUnit和Selenium编写自动化测试,确保每次构建的稳定性和正确性。
42 0
|
20天前
|
测试技术 数据库
探索JSF单元测试秘籍!如何让您的应用更稳固、更高效?揭秘成功背后的测试之道!
【8月更文挑战第31天】在 JavaServer Faces(JSF)应用开发中,确保代码质量和可维护性至关重要。本文详细介绍了如何通过单元测试实现这一目标。首先,阐述了单元测试的重要性及其对应用稳定性的影响;其次,提出了提高 JSF 应用可测试性的设计建议,如避免直接访问外部资源和使用依赖注入;最后,通过一个具体的 `UserBean` 示例,展示了如何利用 JUnit 和 Mockito 框架编写有效的单元测试。通过这些方法,不仅能够确保代码质量,还能提高开发效率和降低维护成本。
34 0
|
20天前
|
UED 开发者
哇塞!Uno Platform 数据绑定超全技巧大揭秘!从基础绑定到高级转换,优化性能让你的开发如虎添翼
【8月更文挑战第31天】在开发过程中,数据绑定是连接数据模型与用户界面的关键环节,可实现数据自动更新。Uno Platform 提供了简洁高效的数据绑定方式,使属性变化时 UI 自动同步更新。通过示例展示了基本绑定方法及使用 `Converter` 转换数据的高级技巧,如将年龄转换为格式化字符串。此外,还可利用 `BindingMode.OneTime` 提升性能。掌握这些技巧能显著提高开发效率并优化用户体验。
39 0
|
20天前
|
Apache 开发者 Java
Apache Wicket揭秘:如何巧妙利用模型与表单机制,实现Web应用高效开发?
【8月更文挑战第31天】本文深入探讨了Apache Wicket的模型与表单处理机制。Wicket作为一个组件化的Java Web框架,提供了多种模型实现,如CompoundPropertyModel等,充当组件与数据间的桥梁。文章通过示例介绍了模型创建及使用方法,并详细讲解了表单组件、提交处理及验证机制,帮助开发者更好地理解如何利用Wicket构建高效、易维护的Web应用程序。
14 0
|
20天前
|
机器学习/深度学习 人工智能 TensorFlow
深度学习入门:使用Python和TensorFlow构建你的第一个神经网络
【8月更文挑战第31天】 本文是一篇面向初学者的深度学习指南,旨在通过简洁明了的语言引导读者了解并实现他们的第一个神经网络。我们将一起探索深度学习的基本概念,并逐步构建一个能够识别手写数字的简单模型。文章将展示如何使用Python语言和TensorFlow框架来训练我们的网络,并通过直观的例子使抽象的概念具体化。无论你是编程新手还是深度学习领域的新兵,这篇文章都将成为你探索这个激动人心领域的垫脚石。
|
3月前
|
机器学习/深度学习 TensorFlow API
TensorFlow与Keras实战:构建深度学习模型
本文探讨了TensorFlow和其高级API Keras在深度学习中的应用。TensorFlow是Google开发的高性能开源框架,支持分布式计算,而Keras以其用户友好和模块化设计简化了神经网络构建。通过一个手写数字识别的实战案例,展示了如何使用Keras加载MNIST数据集、构建CNN模型、训练及评估模型,并进行预测。案例详述了数据预处理、模型构建、训练过程和预测新图像的步骤,为读者提供TensorFlow和Keras的基础实践指导。
255 59
|
3月前
|
机器学习/深度学习 人工智能 算法
海洋生物识别系统+图像识别+Python+人工智能课设+深度学习+卷积神经网络算法+TensorFlow
海洋生物识别系统。以Python作为主要编程语言,通过TensorFlow搭建ResNet50卷积神经网络算法,通过对22种常见的海洋生物('蛤蜊', '珊瑚', '螃蟹', '海豚', '鳗鱼', '水母', '龙虾', '海蛞蝓', '章鱼', '水獭', '企鹅', '河豚', '魔鬼鱼', '海胆', '海马', '海豹', '鲨鱼', '虾', '鱿鱼', '海星', '海龟', '鲸鱼')数据集进行训练,得到一个识别精度较高的模型文件,然后使用Django开发一个Web网页平台操作界面,实现用户上传一张海洋生物图片识别其名称。
158 7
海洋生物识别系统+图像识别+Python+人工智能课设+深度学习+卷积神经网络算法+TensorFlow