基于tensorflow的一元一次方程回归预测

简介: 2018年9月12日笔记0.检测tensorflow环境安装tensorflow命令:pip install tensorflow下面一段代码能够成功运行,则说明安装tensorflow环境成功。

2018年9月12日笔记

0.检测tensorflow环境

安装tensorflow命令:pip install tensorflow
下面一段代码能够成功运行,则说明安装tensorflow环境成功。

import tensorflow as tf
hello = tf.constant('hello world')
session = tf.Session()
session.run(hello)

上面一段代码成功运行的结果如下图所示:


img_27f887d11dc8bb872da1888d38e667fd.png
image.png

1.数据准备

import numpy as np

w = 0.1
b = 0.3
X = np.random.rand(100).astype('float32')
y = X * w + b

第1行代码导入numpy库,起别名np;
第5行代码调用np.random.rand方法随机产生100个值处于(0,1)之间的数。
np.random.rand官方文档链接:https://docs.scipy.org/doc/numpy/reference/generated/numpy.random.rand.html
第6行代码使用了ndarray对象的广播特性,将X中的每一个值乘以w,再加上b的结果赋值给变量y。

2.搭建神经网络

Weights = tf.Variable(tf.random_uniform([1], -1.0, 1.0))
biases = tf.Variable(tf.zeros([1]))
predict_y = Weights * X + biases
loss = tf.reduce_mean(tf.square(predict_y - y))
optimizer = tf.train.GradientDescentOptimizer(0.5)
train = optimizer.minimize(loss)

第1、2行代码调用tf.Variable方法实例化tensorflow中的变量对象,tf.Variable方法中的参数为tensorflow中的Tensor对象;


img_d7a81dc1107489398c90c6bdb23479ca.png
image.png

img_44f0aa38119cbcc495cff443f2ef3e1b.png
image.png

img_e4ae48b892bf99da4676c63a79f2eed5.png
image.png

第3行代码将变量与特征矩阵的计算结果赋值给变量predict_y,数据类型如下图所示:


img_ebd84d639bfebe4bbef135349f5b5de5.png
image.png

第4行代码定义损失函数,等同于回归预测中的MSE,中文叫做均方误差,数据类型如下图所示:
img_def550d08c4a71f3c7934a88075121a5.png
image.png

第5行代码调用tf.train库中的GradientDescentOptimizer方法实例化优化器对象,数据类型如下图所示:
img_2da0515d26d91437af1d0522a9d36a77.png
image.png

第6行代码调用优化器的minimize方法定义训练方式,参数为损失函数。方法的返回结果赋值给变量train,数据类型如下图所示:


img_49b98416468b369b437707535f5053b6.png
image.png

3.变量初始化

init = tf.global_variables_initializer()
session = tf.Session()
session.run(init)

对于神经网络模型,重要是其中的W、b这两个参数。
开始神经网络模型训练之前,这两个变量需要初始化。
第1行代码调用tf.global_variables_initializer实例化tensorflow中的Operation对象。


img_eba6278c89eb8ef15ee4daee0eaab711.png
image.png

第2行代码调用tf.Session方法实例化会话对象;
第3行代码调用tf.Session对象的run方法做变量初始化。

4.模型训练

模型训练200次,每运行1次代码session.run(train)则模型训练1次。
在训练次数为20的整数倍时,打印训练步数、训练后更新的Weights和biases值。

for step in range(201):
    session.run(train)
    if step % 20 == 0:
        print(step, session.run(Weights), session.run(biases))

上面一段代码的运行结果如下:


img_71ef6eb5968dc313e38efc5c90a0639f.png
image.png

5.完整代码

下面代码与前文相比,改变了w和b的值。

import tensorflow as tf
import numpy as np

w = 2
b = 0.5
X = np.random.rand(100).astype('float32')
y = X * w + b

Weights = tf.Variable(tf.random_uniform([1], -1.0, 1.0))
biases = tf.Variable(tf.zeros([1]))
predict_y = Weights * X + biases
loss = tf.reduce_mean(tf.square(predict_y - y))
optimizer = tf.train.GradientDescentOptimizer(0.5)
train = optimizer.minimize(loss)

init = tf.global_variables_initializer()
session = tf.Session()
session.run(init)

for step in range(201):
    session.run(train)
    if step % 20 == 0:
        print(step, session.run(Weights), session.run(biases))

上面一段代码的运行结果如下:

0 [1.2842455] [1.2999418]
20 [1.7820456] [0.6222662]
40 [1.9463692] [0.5300854]
60 [1.9868033] [0.50740296]
80 [1.9967527] [0.5018216]
100 [1.9992009] [0.5004483]
120 [1.9998035] [0.5001102]
140 [1.9999516] [0.5000271]
160 [1.9999882] [0.5000066]
180 [1.999997] [0.50000167]
200 [1.9999994] [0.50000036]

6.总结

1.这是本文作者写的第1篇关于tensorflow的文章,加深了对tensorflow框架的理解;
2.一元一次方程回归预测是简单的回归问题,主要用于熟悉tensorflow的流程。

目录
相关文章
|
6月前
|
机器学习/深度学习
R语言自适应LASSO 多项式回归、二元逻辑回归和岭回归应用分析(下)
R语言自适应LASSO 多项式回归、二元逻辑回归和岭回归应用分析
|
6月前
时间序列分析实战(五):ARIMA加法(疏系数)模型建模
时间序列分析实战(五):ARIMA加法(疏系数)模型建模
|
6月前
|
数据可视化 Python
Python进行多输出(多因变量)回归:集成学习梯度提升决策树GRADIENT BOOSTING,GBR回归训练和预测可视化
Python进行多输出(多因变量)回归:集成学习梯度提升决策树GRADIENT BOOSTING,GBR回归训练和预测可视化
Python进行多输出(多因变量)回归:集成学习梯度提升决策树GRADIENT BOOSTING,GBR回归训练和预测可视化
|
6月前
|
机器学习/深度学习 数据可视化 TensorFlow
Python用线性回归和TensorFlow非线性概率神经网络不同激活函数分析可视化
Python用线性回归和TensorFlow非线性概率神经网络不同激活函数分析可视化
|
6月前
|
机器学习/深度学习 算法
R语言自适应LASSO 多项式回归、二元逻辑回归和岭回归应用分析(上)
R语言自适应LASSO 多项式回归、二元逻辑回归和岭回归应用分析
|
6月前
|
人工智能
R语言中实现广义相加模型GAM和普通最小二乘(OLS)回归
R语言中实现广义相加模型GAM和普通最小二乘(OLS)回归
|
6月前
|
机器学习/深度学习 算法 数据可视化
R语言用标准最小二乘OLS,广义相加模型GAM ,样条函数进行逻辑回归LOGISTIC分类
R语言用标准最小二乘OLS,广义相加模型GAM ,样条函数进行逻辑回归LOGISTIC分类
|
机器学习/深度学习 人工智能 算法
【Pytorch神经网络基础理论篇】 06 自动求导+导数与微分
【Pytorch神经网络基础理论篇】 06 自动求导+导数与微分
295 0
|
Python
计量经济学笔记之OLS回归的推导
计量经济学笔记之OLS回归的推导
194 0
计量经济学笔记之OLS回归的推导
|
TensorFlow 算法框架/工具
TensorFlow2.0(8):误差计算——损失函数总结
TensorFlow2.0(8):误差计算——损失函数总结
TensorFlow2.0(8):误差计算——损失函数总结