RELATEED CONSULTING
相关咨询
选择下列产品马上在线沟通
服务时间:8:30-17:00
你可能遇到了下面的问题
关闭右侧工具栏

新闻中心

这里有您想知道的互联网营销解决方案
Tensorflow2.0中的回归问题怎么分析

这篇文章将为大家详细讲解有关Tensorflow2.0中的回归问题怎么分析,文章内容质量较高,因此小编分享给大家做个参考,希望大家阅读完这篇文章后对相关知识有一定的了解。

我们提供的服务有:网站制作、成都网站建设、微信公众号开发、网站优化、网站认证、浚县ssl等。为成百上千企事业单位解决了网站和推广的问题。提供周到的售前咨询和贴心的售后服务,是有科学管理、有技术的浚县网站制作公司

简介

在现实生活中,连续值预测问题是非常常见的,比如股价的走势预测、天气预报中温
度和湿度等的预测、年龄的预测、交通流量的预测等。对于预测值是连续的实数范围,或
者属于某一段连续的实数区间,我们把这种问题称为回归(Regression)问题。特别地,如果使用线性模型去逼近真实模型,那么我们把这一类方法叫做线性回归(Linear Regression,简称 LR)
下面举例一个简单的线性回归问题

问题

从指定的w=1.477, b=0.089的真实模型y=1.477*x+0.0889中直接采样数据。Tensorflow2.0中的回归问题怎么分析

程序清单

import tensorflow as tfimport numpy as np# 1.采集数据data = []  # 保存样本集的列表for i in range(100):  # 循环采样100个点x = np.random.uniform(-10., 10.)  # 从[-10,10]的均匀分布中随机采样一个数eps = np.random.normal(0., 0.1)  # 从均值为0.1,方差为0.1^2的高斯分布中随机采样噪声y = 1.477*x+0.089+eps  # 得到模拟的输出data.append([x, y])  # 保存样本点data = np.array(data)  # 转换为2D Numpy数组# 2.计算误差def mse(b, w, points):  # 根据当前轮的w,b参数,计算均方差损失totalError = 0for i in range(0, len(points)):  # 循环迭代所有点x = points[i, 0]  # 获得第i个点的横坐标xy = points[i, 1]  # 获得第i个点的纵坐标ytotalError += (y-(w*x+b))**2  # 计算累计误差return totalError/float(len(points))  # 得到均方差# 3.计算梯度def step_gradient(b_current, w_current, points, learning_rate):b_gradient = 0w_gradient = 0M = float(len(points))  # 总样本数for i in range(0, len(points)):x = points[i, 0]y = points[i, 1]b_gradient += (2/M) * ((w_current * x + b_current) - y)  # 误差函数对b的导数w_gradient += (2/M) * x * ((w_current * x + b_current) - y)  # 误差函数对w的导数# 根据梯度下降法算法更新w,bnew_b = b_current - (learning_rate * b_gradient)new_w = w_current - (learning_rate * w_gradient)return [new_b, new_w]# 4.梯度更新def gradient_descent(points, starting_b, starting_w, learning_rate, epos):b = starting_b  # 初始化bw = starting_wfor step in range(epos):b, w = step_gradient(b, w, np.array(points), learning_rate)loss = mse(b, w, points)if step % 50 == 0:print('epos', step, ':loss', loss, '; w', w, '; b', b)  # 每50epos打印一遍return {
   
   
   b, w}def main():lr = 0.01init_b = 0init_w = 0epos = 10000[b, w] = gradient_descent(data, init_b, init_w, lr, epos)loss = mse(b, w, data)print('Final loss:', loss, ' w:', w, ' b:', b)return 0if __name__ == "__main__":main()

训练结果:
Tensorflow2.0中的回归问题怎么分析
从训练结果可以发现,通过建立的线性模型训练出来的w,b已经很接近真实模型了

关于Tensorflow2.0中的回归问题怎么分析就分享到这里了,希望以上内容可以对大家有一定的帮助,可以学到更多知识。如果觉得文章不错,可以把它分享出去让更多的人看到。


新闻名称:Tensorflow2.0中的回归问题怎么分析
标题来源:http://www.scyingshan.cn/article/jdeidc.html