在本章中,我们将重点介绍使用TensorFlow进行线性回归实现的基本示例.逻辑回归或线性回归是用于对离散类别进行分类的监督机器学习方法.我们在本章中的目标是构建一个模型,用户可以通过该模型预测预测变量与一个或多个自变量之间的关系.
这两个变量之间的关系是缺点和缺...线性的.如果y是因变量而x被认为是自变量,那么两个变量的线性回归关系看起来像下面的等式 :
Y = Ax + b
我们将设计一种线性回归算法.这将使我们能够理解以下两个重要概念 :
成本函数
渐变下降算法
下面提到线性回归的示意图表示 :
下面提到线性回归方程的图形视图 :
设计线性回归算法的步骤
我们将现在了解有助于设计线性回归算法的步骤.
步骤1
重要的是导入必要的模块来绘制线性回归模块.我们开始导入Python库NumPy和Matplotlib.
import numpy as np import matplotlib.pyplot as plt
步骤2
定义逻辑回归所需的系数数量.
number_of_points = 500 x_point = [] y_point = [] a = 0.22 b = 0.78
步骤3
迭代变量,在回归方程周围产生300个随机点 :
Y = 0.22x + 0.78
for i in range(number_of_points): x = np.random.normal(0.0,0.5) y = a*x + b +np.random.normal(0.0,0.1) x_point.append([x]) y_point.append([y])
第4步
使用Matplotlib查看生成的点.
fplt.plot(x_point,y_point, 'o', label = 'Input Data') plt.legend() plt.show()
逻辑回归的完整代码如下 :
import numpy as np import matplotlib.pyplot as plt number_of_points = 500 x_point = [] y_point = [] a = 0.22 b = 0.78 for i in range(number_of_points): x = np.random.normal(0.0,0.5) y = a*x + b +np.random.normal(0.0,0.1) x_point.append([x]) y_point.append([y]) plt.plot(x_point,y_point, 'o', label = 'Input Data') plt.legend() plt.show()
考虑作为输入的点数作为输入数据.