【机器学习】吴恩达课程2-单变量线性回归
发布人:shili8
发布时间:2025-01-13 08:02
阅读次数:0
**机器学习基础——单变量线性回归**
在机器学习领域,单变量线性回归是最基本也是最重要的模型之一。它用于预测一个连续输出值(目标变量)基于一个或多个输入特征(自变量)。本文将介绍吴恩达课程中的单变量线性回归内容。
**1. 单变量线性回归**
单变量线性回归是一种最简单的线性模型,它用于预测一个连续输出值基于一个输入特征。其数学表达式为:
y = β0 + β1x其中,y 是输出值(目标变量),x 是输入特征(自变量),β0 和 β1 是模型参数。
**2. 回归系数**
在单变量线性回归中,我们需要估计两个回归系数:β0 和 β1。β0 表示截距,表示输出值当输入特征为零时的值;β1 表示斜率,表示每单位变化的输入特征对应输出值的变化。
**3. 最小二乘法**
最小二乘法是估计回归系数的常用方法。其基本思想是找到一个模型,使得预测值与实际值之间的差异(残差)最小化。
假设我们有一个数据集,包含输入特征x和输出值y,我们可以使用以下公式来计算最小二乘法:
β1 = Σ[(xi - x?)(yi -?)] / Σ(xi - x?)2β0 =? - β1x?其中,Σ表示求和,x? 和? 是输入特征和输出值的均值。
**4. Python 实现**
下面是使用Python实现单变量线性回归的示例代码:
import numpy as np# 假设数据集x = np.array([1,2,3,4,5]) y = np.array([2,3,5,7,11]) # 计算均值x_mean = np.mean(x) y_mean = np.mean(y) # 计算最小二乘法系数beta1 = np.sum((x - x_mean) * (y - y_mean)) / np.sum((x - x_mean) **2) beta0 = y_mean - beta1 * x_meanprint("β0 =", beta0) print("β1 =", beta1) # 预测输出值y_pred = beta0 + beta1 * xprint("预测输出值:", y_pred)
**5. 总结**
单变量线性回归是机器学习领域最基本也是最重要的模型之一。通过使用最小二乘法,我们可以估计回归系数并进行预测。在本文中,我们介绍了吴恩达课程中的单变量线性回归内容,并提供了Python实现示例代码。