机器学习是一种从数据生成规则、发现模型,来帮助我们预测、判断、分析和解决问题的技术。
一个机器学习项目从开始到结束大致分为5步:
- 定义问题
- 收集数据和预处理
- 选择算法和确定模型
- 训练拟合模型
- 评估并优化模型性能

第一步:定义问题
在定义问题这个环节中,我们要剖析业务场景,设定清晰的目标,同时还要明确当前问题属于哪一种机器学习类型。如果不搞清楚这些,我们后面就无法选择模型了。
例如:你是一家公司的运营,正在对微信公众号推广文案的运营效率进行分析。你收集了大量的软文数据,包括点赞数、转发数和浏览量等等,如下表

因为微信公众号阅读量超过 10 万之后,就不能显示它的具体阅读量了。所以针对这个问题,我们项目的目标就是,建立一个机器学习模型,根据点赞数和转发数等指标,估计一篇文章能实现多大的浏览量。
因为要估计浏览量,所以在这个数据集中:点赞数、转发数、热度指数、文章评级,这 4 个字段都是特征,浏览量就是标签。这里我们已经有要估计的标签了,所以这是一个监督学习问题。再加上我们的标签是连续性的数值,因此它是一个回归问题。
从以上数据看出,在这个数据集中,特征和标签之间明显呈现出一种相关性:点赞数、转发数多的时候,往往浏览量也多。
这种相关性可以通过哪个具体的函数来描绘呢?目前我们还不知道,所以我们在这个项目中的任务就是找到这个函数。
以上描述,已经把问题定义好了。
第二步:收集数据和预处理
“数据的收集和预处理”在所有机器学习项目中都会出现,它的作用是为机器学习模型提供好的燃料。数据好,模型才跑得更带劲。
这一步骤可以分为6个小步骤

- 收集数据
- 数据可视化
- 数据清洗
- 特征工程
- 构建特性集和标签集
- 拆分训练集、验证集和测试集
1.收集数据
这一步又叫做采集数据,要有一份采集好的数据。
注:在现实中,收集数据通常很辛苦,在运营环节做很多数据埋点、获取用户消费等行为信息和兴趣偏好信息,有时候还要进行数据爬取。
确定好数据集,下面要做数据可视化的工作,也就是通过可视化去观察下数据,为选择具体的机器学习模型找找感觉。
2.数据可视化
数据可视化是个万金油技能,能做的事非常多。比如说,可以看一看特征和标签之间可能存在的关系,也可以看看数据里有没有“脏数据”和“离群点”等。
在可视化之前,我们需要将数据导入到运行环境中,脚本如下:
1 | # 导入Pandas数据处理工具包 |
- pandas数据处理包,在数据处理使用频率很高
代码执行结果

这样就完成了数据的导入,接着我们可以进行数据的可视化了。
用到两个包:
- Matplotlib — Python的画图工具库
- Seaborn — 统计学数据可视化工具库
代码如下:
1 | # 导入数据可视化所需要的库 |
输出的结果如下:

从这张图中我们可以看出来,这些数据基本上集中在一条线附近,所以它的标签和特征之间,好像真的存在着线性的关系,这可以为我们将来选模型提供参考信息。
接下来,我要用 Seaborn 的 boxplot 工具画个箱线图。来看看这个数据集里有没有“离群点”。我这里随便选择了热度指数这个特征,你也可以为其它特征试试绘制箱线图。
代码如下:
1 | # 浏览量和热度指数 |
下面输出箱线图:

箱线图是由五个数值点组成:
- 最小值(min)
- 下四分位数(Q1)
- 中位数(median)
- 上四分位数(Q3)
- 最大值(max)
在统计学上,这叫做五数概括。这五个数值可以清楚地为我们展示数据的分布和离散程度。
在这个图中
- 下四分位数、中位数、上四分位数组成一个“带有隔间的盒子”,就是所谓的箱
- 上四分位数到最大值之间建立一条延伸线,就是所谓的线,也叫“胡须”
- 胡须的两极就是最小值与最大值
此外,箱线图还会将离群的数据点单独绘出。
上面的箱线图中,可以看出,热度指数越高,浏览量的中位数越大。还可以看到,有一些离群的数据点,比其它的文章浏览量大了很多,这些“离群点”就是我们说的“爆款文章”了。
到这里,数据可视化的工作基本完成了。
注意:以上脚本执行会报错
1 | UserWarning: Glyph 27773 missing from current font. |
matplotlib绘图中涉及中文字符报警,无法正常显示中文字符,需要加入如下代码
1 | # Mac中使得图标的中文能够正常显示 |
3.数据清洗
数据清洗洗的越好,数据越干净,模型的效果也就越好。清洗数据一般分为4种:
- 第一种:处理缺失的数据。如果备份系统里面有缺了的数据,那我们尽量补录;如果没有,我们可以剔除掉残缺的数据,也可以用其他数据记录的平均值、随机值或者 0 值来补值。这个补值的过程叫数据修复。
- 第二种:处理重复的数据。如果是完全相同的重复数据处理,删掉就行了。可如果同一个主键出现两行不同的数据,比如同一个身份证号后面有两条不同的地址,我们就要看看有没有其他辅助的信息可以帮助我们判断(如时戳),要是无法判断的话,只能随机删除或者全部保留。
- 第三种:处理错误的数据。比如商品的销售量、销售金额出现负值,这时候就需要删除或者转成有意义的正值。再比如表示百分比或概率的字段,如果值大于 1,也属于逻辑错误数据。
- 第四种:处理不可用的数据。这指的是整理数据的格式,比如有些商品以人民币为单位,有些以美元为单位,就需要先统一。另一个常见例子是把“是”、“否”转换成“1”、“0”值再输入机器学习模型。
那么如何看数据集中有没有脏数据呢?
将数据多输出几行看看。

从上面的数据看到,行索引为6的数据中“转发数”的值是“NaN”,意思是Not A Number。在 Python 中,它代表无法表示、也无法处理的值。这是典型的脏数据。
那这批数据还有这样的数据么?可以通过DataFrame的isna().sum()函数来统计所有的NaN的个数。这样,我们就可以在看看有没有 NaN 的同时,也看看 NaN 出现的次数。如果 NaN 过多的话,那么说明这个数据集质量不好,就要找找数据源出了什么问题。
1 | # NaN出现的次数 |
输出结果如下:

输出显示我们的数据集中“转发数”这个字段有 37 个 NaN 值。对于上千条数据的数据集,这还不算很多。
那么这些数据如何处理呢?使用DataFrame的dropna()这个API将出现的NaN的数据行删掉。
1 | # 把出现了NaN的数据行删掉 |
结果验证

这里已经完成了数据的简单清洗。不同类型的数据有同的清洗方法,根据具体的情况和需求进行清洗。
这里有个问题,在数据可视化中通过箱线图找到了离群点(爆款文章),这属于脏数据么?这个问题很好,而且这个问题没有固定的答案。
删去了离群点,模型针对普通的数据会拟合得比较漂亮。但是现实生活中,就是存在着这样的离群点,让模型不那么漂亮。如果把这里的离群点删掉,那模型就不能工作得那么好了。所以,这是一个平衡和取舍的过程。
我们可以训练出包含这些离群点的模型,以及不包含这些离群点的模型,并进行比较。在这里,我建议保留这些“离群点”。
4.特征工程
特征工程是一个专门的机器学习子领域,而且我认为它是数据处理过程中最有创造力的环节,特征工程做得好不好,非常影响机器学习模型的效率。
以BMI指数公式为例,来解释下什么是特征工程。BMI公式等于体重除以身高的平方,这就是一个特征工程。

什么意思呢?就是说经过了这个过程,BMI 这一个指数就替代了原来的两个特征——体重和身高,而且完全能客观地描绘我们的身材情况。
因此,经过了这个特征工程,我们可以把 BMI 指数作为新特征,输入用于评估健康情况的机器学习模型。
这样做的好处是什么?以 BMI 特征工程为例,它降低了特征数据集的维度。维度就是数据集特征的个数。要知道,在数据集中,每多一个特征,模型拟合时的特征空间就更大,运算量也就更大。所以,摒弃掉冗余的特征、降低特征的维度,能使机器学习模型训练得更快。
这只是特征工程的诸多的妙处之一,此外特征工程还能更好地表示业务逻辑,并提升机器学习模型的性能。
上述的案例相对简单,对特征工程的要求并不高,就不做特征工程了。
5.构建特征集和标签集
特征就是所收集的各个数据点,是要输入机器学习模型的变量。
标签是要预测、判断或者分类的内容。
对于所有监督学习算法,我们都需要向模型中输入“特征集”和“标签集”这两组数据。因此,在开始机器学习的模型搭建之前,我们需要先构建一个特征数据集和一个标签数据集。
下面进行特征集和标签集的构建,我们只要从原始数据集删除我们不需要的数据就行了。在这个项目中:
特征:点赞数、转发数、热度智能和文章评级
原始数据中的“浏览量”删除即可
1 | # 特征集,Drop掉标签相关字段 |
标签:是我们要预测的浏览量,因此在标签数据集中只保留“浏览量”字段
1 | # 标签集 |
下面将特征和标签数据输出,看看里面都有什么数据
1 | # 显示前几行数据 |
1 | #显示前几行数据 |
结果输出如下:

可以看到,除了浏览量之外,所有其它字段仍然都在特征数据集中,而只有浏览量被保存在了标签数据集中,也就是说原始数据集就被拆分成了机器学习的特征集和标签集。
6.拆分训练集、验证集和测试集
这个学习项目,为了简单流程,经常会省略验证集的环节,只做训练集和测试集,而此时的测试集就肩负这验证和测试双重功能了。
拆分的时候,留作测试的数据比例一般是 20% 或 30%。不过如果你的数据量非常庞大,比如超过 1 百万的时候,那你也不一定非要留这么多。一般来说有上万条的测试数据就足够了。这里我会按照 80/20 的比例来拆分数据。具体的拆分,我们会用机器学习工具包 scikit-learn (安装pip install scikit-learn)里的数据集拆分工具 train_test_split 来完成:
1 | #将数据集进行80%(训练集)和20%(验证集)的分割 |
注意下,虽然是随机分割,但我们要指定一个 random_state 值,这样就保证程序每次运行都分割一样的训练集和测试集。训练集和测试集每次拆分都不一样的话,那比较模型调参前后的优劣就失去了固定的标准。
执行完成后,训练集和测试集拆分也完成了,现在原始数据变成了四个数据集,分别为
特征训练集(X_train)

特征测试集(X_test)

标签训练集(y_train)

标签测试集(y_test)

至此,我们全部的数据预处理工作就结束了。
第三步:选择算法并建立模型
我们需要先根据特征和标签之间的关系,选出一个合适的算法,并找到与之对应的合适的算法包,然后通过调用这个算法包来建立模型。
从上面的例子中,数据集的某些特性和标签之间,存在着近似线性的关系。而且,这个数据集的标签是连续变量,因此,适合用回归分析来寻找从特征到标签的预测函数。
回归分析 (regression analysis),就是确定两种或两种以上变量间相互依赖的定量关系的一种统计分析,说白了就是当自变量变化的时候,研究一下因变量是怎么跟着变化的,它可以用来预测客流量、降雨量、销售量等。
回归分析的算法有很多种,比如说线性回归、多项回归、贝叶斯回归等等,那么具体该选择哪个呢?这要根据特性和标签之间的关系来决定的。在上面可视化中,推测特定和标签可能存在线性关系,并且用下面这个散点图简单做了验证。

所以这里,我们就选择用线性回归算法来建模。
线性回归算法是最简单、最基础的机器学习算法,它其实就是给每一个特征变量找参数的过程。下面是一元线性回归公式:
对于一元线性回归来说,它的内部参数就是未知的斜率和截距。只不过在机器学习中,我们把斜率 a 叫做权重(weight),用英文字母 w 代表,把截距 b 叫做偏置(bias),用英文字母 b 代表。所以机器学习中一元线性回归的公式也写成:
在这个项目中,数据有4个特征,所以公式如下:
因此,我们的模型就会有 5 个内部参数,也就是 4 个特征的权重和一个偏置(截距)需要确定。
已经确定好算法了,那么要使用什么样的算法包建立模型比较合适呢?
对于机器学习来说,最常用的算法工具包是 scikit-learn,简称 sklearn,它是使用最广泛的开源 Python 机器学习库,堪称机器学习神器。sklearn 提供了大量用于数据挖掘的机器学习工具,覆盖数据预处理、可视化、交叉验证和多种机器学习算法。
在 sklearn 中又有很多线性回归算法包,比如说基本的线性回归算法 LinearRegression,以及在它的基础上衍生出来的 Lasso 回归和 Ridge 回归等。
调用 LinearRegression 建立模型非常简单,两行代码就可以搞定:
1 | # 导入线性回归算法模型 |
模型已经创建出来了,我们还要了解它有哪些外部参数,同时指定好它的外部参数的值。
模型的参数有两种:内部参数和外部参数。
- 内部参数是属于算法本身的一部分,不用我们人工来确定,刚才提到的权重 w 和截距 b,都是线性回归模型的内部参数
- 外部参数也叫做超参数,它们的值是在创建模型时由我们自己设定的
对于 LinearRegression 模型来讲,它的外部参数主要包括两个布尔值:
- fit_intercept ,默认值为 True,代表是否计算模型的截距。
- normalize,默认值为 False,代表是否对特征 X 在回归之前做规范化。
对于比较简单的模型来说,默认的外部参数设置也都是不错的选择,所以,我们不显式指定外部参数而直接调用模型,也是可以的。在上面的代码中,我就是在创建模型时直接使用了外部参数的默认值。
第四步:训练模型
训练模型就是用训练集中的特征变量和已知标签,根据当前样本的损失大小来逐渐拟合函数,确定最优的内部参数,最后完成模型。虽然看起来挺复杂,但这些步骤,我们都通过调用 fit 方法来完成。
fit 方法是机器学习的核心环节,里面封装了很多具体的机器学习核心算法,我们只需要把特征训练数据集和标签训练数据集,同时作为参数传进 fit 方法就行了。
1 | # 用训练集数据,训练机器,拟合函数,确定内部参数 |
运行该语句后的输出如下:

到这里,我们就完成了对模型的训练。
训练模型是机器学习的核心环节,怎么只有一句代码呢?优秀的机器学习库的存在,我们可以用一两行语句实现很强大的功能。所以,不要小看上面那个简单的 fit 语句,这是模型进行自我学习的关键过程。
在这个过程里,fit 的核心就是减少损失,使函数对特征到标签的模拟越来越贴切。那么它具体是怎么减少损失呢?下面一张图片展示模型从很不靠谱到比较靠谱的过程。

这个拟合的过程,同时也是机器学习算法优化其内部参数的过程。而优化参数的关键就是减小损失。
什么是损失呢?它其实是对糟糕预测的惩罚,同时也是对模型好坏的度量。损失也就是模型的误差,也称为成本或代价。名字虽多,但都是一个意思,就是当前预测值和真实值之间的差距的体现。它是一个数值,表示对于单个样本而言模型预测的准确程度。如果模型的预测完全准确,则损失为 0;如果不准确,就有损失。
在机器学习中,我们追求的当然是比较小的损失。不过,模型好不好,还不能仅看单个样本,还要针对所有数据样本,找到一组平均损失“较小”的函数模型。样本的损失大小,从几何意义上基本可以理解为预测值和真值之间的几何距离。平均距离越大,说明误差越大,模型越离谱。在下面这个图中,左边是平均损失较大的模型,右边是平均损失较小的模型,模型所有数据点的平均损失很明显大过右边模型。

因此,针对每一组不同的参数,机器都会基于样本数据集,用损失函数算一次平均损失。而机器学习的最优化过程,就是逐步减小训练集上损失的过程。具体到我们今天这个回归模型的拟合,它的关键环节就是通过梯度下降,逐步优化模型的参数,使训练集误差值达到最小。这也就是我们刚才讲的那个 fit 语句所要实现的最优化过程。
在这里面,线性回归中计算误差的方法很好理解,就是数据集中真值与预测值之间的残差平方和。那梯度下降又是怎么一回事呢?更直观的理解,下面一张图来展示一下,梯度下降是怎么一步一步地走到损失曲线中的最小损失点。

就像图里这样,梯度下降其实就和下山一样。你可以想象一下,当你站在高处,你的目标就是找到一系列的参数,让训练数据集上的损失值最小。那么你该往哪走才能保证损失值最小呢?关键就是通过求导的方法,找到每一步的方向,确保总是往更小的损失方向前进。
方向是很重要的,机器学习最优化之所以能够拟合出最佳的模型,就是因为能够找到前进的方向,不仅我们人需要方向,AI也需要方向。
第五步:模型的评估和优化
上一步已经说了,梯度下降是在用训练集拟合模型时最小化误差,这时候算法调整的是模型的内部参数。而在验证集或者测试集进行模型效果评估的过程中,我们则是通过最小化误差来实现超参数(模型外部参数)的优化。
对此,机器学习工具包(如 scikit-learn)中都会提供常用的工具和指标,对验证集和测试集进行评估,进而计算当前的误差。比如$ R^2 $或者 MSE 均方误差指标,就可以用于评估回归分析模型的优劣。
回顾5个步骤,发现并没有“使用模型预测浏览量”这个环节,这个为什么呢?这个环节是包含在第五步中,因此我们首先要去实现。
当我们预测完测试集的浏览量后,我们要再拿这个预测结果去和测试集已有的真值去比较,这样才能够求出模型的性能。而这整个过程也同样是一个循环迭代的过程,下面的图展示这个循环过程:

对于我们这个项目来说,预测测试集的浏览量,只需要用训练好的模型 linereg_model 中的 predict 方法,在 X_test(特征测试集)上进行预测,这个方法就会返回对测试集的预测结果。
1 | # 预测测试集的Y值 |
在几乎所有的机器学习项目中,都可以使用predict方法来进行预测,它就是用模型在任意的同类型数据集上去预测真值的,可以应用于验证集、测试集,当然也可以应用于训练集本身。
在这个演示例子中,为了简化流程,上面步骤没有真正进行验证和测试多重循环。因此,X_text即充当了测试集,也充当了验证集。
拿到预测结果后,我们再通过下面的代码,把测试数据集的原始特征数据、原始标签真值,以及模型对标签的预测值组合在一起进行显示、比较。
1 | # 测试集特征数据 |
输出结果如下:

可以看出,浏览量预测值是比较接近于真值的。
可以通过 LinearRegression 的 coef 和 intercept 属性打印出各个特征的权重和模型的偏置来。它们也就是模型的内部参数。
1 | print('当前模型的4个特征的权重分别是: ', linereg_model.coef_) |
输出结果如下:

这也就是说,我们现在的模型的线性回归公式是:
不过到这里,整个机器学习项目并没有结束,我们最后还要给出当前这个模型的评估分数:
1 | # 评估模型 |
输出结果如下:

在机器学习中,常用于评估回归分析模型的指标有两种:$ R^2 $ 分数和 MSE 指标,并且大多数机器学习工具包中都会提供相关的工具。对此,你无需做过多了解,只需要知道我们这里的 score 这个 API 中,选用的是 $ R^2 $ 分数来评估模型的就可以了。
从上面的结果看到,$ R^2 $值约为0.708。你这意味的什么呢?
一般来说,$ R^2 $ 的取值在 0 到 1 之间,$ R^2 $ 越大,说明所拟合的回归模型越优。现在我们得到的 $ R^2 $ 值约为 0.708,在没有与其它模型进行比较之前,我们实际上也没法确定它是否能令人满意。
因为分数的高低,与数据集预测的难易程度、模型的类型和参数都有关系。而且,$ R^2 $ 分数也不是线性回归模型唯一的评估标准。
如果模型的评估分数不理想,我们就需要回到第 3 步,调整模型的外部参数,重新训练模型。要是得到的结果依旧不理想,那我们就要考虑选择其他算法,创建全新的模型了。如果很不幸,新模型的效果还是不好的话,我们就得回到第 2 步,看看是不是数据出了问题。

机器学习项目是一个循环迭代的过程,优秀的模型都是一次次迭代的产物。