一个深度学习的应用,可能在于三方面,数据、模型与优化。其中数据时最关键的,但是数据是客观的,不易改动。一个模型搭建好了,有时候不是不能用,而是没有找到合适的超参数,以及合适的优化方法。如果这两方面做好了,还是没有训练出好的结果,那么我们只能更改模型了。
提升模型性能的想法
- 从数据上提升性能
- 从算法上提升性能
- 从算法调优上提升性能
- 从模型融合上提升性能
这些可能并不完整,但在深度学习领域,有时候往往只需一个方面能够得到提升,整个模型的结构就会好上很多。
1.从数据上提升性能
调整训练数据或是调整问题定义的方法,可能会带来巨大的效果改善
- 收集更多的数据
尽可能的收集数据,同时确保数据集的质量
- 产生更多的数据(噪声点,图像平移,旋转) 如果你的数据是数值型的向量,那么随机生成已有向量的变形向量。 如果你的数据是图像,用已有的图像随机生成相似图像。 可以使用生成模型来生成,也可以使用一些经验技巧。
- 对数据做缩放 使用神经网络模型的一条经验法宝就是:将数据缩放到激活函数的阈值范围。 例如1.归一化到0 ~ 1, 2.归一化到-1 ~ 1, 3. 标准化
- 对数据做变换 与上一节的方法相关,但是需要更多的工作量。你必须真正了解所用到的数据。数据可视化,然后挑出异常值。先猜测每一列数据的分布
- 特征选择 神经网络受不相关数据的影响很小。它们会对此赋予一个趋近于0的权重,几乎忽略此特征对预测值的贡献。你是否可以移除训练数据的某些属性呢?我们有许多的特征选择方法和特征重要性方法来鉴别哪些特征可以保留,哪些特征需要移除。
2.从算法上提升性能
机器学习总是与算法相关。所有的理论和数学知识都在描述从数据中学习决策过程的不同方法。以下是深度学习优化器,对比其中的优劣势,来选择合适的优化算法。
1.BGD(Batch Gradient Descent)
每次更新我们需要计算整个数据集的梯度,因此使用批量梯度下降进行优化时,计算速度很慢,而且对于不适合内存计算的数据将会非常棘手。批量梯度下降算法不允许我们实时更新模型$$\theta = \theta - \eta \nabla J(\theta)$$,但是BGD算法能确保收敛到凸平面的全局最优和非凸平面的局部最优。tensorflow中的接口是 tf.train.GradientDescentOptimizer
,
2.SGD(Stochastic Gradient Descent)
随机梯度下降算法参数更新针对每一个样本$x_{i}$和$y_{i}$,批量梯度下降算法在大数据量时会产生大量的冗余计算,比如:每次针对相似样本都会重新计算。这种情况下,SGD算法每次只更新一次,因此SGD算法更快,适合做online。$$\theta = \theta - \eta \nabla J(\theta;x^{i},y^{i})$$,但SGD以高方差进行快速更新,会导致目标函数出现抖动情况。有两种情况:
- 因为计算的抖动可以让梯度计算挑出局部最优,到达一个更好的最优点
- SGD会次因产生过拟合
3.MBGD(Min-batch Gradient Descent)
该算法有两个好处:
- 减少参数更新的变化,可以带来更稳定的收敛
- 可以充分利用矩阵优化,计算更高效
但是Min-batch梯度下降不保证好的收敛性。$$\theta=\theta-\eta \nabla J(\theta;x^{(i;i+n)};y^{(i;i+n)})$$,n表示一次更新的数量。 BGD、SGD、MBGD算法都需要预先设置学习率,并且整个模型计算过程都采用相同的学习率,这会带来一些问题。后面会写到学习率的调整策略。
4.Momentum(动量)
动量可以加速SGD算法的收敛速度,并且降低SGD算法收敛时的震荡。$$v_{t}=\lambda v_{t-1} + \eta \nabla J(\theta)$$ $$\theta = \theta - v_{t}$$,通过添加一个衰减因子到历史更新向量,并加上当前的更新向量。当梯度保持相同方向是,动量因子加速更新参数,而梯度方向改变时,动量因子能降低梯度更新速度。
5.Adagrad
Adagrad优化算法是一种自适应优化算法,针对高频特征更新步长较小,而低频特征更新较大。因此该算法适合应用在特征稀疏的场景。 先前的算法对每一次参数更新都是采用同一个学习率,而Adagrad算法每一步采用不同的学习率进行更新。SGD算法调参公式:$$\theta_{t+1,i}=\theta_{t,i}-\eta g_{t,i}$$,Adagrad算法在每一步的计算时候,根据历史梯度对学习率进行修改: $$\theta_{t+1,i}=\theta_{t,i}-\frac{\eta}{\sqrt{G_{t} + \epsilon}} g_{t,i}$$, 其中$ G_{t}=\sum_{i=0}^{t}(g^{i})^{2}$,Adagrad算法的主要优点是它避免了手动调整学习率的麻烦,大部分使用默认的0.01。Adagrad算法的主要缺点在于,其分母梯度的平方累加和,因为每次加入的都是一个正数,随着训练的进行,学习率将会变得无限小,此时算法将不能进行参数的迭代更新。
6.Adadelta
Adadelta算法是Adagrad算法的改进版,它主要解决了adagrad算法单调递减学习率的问题。通过约束历史梯度累加来替代累加所有历史梯度平方。这里通过在历史梯度上添加衰减因子,并通过迭代的方式来对当前的梯度进行计算,最终距离较远的梯度对当前的影响较小,而距离当前时刻较近的梯度对当前梯度的计算影响较大。
7.RMDprop
RMSPprop算法和adadelta算法都是adagrad算法的优化版,用于解决adagrad算法学习率消失的问题,从最终的计算公式来看,RMSProp算法和Adadelta算法有相似的计算表达式:$$r^{t}=\rho r^{t-1}+(1-\rho)(g^{t})^{2}$$ $$\theta^{t+1}=\theta^{t}-\eta \frac{g^{t}}{\sqrt{r^{t} + \epsilon}}$$,一般情况下,$\rho=0.9$
8.Adam
Adam算法是另一种自适应参数更新算法。和Adadelta、RMSProp算法一样,对历史平方梯度$v^{t}$乘上一个衰减因子,adam算法还存储了一个历史梯度$r^{t}$。$$v^{t+1}=\lambda r^{t}+(1-\lambda)g^{t}$$ $$r^{t}=\rho r^{t-1}+(1-\rho)(g^{t})^{2}$$ $$\hat v^{t} = \frac{v^{t}}{1-\lambda}$$ $$\hat r^{t} = \frac{r^{t}}{1-\rho}$$ $$\theta^{t+1} = \theta^{t} - \eta \frac{\hat v^{t}}{\sqrt{\hat r^{t} + \epsilon}}$$
总结
当训练数据特征较为稀疏的时候,采用自适应的优化器通常能获得更好的性能,而且我们采用自适应优化器的默认值即可获得较优的性能。
RMSprop算法是adagrad算法的优化版,它解决了学习率趋近于零的问题。Adadelta算法和RMSprop算法类似,区别在于Adadelta用参数的RMS作为更新规则的分子。最后,Adam则是在RMSprop的基础上加入了偏差校正和动量。综上来看,Adam可能是最佳的选择。
所以,如果你想模型更快的收敛或者训练一个深层次、复杂度较高的网络,自适应的优化器应该是首选优化器。
3.从算法调优上提升性能
你通过算法筛选往往总能找出一到两个效果不错的算法。但想要达到这些算法的最佳状态需要耗费数日、数周甚至数月。下面是一些常用技巧,在调参时能有助于提升算法的性能。
1.数据集、验证集、测试集
只有知道为何模型的性能不再有提升了,才能达到最好的效果。一种快速查看模型性能的方法就是每一步计算模型在训练集和验证集上的表现,计算出在训练集和验证集上测试模型的准确率。
- 如果训练集的效果好于验证集,说明可能存在过拟合的现象,试一试增加正则项。
- 如果训练集和验证集的准确率都很低,说明可能存在欠拟合,你可以继续提升模型的能力,延长训练步骤。
- 如果训练集和验证集的曲线有一个焦点,可能需要用到early stopping的技巧了。
2.初始化权重
有一条经验规则:用小的随机数初始化权重。事实上,这可能已经足够了。还有几种可以尝试的策略:
- 尝试所有的初始化方法(全0,全1,正态高斯截断,glorot初始化等) 参考这篇 深度网络模型的初始化
- 试一试用非监督式方法预学习,比如自动编码机
- 迁移学习
3.学习率
调节学习率也能带来效果提升。策略如下:
- 尝试非常大、非常小的学习率
- 尝试逐步减小学习率
- 尝试自适应学习率
4.激活函数
常用的激活函数有sigmoid,tanh,RelU,他们各有优缺点,可以都尝试一下: sigmoid特点:
- 容易饱和,出现梯度消失,需要注意参数初始化方式来避免饱和
- 输出不是0均值,会对梯度产生影响
tanh 特点:
- 也存在梯度消失的问题,但是是0均值,收敛速度比sigmoid快
RelU 特点:
- 收敛速度比sigmoid和tanh快很多
- 可以缓和梯度消失现象
- 存在硬饱和现象和偏移现象
5.网络结构
调整网络的拓扑结构也会有一些帮助。你需要设计多少个节点,需要几层网络呢?策略如下:
- 试一试加一层有许多节点的隐层(拓宽)
- 试一试一个深层的神经网络(拓深)
- 尝试结合以上两种
- 查看近期论文
6.batch和epoch
batch的大小决定了梯度值,以及权重更新的频率。一个epoch指的是训练集的所有样本都参与了一轮训练,以batch为序。你尝试过不同的batch大小和epoch的次数。
7.正则项
正则化是克服训练数据过拟合的好方法。有以下策略可以尝试:
- 增加L1正则项 ($C=C_{0}+\frac{\lambda}{n} \sum_{w}|w|$) L1正则项的作用时可以让一些权重为0,让权重矩阵稀疏
- 增加L2正则项($C=C_{0}+\frac{\lambda}{2n} \sum_{w}w^{2} $) L2正则的作用时让权重值尽可能的小
- 增加dropout层。 在一次循环中我们通过概率将神经层中的一些单元临时隐藏,然后再进行该次循环中神经网络的训练和优化过程。在训练时,每个神经单元以概率p被保留(dropout丢弃率为1-p);在测试阶段,每个神经单元都是存在的,权重参数w要乘以p,成为:pw。dropout详解
- 增加BN层(Batch Normalization) BN算法通过对一个Batch的输出归一化。使得梯度始终在非饱和区。
看图理解BN: BN算法过程: BN的优点:
- 你可以选择比较大的初始化学习率,因为BN算法学习率衰减的很快。
- 你可以不用理会dropout、L2正则项参数选择问题,采用BN后,可以移除这两项参数,或者可以选择更小的L2约束参数。BN提高了网络泛化能力
- 不需要使用局部相应归一化层了(Alexnet网络用到的方法,CV),因为BN本身就是一个归一化网络层
4.用融合方法提升效果
你可以将多个模型的预测结果融合。继模型调优之后,这是另一个大的提升领域。事实上,往往将几个效果还可以的模型的预测结果融合,取得的效果要比多个精细调优的模型分别预测的效果好。