L-BFGS算法介绍

本文由作者林洋港授权网易云社区发布。

一、 L-BFGS是什么
L-BFGS是解无约束非线性规划问题最常用的方法,具有收敛速度快、内存开销少等优点,在机器学习各类算法中常有它的身影。简单的说,L-BFGS和梯度下降、SGD干的同样的事情,但大多数情况下收敛速度更快,这点在大规模计算中很重要。下图是深度学习Autoencoder模型不同优化方法的比较。

《L-BFGS算法介绍》

二、 L-BFGS“之前”的那些方法

这里的“之前”并不是说L-BFGS问世之前就已经存在的方法,而是指为了更好的理解L-BFGS需要了解的其他方法。无约束问题定义:

《L-BFGS算法介绍》

我们先从泰勒展开开始,这可以说是本文介绍的所有方法的基础。f在《L-BFGS算法介绍》的一阶泰勒展开为

《L-BFGS算法介绍》

二阶泰勒展开为

《L-BFGS算法介绍》

去掉最后的余项,得到

《L-BFGS算法介绍》

《L-BFGS算法介绍》

2.1 最速下降法(Gradient descent)

CD算法的一个前提条件就是f在《L-BFGS算法介绍》连续可微,并且在《L-BFGS算法介绍》处的导数不为0。由公式1可知当第二项<0时f的值将下降。由Cauchy-Schwartz不等式可得

《L-BFGS算法介绍》为最速下降方向。因此迭代公式为

《L-BFGS算法介绍》

《L-BFGS算法介绍》满足《L-BFGS算法介绍》

2.2 牛顿法(Newton method)

由于f的极值点就是满足f的导数为0,根据公式2,得到

《L-BFGS算法介绍》

假设Hesse矩阵《L-BFGS算法介绍》可逆,由上式可得牛顿法迭代公式

《L-BFGS算法介绍》

牛顿法具有二次终止性的特点,即经过有限次迭代必达到极小点。例如,对于二次凸函数

《L-BFGS算法介绍》

A是对称正定矩阵,取任意初始点《L-BFGS算法介绍》,根据公式3有《L-BFGS算法介绍》

显然经过1次迭代即达到极值点。

但牛顿法要求f二次连续可微,并且Hesse矩阵《L-BFGS算法介绍》满足可逆和正定两个条件;同时,牛顿方向《L-BFGS算法介绍》不一定每次迭代都是下降方向。

阻尼牛顿法是牛顿法的修正,与牛顿法的区别是迭代公式增加了牛顿方向上的一维搜索,即《L-BFGS算法介绍》

其中《L-BFGS算法介绍》

《L-BFGS算法介绍》是一维搜索得到的步长,满足

《L-BFGS算法介绍》

2.3 拟牛顿法(Quasi-Newton Method)

牛顿法每次迭代都需要计算《L-BFGS算法介绍》处的Hesse矩阵的逆,同时Hesse矩阵也不一定是正定的。人们又提出了拟牛顿法,其基本思想是用不包含二阶导数的矩阵来近似Hesse矩阵的逆。将f在《L-BFGS算法介绍》处展开成2阶泰勒级数并取近似,即

《L-BFGS算法介绍》

设Hesse矩阵可逆,可得《L-BFGS算法介绍》

设近似矩阵为《L-BFGS算法介绍》根据上述,必须满足《L-BFGS算法介绍》

公式7称为拟牛顿条件。《L-BFGS算法介绍》的不同构造方法,决定了不同的拟牛顿方法。

《L-BFGS算法介绍》时n阶对称正定矩阵时,满足牛顿条件的《L-BFGS算法介绍》也必须是n阶对称正定矩阵。因此《L-BFGS算法介绍》的一般构造策略为:《L-BFGS算法介绍》取为任意n阶对称正定矩阵(通常为单位矩阵I),然后通过下式求出《L-BFGS算法介绍》

《L-BFGS算法介绍》

《L-BFGS算法介绍》称为校正矩阵。

DFP算法将校正矩阵定义为:《L-BFGS算法介绍》

至此,根据公式4、5、6、7、10、11可以由《L-BFGS算法介绍》得出《L-BFGS算法介绍》并且不需要每次迭代计算Hesse矩阵。

BFGS算法用矩阵《L-BFGS算法介绍》近似公式8中的Hesse矩阵《L-BFGS算法介绍》,从而得到《L-BFGS算法介绍》

将q与p互换,《L-BFGS算法介绍》分别取代《L-BFGS算法介绍》由DFP公式可以得到

《L-BFGS算法介绍》

《L-BFGS算法介绍》,从而得到BFGS公式:

《L-BFGS算法介绍》

从公式11和公式12可以看出,拟牛顿法每次迭代只需要根据前次迭代的《L-BFGS算法介绍》即可以计算出《L-BFGS算法介绍》,不需要求出Hesse矩阵的逆。

2.4 L-BFGS(limited-memory BFGS)

BFGS算法中每次迭代计算需要前次迭代得到的《L-BFGS算法介绍》矩阵,该矩阵的存储空间至少为N(N+1)/2,N为特征维数,对于高维的应用场景,需要的存储空间将是非常巨大的。L-BFGS的基本思想就是通过存储前m次迭代的少量数据来替代前一次的《L-BFGS算法介绍》矩阵。令y=q,s=p,公式12可以改写成

《L-BFGS算法介绍》

公式13展开并取前m项的近似,可得

《L-BFGS算法介绍》

由于ρ、V、s、y这些变量都最终可以由q、p两个向量计算得到,因此,我们只需存储最后m次的q、p向量即可算出《L-BFGS算法介绍》加上对角阵H0,总共需要存储2*m+1个N维向量(实际应用中m一般取4到7之间的值,因此需要存储的数据远小于Hesse矩阵)。

注:公式4中步长的确定需要使用一维搜索,顾名思义,一维搜索就是沿着直线方向寻找使得目标函数值最小的参数值。一维搜索具体又分为精确一维搜索和非精确一维搜索,具体可参看相关文献。

三、 其他相关方法
由于L-BFGS是建立在目标函数的2阶泰勒展开基础上的,其前提条件就是函数的2阶导不为0。在机器学习中一般如果用L2正则都是可以满足这个条件的。如果用的是L1正则,则目标函数可能出现2阶导为0的情况。对于使用L1正则的情况,可以使用OWL-QN方法(Orthant-Wise Limited-memory Quasi-Newton),它是基于L-BFGS修改的。

据说百度首创了Shooting算法,收敛速度比L-BFGS快得多,目前还不知道怎么做的。

《L-BFGS算法介绍》

此外,Chih-Jen Lin(LIBSVM作者)提出的信赖域牛顿方法(Trust Region Newton Method),其收敛速度也比L-BGFS快,他开发的另一个针对大规模线性分类的软件LIBLINEAR用的就是这种优化方法。

《L-BFGS算法介绍》

此外,Chih-Jen Lin(LIBSVM作者)提出的信赖域牛顿方法(Trust Region Newton Method),其收敛速度也比L-BGFS快,他开发的另一个针对大规模线性分类的软件LIBLINEAR用的就是这种优化方法。

免费领取验证码、内容安全、短信发送、直播点播体验包及云服务器等套餐

更多网易技术、产品、运营经验分享请访问网易云社区。

文章来源: 网易云社区

    原文作者:网易云社区
    原文地址: https://segmentfault.com/a/1190000017379835
    本文转自网络文章,转载此文章仅为分享知识,如有侵权,请联系博主进行删除。
点赞