凸优化笔记17:次梯度下降
对于光滑函数,我们可以用梯度下降法,并且证明了取不同的步长,可以得到次线性收敛,如果加上强凸性质,还可以得到线性收敛速度。那如果现在对于不可导的函数,我们就只能沿着次梯度下降,同样会面临步长的选择、方向的选择、收敛性分析等问题。
1. 收敛性分析
次梯度下降的一般形式为
- fix step:
为常数 - fix length:
为常数 - diminishing:
要证明这几种方法的收敛性,需要先引入 Lipschitz continuous 假设,即
在分析收敛性之前,我们需要引入一个非常重要的式子:arrow_down:!!!在后面的分析中会一直用到:
Fixed step size:
Diminishing step size:
下面看几幅图片,对于优化问题
Fixed step length | Diminishing step size |
---|---|
前面考虑了固定步长的情况,假设现在我们固定总的迭代次数为
我们对前面的收敛速度并不满意,如果有更多的信息,比如已知最优解
如果引入强凸性质呢?如果假设满足
凸优化笔记17:次梯度下降
https://glooow1024.github.io/2020/04/10/optimization/ch17-subgradient-descent/
Powered By Valine
v1.4.16
v1.4.16