最优化问题--基本形式

1. 最优化问题

1.1. 凸函数

目标函数是否光滑(Smooth)或者是否强凸(Strongly Convex)对算法是否适用有着很大的影响。 一般来说, 部分算法在强凸的条件下, 收敛率会有进一步的提升。 强凸是一个锦上添花的性质。 但是,光滑不光滑就会决定着算法是否适用, 因为不光滑的话,一般情况下,导函数是不存在的, 那么就需要修正成近似算法(SubGradient, Proximal)来解决。 还有部分算法(Newton)除了要求光滑可导,还要求导函数光滑可导,也就是二阶可导(quadratic)。

凸优化问题

  1. 逻辑回归(分类)
  2. 支持向量机、线性回归等线性模型

特点:
1.好求解一点

非凸优化问题**

  1. 低秩模型(矩阵分解)
  2. 深度神经网络
  3. 主成分分析

特点
较难求解

1.2. 标准优化问题

标准的优化问题格式如下:

minimize   f0(x)
subject to:
fi(x)  0, i = 1, . . . , m
hi(x) = 0, i = 1, . . . , p

机器学习中,结构风险SRM最小的框架下, 给定了优化目标

2. 参考资料

  1. http://www.dscademy.com/optimization/newton/index.php?from=header
  2. 最优化原理笔记(推荐) https://wulc.me/2017/02/01/%E6%9C%80%E4%BC%98%E5%8C%96%E8%AE%A1%E7%AE%97%E8%AF%BE%E7%A8%8B%E6%80%BB%E7%BB%93/

  3. An overview of gradient descent optimization algorithms(经典) https://arxiv.org/pdf/1609.04747.pdf

  4. Adam那么棒,为什么还对SGD念念不忘 http://wulc.me/2019/03/18/Adam%E9%82%A3%E4%B9%88%E6%A3%92%EF%BC%8C%E4%B8%BA%E4%BB%80%E4%B9%88%E8%BF%98%E5%AF%B9SGD%E5%BF%B5%E5%BF%B5%E4%B8%8D%E5%BF%98/

如果你觉得这篇文章对你有帮助,不妨请我喝杯咖啡,鼓励我创造更多!