python机器学习手写算法系列——优化器 Optimizers

有数可据 2020-11-13 12:40:55
学习 Python 算法 机器 手写


本文用一个很简单的一元线性回归问题为例,实现了梯度下降(SGD), Momentum, Nesterov Accelerated Gradient, AdaGrad, RMSProp and Adam.

梯度下降

我们首先回顾一下梯度下降,以本系列第一篇文章《python机器学习手写算法系列——线性回归》为例。

目标函数:

y = f ( θ , x ) y=f(\theta,x) y=f(θ,x)

线性回归目标函数为:

y = a x + b + ε y=ax+b+ε y=ax+b+ε
y ^ = a x + b \hat{y}=ax+b y^=ax+b

损失函数为:

J ( θ ) J(\theta) J(θ)

线性回归损失函数为:

J ( a , b ) = 1 2 n ∑ i = 0 n ( y i − y ^ i ) 2 J(a,b)=\frac{1}{2n}\sum_{i=0}^{n}(y_i−\hat{y}_i )^2 J(a,b)=2n1i=0n(yiy^i)2

优化函数:

θ = θ − α ∂ J ∂ θ \theta = \theta - \alpha \frac{\partial J}{\partial \theta} θ=θαθJ

对于一元线性回归的优化函数:

a = a − α ∂ J ∂ a a = a - \alpha \frac{\partial J}{\partial a} a=aαaJ
b = b − α ∂ J ∂ b b = b - \alpha \frac{\partial J}{\partial b} b=bαbJ

这里 ∂ J ∂ a \frac{\partial J}{\partial a} aJ ∂ J ∂ b \frac{\partial J}{\partial b} bJ 分别是:

∂ J ∂ a = 1 n ∑ i = 0 n x ( y ^ i − y i ) \frac{\partial J}{\partial a} = \frac{1}{n}\sum_{i=0}^{n}x(\hat{y}_i-y_i) aJ=n1i=0nx(y^iyi)

∂ J ∂ b = 1 n ∑ i = 0 n ( y ^ i − y i ) \frac{\partial J}{\partial b} = \frac{1}{n}\sum_{i=0}^{n}(\hat{y}_i-y_i) bJ=n1i=0n(y^iyi)

这里 y ^ \hat{y} y^是y的估计值, θ \theta θ是参数, J J J是损失函数, α \alpha α是学习率,下同。

这里用python实现的代码如下

def model(a, b, x):
return a*x + b
def cost_function(a, b, x, y):
n = 5
return 0.5/n * (np.square(y-a*x-b)).sum()
def sgd(a,b,x,y):
n = 5
alpha = 1e-1
y_hat = model(a,b,x)
da = (1.0/n) * ((y_hat-y)*x).sum()
db = (1.0/n) * ((y_hat-y).sum())
a = a - alpha*da
b = b - alpha*db
return a, b

我们优化100次以后得到的结果如下:

在这里插入图片描述

这时的损失是0.00035532090622957674,我们这里把它记下来,之后,我们将分别用其他的优化函数达到这个值。看看他们需要多少次计算。

Momentum

Momentum,他和梯度下降相比,增了考虑了之前梯度,即更新参数的时候,除了梯度之外,也加上了之前的梯度(Momentum)。

m = β m − α ∂ J ∂ θ m = \beta m - \alpha \frac{\partial J}{\partial \theta} m=βmαθJ

θ = θ + m \theta = \theta + m θ=θ+m

对于一元线性回归来说:

m a = β m a − α ∂ J ∂ a m_a = \beta m_a - \alpha \frac{\partial J}{\partial a} ma=βmaαaJ

a = a + m a a = a + m_a a=a+ma

m b = β m b − α ∂ J ∂ b m_b = \beta m_b - \alpha \frac{\partial J}{\partial b} mb=βmbαbJ

b = b + m a b = b + m_a b=b+ma

其中:

∂ J ∂ a = 1 n ∑ i = 0 n x ( y ^ i − y i ) \frac{\partial J}{\partial a} = \frac{1}{n}\sum_{i=0}^{n}x(\hat{y}_i-y_i) aJ=n1i=0nx(y^iyi)

∂ J ∂ b = 1 n ∑ i = 0 n ( y ^ i − y i ) \frac{\partial J}{\partial b} = \frac{1}{n}\sum_{i=0}^{n}(\hat{y}_i-y_i) bJ=n1i=0n(y^iyi)

Python实现

def momentum(a, b, ma, mb, x, y):
n = 5
alpha = 1e-1
beta = 0.9
y_hat = model(a,b,x)
da = (1.0/n) * ((y_hat-y)*x).sum()
db = (1.0/n) * ((y_hat-y).sum())
ma = beta*ma - alpha*da
mb = beta*mb - alpha*db
a = a + ma
b = b + mb
return a, b, ma, mb

为了达到同样的损失,Momentum用了46次。只有梯度下降的一半不到。

Nesterov Accelerated Gradient

Nesterov Accelerated Gradient(NAG),又叫Nesterov momentum optimization,是Yurii Nesterov在1983年提出的。相对于Momentum,它有一点“前瞻”。它在计算损失函数的时候,就已经把Momentum放进了参数里了。这样它计算的就是更新后损失的一阶导数。
m = β m − α ∂ J ( θ + β m ) ∂ θ m = \beta m - \alpha \frac{\partial J(\theta+\beta m)}{\partial \theta} m=βmαθJ(θ+βm)

θ = θ + m \theta = \theta + m θ=θ+m
在这里插入图片描述

对于一元线性回归来说:

m a = β m a − α ∂ J ( a + β m a ) ∂ a m_a = \beta m_a - \alpha \frac{\partial J(a + \beta m_a)}{\partial a} ma=βmaαaJ(a+βma)

a = a + m a a = a + m_a a=a+ma

m b = β m b − α ∂ J ( b + β m b ) ∂ b m_b = \beta m_b - \alpha \frac{\partial J(b+\beta m_b)}{\partial b} mb=βmbαbJ(b+βmb)

b = b + m a b = b + m_a b=b+ma

其中,

∂ J ∂ a = 1 n ∑ i = 0 n x ( y ^ i − y i ) \frac{\partial J}{\partial a} = \frac{1}{n}\sum_{i=0}^{n}x(\hat{y}_i-y_i) aJ=n1i=0nx(y^iyi)

∂ J ∂ b = 1 n ∑ i = 0 n ( y ^ i − y i ) \frac{\partial J}{\partial b} = \frac{1}{n}\sum_{i=0}^{n}(\hat{y}_i-y_i) bJ=n1i=0n(y^iyi)

这里,我们只需要令

y ^ = ( a + m a ) x + ( b + m b ) \hat{y}=(a+m_a)x+(b+m_b) y^=(a+ma)x+(b+mb)

即可。其他地方和Momentum一样。

Python实现

def nesterov(a, b, ma, mb, x, y):
n = 5
alpha = 1e-1
beta = 0.9
y_hat = model(a+ma,b+mb,x)
da = (1.0/n) * ((y_hat-y)*x).sum()
db = (1.0/n) * ((y_hat-y).sum())
ma = beta*ma - alpha*da
mb = beta*mb - alpha*db
a = a + ma
b = b + mb
return a, b, ma, mb

这里,我们用了21次达到了同样的损失。

AdaGrad

在下图中,蓝色的为梯度下降,它朝着梯度最大的方向快速前进,而不是朝着全局最后前进。黄色的是AdaGrad,它指向的是全局最优。它的办法是缩小(scaling down)最大的梯度参数。

在这里插入图片描述
公式:

ϵ = 1 e − 10 \epsilon=1e-10 ϵ=1e10

s = s + ∂ J ∂ θ ⊙ ∂ J ∂ θ s = s + \frac{\partial J}{\partial \theta} \odot \frac{\partial J}{\partial \theta} s=s+θJθJ

θ = θ − α ∂ J ∂ θ ⊘ s + ϵ \theta = \theta - \alpha \frac{\partial J}{\partial \theta} \oslash \sqrt{s+\epsilon} θ=θαθJs+ϵ

同样,我们这里用a,b替换 θ \theta θ 即可。

Python代码:

def ada_grad(a,b,sa, sb, x,y):
epsilon=1e-10
n = 5
alpha = 1e-1
y_hat = model(a,b,x)
da = (1.0/n) * ((y_hat-y)*x).sum()
db = (1.0/n) * ((y_hat-y).sum())
sa=sa+da*da + epsilon
sb=sb+db*db + epsilon
a = a - alpha*da / np.sqrt(sa)
b = b - alpha*db / np.sqrt(sb)
return a, b, sa, sb

这里,我们用了114次,比梯度下降还多了14次。

RMSProp

AdaGrad的风险是,它降速降的太快。所以反而花了更长的时候才达到全局最优。甚至可能永远无法达到全局最优。PMSProp降低了这种降速。方法就是乘以一个参数 β \beta β,通常其值为0.9.

ϵ = 1 e − 10 \epsilon=1e-10 ϵ=1e10

s = β s + ( 1 − β ) ∂ J ∂ θ ⊙ ∂ J ∂ θ s = \beta s + (1-\beta) \frac{\partial J}{\partial \theta} \odot \frac{\partial J}{\partial \theta} s=βs+(1β)θJθJ

θ = θ − α ∂ J ∂ θ ⊘ s + ϵ \theta = \theta - \alpha \frac{\partial J}{\partial \theta} \oslash \sqrt{s+\epsilon} θ=θαθJs+ϵ

Python代码

def rmsprop(a,b,sa, sb, x,y):
epsilon=1e-10
beta = 0.9
n = 5
alpha = 1e-1
y_hat = model(a,b,x)
da = (1.0/n) * ((y_hat-y)*x).sum()
db = (1.0/n) * ((y_hat-y).sum())
sa=beta*sa+(1-beta)*da*da + epsilon
sb=beta*sb+(1-beta)*db*db + epsilon
a = a - alpha*da / np.sqrt(sa)
b = b - alpha*db / np.sqrt(sb)
return a, b, sa, sb

这里,仅仅用了11次,就达到了梯度下降同样的损失。

Adam

我们最后介绍Adam,Adam就是adaptive moment estimation。他是momentum和RMSProp的结合。

m = β 1 m − ( 1 − β 1 ) ∂ J ∂ θ m = \beta_1 m - (1-\beta_1)\frac{\partial J}{\partial \theta} m=β1m(1β1)θJ

s = β 2 s + ( 1 − β 2 ) ∂ J ∂ θ ⊙ ∂ J ∂ θ s = \beta_2 s + (1-\beta_2) \frac{\partial J}{\partial \theta} \odot \frac{\partial J}{\partial \theta} s=β2s+(1β2)θJθJ

m ^ = m 1 − β 1 T \hat{m} = \frac{m}{1-\beta_1^T} m^=1β1Tm

s ^ = s 1 − β 2 T \hat{s} = \frac{s}{1-\beta_2^T} s^=1β2Ts

θ = θ + α m ^ ⊘ s ^ + ϵ \theta = \theta + \alpha \hat{m} \oslash \sqrt{\hat{s}+\epsilon} θ=θ+αm^s^+ϵ

这里的 ⊙ \odot ⊘ \oslash 是点乘和点除,或者叫element-wise product 和 element-wise division。

Python实现

def adam(a, b, ma, mb, sa, sb, t, x, y):
epsilon=1e-10
beta1 = 0.9
beta2 = 0.9
n = 5
alpha = 1e-1
y_hat = model(a,b,x)
da = (1.0/n) * ((y_hat-y)*x).sum()
db = (1.0/n) * ((y_hat-y).sum())
ma = beta1 * ma - (1-beta1)*da
mb = beta1 * mb - (1-beta1)*db
sa = beta2 * sa + (1-beta2)*da*da
sb = beta2 * sb + (1-beta2)*db*db
ma_hat = ma/(1-beta1**t)
mb_hat = mb/(1-beta1**t)
sa_hat=sa/(1-beta2**t)
sb_hat=sb/(1-beta2**t)
a = a + alpha*ma_hat / np.sqrt(sa_hat)
b = b + alpha*mb_hat / np.sqrt(sb_hat)
return a, b, ma, mb, sa, sb

Adam用了25次。

Nadam

Nadam就是Nesterov + Adam。nadam和adam相比,仅仅差在计算损失的时候用 θ + m \theta+m θ+m替换了 θ \theta θ

m = β 1 m − ( 1 − β 1 ) ∂ J ( θ + β 1 m ) ∂ θ m = \beta_1 m - (1-\beta_1)\frac{\partial J(\theta+\beta_1 m)}{\partial \theta} m=β1m(1β1)θJ(θ+β1m)

s = β 2 s + ( 1 − β 2 ) ∂ J ( θ + β 1 m ) ∂ θ ⊙ ∂ J ( θ + β 1 m ) ∂ θ s = \beta_2 s + (1-\beta_2) \frac{\partial J(\theta+\beta_1 m)}{\partial \theta} \odot \frac{\partial J(\theta+\beta_1 m)}{\partial \theta} s=β2s+(1β2)θJ(θ+β1m)θJ(θ+β1m)

m ^ = m 1 − β 1 T \hat{m} = \frac{m}{1-\beta_1^T} m^=1β1Tm

s ^ = s 1 − β 2 T \hat{s} = \frac{s}{1-\beta_2^T} s^=1β2Ts

θ = θ + α m ^ ⊘ s ^ + ϵ \theta = \theta + \alpha \hat{m} \oslash \sqrt{\hat{s}+\epsilon} θ=θ+αm^s^+ϵ

def nadam(a, b, ma, mb, sa, sb, t, x, y):
epsilon=1e-10
beta1 = 0.9
beta2 = 0.9
n = 5
alpha = 1e-1
# to modify adam to nadam, 
# we only modify here
# with a = a + ma 
# and b = b + mb
y_hat = model(a+ma,b+mb,x)
da = (1.0/n) * ((y_hat-y)*x).sum()
db = (1.0/n) * ((y_hat-y).sum())
ma = beta1 * ma - (1-beta1)*da
mb = beta1 * mb - (1-beta1)*db
sa = beta2 * sa + (1-beta2)*da*da
sb = beta2 * sb + (1-beta2)*db*db
ma_hat = ma/(1-beta1**t)
mb_hat = mb/(1-beta1**t)
sa_hat=sa/(1-beta2**t)
sb_hat=sb/(1-beta2**t)
a = a + alpha*ma_hat / np.sqrt(sa_hat)
b = b + alpha*mb_hat / np.sqrt(sb_hat)
return a, b, ma, mb, sa, sb

总结

针对我们的一元线性回归。达到同样的效果(损失),各种优化器所有迭代次数:

优化算法 迭代次数 冲量 Nesterov adaptive 自调节 备注
SGD 100
Momentum 46
Nesterov 21
AdaGrad 114
RMSProp 11
Adam 25 深度学习默认值
Nadam 14

注意,这里仅仅是我这个数据集的表现。本文不是介绍优化用法的文章。这里简单说说。AdaGrad(以及其变种RMSProp), Adam, Nadam这些名字里面带ada(adaptive)的,都能起到缩小(decay)学习率的效果。但是如果他们的学习率缩小的太快,会使得他们反而变慢,反而需要很长时间才达到最优,甚至永远达不到。我用tensorflow的时候,一般先用adam,如果效果不好,就用Learning Rate Scheduling技术,得到合适的学习率。然后改成SGD。也可以用Gradient Clipping技术。具体的请参考大牛作品。

参考资料

写作本文的时候,正好再看《hands-on machine learning (2nd Edition)》,所以就拿了这本书做参考了,文中截图均来自这本书。

我从来没看过你们经常说的西瓜书,也没有计划看它。机器学习应该从英文资料入门,而不是中文。看英文前期吃力,后期就轻松了。看中文前期轻松,后面就吃力了。

动手写优化函数,你也可以

这些优化函数,实现的时候,直接套用书上的公式即可。我一共用了三个小时,实现了所有的函数。其中,函数弄错了浪费一小时。查找点乘和点除的latex或者markdown表示浪费了半小时。

点乘和点除的markdown / latex:

\odot
\oslash

我觉得优化函数是我做了这么多手写算法里面最简单的了。基本上不怎么需要推导公式,直接拿来用即可。

你可以试着自己写一下,实在写不出来的,可以参考一下我的代码。

祝你机器学习顺利。

May the machine learn with you.

Github代码地址

https://github.com/EricWebsmith/machine_learning_from_scrach

大陆用户渲染github jupyter notebook 请使用jupyter notebook viewer:
https://nbviewer.jupyter.org/github/EricWebsmith/machine_learning_from_scrach/blob/master/optimizers.ipynb

python机器学习手写算法系列

python机器学习手写算法系列——线性回归

python机器学习手写算法系列——逻辑回归

python机器学习手写算法系列——优化函数

python机器学习手写算法系列——决策树

python机器学习手写算法系列——kmeans聚类

python机器学习手写算法系列——GBDT梯度提升分类

python机器学习手写算法系列——GBDT梯度提升回归

python机器学习手写算法系列——贝叶斯优化 Bayesian Optimization

python机器学习手写算法系列——PageRank算法

版权声明
本文为[有数可据]所创,转载请带上原文链接,感谢
https://blog.csdn.net/juwikuang/article/details/108039680

  1. 利用Python爬虫获取招聘网站职位信息
  2. Using Python crawler to obtain job information of recruitment website
  3. Several highly rated Python libraries arrow, jsonpath, psutil and tenacity are recommended
  4. Python装饰器
  5. Python实现LDAP认证
  6. Python decorator
  7. Implementing LDAP authentication with Python
  8. Vscode configures Python development environment!
  9. In Python, how dare you say you can't log module? ️
  10. 我收藏的有关Python的电子书和资料
  11. python 中 lambda的一些tips
  12. python中字典的一些tips
  13. python 用生成器生成斐波那契数列
  14. python脚本转pyc踩了个坑。。。
  15. My collection of e-books and materials about Python
  16. Some tips of lambda in Python
  17. Some tips of dictionary in Python
  18. Using Python generator to generate Fibonacci sequence
  19. The conversion of Python script to PyC stepped on a pit...
  20. Python游戏开发,pygame模块,Python实现扫雷小游戏
  21. Python game development, pyGame module, python implementation of minesweeping games
  22. Python实用工具,email模块,Python实现邮件远程控制自己电脑
  23. Python utility, email module, python realizes mail remote control of its own computer
  24. 毫无头绪的自学Python,你可能连门槛都摸不到!【最佳学习路线】
  25. Python读取二进制文件代码方法解析
  26. Python字典的实现原理
  27. Without a clue, you may not even touch the threshold【 Best learning route]
  28. Parsing method of Python reading binary file code
  29. Implementation principle of Python dictionary
  30. You must know the function of pandas to parse JSON data - JSON_ normalize()
  31. Python实用案例,私人定制,Python自动化生成爱豆专属2021日历
  32. Python practical case, private customization, python automatic generation of Adu exclusive 2021 calendar
  33. 《Python实例》震惊了,用Python这么简单实现了聊天系统的脏话,广告检测
  34. "Python instance" was shocked and realized the dirty words and advertisement detection of the chat system in Python
  35. Convolutional neural network processing sequence for Python deep learning
  36. Python data structure and algorithm (1) -- enum type enum
  37. 超全大厂算法岗百问百答(推荐系统/机器学习/深度学习/C++/Spark/python)
  38. 【Python进阶】你真的明白NumPy中的ndarray吗?
  39. All questions and answers for algorithm posts of super large factories (recommended system / machine learning / deep learning / C + + / spark / Python)
  40. [advanced Python] do you really understand ndarray in numpy?
  41. 【Python进阶】Python进阶专栏栏主自述:不忘初心,砥砺前行
  42. [advanced Python] Python advanced column main readme: never forget the original intention and forge ahead
  43. python垃圾回收和缓存管理
  44. java调用Python程序
  45. java调用Python程序
  46. Python常用函数有哪些?Python基础入门课程
  47. Python garbage collection and cache management
  48. Java calling Python program
  49. Java calling Python program
  50. What functions are commonly used in Python? Introduction to Python Basics
  51. Python basic knowledge
  52. Anaconda5.2 安装 Python 库(MySQLdb)的方法
  53. Python实现对脑电数据情绪分析
  54. Anaconda 5.2 method of installing Python Library (mysqldb)
  55. Python implements emotion analysis of EEG data
  56. Master some advanced usage of Python in 30 seconds, which makes others envy it
  57. python爬取百度图片并对图片做一系列处理
  58. Python crawls Baidu pictures and does a series of processing on them
  59. python链接mysql数据库
  60. Python link MySQL database