Adam 算法是深度学习中常用的一种优化算法。它是一种自适应学习率的优化算法,可以根据之前的梯度信息来调整每个参数的学习率。在实践中,Adam 算法被证明比传统的随机梯度下降算法更加有效,并且可以在相同的时间内比传统算法学习得更好。
Adam 算法综合了动量和自适应学习率的思想。其核心思想是自适应地为每个参数计算不同的学习率,这些学习率根据该参数的梯度统计信息进行缩放。为了描述 Adam 算法,我们需要知道以下几个概念:
Adam 算法的更新公式如下所示:
$$ g_t = \nabla_{\theta} L(\theta_{t-1}) \ m_t = \beta_1 m_{t-1} + (1-\beta_1) g_t \ v_t = \beta_2 v_{t-1} + (1-\beta_2) g_t^2 \ \hat{m_t} = \frac{m_t}{1-\beta_1^t} \ \hat{v_t} = \frac{v_t}{1-\beta_2^t} \ \theta_t = \theta_{t-1} - \frac{\eta}{\sqrt{\hat{v_t}} + \epsilon} \hat{m_t} $$
其中,$g_t$ 表示第 $t$ 个样本的梯