Momentum & Nesterov momentum

경사하강법gradient descent 최적화 알고리즘의 한 종류인 모멘텀momentum과 네스테로프 모멘텀nesterov momentum 방식은 여러 신경망 모델에서 널리 사용되고 있습니다. 비교적 이 두가지 알고리즘은 직관적이고 쉽게 이해할 수 있습니다. 이 글에서는 두 알고리즘이 실제 구현에서는 어떻게 적용되는지 살펴 보겠습니다.

모멘텀 알고리즘은 누적된 과거 그래디언트가 지향하고 있는 어떤 방향을 현재 그래디언트에 보정하려는 방식입니다. 일종의 관성 또는 가속도처럼 생각하면 편리합니다. 머신 러닝의 다른 알고리즘들이 그렇듯이 모멘텀 공식도 쓰는 이마다 표기법이 모두 다릅니다. 여기에서는 일리아 서스키버Ilya Sutskever의 페이퍼1에 있는 표기를 따르겠습니다. 모멘텀 알고리즘의 공식은 아래와 같습니다.

v_{t+1} = \mu v_t - \epsilon g(\theta_t) \\ \theta_{t+1} = \theta_t + v_{t+1}

\epsilon 은 학습속도이고 \mu 는 모멘트 효과에 대한 가중치입니다. v_{t} 는 0 으로 초기화되어 있고 반복이 될 때마다 현재의 그래디언트 - \epsilon g(\theta_t) 가 다음번 모멘트 v_{t+1} 에 누적됩니다. 그리고 다음번 반복에서 v_{t+1} 가 현재의 모멘트 v_{t} 로 사용됩니다. 경사하강법에서 모멘트 항이 추가된 것입니다.

스크린샷 2017-03-21 오후 2.53.35

이 그림은 일리아 서스키버의 페이퍼1에서 캡쳐한 것입니다. 윗쪽의 그림이 일반 모멘텀 방식을 설명해 주고 있습니다. 파라미터 공간의 현재 위치 \theta_t 이전까지 누적된 그래디언트 벡터가 v_t 입니다. 현재 위치의 그래디언트과 구분하기 위해 편의상 이 누적된 그래디언트를 속도라고 부르겠습니다. 속도는 그대로 사용하는 것이 아니고 공식에 표현되어 있듯이 적절한 \mu 를 곱합니다. 현재 위치에서의 그래디언트와 속도를 더해 구해진 v_{t+1} 가 \theta_{t} 에 더해지면  \theta_{t+1} 가 됩니다. 이런 모멘텀은 그래디언트가 큰 흐름의 방향을 지속하도록 도와 줍니다. 아래 그림은 이런 모멘트의 효과를 그림으로 표현하고 있습니다.2

스크린샷 2017-03-21 오후 3.22.52

그럼 네스테로프 모멘텀은 어떻게 다를까요. Figure 1 의 하단 그림과 아래 공식을 함께 보면 조금 더 이해가 쉽습니다.

v_{t+1} = \mu v_t - \epsilon g(\theta_t + \mu v_t) \\ \theta_{t+1} = \theta_t + v_{t+1}

이 공식은 모멘텀의 공식과 거의 같습니다. 다만 현재 위치의 그래디언트 g(\theta_t) 를 이용하는 것이 아니고 현재 위치에서 속도 \mu v_t만큼 전진한 후의 그래디언트 g(\theta_t + \mu v_t) 를 이용합니다. 사람들은 이를 가리켜 선험적으로 혹은 모험적으로 먼저 진행한 후 에러를 교정한다라고 표현합니다. 궁금한 점은 현재 파라미터 위치에서 앞쪽의 그래디언트를 구한다는 것입니다. 반복 루프 안에서 학습이 진행되는 경사하강법의 알고리즘에서 앞선 그래디언트를 어떻게 구하는 것일까요.

모멘텀 방식과 네스테로프 모멘텀은 확실히 다릅니다. 아래 그림에서 편의상 동일 지점에서 모멘텀과 네스테로프 모멘텀을 한번에 나타내었습니다. 이 그림에서 볼 수 있듯이 \mu v_t 만큼 이동한 후 현재의 그래디언트 \epsilon g(\theta_t) 로 진행하는 것과 \mu v_t 만큼 이동한 지점의 그래디언트 \epsilon g(\theta_{t}+\mu v_t) 로 진행하는 것은 다른 결과를 가져다 줍니다.

스크린샷 2017-03-22 오전 11.40.58

네스테로프 모멘텀의 진행과정을 조금 더 자세히 보기 위해 반복 스텝 t 의 전후를 이어서 그려 보겠습니다.

스크린샷 2017-03-22 오전 11.40.49

우리가 위에서 본 네스테로프 모멘텀 공식으로 현재 \theta_{t-1} 에서 \theta_t 로 이동하기 위한 v_t 를 구하면 v_t = \mu v_{v-1} - \epsilon g(\theta_{t-1} + \mu v_{t-1}) 입니다. 그리고 v_t 는 다음번 반복에서 \mu v_t 가 되어 새로운 모멘텀 항에 사용됩니다. 앞서 이야기한 것 처럼 \theta_{t-1} 에서 g(\theta_{t-1} + \mu v_{t-1}) 그래디언트를 구하기 위해 코드를 구성하려면 왠지 코드가 복잡해 질 것 같습니다. 그래서 네스테로프를 구현한 여러 코드에서는 약간의 트릭을 사용합니다. 위 그림에서 \theta_t 의 위치를 한걸음 뒤로 물려 보겠습니다.

스크린샷 2017-03-22 오전 11.40.40

위 그림에서 \theta_t\theta_{t+1} 에 집중하기 위해 다른 표시들은 삭제했습니다. \theta_t 가 A 지점에서 B 지점으로 옮겨졌습니다. 이에 따라 g(\theta_{t-1}+\mu v_{t-1}) 가 간단하게 g(\theta_t) 로 바뀌었습니다. \theta_t 를 옮기기 전과 후의 값은 확실히 다릅니다. 하지만 네스테로프 모멘텀의 경로를 그대로 따르고 있으므로 학습을 많이 반복하여 최적점에 수렴하면 전체 파라미터 공간에서 A 지점과 B 지점은 거의 동일하게 될 것입니다.

현재 위치에서 g(\theta_t) 는 얻을 수 있고 필요한 것은 \mu v_t 입니다. 위 그림에서 볼 수 있듯이 v_t = \mu v_{t-1} - \epsilon g(\theta_t) 입니다. 따라서 아래와 같이 쓸 수 있습니다.

\mu v_t = \mu (\mu v_{t-1} - \epsilon g(\theta_t))

\theta_t 에서 - \epsilon g(\theta_t) 만큼 이동하고 다음에 \mu v_t 를 진행하는 전체 식을 다시 살펴 보면 다음과 같습니다.

\mu v_t = \mu (\mu v_{t-1} - \epsilon g(\theta_t)) \\  \theta_{t+1} = \theta_t - \epsilon g(\theta_t) + \mu v_t = \theta_t - \epsilon g(\theta_t) + \mu (\mu v_{t-1} - \epsilon g(\theta_t))

이렇게 쓰면 현재 그래디언트와 이전의 속도만 가지고 네스테로프 모멘텀의 궤적을 따라갈 수 있습니다. 사실 이 식은 요수아 벤지오Yoshua Bengio 교수의 페이퍼3에 잘 설명되어 있습니다. 다만 식을 쓰는 순서가 조금 다를 뿐입니다. 안드레이 카패시Andrej Karpathy도 CS231n 강의 노트4에 벤지오 교수의 표기와 유사하게 설명하고 있습니다. 위 그림을 CS231n 강의 노트 표기로 바꾸어 나타내어 보면 아래와 같습니다.

v_prev = v # back this up
v = mu * v - learning_rate * dx # velocity update stays the same
x += -mu * v_prev + (1 + mu) * v # position update changes form

스크린샷 2017-03-22 오전 11.40.34

이제 조금더 명확해 진 것 같습니다. 하지만 실제 코드들은 벤지오 교수의 표기 보다는 아래와 같이 쓰는 것을 즐겨합니다.

\theta_{t+1} = \theta_t + \mu (\mu v_{t-1} - \epsilon g(\theta_t)) - \epsilon g(\theta_t)

또 이식은 다음처럼 나누어 쓰면 패턴이 잘 보입니다.

v_{temp} = \mu v_{t-1} - \epsilon g(\theta_t) \\ v_{t+1} = \mu (v_{temp}) - \epsilon g(\theta_t) \\ \theta_{t+1} = \theta_t + v_{t+1}

이렇게 보면 v_{temp} 가 보통 모멘텀과 완전히 동일하고 이 값을 한번 더 모멘텀 공식에 넣고 있습니다. \theta 의 어느 지점에서 네스테로프 모멘텀은 일반 모멘텀으로 구한 속도를 이전 속도라고 가정하고 다시 모멘텀 방식을 적용한 것입니다. 조금 복잡하지만 굳이 그림으로 나타내 보면 아래와 같습니다.

스크린샷 2017-03-22 오후 12.08.51

여기에서 v_{temp}\theta_t 에서의 일반 모멘텀이고 v_{t+1} 은 네스테로프 모멘텀입니다. 이 그림은 어느 지점에서 모멘텀과 네스테로프 모멘텀을 가상으로 표현한 것이고 실제 두 알고리즘이 만드는 전체 궤적은 다릅니다.

그럼 실제 코드 구현을 확인해 보겠습니다. 제가 눈으로 확인한 것은 사이킷런scikit-learn의 멀티레이어 퍼셉트론multi-layer perceptron의 구현5과 케라스Keras의 구현6입니다.

사이킷런의 SGDOptimizer 클래스 중 일부 코드입니다.

updates = [self.momentum * velocity - self.learning_rate * grad
           for velocity, grad in zip(self.velocities, grads)]
self.velocities = updates

if self.nesterov:
    updates = [self.momentum * velocity - self.learning_rate * grad
               for velocity, grad in zip(self.velocities, grads)]

다음은 케라스의 SGD 클래스 중 일부 코드입니다.

v = self.momentum * m - lr * g # velocity
self.updates.append(K.update(m, v))

if self.nesterov:
    new_p = p + self.momentum * v - lr * g
else:
    new_p = p + v

코드를 보면 이해가 더 잘 됩니다. 이렇게 네스테로프 모멘텀을 일반 모멘텀을 이용해 구하는 방식은 코드를 깔끔하고 읽기 좋게 만들어 줍니다. 사실 되짚어 보면 이런 테크닉이 매우 난해한 것은 아닙니다. 다만 구현된 코드들에 별다른 설명이 없고 대부분의 네스테로프 모멘텀의 방정식이 일리아 서스키버의 표현 방식으로 기술되어 있어서 처음 볼 때 고개를 갸우뚱하게 되는 것 같습니다. 🙂


  1. Ilya Sutskever, James Martens, George Dahl, Geoffrey Hinton. 2013. On the importance of initialization and momentum in deep. pdf
  2. Sebastian Ruder. 2016. An overview of gradient descent optimization algorithms. 1609.04747
  3. Yoshua Bengio, Nicolas Boulanger-Lewandowski, Razvan Pascanu. 2012. Advances in Optimizing Recurrent Networks. 1212.0901
  4. CS231n Convolutional Neural Networks for Visual Recognition. website.
  5. https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/neural_network/_stochastic_optimizers.py
  6. https://github.com/fchollet/keras/blob/master/keras/optimizers.py

Momentum & Nesterov momentum”에 대한 7개의 생각

  1. Kwak Ji Won

    좋은 글 감사합니다. 저도 이 부분에 대해 한번 정리를 해보려고 했었는데 시간을 내여 포스팅 해주셨습니다.

    Liked by 1명

    응답
  2. Sooyoung Kim

    정말 재미있게 읽어내려갔습니다.!!!
    꼼꼼하게 정리해주시고 그림도 자세히 넣어 주셔서 이해하는데 도움이 많이 되었어요~
    너무 감사드립니다 ^^

    Liked by 1명

    응답
  3. 한상우

    이렇게 쉽게 식이 바뀌다니… 처음 식을 보고 gradient(θt + μvt) 를 어떻게 구현해야하나 막막했는데… 이렇게 보니까 훨씬 쉽게 구현할 수 있겠네요! 정말 감사합니다!

    Liked by 1명

    응답

댓글 남기기

이 사이트는 스팸을 줄이는 아키스밋을 사용합니다. 댓글이 어떻게 처리되는지 알아보십시오.