태그 보관물: Aaron Courville

Layer Normalization

layer-normlization

출처: 레이어 노말라이제이션 페이퍼

토론토 대학의 제프리 힌튼 교수 팀에서 공개한 페이퍼 ‘Layer Normalization‘이 금주에 나온 가장 핫(hot)한 페이퍼 중 하나가 아닐까 합니다. 배치 노말라이제이션을 변형하여 입력 데이터의 평균과 분산을 이용해 레이어 노말라이제이션을 적용했다고 합니다. 이 페이퍼는 몬트리올 대학교의 애런 코빌(Aaron Courville)팀에서 지난 3월 발표한 ‘Recurrent Batch Normalization‘을 개선한 것으로 볼 수 있습니다. 당연히 결과가 좋으니 관심이 높은 거겠죠?

씨아노와 토치로 된 코드는 여기에서 확인할 수 있습니다. 관심을 반영하듯 불과 하루만에 케라스(Keras)로 작성된 GRU 리커런트 뉴럴 네트워크용 코드가 나왔습니다. 물론 이런 빠른 속도에 불평이 없는 것은 아닙니다. 🙂

* 페이퍼 마지막 Supplementary Material의 22번 공식 아래에 \alpha_i가 0으로(vector of zeros) 초기화된다고 쓰여진 것은 오타로 1로 초기화 되어야 한다고 합니다.

(업데이트) 주말에 누군가가 텐서플로우로 구현하지 않을까 생각했는데 역시나 지구 한편에서 누군가가 작업을 하고 있었습니다. 이전에 소개했던 ‘TensorFlow with The Latest Papers‘ 레파지토리에서 레이어 노말라이제이션을 텐서플로우로 구현한 코드를 조금 전에 추가했습니다.

딥러닝북(DeepLearningBook)이 완성되다.

오늘 Ian Goodfellow는 페이스북을 통해 Yoshua Bengio, Aaron Courville과 함께 작성한 딥러닝 책이 완성되었다고 알렸습니다.

이 작업은 무려 2년이 넘게 걸렸습니다. 이 블로그에서도 공유드렸지만 머신러닝이나 딥러닝 레퍼런스로는 빠지지 않고 꼭 리스트업 되는 책 입니다. 온라인에서 읽을 수 있지만 PDF로 제공되지는 않습니다.

프린트된 책을 구매하려면 조금 더 기다려야 할 것 같습니다만 꼭 읽어야할 필수 도서임에 분명합니다.

(업데이트) 아마존에서 프리오더(pre-order)로 주문하실 수 있습니다.