카테고리 보관물: Conference

TensorFlow Dev Summit 2017

tensorflow_devsummit-email-001

텐서플로우 Dev Summit이 다음 주로 다가 왔습니다. 전체 아젠다를 보면 텐서플로우 컴파일 XLA, 케라스(Kears), 분산 처리, 음악/미술에 접목 등 다양한 주제에 대해서 발표가 있을 예정입니다. 15일 오전9:30 분부터 열리며 우리 시각으로는 16일 오전 2시 30분 부터입니다. 아쉽게도 국내 구글 디벨로퍼 그룹(GDG)에서는 라이브 스트림 이벤트가 열리지는 않습니다만, 집에서 온라인으로 생중계를 볼 수 있고 다음날 녹화된 것을 볼 수도 있습니다. 🙂

(업데이트) GDG 서울에서 한주 뒤인 22일에 Dev Summit 의 내용을 정리해서 소개할 예정이라고 합니다. 섭외된 강사 분들이 Dev Summit 의 내용을 듣고 재 전달하는 방식이라 기대가 많이 됩니다. 자세한 소식이 생기면 다시 공유하겠습니다.

(2017.02.14) 22일에 열리는 GDG 서울의 텐서플로우 Dev Summit 참가 신청이 시작되었습니다. 조기 마감이 예상되니 관심있다면 서둘러야 할 것 같습니다.

Rules of ML: Best Practice for ML from Google

구글 연구원인 Martin Zinkevich 가 만든 ‘Rules of ML: Best Practices for ML Engineering‘ 이 공개되었습니다. 이 파일은 지난 NIPS 2016의 Reliable Machine Learning in the Wild 워크숍에서 발표한 내용을 정리한 것으로 보입니다. 늘상 보아오던 가이드라인이 아니라 실제 구글에서 여러 서비스를 만들면서 얻은 노하우를 사례를 들어가며 설명하고 있습니다. 이번 주말에 보아야할 문서로 안성맞춤입니다! 🙂

NIPS 2016 GAN Tutorial Summary

nips_2016_gan_report

OpenAI 의 이안 굿펠로우(Ian Goodfellow)가 NIPS 2016의 GAN 튜토리얼을 요약한 리포트를 만들어서 Arxiv 에 등록하였습니다. 생성 모델(generative model)이 인기를 끄는 이유와 어떻게 작동하는지, GAN(Generative Adversarial Network)이 다른 모델과 다른 점과 GAN이 작동하는 상세 내용을 다룹니다. 또 최근 GAN 연구 동향과 최신 모델도 함께 다루고 있어 놓치기 아까운 리포트인 것 같습니다!

인공지능 무료 공개 강좌

12월 26일(월)에 ‘인공지능시대 어떻게 준비할까?’ 를 주제로 공개 강좌가 열립니다. 인공지능의 소개부터 기술적인 내용까지 그리고 여러 어플리케이션에 대한 소개도 두루 다루고 있어 유익한 시간이 될 것 같습니다. 강좌 시간은 14:00~17:30 분까지 3 세션으로 이루어지며 강남역 근처 한국과학기술회관 대회의실에서 열립니다. 강좌는 무료이며 선착순 신청이므로 관심있으신 분들은 서두르시면 좋을 것 같습니다. 사전 등록 신청은 이메일 gpr at krivet.re.kr, yk281 at krivet.re.kr 로 소속과 이름을 보내면 됩니다. 자세한 강좌 내용은 아래 목차를 참고하세요.

계속 읽기

Repo. for NIPS 2016 papers

NIPS 2016 페이퍼가 구현된 레파지토리를 정리하는 레딧 포스트가 있습니다. 지금까지 13개의 깃허브 레파지토리가 정리되어 있습니다. 추가되는 대로 업데이트 하겠습니다. 혹시 이 외에 다른 레파지토리가 있다면 공유 부탁 드립니다.

  1. Using Fast Weights to Attend to the Recent Past (https://arxiv.org/abs/1610.06258)
    Repo: https://github.com/ajarai/fast-weights
  2. Learning to learn by gradient descent by gradient descent (https://arxiv.org/abs/1606.04474)
    Repo: https://github.com/deepmind/learning-to-learn
  3. R-FCN: Object Detection via Region-based Fully Convolutional Networks (https://arxiv.org/abs/1605.06409)
    Repo: https://github.com/Orpine/py-R-FCN
  4. Fast and Provably Good Seedings for k-Means (https://las.inf.ethz.ch/files/bachem16fast.pdf)
    Repo: https://github.com/obachem/kmc2
  5. How to Train a GAN
    Repo: https://github.com/soumith/ganhacks
  6. Phased LSTM: Accelerating Recurrent Network Training for Long or Event-based Sequences (https://arxiv.org/abs/1610.09513)
    Repo: https://github.com/dannyneil/public_plstm
  7. Generative Adversarial Imitation Learning (https://arxiv.org/abs/1606.03476)
    Repo: https://github.com/openai/imitation
  8. Adversarial Multiclass Classification: A Risk Minimization Perspective (https://www.cs.uic.edu/~rfathony/pdf/fathony2016adversarial.pdf)
    Repo: https://github.com/rizalzaf/adversarial-multiclass
  9. Unsupervised Learning for Physical Interaction through Video Prediction (https://arxiv.org/abs/1605.07157)
    Repo: https://github.com/tensorflow/models/tree/master/video_prediction
  10. Weight Normalization: A Simple Reparameterization to Accelerate Training of Deep Neural Networks (https://arxiv.org/abs/1602.07868)
    Repo: https://github.com/openai/weightnorm
  11. Full-Capacity Unitary Recurrent Neural Networks (https://arxiv.org/abs/1611.00035)
    Repo: https://github.com/stwisdom/urnn
  12. Sequential Neural Models with Stochastic Layers (https://arxiv.org/pdf/1605.07571.pdf)
    Repo: https://github.com/marcofraccaro/srnn
  13. Convolutional Neural Networks on Graphs with Fast Localized Spectral Filtering (https://arxiv.org/abs/1606.09375)
    Repo: https://github.com/mdeff/cnn_graph
  14. Interpretable Distribution Features with Maximum Testing Power (https://papers.nips.cc/paper/6148-interpretable-distribution-features-with-maximum-testing-power.pdf)
    Repo: https://github.com/wittawatj/interpretable-test/
  15. Composing graphical models with neural networks for structured representations and fast inference (https://arxiv.org/abs/1603.06277)
    Repo: https://github.com/mattjj/svae
  16. Supervised Learning with Tensor Networks (https://arxiv.org/abs/1605.05775)
    Repo: https://github.com/emstoudenmire/TNML
  17. Fast ε-free Inference of Simulation Models with Bayesian Conditional Density Estimation: (https://arxiv.org/abs/1605.06376)
    Repo: https://github.com/gpapamak/epsilon_free_inference
  18. Bayesian Optimization for Probabilistic Programs (http://www.robots.ox.ac.uk/~twgr/assets/pdf/rainforth2016BOPP.pdf)
    Repo: https://github.com/probprog/bopp
  19. PVANet: Lightweight Deep Neural Networks for Real-time Object Detection (https://arxiv.org/abs/1611.08588)
    Repo: https://github.com/sanghoon/pva-faster-rcnn
  20. Data Programming: Creating Large Training Sets Quickly (https://arxiv.org/abs/1605.07723)
    Repo: https://github.com/HazyResearch/snorkel
  21. Convolutional Neural Fabrics for Architecture Learning (https://arxiv.org/pdf/1606.02492.pdf)
    Repo: https://github.com/shreyassaxena/convolutional-neural-fabrics
  22. Value Iteration Networks in TensorFlow (https://arxiv.org/abs/1602.02867)
    Repo: https://github.com/TheAbhiKumar/tensorflow-value-iteration-networks

NIPS 2016

(업데이트) NIPS 컨퍼런스와 튜토리얼의 동영상이 스케줄 페이지에 등록되었습니다. 곧 워크샵 동영상도 제공될 예정이라고 합니다.

NIPS 2016 으로 스페인 바르셀로나가 시끌벅적합니다. 많은 내용들이 쏟아져서 다 살펴보기가 어렵네요. 정리가 되는 대로 이 포스트에 자료를 업데이트 하도록 하겠습니다.

NIPS 2016 에 대한 스케줄은 이곳에서 모두 확인할 수 있습니다.

먼저 오늘 열릴 워크샵 중 Adversarial Training페이스북 라이브로 중계될 예정입니다. 우리 시간으로 오후 5시 부터 생중계 될 예정입니다. 만약 바르셀로나 현지 네트워크가 원할하지 못해 라이브 스트림이 힘들다면 녹화해서 며칠내로 올린다고 합니다. 이안 굿펠로우(Ian Goodfellow)부터 얀 리쿤(Yann LeCun) 박사까지 발표자가 쟁쟁해서 놓칠 수 없는 이벤트인 것 같습니다.

  • Ian Goodfellow(OpenAI), Generative Adversarial Networks(GANs), slide, video
  • Soumith Chintala(Facebook), How to train a GAN?, github
  • Arthur Gretton(University College London), Learning features to compare distributions, slidevideo
  • Sebastian Nowozin(Microsoft), f-GAN, slide, paper
  • Aaron Courville(University of Montreal), video
  • Yann LeCun(Facebook), Energy-Based GANs, slide
  • Panel Discussion, video

요수아 벤지오(Yoshua Bengio) NIPS 2016 슬라이드

개별 슬라이드

  • John Schulman(OpenAI), Deep RL Workshop, The Nuts and Bolts of Deep RL Research, slide
  • Andrew Ng(Baidu), Nuts and Bolts of Building Applications using DL, slide
  • Yann LeCun, Invited Talk, Predictive Learning, slide
  • David Blei/Shakir Mohamed/Rajesh Ranganath, Variational Inference, slide
  • Pieter Abbeel/John Schulman, Deep RL Through Policy Optimization, slide

(업데이트)

ICLR2017 Paper Index

일전에 ICLR2017 을 위해 등록된 페이퍼가 500 개가 넘는다고 포스팅했었는데요. 오픈리뷰 사이트가 가끔 먹통이 되거나 굉장히 느려지기도 해서 페이퍼 리스트를 모두 받아 저자와 기관 그리고 키워드로 인덱싱 해서 깃허브에 올려 놓았습니다.

대략 훑어 보니 요슈아 벤지오(Yoshua Bengio) 교수가 16 편 그리고 애런 코빌(Aaron Courville) 교수가 10 편으로 가장 많은 페이퍼에 참여했습니다. 담당 기관별로는 몬트리올 대학이 37 편, 버클리 대학과 페이스북, 마이크로소프트가 각 34 편, OpenAI 와 스탠포드 대학이 21 편 그리고 구글이 96 편 입니다! 키워드별로 보면 Deep learning 이 311 편으로 가장 많고 Unsupervised Learning 이 89 편, Natural language processing 이 88 편 입니다. 한 페이퍼가 중복되어 리스트 될 수 있으니 참고하세요.

DL is Out of Control

내년 4월에 열리는 ICLR 컨퍼런스 리뷰를 위해 오픈 리뷰 사이트에 등록된 페이퍼가 500개가 훌쩍 넘었습니다. 종전에는 리뷰 대상 페이퍼가 많아야 백여건 정도라고 알고 있는데요. 500이 넘는 숫자는 정말로 압도적인 것 같습니다. 이 중에서 관심있는 분야의 것을 골라내는 것만 해도 일이 될 것 같으네요.

이는 비단 우리만의 문제는 아닌 것 같습니다. 많은 연구자들이 급속도로 발전하고 있는 딥 러닝 분야의 속도로 인한 고충을 토로하고 있습니다. 아마 어느 누구도 500 건이 넘는 페이퍼를 모두 읽지는 못할 것 같습니다. 선택과 집중 그리고 지식의 공유가 더욱 절실해지고 있습니다.

서울대학교 딥러닝 세미나 동영상

서울대학교 컴퓨터공학부 BI lab 석박사과정의 학생들이 주도가 되어 진행하는 CM(Connectionist Model) 세미나의 동영상이 유튜브에 꾸준히 공유되고 있습니다. 내부적으로 진행하는 세미나를 공개하는 게 쉽지 않은 일인데 정말 반갑네요. 감사합니다!

BayLearn 2016 Registration Open

baylearn2016

베이런(BayLearn. Bay Area Machine Learning Symposium) 2016 심포지엄의 등록이 시작되었습니다. 베이런은 2012년부터 시작된 심포지엄으로 올해에는 10월 6일에 열립니다. 올해에는 딥러닝 분야에 할애가 많이 되지 않을까 생각됩니다. 실리콘 밸리에 살고 있는 사람들이 부럽네요. 🙂