카테고리 보관물: Conference

SciPy 2017

파이썬 과학 컴퓨팅 컨퍼런스인 SciPy 2017이 텍사스주 오스틴에서 지난 10~16일에 열렸습니다. 올해에도 풍성한 토크튜토리얼 동영상이 유투브에 공개되었습니다. 이 중에 눈에 띄는 몇 개를 골라 보았습니다.

이 외에도 다양한 주제에 대한 여러 동영상이 많이 올라와 있습니다. 전체 리스트를 확인해 보세요.

ICCV GAN Tutorial & Yann’s Video at Tsinghua Univ.

컴퓨터 비전 컨퍼런스인 ICCV(International Conference on Computer Vision) 2017이 오는 10월 이탈리아 베니스에서 열립니다. 이번 ICCV 에서 이안 굿펠로우Ian Goodfellow가 1-day GANs 튜토리얼을 연다고 합니다. 얀 리쿤Yann LeCun, 서미스 친탈라Soumith Chintala 등 유명한 GANs 연구자들이 발표자로 참가합니다. 다루는 주제는 대략 아래와 같습니다.

  • Introduction to GANs
  • Semi-supervised learning with GANs
  • Practical tricks and tips for training GANs
  • Plug and Play Generative Models
  • Latent variable inference for GANs
  • Approximate Nash equilibria in neural net GANs
  • Evaluating generative models
  • Interactive image generation with GANs
  • Connections between adversarial training and reinforcement learning

다른 건 몰라도 GANs 팁은 서미스 친탈라가 하지 않을까 생각됩니다. 이안 굿펠로우는 GANs 연구에 집중하기 위해 OpenAI에서 다시 구글 브레인으로 옮겼다고 하더니 최근 활동을 보면 맞는것 같습니다.

자세한 내용은 모르지만 지난달 말 칭화대에서 “Deep Learning and The Future of AI”란 행사가 열렸던 것 같습니다. 여기서 발표한 얀 리쿤 교수의 동영상이 유투브에 올라왔습니다. 부럽네요. 🙂

제 1회 대전 AI 포럼

(업데이트) 신청 페이지가 공개되었습니다만 몇 시간만에 마감되었다고 합니다 ㅜㅜ
https://goo.gl/7q1fZ0

창조경제혁신센터(인공지능 포럼)웹 포스터-01오는 3월 23일 제1회 대전 AI 포럼이 열립니다. 대전창조경제혁신센터, ㈜쎄트렉아이가 공동주최하며 인공지능 분야 연구자들의 고 퀄리티 발표가 준비될 예정입니다. 행사 참여 신청 페이지는 다음 주에 공개될 예정이며 선착순 200명입니다! (신청 페이지가 공개되면 업데이트 하겠습니다)

  • 행사 일시: 3/23 (목) 오후 4시간 진행 (오후 2시-6시), 오후 6시 이후 (행사 이후) 네트워킹 세션 (간단한 피자+음료+맥주) 1시간
  • 참석 신청: 선착순 200명
  • 행사 장소: 대전창조경제혁신센터 (대전광역시 유성구 대학로 291 KAIST 나노종합기술원 9층)

발표자

  • · 민현석(DeepBio) : 인공지능 개발 전에 고민해야 할 것 (부제 : 알파고가 되려면 알바고가 되세요!)
  • 박세진(VUNO) : 의료영상에서의 딥러닝 활용
  • 강왕구(한국항공우주연구원) : 무인이동체 분야에서 인공지능 적용 현황 및 계획
  • 이창은(한국전자통신연구원) : 인공지능 개인비서 기술 현황 소개
  • 김남주(카카오브레인) : Generative Adversarial Networks(GAN)
  • 김태영(인스페이스) : 태양에서 세포까지 적용분야와 Keras 소개
  • 김선중(호모미미쿠스) : 자연을 보는 눈의 진화(생물학적 아이디어 사례화와 탐색기술)
  • 전태균(쎄트렉아이) : 위성영상 분석기술 개발 현황 소개

Reliable ML in the Wild – NIPS 2016 Workshop

NIPS 2016 워크샵에서 관심을 많이 받았던 것 중에 하나인 ‘Reliable Machine Learning in the Wild‘의 동영상이 워크샵 스케줄 페이지에 링크되었습니다. 비디오가 공개된 것만 추려보았습니다. 비디오는 wmv 파일로 스트링이 아니고 다운로드입니다. 전체 동영상을 한꺼번에 받으시려면 여기에서 전체 목록을 쉽게 확인할 수 있습니다. 동영상외에 전체 자료는 워크샵 스케줄 페이지를 확인하세요.

8:40Opening Remarks (video)

Session 1: New Challenges in Machine Learning

9:00 – Invited talk: Rules for Reliable Machine Learning. Martin Zinkevich (video)

9:30 – Contributed talk: What’s your ML Test Score? A rubric for ML production systems. Eric Breck, Shanqing Cai, Eric Nielsen, Michael Salib, D. Sculley (slides) (video)

9:45 – Poster spotlights (video)

Session 2: Robustness to Model Mis-specification

10:30 – Invited talk: Robust Learning and Inference. Yishay Mansour (video)

11:00 – Invited talk: Automated versus do-it-yourself methods for causal inference: Lessons learned from a data analysis competition. Jennifer Hill (video)

11:30 – Contributed talk: Robust Covariate Shift Classification Using Multiple Feature Views. Anqi Liu, Hong Wang Brian D. Ziebart (video)

11:45 – Poster spotlights (video)

Session 3: Machine Learning and Security

1:30 – Contributed talk: Learning from Untrusted DataMoses Charikar, Jacob Steinhardt, Gregory Valiant (slides) (video)

1:45 – Invited talk: Adversarial Examples and Adversarial Training. Ian Goodfellow (video)

2:15 – Contributed talk: Summoning Demons: The Pursuit of Exploitable Bugs in Machine Learning. Rock Stevens, Octavian Suciu, Andrew Ruef, Sanghyun Hong, Michael Hicks, Tudor Dumitras (slides) (video)

2:30 – Poster spotlights (video)

Session 4: Reliable Robotics in Complex Environments

3:30 – Invited talk: Learning Reliable Objectives. Anca Dragan (video)

Session 5: Reliable Machine Learning in Practice

4:30 – Contributed talk: Online Prediction with Selfish Experts. Okke Schrijvers (video)

4:45 – Contributed talk: TensorFlow Debugger: Debugging Dataflow Graphs for Machine Learning. Shanqing Cai, Eric Breck, Eric Nielsen, Michael Salib, D. Sculley (slides) (video)

CS 20SI, DL Seminar UPC TelecomBCN, Practical DL For Coders-Part 1

스탠포드 대학 강좌 ‘CS 20SI: Tensorflow for Deep Learning Research’의 강의 노트깃허브가 공개되어 있습니다. 아쉽지만 영상은 공개되지 않았습니다. 텐서플로우를 집중적으로 다루는 커리큘럼은 아마도 이 강좌가 처음인 것 같습니다.

작년에 서머 스쿨을 열었던 UPC TelecomBCN 에서 다시 겨울 세미나를 지난달 말에 개최했습니다. 이번 세미나는 NLP, RNN 을 집중적으로 다루었다고 합니다. 세미나의 영상과 슬라이드가 공개되었습니다.

fast.ai 에서 만든 온라인 강좌인 ‘Practical Deep Learning For Coders, Part 1‘의 동영상에 영어 자막이 추가되었고 강의 노트가 만들어졌습니다. 온라인 강좌를 위해 강의노트를 만들다니 정말 대단합니다! 이 강좌는 씨아노(Theano)를 사용하며 사용한 예제는 깃허브에 올라가 있습니다.

(업데이트) 스탠포드의 20SI 강의 녹화본은 아니지만 이 슬라이드를 이용한 동영상 강의가 진행되고 있습니다.

TensorFlow Dev Summit 2017

tensorflow_devsummit-email-001

텐서플로우 Dev Summit이 다음 주로 다가 왔습니다. 전체 아젠다를 보면 텐서플로우 컴파일 XLA, 케라스(Kears), 분산 처리, 음악/미술에 접목 등 다양한 주제에 대해서 발표가 있을 예정입니다. 15일 오전9:30 분부터 열리며 우리 시각으로는 16일 오전 2시 30분 부터입니다. 아쉽게도 국내 구글 디벨로퍼 그룹(GDG)에서는 라이브 스트림 이벤트가 열리지는 않습니다만, 집에서 온라인으로 생중계를 볼 수 있고 다음날 녹화된 것을 볼 수도 있습니다. 🙂

(업데이트) GDG 서울에서 한주 뒤인 22일에 Dev Summit 의 내용을 정리해서 소개할 예정이라고 합니다. 섭외된 강사 분들이 Dev Summit 의 내용을 듣고 재 전달하는 방식이라 기대가 많이 됩니다. 자세한 소식이 생기면 다시 공유하겠습니다.

(2017.02.14) 22일에 열리는 GDG 서울의 텐서플로우 Dev Summit 참가 신청이 시작되었습니다. 조기 마감이 예상되니 관심있다면 서둘러야 할 것 같습니다.

Rules of ML: Best Practice for ML from Google

구글 연구원인 Martin Zinkevich 가 만든 ‘Rules of ML: Best Practices for ML Engineering‘ 이 공개되었습니다. 이 파일은 지난 NIPS 2016의 Reliable Machine Learning in the Wild 워크숍에서 발표한 내용을 정리한 것으로 보입니다. 늘상 보아오던 가이드라인이 아니라 실제 구글에서 여러 서비스를 만들면서 얻은 노하우를 사례를 들어가며 설명하고 있습니다. 이번 주말에 보아야할 문서로 안성맞춤입니다! 🙂

NIPS 2016 GAN Tutorial Summary

nips_2016_gan_report

OpenAI 의 이안 굿펠로우(Ian Goodfellow)가 NIPS 2016의 GAN 튜토리얼을 요약한 리포트를 만들어서 Arxiv 에 등록하였습니다. 생성 모델(generative model)이 인기를 끄는 이유와 어떻게 작동하는지, GAN(Generative Adversarial Network)이 다른 모델과 다른 점과 GAN이 작동하는 상세 내용을 다룹니다. 또 최근 GAN 연구 동향과 최신 모델도 함께 다루고 있어 놓치기 아까운 리포트인 것 같습니다!

인공지능 무료 공개 강좌

12월 26일(월)에 ‘인공지능시대 어떻게 준비할까?’ 를 주제로 공개 강좌가 열립니다. 인공지능의 소개부터 기술적인 내용까지 그리고 여러 어플리케이션에 대한 소개도 두루 다루고 있어 유익한 시간이 될 것 같습니다. 강좌 시간은 14:00~17:30 분까지 3 세션으로 이루어지며 강남역 근처 한국과학기술회관 대회의실에서 열립니다. 강좌는 무료이며 선착순 신청이므로 관심있으신 분들은 서두르시면 좋을 것 같습니다. 사전 등록 신청은 이메일 gpr at krivet.re.kr, yk281 at krivet.re.kr 로 소속과 이름을 보내면 됩니다. 자세한 강좌 내용은 아래 목차를 참고하세요.

계속 읽기

Repo. for NIPS 2016 papers

NIPS 2016 페이퍼가 구현된 레파지토리를 정리하는 레딧 포스트가 있습니다. 지금까지 13개의 깃허브 레파지토리가 정리되어 있습니다. 추가되는 대로 업데이트 하겠습니다. 혹시 이 외에 다른 레파지토리가 있다면 공유 부탁 드립니다.

  1. Using Fast Weights to Attend to the Recent Past (https://arxiv.org/abs/1610.06258)
    Repo: https://github.com/ajarai/fast-weights
  2. Learning to learn by gradient descent by gradient descent (https://arxiv.org/abs/1606.04474)
    Repo: https://github.com/deepmind/learning-to-learn
  3. R-FCN: Object Detection via Region-based Fully Convolutional Networks (https://arxiv.org/abs/1605.06409)
    Repo: https://github.com/Orpine/py-R-FCN
  4. Fast and Provably Good Seedings for k-Means (https://las.inf.ethz.ch/files/bachem16fast.pdf)
    Repo: https://github.com/obachem/kmc2
  5. How to Train a GAN
    Repo: https://github.com/soumith/ganhacks
  6. Phased LSTM: Accelerating Recurrent Network Training for Long or Event-based Sequences (https://arxiv.org/abs/1610.09513)
    Repo: https://github.com/dannyneil/public_plstm
  7. Generative Adversarial Imitation Learning (https://arxiv.org/abs/1606.03476)
    Repo: https://github.com/openai/imitation
  8. Adversarial Multiclass Classification: A Risk Minimization Perspective (https://www.cs.uic.edu/~rfathony/pdf/fathony2016adversarial.pdf)
    Repo: https://github.com/rizalzaf/adversarial-multiclass
  9. Unsupervised Learning for Physical Interaction through Video Prediction (https://arxiv.org/abs/1605.07157)
    Repo: https://github.com/tensorflow/models/tree/master/video_prediction
  10. Weight Normalization: A Simple Reparameterization to Accelerate Training of Deep Neural Networks (https://arxiv.org/abs/1602.07868)
    Repo: https://github.com/openai/weightnorm
  11. Full-Capacity Unitary Recurrent Neural Networks (https://arxiv.org/abs/1611.00035)
    Repo: https://github.com/stwisdom/urnn
  12. Sequential Neural Models with Stochastic Layers (https://arxiv.org/pdf/1605.07571.pdf)
    Repo: https://github.com/marcofraccaro/srnn
  13. Convolutional Neural Networks on Graphs with Fast Localized Spectral Filtering (https://arxiv.org/abs/1606.09375)
    Repo: https://github.com/mdeff/cnn_graph
  14. Interpretable Distribution Features with Maximum Testing Power (https://papers.nips.cc/paper/6148-interpretable-distribution-features-with-maximum-testing-power.pdf)
    Repo: https://github.com/wittawatj/interpretable-test/
  15. Composing graphical models with neural networks for structured representations and fast inference (https://arxiv.org/abs/1603.06277)
    Repo: https://github.com/mattjj/svae
  16. Supervised Learning with Tensor Networks (https://arxiv.org/abs/1605.05775)
    Repo: https://github.com/emstoudenmire/TNML
  17. Fast ε-free Inference of Simulation Models with Bayesian Conditional Density Estimation: (https://arxiv.org/abs/1605.06376)
    Repo: https://github.com/gpapamak/epsilon_free_inference
  18. Bayesian Optimization for Probabilistic Programs (http://www.robots.ox.ac.uk/~twgr/assets/pdf/rainforth2016BOPP.pdf)
    Repo: https://github.com/probprog/bopp
  19. PVANet: Lightweight Deep Neural Networks for Real-time Object Detection (https://arxiv.org/abs/1611.08588)
    Repo: https://github.com/sanghoon/pva-faster-rcnn
  20. Data Programming: Creating Large Training Sets Quickly (https://arxiv.org/abs/1605.07723)
    Repo: https://github.com/HazyResearch/snorkel
  21. Convolutional Neural Fabrics for Architecture Learning (https://arxiv.org/pdf/1606.02492.pdf)
    Repo: https://github.com/shreyassaxena/convolutional-neural-fabrics
  22. Value Iteration Networks in TensorFlow (https://arxiv.org/abs/1602.02867)
    Repo: https://github.com/TheAbhiKumar/tensorflow-value-iteration-networks