추천 글

“혼자 공부하는 머신러닝+딥러닝”이 출간되었습니다!

혹시 머신러닝, 딥러닝을 이제 막 배우려고 마음 먹으셨나요? 또는 어려워서 중간에 포기하신 적이 있나요? 더이상 이 공부를 미룰 수 없는 “혼공족”을 위해 <혼자 공부하는 머신러닝+딥러닝>이 출간되었습니다! 🙂

머신러닝과 딥러닝의 중요한 개념과 예제를 많은 삽화와 함께 친절히 설명하는 책입니다. <혼자 공부하는 머신러닝+딥러닝>은 동영상 강의와 함께 합니다. 텐서 ≈ 스터디 페이스북 그룹에 오시면 <혼자 공부하는 머신러닝+딥러닝> 강의에 함께 참여하실 수 있습니다.

  • 강의 시간: 12월 22일부터 매주 화요일, 금요일 저녁 10시(공휴일과 겹치는 경우 다음 날로 변경, 예를 들어 12월 25일 스터디는 12월 26일 저녁 10시에 진행합니다)
  • 참여 대상: 머신러닝, 딥러닝을 공부하고 싶은 누구나.
  • 참여 방법: 페스타에서 이벤트 1시간 전에 줌 접속 URL 전달

풀 컬러, 580 페이지에 맛깔스런 삽화를 한 가득 준비했습니다. 손계원 님의 책 리뷰도 참고하세요. 지금 온라인/오프라인 서점에서 판매 중입니다! [교보문고] [Yes24] [인터파크] [한빛미디어] [전자책]

1장 1절과 2절의 영상입니다. 스터디는 1장 3절부터 시작합니다! 🙂

책에 넣기 위해 제가 손으로 직접 그린 혼공 머신러닝의 로드맵입니다. 당연히 책에는 풀컬러 그래픽으로 완전 멋지게 들어가 있습니다. ㅎ

감사합니다! 🙂

추천 글

“딥러닝 일러스트레이티드”가 출간되었습니다!

아마존 베스트 셀러인 <Deep Learning Illustrated>의 한글 번역서인 <딥러닝 일러스트레이티드>가 출간되었습니다. 딥러닝 역사에서 GAN과 강화 학습까지 이 분야의 흥미진진한 기술을 가득담고 있습니다. 저자들의 직관적이고 명쾌한 설명으로 딥러닝의 진수를 맛볼 수 있습니다. 특히 파리지엔느인 아그레이가 그린 이 분야 거장들의 멋진 일러스트를 책 미리보기에서 지금 확인해 보세요!

깃허브에 있는 모든 코드는 구글 코랩(Colab)에서 실행할 수 있습니다! 삼엽충과 함께 딥러닝의 세계로 떠나보시죠! 🙂

  • 432페이지 완전 풀컬러
  • 지금 온라인 서점에서 판매중입니다. [교보문고]: 32,400원, [Yes24]: 36,000원 [인터파크]: 34,920원

친절하게도 저자 존 크론이 링크드인에서 직접 번역서를 소개해 주었습니다. 🙂

추천 글

‘핸즈온 머신러닝 2판’이 출간되었습니다!

오렐리앙 제롱Aurélien Géron이 쓴 아마존 베스트 셀러 “Hands-On Machine Learning with Scikit-Learn, Keras, and TensorFlow 2nd Edition“을 번역한 핸즈온 머신러닝 2판이 출간되었습니다.

1판도 좋았지만 2판은 더욱 더 알차고 폭넓은 주제를 다루고 있습니다. 1판에서 아쉬웠던 비지도 학습과 텐서플로 2로 바뀌면서 변경된 내용, 새로운 신경망 구조를 가득 담고 있습니다.

번역서도 원서와 마찬가지로 풀 컬러로 인쇄됩니다. 전체 페이지는 952페이지 입니다. 무엇보다도 딥러닝을 다루는 2부의 내용이 크게 늘었기 때문입니다. 케라스 뿐만 아니라 RNN의 최근 발전을 많이 포함하고 있고 GAN을 새롭게 추가했습니다. 또한 강화 학습 챕터도 크게 증가했습니다. 한마디로 백과사전이 따로 없죠! 🙂

이 책은 온라인/오프라인 서점에서 판매 중입니다! Yes24교보문고인터파크, 한빛미디어, 전자책

  • 이 책의 주피터 노트북을 한글로 번역하여 제 깃허브에 올리고 있습니다.
  • 혼자 공부하시는 분들을 위해 유튜브에 동영상 강좌를 올리고 있습니다!
  • 이 동영상은 인프런에서도 볼 수 있습니다.
추천 글

“Do it! 딥러닝”이 출간되었습니다.

x9791163031093Do it! 딥러닝 입문“이 출간되었습니다! 이 책은 번역서가 아니라 제가 직접 쓴 책입니다! 🙂

알고리즘 공식을 유도하고 직접 파이썬으로 구현해 보면서 딥러닝에 숨겨진 실체를 흥미진진하게 파헤칩니다. 또 텐서플로를 사용해 실전 딥러닝 구현 감각을 익히도록 돕습니다. 좋은 출판사의 도움을 받아 훌륭한 일러스트와 알찬 내용으로 꾸몄습니다. 딥러닝을 어떻게 시작할지 막막하다면 이 책을 자신있게 권해드립니다.

온라인/오프라인 서점에서 판매중입니다. [교보문고] [Yes24] [인터파크] [전자책]

감사합니다!!! 🙂

  • 코로나 때문에 스터디를 진행하지 못하는 대신 유튜브에 강의를 올렸습니다! 재미있게 봐 주세요. 🙂
  • 이 영상은 구름 에듀에서도 볼 수 있습니다.

“(번역개정판) 파이썬 라이브러리를 활용한 머신러닝” 주피터 노트북 업데이트 및 에러타 안내

<파이썬 라이브러리를 활용한 머신러닝>의 주피터 노트북을 사이킷런 0.24.1 버전에 맞추어 모두 재실행하여 깃허브에 업데이트했습니다. 또 사이킷런 버전 변화에 따른 에러타를 새로 추가했습니다. 아래 목록을 참고해 주세요.

이 책은 2017년에 처음 번역서가 출간되었고 2019년에 개정판을 냈습니다. 처음 출간 시에는 흑백이었지만 개정판을 내면서 컬러를 입혔습니다. 이렇게 오랫동안 생명력을 유지할 수 있었던 것은 많은 독자들 덕분입니다. 다시 한번 이 책을 선택해 주신 독자들에게 감사드립니다. 책을 읽은 시간이 결코 아깝지 않기를 바랄 뿐입니다.

감사합니다.

  1. (p29) Enthought Canopy 항목을 다음으로 교체합니다.
    ActivePython (https://www.activestate.com/products/python/)
    또 다른 범용 파이썬 배포판입니다. NumPy, SciPy, matplotlib, pandas, Jupyter, scikit-learn을 포함하고 있습니다. 무료로 사용할 수 있는 Community Edition과 기업을 위한 유료 버전도 있습니다. ActivePython은 파이썬 2.7, 3.5, 3.6을 지원하며 macOS, 윈도우, 리눅스에서 사용할 수 있습니다.
  2. (p34) 위에서 3번째 줄 “%matplotlib inline을 사용합니다” 뒤에 주석을 추가합니다. <주석>옮긴이_ IPython kernel 4.4.0부터는 %matplotlib inline 매직 명령을 사용하지 않더라도 맷플롯립 1.5 이상에서는 주피터 노트북에 바로 이미지가 출력됩니다.</주석>
  3. (p36) <노트>의 마지막 줄 “만약 이런 매직 커맨드를 사용하지 않는다면 이미지를 그리기 위해 plt.show 명령을 사용해야 합니다”를 “또는 IPython kernel 4.4.0과 맷플롯립 1.5 버전 이상을 사용한다고 가정합니다.”로 수정합니다.
  4. (p37) 1.6절 바로 위 문장 끝에서 “파이썬 3.7 업그레이드하세요”를 “파이썬 3.7 이상으로 업그레이드하세요”로 수정합니다.
  5. (p38) 주석에 포함된 블로그 링크 goo.gl/FYjbK3 을 bit.ly/2K73mA4 로 수정합니다.
  6. (p65) In [14] 코드 블럭 위 문장 끝 “이웃의 수를 3으로 지정합니다”에 주석을 추가합니다. <주석>옮긴이_ KNeighborsClassifier 클래스의 n_neighbors 매개변수 기본값은 5입니다.</주석>
  7. (p87) 22번 주석에서 “LogisticRegression의 solver 매개변수를 지정하지 않으면 scikit-learn 0.22 버전부터 기본값 이 liblinear에서 lbfgs로 변경된다는 경고 메세지가 출력됩니다.”를 삭제합니다. 23번 주석에서 “liblinear를 사용하는 LogisticRegression 과 LinearSVC는”를 “LogisticRegression 과 LinearSVC는”로 수정합니다.
  8. (p94) 28번 주석에서 마지막 문장 “multi_class 매개변수를 지정하지 않으면 0.22 버전부터 기본값이 ovr에서 auto로 변경된다는 경고가 출력됩니다“를 “0.22 버전부터는 multi_class의 기본값이 ‘ovr’에서 ‘auto’로 바뀌었습니다“로 수정합니다.
  9. (p106) 페이지 중간에서 “scikit-learn은 사전 가지치기만 지원합니다” 끝에 주석을 추가합니다. <주석>옮긴이_ 사이킷런 0.22 버전에서 비용 복잡도 기반의 사후 가지치기를 위한 ccp_alpha 매개변수가 추가되었습니다.</주석>
  10. (p113) In [67] 코드 블럭에서 X_train = data_train.date[:, np.newaxis]를 X_train = data_train.date.to_numpy()[:, np.newaxis]로 수정하고 X_all = ram_prices.date[:, np.newaxis]를 X_all = ram_prices.date.to_numpy()[:, np.newaxis]로 수정합니다.
  11. (p115) 42번 주석 끝에서 “0.25 버전에서는 삭제됩니다”를 “1.0 버전에서는 삭제됩니다”로 수정합니다.
  12. (p116) 44번 주석 “옮긴이_ n_estimators 매개변수의 기본값은 10입니다. n_estimators 매개변수를 지정하지 않으면 scikit-learn 0.22 버전부터 기 본값이 100으로 바뀐다는 경고가 출력됩니다”를 “scikit-learn 0.22 버전부터 n_estimators의 기본값이 10에서 100으로 바뀌었습니다.”로 수정합니다.
  13. (p142) Out [84] 에서 “훈련 세트 정확도: 1.00“을 “훈련 세트 정확도: 0.90“으로 수정하고 “테스트 세트 정확도: 0.63“을 “테스트 세트 정확도: 0.94“로 수정합니다. 그 아래 문장에서 “훈련 세트에는 완벽한 점수를 냈지만 테스트 세트에는 63% 정확도라서 이 모델은 상당히 과대적합되었습니다”를 “훈련 세트에는 90% 정확도를 냈지만 테스트 세트에는 94% 정확도라서 이 모델은 상당히 과소적합되었습니다”로 수정합니다.
  14. (p144) Out [88]에서 “훈련 세트 정확도: 0.948 테스트 세트 정확도: 0.951“를 “훈련 세트 정확도: 0.984 테스트 세트 정확도: 0.972“로 수정합니다. 그 아래 문단에서 “훈련 세트와 테스트 세트의 정확도가 100%에서는 조금 멀어졌지만 매우 비슷해서 확실히 과소적합된 상태입니다“를 “훈련 세트와 테스트 세트의 정확도가 모두 상승하여 과소적합이 많이 해소되었습니다“로 수정합니다. In [89] 코드 블럭에서 svc = SVC(C=1000)을 svc = SVC(C=20)으로 수정합니다.
  15. (p145) Out [89]에서 “테스트 세트 정확도: 0.972“를 “테스트 세트 정확도: 0.979“로 수정합니다. 그 아래 문장에서 “C 값을 증가시켰더니 모델의 성능이 97.2%로 향상되었습니다”를 “C 값을 증가시켰더니 모델의 성능이 97.9%로 향상되었습니다”로 수정합니다.
  16. (p152) In [96] 코드에서 mlp = MLPClassifier(solver='lbfgs', random_state=0, hidden_layer_size=[10, 10])를 mlp = MLPClassifier(solver='lbfgs', random_state=0, hidden_layer_size=[10, 10], max_iter=1000)로 수정합니다.
  17. (p159) 75번 주석에서 “『핸즈온 머신러닝』 (한빛미디어, 2018)”을 “『핸즈온 머신러닝 2판』 (한빛미디어, 2020)”로 수정합니다.
  18. (p170) In [122] 코드에서 logreg=LogisticRegression()을 logreg=LogisticRegression(max_iter=1000)로 수정합니다.
  19. (p191) In [11] 코드에서 svm = SVC(C=100)을 svm = SVC(gamma='auto')로 수정합니다.
  20. (p213) 주석 25번을 “NMF에서 초기화 방식을 지정하는 init 매개변수의 기본값은 None으로 n_components가 샘플이나 특성 개수보다 작으면 ‘nndsvd’를 사용하고 그렇지 않으면 ‘random’을 사용합니다. ‘nndsvd’는 특잇값 분해로 얻은 U와 V 행렬의 절댓값에 S 행렬의 제곱근을 곱해 W와 H 행렬을 만듭니다. 그다음 W와 H 행렬에서 1e-6 보다 작은 값은 0으로 만듭니다. ‘nndsvda’는 0을 입력 행렬의 평균값으로 바꿉니다. scikit-learn 1.1 버전부터는 ‘nndsvd’에서 ‘nndsvda’로 기본값이 바뀝니다. ‘random’은 데이터 평균을 성분의 개수로 나눈 후 제곱근을 구하고, 그런 다음 정규분포의 난수를 발생시켜 앞에서 구한 제곱근을 곱하여 H와 W 행렬을 만듭니다. 이는 데이터 평균값을 각 성분과 두 개의 행렬에 나누어 놓는 효과를 냅니다.”로 바꿉니다.
  21. (p214) In [37] 코드에서 mglearn.plots.plot_nmf_faces(X_train, X_test, image_shape)을 mglearn.plots.plot_nmf_faces(X_train, X_test[:3], image_shape)로 수정합니다.
  22. (p215) In [38] 코드에서 nmf = NMF(n_components=15, random_state=0, max_iter=1000, tol=1e-2)를 nmf = NMF(n_components=15, init='nndsvd', random_state=0, max_iter=1000, tol=1e-2)로 수정합니다.
  23. (p218) In [42] 코드에서 nmf = NMF(n_components=3, random_state=42, max_iter=1000, tol=1e-2)를 nmf = NMF(n_components=3, init=’nndsvd’, random_state=42, max_iter=1000, tol=1e-2)로 수정합니다.
  24. (p234) In [50] 코드에서 nmf = NMF(n_components=100, random_state=0, max_iter=1000, tol=1e-2)를 nmf = NMF(n_components=100, init=’nndsvd’, random_state=0, max_iter=1000, tol=1e-2)로 수정합니다.
  25. (p238) 주석 35 끝에 다음 문장을 추가합니다. “scikit-learn 0.23 버전부터 KMeans 클래스는 OpenMP 기반의 병렬화를 제공합니다. 이 때문에 n_jobs 매개변수를 사용하면 경고가 발생하며 이 매개변수는 1.0 버전에서 삭제될 예정입니다.”
  26. (p284) 주석 10번에서 다음 문장을 삭제합니다. “0.20.1 버전 이상에서 (열_리스트, 변환기_객체) 로 전달하면 이와 관련된 경고가 발생하며 0.22 버전에서는 (열_리스트, 변환기_객체) 형식이 삭제될 예정입니다.”
  27. (p309) 주석 31번을 삭제하고 4.7.3절 아래 4번째 줄 “도달할 때까지 하나씩 추가하는 방법입니다.” 끝에 다음 주석을 추가합니다. <주석>옮긴이_ 이를 전진 선택법(foward stepwise selection)과 후진 선택법(backward stepwise selection)이라고도 부릅니다. scikit-learn 0.24 버전에서 추가된 SequentialFeatureSelector 클래스는 scoring 매개변수에 지정된 측정 지표의 교차 검증 점수를 기준으로 특성을 하나씩 추가하거나 제거합니다. scoring 매개변수의 기본값은 회귀일 경우에는 R^2, 분류일 경우에는 정확도입니다. direction 매개변수가 ‘forward’일 경우 전진 선택법, ‘backward’일 때 후진 선택법을 수행합니다. 기본값은 ‘forward’입니다.</주석>
  28. (p318) 주석 39번에서 다음 문장을 삭제합니다. “0.20 버전부터 정수형 데이터를 변환할 때 이와 관련된 경고가 출력됩니다.”
  29. (p325) Out [5]의 출력을 “[0.967 1. 0.933 0.967 1. ]”로 바꿉니다. 아래에서 3번째 줄에 “여기에서는 cross_val_score가 3-겹 교차 검증을 수행했기 때문에 3개의 점수가 반환되었습니다. 현재 scikit-learn의 기본값은 3-겹 교차 검증이이지만 scikit-learn 0.22 버전부터 5-겹 교차 검증으로 바뀔 것입니다”를 “여기에서는 cross_val_score가 5-겹 교차 검증을 수행했기 때문에 5개의 점수가 반환되었습니다. scikit-learn 0.22 버전부터 3-겹 교차 검증에서 5-겹 교차 검증으로 바뀌었습니다“로 수정합니다.
  30. (p326) In [6] 코드에서 scores = cross_val_score(logreg, iris.data, iris.target, cv=5)를 scores = cross_val_score(logreg, iris.data, iris.target, cv=10)로 수정합니다. Out [6]의 출력을 “교차 검증 점수: [1. 0.933 1. 1. 0.933 0.933 0.933 1. 1. 1. ]”로 바꿉니다. Out [7] 출력 아래 문장에서 “5-겹 교차 검증이 만든 다섯 개의 값을 모두 보면 100%에서 90%까지 폴드에 따라”를 “10-겹 교차 검증이 만든 다섯 개의 값을 모두 보면 100%에서 93%까지 폴드에 따라”로 수정합니다.
  31. (p346) 주석 14번을 삭제하고 주석 13번 끝에 다음 문장을 추가합니다. “사이킷런 0.24 버전에서는 SH(Successive Halving) 방식의 HalvingGridSearchCV가 추가되었습니다. 이 클래스는 모든 파라미터 조합에 대해 제한된 자원으로 그리드서치를 실행한 다음 가장 좋은 후보를 골라서 더 많은 자원을 투여하는 식으로 반복적으로 탐색을 수행합니다.”
  32. (p440, p441) In [43], In [45] 코드에서 spacy.load('en'을 spacy.load('en_core_web_sm'으로 수정합니다.
  33. (p458) 주석 35에서 “『텐서플로 첫걸음』(한빛미디어, 2016)”를 “『혼자 공부하는 머신러닝+딥러닝』(한빛미디어, 2020)”로 수정합니다.
  34. (p463) 위에서 2번째 줄에 “goo.gl/fkQWsN”을 “bit.ly/3c7ylYV”로 수정합니다.
  35. (p467) 주석 9번에서 “『핸즈온 머신러닝』 (한빛미디어, 2018)”를 “『핸즈온 머신러닝 2판』 (한빛미디어, 2020)”로 수정합니다.
  36. (p468) 위에서 2번째 줄에 “goo.gl/lQmL1X”을 “bit.ly/3qnikDx”로 수정합니다.

“핸즈온 머신러닝 2판”, “Do It! 딥러닝 입문” 주피터 노트북 업데이트 안내

<핸즈온 머신러닝 2판>과 <Do It! 딥러닝 입문>의 주피터 노트북을 사이킷런 0.24와 텐서플로 2.4 버전에 맞추어 모두 다시 실행하여 깃허브(핸즈온 머신러닝 2 깃허브, Do It! 딥러닝 입문 깃허브)에 업데이트했습니다.

특히 <핸즈온 머신러닝 2판>의 노트북에는 원서 노트북의 변경 사항과 사이킷런, 텐서플로의 변경 사항이 다수 포함되어 있습니다. 알려진 버그를 회피하기 위한 코드 업데이트도 있습니다. 17장의 연습문제 9번의 솔루션이 이번에 추가되었습니다.

감사합니다! 🙂

“혼자 공부하는 머신러닝+딥러닝”, “딥러닝 일러스트레이티드” 코랩+텐서플로 2.4 테스트 완료

<혼자 공부하는 머신러닝+딥러닝>과 <딥러닝 일러스트레이티드>의 주피터 노트북을 코랩 텐서플로 2.4 버전에 모두 테스트하였습니다. 재실행된 결과는 깃허브(혼자 공부하는 머신러닝+딥러닝, 딥러닝 일러스트레이티드)나 nbviewer 페이지(혼자 공부하는 머신러닝+딥러닝, 딥러닝 일러스트레이티드)에서 볼 수 있습니다. 감사합니다! 🙂

IT조선 5Q 인터뷰에 “혼자 공부하는 머신러닝+딥러닝” 기사가 실렸습니다!

영광스럽게도 IT조선의 [5Q 인터뷰]에 <혼자 공부하는 머신러닝+딥러닝> 책의 인터뷰가 실렸습니다!

책을 쓰게 된 동기, 머신러닝이란 무엇인지, 머신러닝이 바꿀 우리 미래, 이 책의 장점, 초보 개발자에게 하고 싶은 말까지 5가지 질문에 대한 답변을 준비해서 인터뷰를 진행했습니다. 어찌나 버벅대는지. ㅠ.ㅠ 그래도 기자님께서 잘 편집해 주셔서 다행입니다! 제가 준비한 인터뷰 원고는 여기서 볼 수 있습니다. 재미있게 봐주세요! ㅎ

“혼자 공부하는 머신러닝+딥러닝” 혼공 노트 증정 이벤트!

Yes24교보문고 등에서 혼자 공부하는 머신러닝+딥러닝을 구매하시면 혼공 노트를 증정합니다! 와우~ 혼자 공부하는 머신러닝+딥러닝 스터디가 5장을 돌파하고 있습니다. 책을 구매하면서 받은 혼공 노트와 유튜브 강의로 머신러닝과 딥러닝을 배울 수 있는 절호의 기회를 놓치지 마세요! 🙂

“Do It! 딥러닝 입문” 인프런 강의가 등록되었습니다!

유튜브에 올린 <Do It! 딥러닝 입문> 강의가 인프런(inflearn.com)에 등록되었습니다! 인프런에서 진도를 관리하면 놓치는 강의 없이 재미있게 들을 수 있습니다. 강의를 게재하도록 도와주신 인프런 담당자님에게 감사드립니다! 😀

2020년을 회고하며..

작년 말부터 참여했던 일이 연초부터 삐그덕거리기 시작했습니다. 프로젝트가 순탄하게 진행되지 못하면 서로에게 언짢은 일을 만들게됩니다. 제겐 익숙한 분야라서 사실 어렵지 않게 진행할 수 있었는데 체력도 인내심도 한계인 것 같습니다. 이 때 한창 집 수리를 했습니다. 살림살이를 모두 창고에 보내고 한 겨울에 세 식구가 좁은 원룸에서 지냈습니다. 그래서 더 피곤하고 힘들었던 것 같습니다.

집 수리가 끝나고 홍대에 있던 작은 소호 사무실을 정리하고 집으로 컴퓨터와 책들을 옮겼습니다. 계획된 일정이었지만 겉보기에는 코로나를 피해 집으로 들어온 것처럼 되어 버렸죠. 코로나가 점점 심해지면서 텐서플로 서밋을 참여해야 하는지 걱정이 많았습니다. 같이 가기로 했던 텐서플로 코리아 운영진 이지민 님과 고민 끝에 안가기로 결정했습니다. 나중에는 텐서플로 서밋이 아예 취소되었습니다. 그다음 부터 줄줄이 오프라인 행사들이 연이어 취소되고 온라인으로 바뀌었습니다.

덕분에(?) 너무 늦지 않게 <핸즈온 머신러닝 2>을 완료해서 상반기에 출간을 했습니다. 2판에서 페이지 수가 많이 늘어났고 딥러닝 부분에 저자가 많은 공을 들인 것을 느낄 수 있었습니다. 번역 작업을 할 때 에러타를 종종 신고했는데요. 오렐리앙이 고마워하며 개정판을 낼 때 꼭 감사 인사를 넣겠다고 했는데 2판 감사의 말에 친절하게 제 이름을 써 주어 너무 기뻤습니다. 2판을 내면서 유튜브에 동영상 강의를 올리기 시작했습니다. 아직도 절반 밖에 진행을 못해서 아쉽지만 꼭 완주하려고 맘 먹고 있습니다.

여름에 장인 어른이 돌아가셨습니다. 오래 아프셨는데 이제 아프지 않고 좋은 곳에 계시리라 믿습니다. 아내가 많이 힘들어했습니다. 슬픔을 달래기 위해 오랫동안 쉬었던 방송통신대학을 다시 복학하라고 적극 권유했습니다. 아내는 한참을 망설였지만 막상 시작하니 아주 잘 2학기를 마쳤습니다. 숙제를 낼 때는 며칠 밤을 새며 고생하더니 결국 장학금까지 받게 되었습니다.:) 내년에는 아내를 응원하기 위해 저도 또 한번 방송통신대학에 편입합니다. 이번에는 통계-데이터학과에 지원했습니다. 원래 정보통계학과인데 이름이 바뀌었네요. 바뀐 이름에 걸맞게 커리큘럼도 좋아지길 기대해 봅니다.

가을에 <GAN 인 액션>을 번역하여 냈습니다. 다른 번역자가 시작한 작업인데 중도에 포기해서 제가 맡게 되었습니다. 번역하고 집필하는 일이 생계가 되다보니 독자층이 넓지 않은 책은 조금 부담스러운 것이 사실입니다. 공교롭게도 작년에 낸 <미술관에 GAN 딥러닝>과 함께 GAN 책을 두 권이나 번역하게 되었습니다. 그다음 <딥러닝 일러스트레이티드> 작업을 진행했습니다. 사실 훨씬 더 일찍 끝냈어야 하는데 이런 저런 일들이 겹쳐서 많이 늦어졌죠. 출판사에서 저 때문에 애를 많이 태우셨습니다.ㅠ.ㅠ 다른 일을 모두 물리고 이 책을 마무리하는데 노력했습니다. 이 자리를 빌어 양해해 주신 타사 출판사 담당자님에게 감사드립니다. 🙂

페이스북에 <텐서 ≈ 스터디 그룹>을 만들었습니다. 원래 홍대 머신러닝 스터디 모임이었지만 코로나 시대에 걸맞게(?) 온라인으로 전환했죠. 첫 번째 스터디로 구글 미트와 줌을 사용해 코세라의 텐서플로 자격증 과정을 함께 공부했습니다. 지금은 <혼자 공부하는 머신러닝+딥러닝> 스터디를 진행하고 있습니다. 쓰거나 번역하는 책을 모두 스터디로 열 수는 없지만 가능하면 끊기지 않게 계속 진행하려고 생각하고 있습니다. 유튜브에 <핸즈온 머신러닝 2>와 함께 올리고 있던 <Do It! 딥러닝 입문> 유튜브 강의를 완료했습니다. 강의라 하기에는 많이 부족하지만 의외로 여러 사람에게 도움이 되는 것 같아 소소한 보람을 느낍니다. 연말에 <핸즈온 머신러닝 2>가 교보문고 2020년 머신러닝/딥러닝 부분에서 올해의 책으로 선정되었습니다. 또 Yes24 2020 베스트 IT 전문서에도 뽑혀서 너무 기뻤습니다.

12월에 <혼자 공부하는 머신러닝+딥러닝>을 출간했습니다. 아이디어에서부터 집필, 수정, 리뷰까지 1년이 걸린 작업이었습니다. 긴 시간 동안 제 글을 재미있게 읽고 용기를 북돋아 준 한빛미디어 조희진 차장님께 감사합니다. 이 책에는 제가 그린 그림을 전문 작가님이 제대로 그려서 넣어 주셨는데요. 조희진 차장님은 제 그림을 너무(?) 좋아하셔서 별책부록인 혼공 노트에는 제 그림이 일부 들어가 있습니다.ㅎ 이 책은 스토리와 비유를 적절히 넣어 독자들이 이해하기 쉽도록 썼습니다. 스토리와 비유가 너무 과하지 않도록 주의하면서 흥미를 잃지 않을만큼 충분히 넣어 전체적인 균형을 잃지 않도록 애썼습니다. 모쪼록 독자들에게 재미있고 이 분야를 더 탐구하고 싶은 욕구를 불어 넣을 수 있기를 바랍니다.

내년에도 재미있는 책들이 많이 기다리고 있습니다. 요즘은 Python Machine Learning 3판으로 <머신 러닝 교과서>의 개정판을 준비하고 있습니다. 사이킷런과 텐서플로 최신 버전을 반영하고 새롭게 GAN과 강화 학습 챕터가 추가되었습니다. 그 외에도 저의 첫 파이토치 번역이 될 Natural Language Processing with PyTorch, 아마존 베스트 셀러로 머신러닝 애플리케이션을 만들기 위한 베스트 프랙티스가 담긴 Building Machine Learning Powered Applications, TensorFlow.js를 다룬 Deep Learning with Javascript, 머신러닝 끝판 왕인 XGBoost를 다룬 Hands-on Gradient Boosting with XGBoost and Scikit-learn, 프로그래머를 위한 딥러닝 책인 AI and Machine Learning for Coders 등이 기대됩니다. 게으름을 피우지 않고 모두 잘 해내야 할 텐데 걱정입니다. 🙂

2020년이 지났습니다. 올 한해 제 책을 사랑해 주신 모든 분들께 정말 감사드립니다. 새해 복 많이 받으세요!

박해선

“Do It! 딥러닝 입문” 동영상 강의 완결!

지난 5월부터 만들기 시작한 <Do It! 딥러닝 입문>의 동영상 강의를 모두 완결했습니다(유튜브 플레이리스트). 대단한 컨텐츠도 아닌데 짬짬이 시간을 내기가 쉽지 않았던 것 같습니다. 모쪼록 혼자 책을 보시기 어려울 때 도움이 되었으면 좋겠습니다! 🙂

이번에 출간한 <혼자 공부하는 머신러닝+딥러닝>은 초반부터 바짝 스터디를 진행해서 동영상 컨텐츠를 만들어 올릴 생각입니다. 두 책이 어떻게 다른지 궁금하신 분이 많은 것 같습니다. 제가 쓰거나 번역한 책을 비교해 보려면 “어떤 책을 봐야 하나요?” 페이지를 참고해 주세요. 한 눈에 전체 책을 조망해 볼 수 있도록 재미난 그림을 그려보았습니다. ㅎㅎ 즐거운 한 주간 되세요!