1.2.1 확률적 모델링

1.2 딥러닝 이전: 머신 러닝의 간략한 역사 | 목차 | 1.2.2 초창기 신경망

 

확률적 모델링probabilistic modeling은 통계학 이론을 데이터 분석에 응용한 것입니다. 초창기 머신 러닝 형태 중 하나고 요즘도 널리 사용됩니다. 가장 잘 알려진 알고리즘 중 하나는 나이브 베이즈Naive Bayes 알고리즘입니다.

나이브 베이즈는 입력 데이터의 특성이 모두 독립적이라고 가정하고 베이즈 정리Bayes’ theorem를 적용하는 머신 러닝 분류 알고리즘입니다. (강한 또는 ‘순진한’naive 가정입니다. 여기에서 이름이 유래되었습니다.) 이런 형태의 데이터 분석은 컴퓨터보다 앞서 있었기 때문에 첫 번째 컴퓨터가 등장하기 수십년 전에는 수작업으로 적용했습니다(거의 1950년대로 거슬러 올라갑니다). 베이즈 정리와 통계의 토대는 18세기까지 거슬러 올라갑니다. 이 정도가 나이브 베이즈 분류기를 사용하기 위해 알아야 할 전부입니다.

이와 밀접하게 연관된 모델이 로지스틱 회귀logistic regression입니다(줄여서 logreg라고 하겠습니다). 이 모델은 현대 머신 러닝의 “hello world”로 여겨집니다. 이름 때문에 혼동하지 마세요. logreg는 회귀regression 알고리즘이 아니라 분류classification 알고리즘입니다.11 나이브 베이즈와 매우 비슷하게 logreg는 컴퓨터보다 훨씬 오래 전부터 있었습니다. 하지만 간단하고 다목적으로 활용할 수 있어서 오늘날에도 여전히 유용합니다. 데이터 과학자가 분류 작업에 대한 감을 빠르게 얻기 위해 데이터셋에 적용할 첫 번째 알고리즘으로 선택하는 경우가 많습니다.

 


 

11 역주 회귀는 연속적인 숫자(실수)를 예측하는 것이고 분류는 여러 클래스class 중 하나를 예측하는 것입니다. 3.6절에 주택 가격을 예측하 는 회귀 예제를 제외하고 이 책의 나머지는 대부분 분류에 대한 예제입니다.

 

1.2 딥러닝 이전: 머신 러닝의 간략한 역사 | 목차 | 1.2.2 초창기 신경망

 

이 글은 도서출판 길벗에서 출간한  “케라스 창시자에게 배우는 딥러닝“의 1장~3장입니다. 이 책의 저작권은 (주)도서출판 길벗에 있으므로 무단 복제 및 무단 전제를 금합니다.

답글 남기기

아래 항목을 채우거나 오른쪽 아이콘 중 하나를 클릭하여 로그 인 하세요:

WordPress.com 로고

WordPress.com의 계정을 사용하여 댓글을 남깁니다. 로그아웃 /  변경 )

Google+ photo

Google+의 계정을 사용하여 댓글을 남깁니다. 로그아웃 /  변경 )

Twitter 사진

Twitter의 계정을 사용하여 댓글을 남깁니다. 로그아웃 /  변경 )

Facebook 사진

Facebook의 계정을 사용하여 댓글을 남깁니다. 로그아웃 /  변경 )

%s에 연결하는 중

This site uses Akismet to reduce spam. Learn how your comment data is processed.