scikit-learn 0.19 버전에서 추가된 기능 중 SAGA 알고리즘에 대해 살펴 보겠습니다. SAGA는 SAGStochastic Average Gradient 알고리즘의 변종, 혹은 개선 버전입니다(SAGA의 A가 특별한 의미가 있는 것은 아닙니다). SAG 알고리즘은 이전 타임스텝에서 계산된 그래디언트를 모두 평균내어 적용하는 알고리즘입니다. 기본 공식은 일반적인 SGDStochastic Gradient Descent과 비슷합니다. 다만 이전에 계산했던 그래디언트를 저장하고 다시 활용한다는 측면에서 SGD와 배치 그래디언트 디센트의 장점을 취하고 있습니다.
첨자가 조금 장황해 보일 수 있지만 사실 특별한 내용은 아닙니다. 이전까지의 그래디언트를 모두 누적하고 있는 항이 입니다. 그리고 현재 스텝에서 구한 그래디언트를
더하되 혹시 이전에 누적된 것에 포함이 되어 있다면, 즉 랜덤하게 추출한 적이 있는 샘플이라면 이전의 그래디언트 값을
빼 줍니다. 혼돈을 줄이기 위해 현재의 스텝의 파라미터와 이전의 스텝의 파라미터를
와
로 구별하였습니다.
SAGA 알고리즘은 여기에서 과거 그래디언트에만 평균을 적용하는 방식입니다. 위 공식과 비교해 보시면 금방 눈치챌 수 있습니다.
SAGA 알고리즘은 Ridge, RidgeClassifier, LogisticRegression 등에 solver 매개변수를 ‘saga’로 설정하여 사용할 수 있습니다. 이 모델들은 대량의 데이터셋에서 SAG 알고리즘을 사용할 수 있었는데 SAGA가 SAG 보다 성능이 좋으므로 데이터셋이 클 경우 SAGA를 항상 사용하는 것이 좋을 것 같습니다. 그럼 예를 살펴 보겠습니다.
먼저 익숙한 cancer 데이터셋에서 로지스특회귀로 SAG와 SAGA를 비교해 보겠습니다.
logreg_sag = LogisticRegression(solver='sag', max_iter=10000) logreg_sag.fit(X_train, y_train) print("훈련 세트 점수: {:.3f}".format(logreg_sag.score(X_train, y_train))) print("테스트 세트 점수: {:.3f}".format(logreg_sag.score(X_test, y_test)))
훈련 세트 점수: 0.927 테스트 세트 점수: 0.930
다음은 SAGA solver일 경우입니다.
logreg_saga = LogisticRegression(solver='saga', max_iter=10000) logreg_saga.fit(X_train, y_train) print("훈련 세트 점수: {:.3f}".format(logreg_saga.score(X_train, y_train))) print("테스트 세트 점수: {:.3f}".format(logreg_saga.score(X_test, y_test)))
훈련 세트 점수: 0.920 테스트 세트 점수: 0.937
둘이 거의 비슷하지만 SAGA의 테스트 점수가 조금 더 좋습니다. 좀 더 큰 데이터셋에 적용해 보기 위해서 캘리포니아 주택 가격 데이터셋을 사용해 보겠습니다. 이 데이터셋은 8개의 특성을 가지고 있고 2만개가 넘는 샘플을 가지고 있습니다. 타깃값은 평균 주택 가격입니다. scikit-learn에 이 데이터를 다운 받아 로드할 수 있는 함수가 있습니다.
from sklearn.datasets import fetch_california_housing housing = fetch_california_housing()
housing도 scikit-learn의 다른 샘플 데이터와 동일하게 Bunch 클래스의 객체입니다. 데이터를 분할하고 릿지 회귀를 사용하여 이전과 마찬가지로 ‘sag’와 ‘saga’를 비교해 보겠습니다.
X_train, X_test, y_train, y_test = train_test_split( housing.data, housing.target, random_state=42) ridge = Ridge(solver='sag').fit(X_train, y_train) print("훈련 세트 점수: {:.3f}".format(ridge.score(X_train, y_train))) print("테스트 세트 점수: {:.3f}".format(ridge.score(X_test, y_test)))
이번에는 SAGA solver 입니다.
ridge_saga = Ridge(solver='saga').fit(X_train, y_train) print("훈련 세트 점수: {:.3f}".format(ridge_saga.score(X_train, y_train))) print("테스트 세트 점수: {:.3f}".format(ridge_saga.score(X_test, y_test)))
여기에서는 SAGA solver의 R2 스코어가 더 낮게 나왔네요. 🙂
이 샘플 코드는 ‘파이썬 라이브러리를 활용한 머신러닝‘ 깃허브(https://github.com/rickiepark/introduction_to_ml_with_python/blob/master/SAGA%20solver.ipynb)에서 확인할 수 있습니다.
참고 자료