분석시각화 대회 코드 공유 게시물은
내용 확인 후
좋아요(투표) 가능합니다.
Private 1위, AutoML(mljar-supervised)
AutoML(mljar-supervised)로 진행했습니다.
6시간 학습하면서 로그를 보니 보통 RandomForest, LightGMB, Xgboost, CatBoost에서 성능이 좋은 것을 확인했고 12시간을 돌려봤더니 성능이 안 좋았던 다른 모델에서 제일 잘 나왔습니다. 하지만 6시간 학습 성능보다 떨어져서 위 4개 모델만 선택하고 다시 12시간 학습을 돌렸더니 성능이 개선 된 것을 확인했습니다. 이후 튜닝하려고 feature importance를 기반으로 성능 개선을 시도했지만 성능이 떨어지는 것을 보고 튜닝은 순정이다 라는 말이 이럴 때 쓰이는 것인가 싶었습니다.
코드 정리를 가독성 있게 잘 못해서 성공한 코드 빼고 다 삭제하면서 진행했더니 위 과정이 파일에는 안보이네요. 다음부터는 정리하면서 하겠습니다..!
같은 코드로 다시 12시간 돌려봤더니 같은 모델은 나왔는데 성능이 아주 조금 상승했네요
감사합니다!!
고생하셨습니다. 혹시 환경 사양을 알 수 있을까요?
코랩에서 하다가 계속 런타임 끊겨서 아나콘다 jupyter-lab으로 진행했습니다!
PC는
windows 10 home
CPU : Intel(R) Core(TM) i7-6500U CPU @ 2.50GHz 2.59GHz 듀얼코어
RAM : 8GB
SSD : 256GB
내장그래픽 : HD520
이었습니다!
튜닝은 순정이다. 잘보고갑니다!
감사합니다!
공유 감사합니다. 혹시 학습 로그 보는 방법은 파라미터 explain_level = 1 로 설정해서 보는 건가요?
verbose 파라미터를 통해 학습 로그가 출력 되는데 설정 안하면 기본값이 1로 위에 보시는 것과 같이 출력되고,
2로 설정하면 1보다 더 자세하게 메시지를 출력합니다!
explain_level 파라미터는 모델을 학습하고 결과를 설명해주는데 1로 설정하면 예측에 대한 해석과 피처 중요도(시각화) 제공,
2로 설정하면 1보다 더 자세하게 해석을 제공하는 차이가 있습니다!
좋은 정보 감사합니다!
제가 automl 돌릴때는 catboost는 지원안한다고 하던데 혹시 따른 설정을 한 게 있을까요??
DACON Co.,Ltd | CEO Kookjin Kim | 699-81-01021
Mail-order-sales Registration Number: 2021-서울영등포-1704
Business Providing Employment Information Number: J1204020250004
#901, Eunhaeng-ro 3, Yeongdeungpo-gu, Seoul 07237
E-mail dacon@dacon.io |
Tel. 070-4102-0545
Copyright ⓒ DACON Inc. All rights reserved
고생하셨습니다!