SW중심대학 공동 AI 경진대회 ❮예선❯

SW중심대학 | 예선 | 심리성향 | AUC

  • moneyIcon 상금 : 총 0만원
  • 771명 마감

 

[ISAC] Private 144위, 0.79704점 RF + XGB + CatBoost + LGBM

공동작성자

stroke
2022.08.31 21:51 824 조회 language

안녕하세요 ISCA 입니다.

저희는 RandomForest, XGBoost, LGBMClassifier, CatBoost 모델 4개를 Ensemble 하여 모델 집합을 생성한 후, 그 모델 집합들을 다른 데이터 셋(4개)으로 학습하여 최종 3개의 모델 집합들을 Ensemble을 진행하였습니다. 마지막 데이터에 대해서는 성능적 측면에서 학습에 제외를 하였습니다.
즉, Ensemble 기법을 2번 사용한 것이라고 생각하면 될 것 같습니다.(도합 12개의 각각의 모델 사용)

유감이게도, 최종 예측을 확률이 아닌 1 또는 0 인 최종 분류로 제출을 해서 비록 성능이 제대로 측정되지는 않았습니다.(저희 팀 모두 아쉽게 생각하는 부분입니다.)
다음에는 이런 실수를 하지 않도록 배울 수 있었던 기회가 된 것 같습니다.

여러 모델 개발을 시도하면서 머신러닝 개발에 대한 많은 지식을 얻을 수 있었던 기회였다고 생각됩니다.

코드