분석시각화 대회 코드 공유 게시물은
내용 확인 후
좋아요(투표) 가능합니다.
[Public 12위 0.77274] LGB + MLP Ensemble
BERT pretrained model을 사용한 코드로 평가되었습니다. 가장 높은 점수인 걸로 제출이 되는 것 같습니다,,,? (To Dacon : 가장 마지막에 제출한 파일이 최종 파일입니다)
대회 기준에 어긋나지 않게 코드를 수정해보았는데 사실 임베딩의 기준이 명확하지 않아서 그냥 버렸습니다 (괜히 찝찝하게 끝날까봐).
pretrained 사용하지 않은 모델 기준 Public 12위이고 Private도 12위 내외일 것 같습니다.
LGB 모델은 적절한 HP를 찾아 훈련을 진행하였고, MLP 모델은 max_iter와 hidden_layer_sizes수에 차이를 두어 두 가지로 훈련을 진행하였습니다.
모델별로 seed를 랜덤하게 4개씩 만들어 학습하였고, 모델별로 적절하게 가중치를 두어 제출 파일을 만들었습니다.
DACON Co.,Ltd | CEO Kookjin Kim | 699-81-01021
Mail-order-sales Registration Number: 2021-서울영등포-1704
Business Providing Employment Information Number: J1204020250004
#901, Eunhaeng-ro 3, Yeongdeungpo-gu, Seoul 07237
E-mail dacon@dacon.io |
Tel. 070-4102-0545
Copyright ⓒ DACON Inc. All rights reserved