뉴스 그룹 분류 AI 해커톤

NLP | Accuracy

  • moneyIcon Prize : 참가시 최소 50 XP, 특별상 데이콘 후드
  • 437명 마감

 

[Public 12위 0.77274] LGB + MLP Ensemble

2022.04.19 10:21 2,213 Views language

BERT pretrained model을 사용한 코드로 평가되었습니다. 가장 높은 점수인 걸로 제출이 되는 것 같습니다,,,? (To Dacon : 가장 마지막에 제출한 파일이 최종 파일입니다)
대회 기준에 어긋나지 않게 코드를 수정해보았는데 사실 임베딩의 기준이 명확하지 않아서 그냥 버렸습니다 (괜히 찝찝하게 끝날까봐).
pretrained 사용하지 않은 모델 기준 Public 12위이고 Private도 12위 내외일 것 같습니다.

LGB 모델은 적절한 HP를 찾아 훈련을 진행하였고, MLP 모델은 max_iter와 hidden_layer_sizes수에 차이를 두어 두 가지로 훈련을 진행하였습니다.
모델별로 seed를 랜덤하게 4개씩 만들어 학습하였고, 모델별로 적절하게 가중치를 두어 제출 파일을 만들었습니다.

Code
이전 글
이전 글이 존재하지 않습니다.
현재 글
[Public 12위 0.77274] LGB + MLP Ensemble
Competition - 뉴스 그룹 분류 AI 해커톤
Likes 7
Views 2,213
Comments 0
3년 전
다음 글
[Private 2위 0.78774 / public 2위 0.78444] SGDclassifier
Competition - 뉴스 그룹 분류 AI 해커톤
Likes 10
Views 2,356
Comments 0
3년 전