분석시각화 대회 코드 공유 게시물은
내용 확인 후
좋아요(투표) 가능합니다.
[Public 14th|Private 10th]R-drop + Self-Explaining
안녕하세요!
운이 좋게 Private 10th에 위치하게 되어 솔루션을 공유드리려고 합니다.
코드 자체는 파이썬 스크립트로 작성되어 있어서 전체 코드를 보고싶으신 분은 https://github.com/gistarrr/Dacon/tree/master/KLUE_NLI 를 참고하면 좋을 것 같습니다.
-------------------------------------------------------------------------------------------------------------------------------
- 실행 환경 : Colab Pro 환경에서 진행되었습니다.
- Data : 제공된 데이터 + KLUE Official Dev DataSet을 활용하였습니다.
- Model : 기본 아키텍쳐는 Roberta-Large를 사용했습니다.
- 학습 방법 : Stratify Kfold로 5 fold 학습을 진행하였고 이를 soft-voting 하였습니다.
- 결과물 : 최종 결과물은 3가지 모델 (Roberta-Large, Roberta-Large + LSTM, Roberta-Large + Self-Explainable)에 r-drop 방식으로 학습한 결과를 hard-voting 하였습니다.
1. R-drop : 일반화 성능을 향상시키기 위해서 사용하였습니다. 자세한 내용은 https://arxiv.org/abs/2106.14448 를 참고하면 좋을 것 같습니다.
2. Self-Explaining : Paperwithcodes의 NLI 분야에서 2등에 위치한 Self-Explaining Structures Improve NLP Models의 논문과 코드를 참고하였습니다. https://paperswithcode.com/paper/self-explaining-structures-improve-nlp-models 를 참고하면 좋을 것 같습니다.
데이콘(주) | 대표 김국진 | 699-81-01021
통신판매업 신고번호: 제 2021-서울영등포-1704호
서울특별시 영등포구 은행로 3 익스콘벤처타워 901호
이메일 dacon@dacon.io | 전화번호: 070-4102-0545
Copyright ⓒ DACON Inc. All rights reserved