분석시각화 대회 코드 공유 게시물은
내용 확인 후
좋아요(투표) 가능합니다.
Huggingface DistilBert Baseline
이번 대회를 위해 인터넷 검색을 하다가 아래 제목의 논문을 읽게 되었습니다.
How to Fine-Tune BERT for Text Classification? (https://arxiv.org/abs/1905.05583)
논문에서는 Further pre-training과 Multi-Task Fine-Tuning을 제안합니다.
Further pre-training은 Within-task / In-domain / Cross-domain 이 세가지 pre-training 단계로 다시 나뉘어 집니다.
대회 규칙상 In-domain / Cross-domain pre-training, Multi-Task Fine-Tuning은 적용하지 못했지만
훈련데이터를 사용해 Masked Language Modeling을 진행하여 Within-task pre-training을 적용하였습니다.
(논문에서는 next sentence prediction task도 적용하였습니다.)
또한 논문에서는 Fine-Tuning 시에 layer-wise learning rate를 사용하여 이 또한 적용해 보았습니다.
이상하게 테스트 데이터셋의 손실함수 값이 계속해서 증가하네요 ;;
아래 코드는 코랩 무료환경에서 실행하였습니다
DACON Co.,Ltd | CEO Kookjin Kim | 699-81-01021
Mail-order-sales Registration Number: 2021-서울영등포-1704
Business Providing Employment Information Number: J1204020250004
#901, Eunhaeng-ro 3, Yeongdeungpo-gu, Seoul 07237
E-mail dacon@dacon.io |
Tel. 070-4102-0545
Copyright ⓒ DACON Inc. All rights reserved