[1주년 기념] 데이스쿨 최대 40% 할인 🎁
분석시각화 대회 코드 공유 게시물은
내용 확인 후
좋아요(투표) 가능합니다.
[Private 29위 / Public : 0.86068 / RoBERTa_large]
RoBERTa_large 모델을 사용하였습니다.
max_length를 15로 변경하고 epoch 3, lr 1e-5로 설정하여 학습하였습니다.
특수문자 등을 제거하였을 때 성능이 떨어지는 것을 확인하여 클렌징은 따로 진행하지 않았습니다.
시행착오 과정에서 다음 단일 모델들을 사용해보았고, 과적합이 일어나기 전까지 epoch을 늘려가며 성능을 확인한 결과 klue/roberta-large 모델이 가장 좋은 성능을 보였습니다.
klue/roberta -> small, base, large
klue/bert-base
monologg/koelectra -> small, base / v2, v3
감사합니다.
데이콘(주) | 대표 김국진 | 699-81-01021
통신판매업 신고번호: 제 2021-서울영등포-1704호
서울특별시 영등포구 은행로 3 익스콘벤처타워 901호
이메일 dacon@dacon.io | 전화번호: 070-4102-0545
Copyright ⓒ DACON Inc. All rights reserved