분석시각화 대회 코드 공유 게시물은
내용 확인 후
좋아요(투표) 가능합니다.
[Private 4위] RoBERTa-Large
중간에 잠깐 일을 맡게 되어 바빠져, 대회 중반부 부터 추가적인 프롬프트 & 코드 테스트 및 업데이트를 못했습니다.
기본적인 TextCNN부터 BERT, DistillBERT, ALBERT, Funnel-Transformer 등의 모델을 시도 해 보았고, 그 중 RoBERTa-Large 모델이 가장 좋았습니다.
추가적인 여러 텍스트 전처리나 Backtranslation 등의 증강기법 등을 테스트 못 해본 점이 아쉽네요.
다들 수고 많으셨습니다. 저도 올려주신 여러 인사이트 들 보며 많이 배웠습니다.
Model Weight Link : https://drive.google.com/file/d/1bejQzXPo1TBPt4Arepfq91s8xpfxKeM4/view?usp=share_link
DACON Co.,Ltd | CEO Kookjin Kim | 699-81-01021
Mail-order-sales Registration Number: 2021-서울영등포-1704
Business Providing Employment Information Number: J1204020250004
#901, Eunhaeng-ro 3, Yeongdeungpo-gu, Seoul 07237
E-mail dacon@dacon.io |
Tel. 070-4102-0545
Copyright ⓒ DACON Inc. All rights reserved