2023 용인시 SW/AI 해커톤

Algorithm | NLP | Classification | Macro F1 Score

  • moneyIcon Prize : 총 500만원
  • 122 Users Completed

 

[Private 8th] twitter-roberta-base-sentiment + K-fold

공동작성자

stroke
2023.10.20 20:22 1,426 Views language

안녕하세요. 팀 H&S_AILAB입니다.

저희는 사전 학습 모델로 DeBERTa, twitter-roberta-base-sentiment 등으로 실험을 진행했고 twitter-roberta-base-sentiment 모델의 성능 결과가 가장 좋았습니다.
데이터 전처리와 데이터 증강의 경우, 오히려 성능이 하락하여 진행하지 않았습니다.

모델 학습은 twitter-roberta-base-sentiment모델을 기반으로 Straight K-fold를 사용하여 교차검증을 하였습니다.

Code