월간 데이콘 발화자의 감정인식 AI 경진대회

알고리즘 | 언어 | 분류 | Macro f1 score

  • moneyIcon Prize : 인증서
  • 667명 마감

 

Private 6위 emoberta-large, base, CoMPM ensemble

공동작성자

stroke
2022.12.17 01:38 1,943 Views language

- 학습 된 EmoBERTa-large, EmoBERTa-base, 그리고 동일 학습 데이터로 학습 된 CoMPM 모델을 이용해서 추론한 코드입니다.
- 세 모델 모두 논문에 공개 되어 있는 모델입니다.
- 개별 성능은 위 모델 순서대로 높았고 large 모델과 base 모델을 우선적으로 정답으로 추론하되 임계값을 설정하여 CoMPM 모델의 추론 결과를 사용했습니다.   
   
- 사용 모델: tae898/emoberta-large, tae898/emoberta-base, CoMPM   
   
- 실행 환경: RTX 3090 24GB   
   
- 모델 출처: https://huggingface.co/tae898/emoberta-basehttps://huggingface.co/tae898/emoberta-largehttps://github.com/rungjoo/CoMPM 

Code