분석시각화 대회 코드 공유 게시물은
내용 확인 후
좋아요(투표) 가능합니다.
Private 6위 emoberta-large, base, CoMPM ensemble
- 학습 된 EmoBERTa-large, EmoBERTa-base, 그리고 동일 학습 데이터로 학습 된 CoMPM 모델을 이용해서 추론한 코드입니다.
- 세 모델 모두 논문에 공개 되어 있는 모델입니다.
- 개별 성능은 위 모델 순서대로 높았고 large 모델과 base 모델을 우선적으로 정답으로 추론하되 임계값을 설정하여 CoMPM 모델의 추론 결과를 사용했습니다.
- 사용 모델: tae898/emoberta-large, tae898/emoberta-base, CoMPM
- 실행 환경: RTX 3090 24GB
- 모델 출처: https://huggingface.co/tae898/emoberta-base, https://huggingface.co/tae898/emoberta-large, https://github.com/rungjoo/CoMPM
DACON Co.,Ltd | CEO Kookjin Kim | 699-81-01021
Mail-order-sales Registration Number: 2021-서울영등포-1704
Business Providing Employment Information Number: J1204020250004
#901, Eunhaeng-ro 3, Yeongdeungpo-gu, Seoul 07237
E-mail dacon@dacon.io |
Tel. 070-4102-0545
Copyright ⓒ DACON Inc. All rights reserved