분석시각화 대회 코드 공유 게시물은
내용 확인 후
좋아요(투표) 가능합니다.
Private 6위 emoberta-large, base, CoMPM ensemble
공동작성자
- 학습 된 EmoBERTa-large, EmoBERTa-base, 그리고 동일 학습 데이터로 학습 된 CoMPM 모델을 이용해서 추론한 코드입니다.
- 세 모델 모두 논문에 공개 되어 있는 모델입니다.
- 개별 성능은 위 모델 순서대로 높았고 large 모델과 base 모델을 우선적으로 정답으로 추론하되 임계값을 설정하여 CoMPM 모델의 추론 결과를 사용했습니다.
- 사용 모델: tae898/emoberta-large, tae898/emoberta-base, CoMPM
- 실행 환경: RTX 3090 24GB
- 모델 출처: https://huggingface.co/tae898/emoberta-base, https://huggingface.co/tae898/emoberta-large, https://github.com/rungjoo/CoMPM
데이콘(주) | 대표 김국진 | 699-81-01021
통신판매업 신고번호: 제 2021-서울영등포-1704호
서울특별시 영등포구 은행로 3 익스콘벤처타워 901호
이메일 dacon@dacon.io | 전화번호: 070-4102-0545
Copyright ⓒ DACON Inc. All rights reserved