월간 데이콘 발화자의 감정인식 AI 경진대회

알고리즘 | 언어 | 분류 | Macro f1 score

  • moneyIcon Prize : 인증서
  • 668명 마감

 

Private 14위, emoberta-large 모델 사용

2022.12.30 19:09 1,695 Views language

AutoGluon 베이스라인 코드를 활용해서 Hugging face의 여러 모델, 여러 전처리를 거친 결과
emoberta-large with no preprocessing으로 재학습 시켰을때 성능이 가장 높았습니다

Code
로그인이 필요합니다
0 / 1000
당쇠
2022.12.30 19:56

🤜🏻🤛🏽

한승희
2022.12.31 01:51

🤜🏻🤛🏽

이전 글
이전 글이 존재하지 않습니다.
현재 글
Private 14위, emoberta-large 모델 사용
Competition - 월간 데이콘 발화자의 감정인식 AI 경진대회
Likes 7
Views 1,695
Comments 2
2년 전
다음 글
Private 10위, emoberta-large 모델, KFold 적용
Competition - 월간 데이콘 발화자의 감정인식 AI 경진대회
Likes 10
Views 1,805
Comments 0
2년 전