월간 데이콘 발화자의 감정인식 AI 경진대회

알고리즘 | 언어 | 분류 | Macro f1 score

  • moneyIcon Prize : 인증서
  • 658명 마감

 

Private 14위, emoberta-large 모델 사용

2022.12.30 19:09 1,272 Views language

AutoGluon 베이스라인 코드를 활용해서 Hugging face의 여러 모델, 여러 전처리를 거친 결과
emoberta-large with no preprocessing으로 재학습 시켰을때 성능이 가장 높았습니다

Code
로그인이 필요합니다
0 / 1000
당쇠
2022.12.30 19:56

🤜🏻🤛🏽

한승희
2022.12.31 01:51

🤜🏻🤛🏽

이전 글
이전 글이 존재하지 않습니다.
현재 글
Private 14위, emoberta-large 모델 사용
Competition - 월간 데이콘 발화자의 감정인식 AI 경진대회
Likes 7
Views 1,272
Comments 2
일 년 전
다음 글
Private 10위, emoberta-large 모델, KFold 적용
Competition - 월간 데이콘 발화자의 감정인식 AI 경진대회
Likes 9
Views 1,393
Comments 0
일 년 전