월간 데이콘 발화자의 감정인식 AI 경진대회

알고리즘 | 언어 | 분류 | Macro f1 score

  • moneyIcon 상금 : 인증서
  • 656명 마감

 

Private 14위, emoberta-large 모델 사용

2022.12.30 19:09 1,219 조회 language

AutoGluon 베이스라인 코드를 활용해서 Hugging face의 여러 모델, 여러 전처리를 거친 결과
emoberta-large with no preprocessing으로 재학습 시켰을때 성능이 가장 높았습니다

코드
로그인이 필요합니다
0 / 1000
당쇠
2022.12.30 19:56

🤜🏻🤛🏽

한승희
2022.12.31 01:51

🤜🏻🤛🏽

이전 글
이전 글이 존재하지 않습니다.
현재 글
Private 14위, emoberta-large 모델 사용
대회 - 월간 데이콘 발화자의 감정인식 AI 경진대회
좋아요 7
조회 1,219
댓글 2
일 년 전
다음 글
Private 10위, emoberta-large 모델, KFold 적용
대회 - 월간 데이콘 발화자의 감정인식 AI 경진대회
좋아요 9
조회 1,344
댓글 0
일 년 전