월간 데이콘 한국어 문장 관계 분류 경진대회

알고리즘 | NLP | 분류 | 자연어 | Accuracy

  • moneyIcon 상금 : 100만원 + α
  • 1,326명 마감

 

XLM-RoBERTa (BERT)맛보기 public:0.817

2022.02.17 01:17 9,270 조회 language

XLM-RoBERTa (BERT)맛보기
 이제 XLM-RoBERTa에 대해 공부하기 시작했는데 어떠한 과정 없이 순수하게 모델로만 괜찮은 결과가 나온 것 같아 공유드립니다.  
 나중에 BERT로 분류 모델을 만드는 데에 도움이 되었으면 합니다.
 large모델을 사용할 때는 colab pro버전을 사용해 주세요

코드