월간 데이콘 뉴스 토픽 분류 AI 경진대회

알고리즘 | NLP | 분류 | 자연어 | Accuracy

  • moneyIcon 500,000 D-point
  • 1,905명 마감

 

[공지] 사용 금지 사전 학습 모델 (2021-07-29 수정)

2021.07.21 18:11 4,281 조회

안녕하세요 데이콘입니다.


현재 huggingface 에서 제공하는

klue-tc-bert-base-multilingual-cased 사전 학습 모델은 test data를 포함하여 fine tuning을 했습니다.

따라서 한 번이라도 해당 모델을 사용해서 리더보드에 점수를 등록하면 규칙 위반 행위로 판단하고 있습니다.

==================================================================================

댓글로 이광한님께서 언급해 주신 yobi/klue-roberta-base-ynat 역시 사용이 불가능한 사전학습모델입니다.


이 점을 유의하시어 대회에 참가해 주시면 감사하겠습니다.


감사합니다.

데이콘 드림.

로그인이 필요합니다
0 / 1000
Team
2021.07.21 22:19

감사합니다. 
운영자님께서 말씀하시는 모델은 아래의 링크와 같은것 같습니다
https://huggingface.co/seongju/klue-tc-bert-base-multilingual-cased

Team
2021.07.21 22:26

https://huggingface.co/models?search=klue
위의 링크를 보면 공식 klue/robert or bert 모델은 사용해도 괜찮아보이는데,

yobi/klue-roberta-base-ynat 와 같은 모델도 test data leakage 위험성이 좀 있어보이네요