분석시각화 대회 코드 공유 게시물은
내용 확인 후
좋아요(투표) 가능합니다.
[공지] 사용 금지 사전 학습 모델 (2021-07-29 수정)
안녕하세요 데이콘입니다.
현재 huggingface 에서 제공하는
klue-tc-bert-base-multilingual-cased 사전 학습 모델은 test data를 포함하여 fine tuning을 했습니다.
따라서 한 번이라도 해당 모델을 사용해서 리더보드에 점수를 등록하면 규칙 위반 행위로 판단하고 있습니다.
==================================================================================
댓글로 이광한님께서 언급해 주신 yobi/klue-roberta-base-ynat 역시 사용이 불가능한 사전학습모델입니다.
이 점을 유의하시어 대회에 참가해 주시면 감사하겠습니다.
감사합니다.
데이콘 드림.
https://huggingface.co/models?search=klue
위의 링크를 보면 공식 klue/robert or bert 모델은 사용해도 괜찮아보이는데,
yobi/klue-roberta-base-ynat 와 같은 모델도 test data leakage 위험성이 좀 있어보이네요
데이콘(주) | 대표 김국진 | 699-81-01021
통신판매업 신고번호: 제 2021-서울영등포-1704호
직업정보제공사업 신고번호: J1204020250004
서울특별시 영등포구 은행로 3 익스콘벤처타워 901호
이메일 dacon@dacon.io |
전화번호: 070-4102-0545
Copyright ⓒ DACON Inc. All rights reserved
감사합니다.
운영자님께서 말씀하시는 모델은 아래의 링크와 같은것 같습니다
https://huggingface.co/seongju/klue-tc-bert-base-multilingual-cased