분석시각화 대회 코드 공유 게시물은
내용 확인 후
좋아요(투표) 가능합니다.
[private 2위/0.99103]UniXcoder-clone-detection 모델 threshold조정
UniXcoder모델하고 Codesage모델 voting만 계속 하다가 UniXcoder 임계값 0.1로 바꿔봤더니 hard voting했을 때보다 0.001정도 성능이 올랐네요. 근데 0.1을 수기로 입력한거라 비정상적인 방법으로 얻은 건지 잘 모르겠네요.. 어쨌든 수고하셨습니다.
사용한 모델 링크입니다.
https://huggingface.co/Lazyhope/unixcoder-clone-detection
학습 때 사용했던 코드들 입니다.
https://github.com/be0k/code-similarity
규칙)
사용에 법적 제한이 없으며 오픈 소스로 공개된 사전 학습된 모델(Pre-trained Model)만 사용 가능
해당 모델은 MIT license이고 open source로 공개된 모델이기 때문에 사용해도 상관없을 것 같습니다.
다른 파인튜닝된 모델(https://huggingface.co/nchen909/plbart-base-finetuned-clone-detection) 사용가능 여부를 dacon측에 메일로 문의 드려본 결과
사용에 법적 제한이 없는 license를 가지고 있고 오픈소스로 공개된 모델은 다 사용 가능한 것 같더라구요
데이콘(주) | 대표 김국진 | 699-81-01021
통신판매업 신고번호: 제 2021-서울영등포-1704호
서울특별시 영등포구 은행로 3 익스콘벤처타워 901호
이메일 dacon@dacon.io | 전화번호: 070-4102-0545
Copyright ⓒ DACON Inc. All rights reserved
사용하신 모델이 코드 검증에 파인튜닝된 모델인데,
논문등에서 발표되지 않고 개인이 튜닝한 모델로 보여서,
규정이 어떻게 적용될 지 모르겠네요.