[심사방법]
1. 심사절차
※ 예선 종료 후, 상위 11개팀은 코드 검증 진행 예정 (9. 22(금) ~ 10. 18(수))
2. 심사기준
※ 1차 평가(리더보드 점수) 평가 산식 : Macro F1 Score
- Public Score : 전체 테스트 데이터 중 사전 샘플링된 30%
- Private Score : 전체 테스트 데이터 중 사전 샘플링된 나머지 70%
3. 심사결과
- 예선을 통해 상위 11개팀을 선발하고, 본선은 현장 코드 평가 결과 점수(50%)에 전문가 심사 점수(50%)를 합산하여 고득점 순으로 상격 결정
※ 예선 동점자 처리 기준
- 기존 리더보드 순위 산정 방식을 따름 [링크]의 '리더보드 점수' 부분을 참고
※ 본선 동점자 처리 기준
- 전문가 심사 평가 항목 중 배점 높은 평가 항목이 고득점인 팀 순으로 순위 결정
[대회규칙 및 유의사항]
1. 외부 데이터 및 사전 학습 모델 허용 범위
- 외부 데이터 사용 불가능
- 법적 제약이 없으며 논문으로 공개된 베이스의 사전 학습 모델(Pre-trained Model) 사용 가능
- 단, Test Dataset이 포함된 사전 학습 모델 사용 불가
- 사용하고자 하는 사전 학습된 모델에 Test Dataset이 포함되어 있는지 자체 확인이 불가능한 경우 dacon@dacon.io로 문의
2. 코드 및 발표자료 제출 규칙
- 대회 종료 후 본선 진출 대상자는 Private Score가 복원 가능한 코드(.ipynb)를 코드 공유 게시판에 업로드
- 코드 파일을 코드 공유 게시판에 업로드하기 어려운 경우, 학습 및 추론 과정이 READ.md에 포함된 깃허브 repository 링크 공유
- 코드 공유 제출 마감 기한 미준수 시 본선 진출 제한
3. 유의 사항
- 1일 최대 제출 횟수: 3 회
- 사용 가능 언어: Python
- 모든 csv 형식의 데이터와 제출 파일은 UTF-8 인코딩을 적용합니다.
- 모델 학습과 추론에서 평가 데이터셋 정보 활용(Data Leakage)시 수상 후보에서 제외됩니다.
- 모든 학습, 추론의 과정 그리고 추론의 결과물들은 정상적인 코드를 바탕으로 이루어져야하며, 비정상적인 방법으로 얻은 제출물들은 적발 시 규칙 위반에 해당됩니다.
- 최종 순위는 선택된 파일 중에서 채점되므로 참가자는 제출 창에서 자신이 최종적으로 채점 받고 싶은 파일 2개를 선택해야 합니다.
- 대회 직후 공개되는 Private 랭킹은 최종 순위가 아니며 코드 검증 및 2차 평가 후 수상자가 결정됩니다.
- 본 경진대회는 참가팀의 부정 행위를 금지하고 있습니다. 부정 행위가 발견되는 경우, 해당 팀에 대해 평가가 진행되지 않습니다.
- 자세한 사항은 [링크]를 참고해 주시기 바랍니다.