[심사방법]
1. 심사절차
※ 1차 평가 종료 후, 상위 25개팀은 코드 검증 진행 예정 (8. 4(금) ~ 8. 10(목))
2. 심사기준
※ 1차 평가(리더보드 점수) 평가 산식 : Dice Coefficient(Score) [세부 설명]
- Public Score : 전체 테스트 데이터 중 사전 샘플링된 30%
- Private Score : 전체 테스트 데이터 중 사전 샘플링된 나머지 70%
3. 심사결과
- 1차 평가를 통해 상위 25개팀을 선발하고, 해당 팀에 한하여 2차 평가 진행
- 2차 평가는 1차 평가결과(Private 리더보드 점수) 점수(50%)에 전문가 심사 점수(50%)를 합산하여, 고득점 순으로 상격 결정
※ 동점자 처리 기준
* 1차 평가 : 기존 리더보드 순위 산정 방식을 따름 [링크]의 '리더보드 점수' 부분을 참고
* 2차 평가 : 전문가 심사 평가항목 중 배점 높은 평가항목이 고득점인 팀 순으로 순위 결정
[대회규칙 및 유의사항]
1. 외부 데이터 및 사전 학습 모델 허용 범위
- 외부 데이터 사용 불가능
- 법적 제약이 없으며 논문으로 공개된 베이스의 사전 학습 모델(Pre-trained Model) 사용 가능
- 단, Test Dataset이 포함된 사전 학습 모델 사용 불가
- 사용하고자 하는 사전 학습된 모델에 Test Dataset이 포함되어 있는지 자체 확인이 불가능한 경우 dacon@dacon.io로 문의
2. 코드 및 발표자료 제출 규칙
- 대회 종료 후 2차 평가 대상자는 아래의 양식에 맞추어 코드와 발표자료를 dacon@dacon.io 메일로 제출 (8월 3일(목)까지)
3. 유의 사항
- 1일 최대 제출 횟수: 3 회
- 사용 가능 언어: Python, R
- 모든 csv 형식의 데이터와 제출 파일은 UTF-8 인코딩을 적용합니다.
- 제출 파일의 용량은 200MB 미만이여야 정상적으로 제출 가능합니다.
- 모델 학습과 추론에서 평가 데이터셋 정보 활용(Data Leakage)시 수상 후보에서 제외됩니다.
- 모든 학습, 추론의 과정 그리고 추론의 결과물들은 정상적인 코드를 바탕으로 이루어져야하며, 비정상적인 방법으로 얻은 제출물들은 적발 시 규칙 위반에 해당됩니다.
- 최종 순위는 선택된 파일 중에서 채점되므로 참가자는 제출 창에서 자신이 최종적으로 채점 받고 싶은 파일 2개를 선택해야 합니다.
- 대회 직후 공개되는 Private 랭킹은 최종 순위가 아니며 코드 검증 및 2차 평가 후 수상자가 결정됩니다.
- 본 경진대회는 참가팀의 부정 행위를 금지하고 있습니다. 부정 행위가 발견되는 경우, 해당 팀에 대해 평가가 진행되지 않습니다.
- 참가 접수 마감 이후 팀명 변경이 불가합니다.
- 자세한 사항은 [링크]를 참고해 주시기 바랍니다.