[심사방법]
1. 심사절차
※ 예선 종료 후, 상위 12개팀은 코드 검증 진행 예정 (7. 24(수) ~ 7. 30(화))
※ 코드 검증 과정에서 실격 팀이 발생하는 경우, 예선 순위 기준으로 차순위 팀이 본선 진출 후보팀이 되며, 동일하게 코드 검증 진행 후 본선 진출 팀을 선발
2. 심사기준
※ 예선 리더보드 평가 산식
- Score = 0.5 × (1 − AUC) + 0.25 × Brier + 0.25 × ECE [세부 설명]
- Public Score : 전체 테스트 데이터 중 사전 샘플링된 40%
- Private Score : 전체 테스트 데이터 전체 100%
3. 심사결과
- 예선 평가와 코드 검증을 통과한 상위 12개팀에 한하여 본선 평가 진행
- 본선 평가는 예선 평가결과(Private 리더보드 점수) 점수(50%)에 전문가 심사 점수(50%)를 합산하여, 고득점 순으로 상격 결정
※ 동점자 처리 기준
* 예선 평가 : 기존 데이콘 리더보드 순위 산정 방식(동점의 경우 해당 점수를 먼저 기록한 팀이 높은 순위에 위치함)을 따름
* 본선 평가 : 전문가 심사 평가항목 중 배점 높은 평가항목이 고득점인 팀 순으로 순위 결정
[대회규칙 및 유의사항]
1. 외부 데이터 및 API / 사전 학습 모델 허용 범위
- 외부 데이터 사용 불가능
- 유료 API 사용 불가능
- 법적 제약이 없으며 논문으로 공개된 베이스의 사전 학습 모델(Pre-trained Model) 사용 가능
2. 코드 및 발표자료 제출 규칙
- 예선 종료 후 Private 리더보드 상위 12팀은 본선 진출 후보팀으로 아래의 양식에 맞추어 코드, 발표자료, 포스터를 dacon@dacon.io 메일로 제출 (7월 24일(수) 10:00까지)
※ 메일 발송 시 제목을 '[팀명] SW중심대학 디지털 경진대회 AI부문 최종 산출물 제출' 로 통일
※ 포스터 세션은 평가에 포함되지 않음
3. 유의 사항
- 1일 최대 제출 횟수: 5회
- 사용 가능 언어: Python
- 모든 csv 형식의 데이터와 제출 파일은 UTF-8 인코딩을 적용합니다.
- 모델 학습과 추론에서 평가 데이터셋 정보 활용(Data Leakage)시 수상 후보에서 제외됩니다.
- 모든 학습, 추론의 과정 그리고 추론의 결과물들은 정상적인 코드를 바탕으로 이루어져야하며, 비정상적인 방법으로 얻은 제출물들은 적발 시 규칙 위반에 해당됩니다.
- 최종 순위는 선택된 파일 중에서 채점되므로 참가자는 제출 창에서 자신이 최종적으로 채점 받고 싶은 파일 1개를 선택해야 합니다.
- 대회 직후 공개되는 Private 랭킹은 최종 순위가 아니며 코드 검증 및 본선 평가 후 수상자가 결정됩니다.
- 본 경진대회는 참가팀의 부정 행위를 금지하고 있습니다. 부정 행위가 발견되는 경우, 해당 팀에 대해 평가가 진행되지 않습니다.
- 참가 접수 마감 이후 팀명 변경이 불가합니다.
- 자세한 사항은 [링크]를 참고해 주시기 바랍니다.