저해상도 조류 이미지 분류 AI 경진대회

알고리즘 | 월간 데이콘 | Vision | 분류 | Macro F1 Score

  • moneyIcon 상금 : 인증서 + 데이스쿨
  • 962명 마감

1. 리더보드

  • 평가 산식 : Macro F1 Score
  • Public Score: 전체 테스트 샘플 중 사전 샘플링된 49%
  • Private Score: 전체 테스트 샘플 중 나머지 51%


2. 평가

  • 1차 평가: 리더보드 Private Score
  • 2차 평가: Private Score 상위 10팀 코드 및 PPT 제출 후 유저 평가 및 코드 검증


3. 참여

  • 개인 또는 팀을 이루어 참여할 수 있습니다.
  • 단체 혹은 기관 참여시 별도의 절차가 필요합니다. (More > 공지사항> 게시글 확인)
  • 개인 참가 방법: 팀 신청 없이, 자유롭게 제출 창에서 제출 가능
  • 팀 구성 방법: 팀 페이지에서 팀 구성 안내 확인
  • 팀 최대 인원: 5 명

                   * 동일인이 개인 또는 복수팀에 중복하여 등록 불가.

  • 1일 제출 가능 횟수: 3회

 

4. API, 외부 데이터 및 사전 학습 모델

  • 모든 외부 API 사용 불가능
  • 대회 제공 데이터 이외의 외부 데이터 사용 금지
  • 사용에 법적 제한이 없으며 오픈 소스로 공개된 CIFAR 또는 ImageNet에서 사전 학습된 모델(Pre-trained Model)만 사용 가능


5. 코드 및 PPT 제출 규칙

  • 대회 종료 후 2차 평가 대상자는 아래의 양식에 맞추어 코드와 PPT를 [코드 공유 게시판]에 기한 내 제출
  • 코드
  • 코드에 ‘/data’ 데이터 입/출력 경로 포함
  • 코드 파일 확장자: .R, .rmd, .py, .ipynb
  • 코드와 주석 인코딩: UTF-8
  • 모든 코드는 오류 없이 실행되어야 함(라이브러리 로딩 코드 포함)
  • 개발 환경(OS) 및 라이브러리 버전 기재
  • 사전 학습 모델 사용 시 출처와 (별도 필요시) 다운로드 링크
  • 제출한 코드는 Private Score 복원이 가능해야 함
  • 솔루션 설명 PPT 자료
  • 자유 양식
  • 코드와 PPT 자료 모두 제출해야 수상이 가능합니다.


6. 유의 사항

  • 1일 최대 제출 횟수: 3회
  • 사용 가능 언어: Python
  • 대회 기간 내 팀 외의 모든 인사이트 및 코드 공유는 데이콘 플랫폼 내에서 공개적으로만 이루어져야하며 이 밖의 모든 비공식적인 공유 행위는 Private Sharing으로 간주합니다.
  • 모든 학습, 추론의 과정 그리고 추론의 결과물들은 정상적인 코드를 바탕으로 이루어져야하며, 비정상적인 방법으로 얻은 제출물들은 적발 시 규칙 위반에 해당됩니다.
  • 평가 데이터셋 정보를 학습에 활용하는 행위는 Data Leakage에 해당하며, 적발 시 규칙 위반에 해당합니다.
  • 평가 데이터셋을 학습시키는 Pseudo Labeling 또한 규칙 위반에 해당합니다.
  • 최종 순위는 선택된 파일 중에서 채점되므로 참가자는 제출 창에서 자신이 최종적으로 채점 받고 싶은 파일 1개를 선택해야 함
  • 대회 직후 공개되는 Private 랭킹은 최종 순위가 아니며 코드 검증 후 수상자가 결정됨
  • 데이콘은 부정 제출 행위를 엄격히 금지하고 있으며, 데이콘 대회 부정 제출 이력이 있는 경우 평가가 제한됩니다. 자세한 사항은 아래의 링크를 참고해 주시기 바랍니다. https://dacon.io/notice/notice/13


7. 문의

  • 대회 운영 및 데이터 이상에 관련된 질문 외에는 답변을 드리지 않고 있습니다. 기타 질문은 토론 페이지를 통해 자유롭게 토론해 주시기 바랍니다.
  • 데이콘 답변을 희망하는 경우 [토크] 페이지 대회 문의 게시글에 댓글을 올려 주시기 바랍니다.


대회 주요 일정

  1. 04.08

    대회 시작

  2. 04.29

    팀 병합 마감

  3. 05.06

    대회 종료

  4. 05.10

    코드 및 PPT 제출 마감

  5. 05.19

    유저 평가 및 코드 검증

  6. 05.20

    최종 수상자 발표

1. 리더보드

  • 평가 산식 : Macro F1 Score
  • Public Score: 전체 테스트 샘플 중 사전 샘플링된 49%
  • Private Score: 전체 테스트 샘플 중 나머지 51%


2. 평가

  • 1차 평가: 리더보드 Private Score
  • 2차 평가: Private Score 상위 10팀 코드 및 PPT 제출 후 유저 평가 및 코드 검증


3. 참여

  • 개인 또는 팀을 이루어 참여할 수 있습니다.
  • 단체 혹은 기관 참여시 별도의 절차가 필요합니다. (More > 공지사항> 게시글 확인)
  • 개인 참가 방법: 팀 신청 없이, 자유롭게 제출 창에서 제출 가능
  • 팀 구성 방법: 팀 페이지에서 팀 구성 안내 확인
  • 팀 최대 인원: 5 명

                   * 동일인이 개인 또는 복수팀에 중복하여 등록 불가.

  • 1일 제출 가능 횟수: 3회

 

4. API, 외부 데이터 및 사전 학습 모델

  • 모든 외부 API 사용 불가능
  • 대회 제공 데이터 이외의 외부 데이터 사용 금지
  • 사용에 법적 제한이 없으며 오픈 소스로 공개된 CIFAR 또는 ImageNet에서 사전 학습된 모델(Pre-trained Model)만 사용 가능


5. 코드 및 PPT 제출 규칙

  • 대회 종료 후 2차 평가 대상자는 아래의 양식에 맞추어 코드와 PPT를 [코드 공유 게시판]에 기한 내 제출
  • 코드
  • 코드에 ‘/data’ 데이터 입/출력 경로 포함
  • 코드 파일 확장자: .R, .rmd, .py, .ipynb
  • 코드와 주석 인코딩: UTF-8
  • 모든 코드는 오류 없이 실행되어야 함(라이브러리 로딩 코드 포함)
  • 개발 환경(OS) 및 라이브러리 버전 기재
  • 사전 학습 모델 사용 시 출처와 (별도 필요시) 다운로드 링크
  • 제출한 코드는 Private Score 복원이 가능해야 함
  • 솔루션 설명 PPT 자료
  • 자유 양식
  • 코드와 PPT 자료 모두 제출해야 수상이 가능합니다.


6. 유의 사항

  • 1일 최대 제출 횟수: 3회
  • 사용 가능 언어: Python
  • 대회 기간 내 팀 외의 모든 인사이트 및 코드 공유는 데이콘 플랫폼 내에서 공개적으로만 이루어져야하며 이 밖의 모든 비공식적인 공유 행위는 Private Sharing으로 간주합니다.
  • 모든 학습, 추론의 과정 그리고 추론의 결과물들은 정상적인 코드를 바탕으로 이루어져야하며, 비정상적인 방법으로 얻은 제출물들은 적발 시 규칙 위반에 해당됩니다.
  • 평가 데이터셋 정보를 학습에 활용하는 행위는 Data Leakage에 해당하며, 적발 시 규칙 위반에 해당합니다.
  • 평가 데이터셋을 학습시키는 Pseudo Labeling 또한 규칙 위반에 해당합니다.
  • 최종 순위는 선택된 파일 중에서 채점되므로 참가자는 제출 창에서 자신이 최종적으로 채점 받고 싶은 파일 1개를 선택해야 함
  • 대회 직후 공개되는 Private 랭킹은 최종 순위가 아니며 코드 검증 후 수상자가 결정됨
  • 데이콘은 부정 제출 행위를 엄격히 금지하고 있으며, 데이콘 대회 부정 제출 이력이 있는 경우 평가가 제한됩니다. 자세한 사항은 아래의 링크를 참고해 주시기 바랍니다. https://dacon.io/notice/notice/13


7. 문의

  • 대회 운영 및 데이터 이상에 관련된 질문 외에는 답변을 드리지 않고 있습니다. 기타 질문은 토론 페이지를 통해 자유롭게 토론해 주시기 바랍니다.
  • 데이콘 답변을 희망하는 경우 [토크] 페이지 대회 문의 게시글에 댓글을 올려 주시기 바랍니다.


대회 주요 일정

  1. 04.08

    대회 시작
  2. 04.29

    팀 병합 마감
  3. 05.06

    대회 종료
  4. 05.10

    코드 및 PPT 제출 마감
  5. 05.19

    유저 평가 및 코드 검증
  6. 05.20

    최종 수상자 발표