농업 환경 변화에 따른 작물 병해 진단 AI 경진대회

알고리즘 | CV | 분류 | 농작물 | Macro f1 score

  • moneyIcon Prize : 총 1,000만원
  • 1,912명 마감

1. 규칙

  • 제출 횟수 및 최대 팀원
  1. 1일 최대 제출 횟수 : 3회
  2. 팀 최대 인원 : 3명
  • 리더보드
from sklearn.metrics import f1_score
score = f1_score(answer, preds, average='macro')
  1. 평가 산식 : Macro f1 score
  2. public score : 전체 테스트 데이터 중 33%
  3. private score : 전체 테스트 데이터 중 67%
  • 평가 방식
  1. 1차 평가 : 리더보드 private ranking
  2. 2차 평가 private score 상위 10팀 코드 및 PPT 제출 후 온라인 대면 평가
  3. 최종 수상 3팀 선정
  • 2차 평가 : 온라인 대면 평가, 상위 3팀 수상

[평가 항목]

  • 모델 성능

- 리더보드 Private 점수 : 30

- 환경 데이터 사용 여부 : 10

  • 적용 가능성

- 동작 속도 : 15

- 모델&데이터 로딩 후 데이터 전처리 ~ 추론 ~ 결과 저장 시간 측정

  • 정보 공유

- 코드 공유, 토론 및 답변 : 5

  • 자료

- 제출 코드의 전처리, 학습, 추론, 설명 자료 : 각 5

  • 발표 내용, 시간 준수, 질의응답 : 20

- 모델 창의성 / 모델의 한계 분석 등 포함

  • 코드 평가
  1. 다음 조건을 만족하며 제출한 코드로 Private Score 복원된 상위 3팀에게 상금 수여
  2. 대회 종료 후 평가 희망자는 코드 공유 게시판에 코드 게시 및 코드와 설명자료를 dacon@dacon.io로 제출
  3. 코드에 '/data' 데이터 입/출력 경로 포함
  4. 코드 파일 확장자 :.R, .rmd, .py, .ipynb
  5. 코드 제출 유의사항
  6. 코드 인코딩 UTF-8
  7. 개발환경(OS) 및 라이브러리 버전 기재
  8. 학습이 완료된 모델 제출
  9. 전체 실행 프로세스 및 코드 실행방법을 readme파일로 정리해서 제출
  10. 코드에 대한 주석을 모두 달 필요는 없으나 실행 방법대로 실행 시 모든 코드가 오류없이 실행되어야 합니다.
  11. 설명자료 제출 유의사항
  12. 데이터 전처리 / 모델링에 대한 간략한 설명
  13. (사용했을 시) 추가 데이터셋 혹은 Pre-trained 모델 명시
  • 코드 평가 제출 양식
  1. 아래 제출 양식(b, c)에 맞춰 입사 희망여부와 함께 메일에 첨부
  2. 코드(필수, Python 또는 R로 작성)
  3. 외부 데이터 사용 시, 해당 데이터 및 전처리 코드(출처 표기, 크롤링 시 크롤링 코드 추가)
  4. 모델 생성 및 학습 코드
  5. 추론 코드
  6. 리더보드 점수 복원이 가능한 모델
  7. 개발 환경(OS) 및 라이브러리 버전 기재

※ i ~ iii의 코드를 따로 제출 해야 합니다.

  • 온라인 대면평가 발표 자료(필수)
  1. 아래 기준(5. 평가 기준)에 맞춰 자유 양식으로 작성
  2. 각 팀원의 역할 명시
  3. 발표 시간 10분 분량으로 준비
  • 이력서(선택, 입사희망자)
  1. 제출 양식에 맞춰 제출
  2. 이력서 양식 다운로드
  3. [데이콘] 제 3자 정보 제공 동의서
  • 코드 검증 환경
  1. NVIDIA GeForce RTX 3090 / Ubuntu 18.04.6 LTS (64bit)
  2. Tesla V100-PCIE-32GB / Ubuntu 16.04.6 LTS (64bit)
  3. Colab GPU / Linux-5.4.104+-x86_64-with-Ubuntu-18.04-bionic



2. 외부 데이터 및 사전 학습 모델, 부정행위

  • 법적 제약이 없으며 공개된 사전 학습 모델 및 외부 데이터 사용 허용
  • 테스트 데이터는 추론 과정에서만 사용 가능하며, 아래와 같은 경우는 부정행위(Data Leakage)로 판단합니다.
  • Label Encoding 시 학습 데이터와 테스트 데이터를 concat 하여 한꺼번에 인코딩 하는 경우
  • Scaler 사용 시 테스트 데이터의 통계 (평균, 최빈값 등)를 사용하는 경우
  • 테스트 데이터에 대한 Imputation 시 테스트 데이터의 통계 (평균, 최빈값 등)를 사용하는 경우


3. 개인 및 팀 병합 규정

  • 개인 참가 방법 : 팀 신청 없이, 자유롭게 제출탭에서 제출 가능
  • 팀 참가 방법 : 팀 탭에서 가능, 상세 내용은 팀 탭에서 정책 확인
  • 하나의 대회는 하나의 팀으로만 등록 가능
  • 팀 병합 후 해체 및 개인 참가 불가
  • 팀의 수상 요건 충족시 팀의 대표가 수상


4. 유의 사항

  • 사용 가능 언어 : Python, R
  • 최종 순위는 선택된 파일 중에서 채점되므로 참가자는 제출창에서 자신이 최종적으로 채점 받고 싶은 파일을 선택해야 함(최대 2개 선택)
  • 대회 직후 공개되는 Private 랭킹은 최종 순위가 아니며 코드 검증 후 수상자가 결정됨
  • 데이콘은 부정 제출 행위를 금지하고 있으며 데이콘 대회 부정 제출 이력이 있는 경우 평가가 제한됩니다. 자세한 사항은 아래의 링크를 참고해주시기 바랍니다. https://dacon.io/notice/notice/13


5. 대회문의

  • 대회 운영 및 데이터 이상에 관련된 질문 외에는 답변을 드리지 않고 있습니다. 기타 질문은 토론 페이지를 통해 자유롭게 토론해주시기 바랍니다.
  • 데이콘 답변을 희망하는 경우 [토크] - [DAKER! 대회 관련 문의] 페이지에 댓글을 남겨주시기 바랍니다.


Main Event Schedule

  1. 12.20

    Start Date

  2. 01.20

    Team Merger Deadline

  3. 01.20

    Close

1. 규칙

  • 제출 횟수 및 최대 팀원
  1. 1일 최대 제출 횟수 : 3회
  2. 팀 최대 인원 : 3명
  • 리더보드
from sklearn.metrics import f1_score
score = f1_score(answer, preds, average='macro')
  1. 평가 산식 : Macro f1 score
  2. public score : 전체 테스트 데이터 중 33%
  3. private score : 전체 테스트 데이터 중 67%
  • 평가 방식
  1. 1차 평가 : 리더보드 private ranking
  2. 2차 평가 private score 상위 10팀 코드 및 PPT 제출 후 온라인 대면 평가
  3. 최종 수상 3팀 선정
  • 2차 평가 : 온라인 대면 평가, 상위 3팀 수상

[평가 항목]

  • 모델 성능

- 리더보드 Private 점수 : 30

- 환경 데이터 사용 여부 : 10

  • 적용 가능성

- 동작 속도 : 15

- 모델&데이터 로딩 후 데이터 전처리 ~ 추론 ~ 결과 저장 시간 측정

  • 정보 공유

- 코드 공유, 토론 및 답변 : 5

  • 자료

- 제출 코드의 전처리, 학습, 추론, 설명 자료 : 각 5

  • 발표 내용, 시간 준수, 질의응답 : 20

- 모델 창의성 / 모델의 한계 분석 등 포함

  • 코드 평가
  1. 다음 조건을 만족하며 제출한 코드로 Private Score 복원된 상위 3팀에게 상금 수여
  2. 대회 종료 후 평가 희망자는 코드 공유 게시판에 코드 게시 및 코드와 설명자료를 dacon@dacon.io로 제출
  3. 코드에 '/data' 데이터 입/출력 경로 포함
  4. 코드 파일 확장자 :.R, .rmd, .py, .ipynb
  5. 코드 제출 유의사항
  6. 코드 인코딩 UTF-8
  7. 개발환경(OS) 및 라이브러리 버전 기재
  8. 학습이 완료된 모델 제출
  9. 전체 실행 프로세스 및 코드 실행방법을 readme파일로 정리해서 제출
  10. 코드에 대한 주석을 모두 달 필요는 없으나 실행 방법대로 실행 시 모든 코드가 오류없이 실행되어야 합니다.
  11. 설명자료 제출 유의사항
  12. 데이터 전처리 / 모델링에 대한 간략한 설명
  13. (사용했을 시) 추가 데이터셋 혹은 Pre-trained 모델 명시
  • 코드 평가 제출 양식
  1. 아래 제출 양식(b, c)에 맞춰 입사 희망여부와 함께 메일에 첨부
  2. 코드(필수, Python 또는 R로 작성)
  3. 외부 데이터 사용 시, 해당 데이터 및 전처리 코드(출처 표기, 크롤링 시 크롤링 코드 추가)
  4. 모델 생성 및 학습 코드
  5. 추론 코드
  6. 리더보드 점수 복원이 가능한 모델
  7. 개발 환경(OS) 및 라이브러리 버전 기재

※ i ~ iii의 코드를 따로 제출 해야 합니다.

  • 온라인 대면평가 발표 자료(필수)
  1. 아래 기준(5. 평가 기준)에 맞춰 자유 양식으로 작성
  2. 각 팀원의 역할 명시
  3. 발표 시간 10분 분량으로 준비
  • 이력서(선택, 입사희망자)
  1. 제출 양식에 맞춰 제출
  2. 이력서 양식 다운로드
  3. [데이콘] 제 3자 정보 제공 동의서
  • 코드 검증 환경
  1. NVIDIA GeForce RTX 3090 / Ubuntu 18.04.6 LTS (64bit)
  2. Tesla V100-PCIE-32GB / Ubuntu 16.04.6 LTS (64bit)
  3. Colab GPU / Linux-5.4.104+-x86_64-with-Ubuntu-18.04-bionic



2. 외부 데이터 및 사전 학습 모델, 부정행위

  • 법적 제약이 없으며 공개된 사전 학습 모델 및 외부 데이터 사용 허용
  • 테스트 데이터는 추론 과정에서만 사용 가능하며, 아래와 같은 경우는 부정행위(Data Leakage)로 판단합니다.
  • Label Encoding 시 학습 데이터와 테스트 데이터를 concat 하여 한꺼번에 인코딩 하는 경우
  • Scaler 사용 시 테스트 데이터의 통계 (평균, 최빈값 등)를 사용하는 경우
  • 테스트 데이터에 대한 Imputation 시 테스트 데이터의 통계 (평균, 최빈값 등)를 사용하는 경우


3. 개인 및 팀 병합 규정

  • 개인 참가 방법 : 팀 신청 없이, 자유롭게 제출탭에서 제출 가능
  • 팀 참가 방법 : 팀 탭에서 가능, 상세 내용은 팀 탭에서 정책 확인
  • 하나의 대회는 하나의 팀으로만 등록 가능
  • 팀 병합 후 해체 및 개인 참가 불가
  • 팀의 수상 요건 충족시 팀의 대표가 수상


4. 유의 사항

  • 사용 가능 언어 : Python, R
  • 최종 순위는 선택된 파일 중에서 채점되므로 참가자는 제출창에서 자신이 최종적으로 채점 받고 싶은 파일을 선택해야 함(최대 2개 선택)
  • 대회 직후 공개되는 Private 랭킹은 최종 순위가 아니며 코드 검증 후 수상자가 결정됨
  • 데이콘은 부정 제출 행위를 금지하고 있으며 데이콘 대회 부정 제출 이력이 있는 경우 평가가 제한됩니다. 자세한 사항은 아래의 링크를 참고해주시기 바랍니다. https://dacon.io/notice/notice/13


5. 대회문의

  • 대회 운영 및 데이터 이상에 관련된 질문 외에는 답변을 드리지 않고 있습니다. 기타 질문은 토론 페이지를 통해 자유롭게 토론해주시기 바랍니다.
  • 데이콘 답변을 희망하는 경우 [토크] - [DAKER! 대회 관련 문의] 페이지에 댓글을 남겨주시기 바랍니다.


Main Event Schedule

  1. 12.20

    Start Date
  2. 01.20

    Team Merger Deadline
  3. 01.20

    Close