커뮤니티 대회 교육

월간 데이콘 발화자의 감정인식 AI 경진대회

알고리즘 | 언어 | 분류 | Macro f1 score

  • moneyIcon 상금 : 인증서
  • 451명 D-13

1. 리더 보드

  • 평가 산식 : Macro F1 score
  • Public score : 전체 테스트 데이터 중 30%
  • Private score : 전체 테스트 데이터 중 70%


2. 평가 방식

  • 1차 평가(Public Score): 테스트 데이터 중 랜덤 샘플 된 30%로 채점, 대회 기간 중 공개
  • 2차 평가(Private Score): 테스트 데이터 중 나머지 70%로 채점, 대회 종료 직후 공개


3. 개인 또는 팀 참여 규칙

  • 개인 또는 팀을 이루어 참여할 수 있습니다.
  • 개인 참가 방법 : 팀 신청 없이, 자유롭게 제출탭에서 제출 가능
  • 팀 참가 방법 : 팀 탭에서 가능, 상세 내용은 팀 탭에서 팀 병합 정책 확인
  • 팀 구성 방법: 팀 페이지에서 팀 구성 안내 확인
  • 팀 최대 인원: 5 명
  • 동일인이 개인 또는 복수팀에 중복하여 등록 불가
  • 1일 제출 가능 횟수: 3회

  

4. 외부 데이터 및 사전 학습 모델

  • 외부 데이터 사용 불가
  • 법적 제약이 없으며 논문으로 공개된 사전 학습 모델(Pre-trained Model) 사용 가능
  • 사용한 사전 학습 모델의 출처 필수 기재
  • Test Dataset이 포함된 데이터로 사전 학습된 모델 사용 불가능
  • Data Leakage (참고 : Data Leakage에 대한 개인적인 정리) 혹은 규칙 위반이 의심 되는 경우 코드를 요청할 수 있음

 

5. 유저 평가

  • 수상 인증서를 원하는 팀은 먼저 유저 평가를 받아야합니다.
  • Private 순위 공개 후 코드 제출 기간 내 코드 공유 페이지에 코드 업로드
  • 제목에 Private 순위와 사용한 모델, 코드에 대한 keyword 기재

예시) Private 1위, LGBM 모델, 00전처리 기법 활용

  • 대회 참가자는 공개된 코드 평가
  • 코드 오류, 외부 데이터 사용 등 코멘트를 댓글로 작성



6. 유의 사항

  • 1일 최대 제출 횟수: 3회
  • 사용 가능 언어: Python, R
  • 모델 학습에서 평가 데이터셋 활용시(Data Leakage) 수상 제외
  • 최종 순위는 선택된 파일 중에서 채점되므로, 참가자는 제출 창에서 자신이 최종적으로 채점 받고 싶은 파일 2개를 선택해야 함

2개의 선택 파일 중 높은 점수를 기준으로 최송 순위를 결정

(최종 파일 미선택시 처음으로 제출한 파일로 자동 선택됨,)

  • 대회 직후 공개되는 Private Score 랭킹은 최종 순위가 아니며, 코드 검증 후 최종 수상자가 결정됨
  • 대회 평가 규칙을 준수한 제출팀 중 Private Score를 기준으로 최종 순위를 결정
  • 데이콘은 부정 제출 행위를 금지하고 있으며 데이콘 대회 부정 제출 이력이 있는 경우 평가가 제한됩니다. 자세한 사항은 아래의 링크를 참고해 주시기 바랍니다. https://dacon.io/notice/notice/13

 

7. 대회문의

  • 대회 운영 및 데이터 이상에 관련된 질문 외에는 답변을 드리지 않고 있습니다. 기타 질문은 토론 페이지를 통해 자유롭게 토론해주시기 바랍니다.
  • 데이콘 답변을 희망하는 경우 [토크] 페이지 대회 문의 게시글에 댓글을 올려 주시기 바랍니다.



대회 주요 일정

  1. 11.01

    대회 시작

  2. 12.05

    팀 병합 마감

  3. 12.12

    대회 종료

  4. 12.18

    코드 제출 마감

  5. 12.25

    유저 평가 및 코드 검증

  6. 12.26

    최종 순위 발표

1. 리더 보드

  • 평가 산식 : Macro F1 score
  • Public score : 전체 테스트 데이터 중 30%
  • Private score : 전체 테스트 데이터 중 70%


2. 평가 방식

  • 1차 평가(Public Score): 테스트 데이터 중 랜덤 샘플 된 30%로 채점, 대회 기간 중 공개
  • 2차 평가(Private Score): 테스트 데이터 중 나머지 70%로 채점, 대회 종료 직후 공개


3. 개인 또는 팀 참여 규칙

  • 개인 또는 팀을 이루어 참여할 수 있습니다.
  • 개인 참가 방법 : 팀 신청 없이, 자유롭게 제출탭에서 제출 가능
  • 팀 참가 방법 : 팀 탭에서 가능, 상세 내용은 팀 탭에서 팀 병합 정책 확인
  • 팀 구성 방법: 팀 페이지에서 팀 구성 안내 확인
  • 팀 최대 인원: 5 명
  • 동일인이 개인 또는 복수팀에 중복하여 등록 불가
  • 1일 제출 가능 횟수: 3회

  

4. 외부 데이터 및 사전 학습 모델

  • 외부 데이터 사용 불가
  • 법적 제약이 없으며 논문으로 공개된 사전 학습 모델(Pre-trained Model) 사용 가능
  • 사용한 사전 학습 모델의 출처 필수 기재
  • Test Dataset이 포함된 데이터로 사전 학습된 모델 사용 불가능
  • Data Leakage (참고 : Data Leakage에 대한 개인적인 정리) 혹은 규칙 위반이 의심 되는 경우 코드를 요청할 수 있음

 

5. 유저 평가

  • 수상 인증서를 원하는 팀은 먼저 유저 평가를 받아야합니다.
  • Private 순위 공개 후 코드 제출 기간 내 코드 공유 페이지에 코드 업로드
  • 제목에 Private 순위와 사용한 모델, 코드에 대한 keyword 기재

예시) Private 1위, LGBM 모델, 00전처리 기법 활용

  • 대회 참가자는 공개된 코드 평가
  • 코드 오류, 외부 데이터 사용 등 코멘트를 댓글로 작성



6. 유의 사항

  • 1일 최대 제출 횟수: 3회
  • 사용 가능 언어: Python, R
  • 모델 학습에서 평가 데이터셋 활용시(Data Leakage) 수상 제외
  • 최종 순위는 선택된 파일 중에서 채점되므로, 참가자는 제출 창에서 자신이 최종적으로 채점 받고 싶은 파일 2개를 선택해야 함

2개의 선택 파일 중 높은 점수를 기준으로 최송 순위를 결정

(최종 파일 미선택시 처음으로 제출한 파일로 자동 선택됨,)

  • 대회 직후 공개되는 Private Score 랭킹은 최종 순위가 아니며, 코드 검증 후 최종 수상자가 결정됨
  • 대회 평가 규칙을 준수한 제출팀 중 Private Score를 기준으로 최종 순위를 결정
  • 데이콘은 부정 제출 행위를 금지하고 있으며 데이콘 대회 부정 제출 이력이 있는 경우 평가가 제한됩니다. 자세한 사항은 아래의 링크를 참고해 주시기 바랍니다. https://dacon.io/notice/notice/13

 

7. 대회문의

  • 대회 운영 및 데이터 이상에 관련된 질문 외에는 답변을 드리지 않고 있습니다. 기타 질문은 토론 페이지를 통해 자유롭게 토론해주시기 바랍니다.
  • 데이콘 답변을 희망하는 경우 [토크] 페이지 대회 문의 게시글에 댓글을 올려 주시기 바랍니다.



대회 주요 일정

  1. 11.01

    대회 시작
  2. 12.05

    팀 병합 마감
  3. 12.12

    대회 종료
  4. 12.18

    코드 제출 마감
  5. 12.25

    유저 평가 및 코드 검증
  6. 12.26

    최종 순위 발표