자동차 보험사기 탐지 : 데이스쿨 구독자 전용 AI 해커톤

알고리즘 | 정형 | 분류 | 사기 | macro F1

  • moneyIcon 상금 : 인증서 + 데이스쿨
  • 119명 D-1

1. 리더보드

  • 평가 산식 : Macro F1
  • Public Score: 전체 테스트 데이터 중 30%
  • Private Score: 전체 테스트 데이터 중 70%


2. 평가

  • 1차 평가: 리더보드 Private Score
  • 2차 평가: 수상 인증서를 원하는 팀 코드 제출 후 유저 평가 및 코드 검증


3. 참여

  • 개인으로만 참여 가능
  • 개인 참가 방법 : 팀 신청 없이, 자유롭게 제출 창에서 제출 가능

 

4. 외부 데이터 및 사전 학습 모델

  • 외부 데이터 사용 불가
  • 사용에 법적 제한이 없으며 논문으로 공개된 베이스의 사전 학습 모델(Pre-trained Model) 사용 가


5. AutoML 패키지

  • 모든 AutoML 패키지 사용 불가능


6. 코드 제출 규칙

  • Private 순위 공개 후, 수상 인증서를 원하는 팀은 아래 양식에 맞추어 코드를 [코드 공유 게시판]에 기한 내 제출
  • 코드 양식
  • 제목에 Private 순위와 사용한 모델, 코드에 대한 keyword 기재
  • 예시) Private 1위, LGBM 모델, 00전처리 기법 활용
  • 코드에 ‘/data’ 데이터 입/출력 경로 포함
  • 코드 파일 확장자: .R, .rmd, .py, .ipynb
  • 코드와 주석 인코딩: UTF-8
  • 모든 코드는 오류 없이 실행되어야 함(라이브러리 로딩 코드 포함)
  • 개발 환경(OS) 및 라이브러리 버전 기재
  • 제출한 코드는 Private Score 복원이 가능해야 함


7. 유의 사항

  • 1일 최대 제출 횟수: 3회
  • 사용 가능 언어: Python, R
  • 모델 학습에서 평가 데이터셋 활용(Data Leakage)시 수상 제외
  • label encoding, one-hot encoding 시 test 데이터 셋 활용
  • data scaling 적용 시 test 데이터 셋 활용
  • test 데이터 셋에 pd.get_dummies() 함수 적용
  • test 데이터 셋의 결측치 처리 시 test 데이터 셋의 통계 값 활용
  • 위 예시 외에도 test 데이터 셋이 모델 학습에 활용되는 경우에 Data leakage에 해당됨
  • 최종 순위는 선택된 파일 중에서 채점되므로 참가자는 제출 창에서 자신이 최종적으로 채점 받고 싶은 파일 1개를 선택해야 함
  • 대회 직후 공개되는 Private 랭킹은 최종 순위가 아니며 코드 검증 후 수상자가 결정됨
  • 데이콘은 부정 제출 행위를 금지하며 데이콘 대회 부정 제출 이력 있을 시 평가 제한 (참조: https://dacon.io/notice/notice/13)

 

8. 토론(질문)

  • 대회 운영 및 데이터 이상에 관련된 질문 외에 답변하지 않고 있음

* 데이콘 답변을 희망하는 경우 토론 제목에 [DACON 답변 요청] 문구를 넣어야 함

예) [DACON 답변 요청] 시상식은 언제 열리나요?

대회 주요 일정

  1. 06.02

    팀 병합 마감

  2. 06.03

    대회 시작

  3. 07.01

    대회 종료

  4. 07.03

    코드 제출 마감

  5. 07.07

    유저 평가 및 코드 검증

  6. 07.08

    최종 수상자 발표

1. 리더보드

  • 평가 산식 : Macro F1
  • Public Score: 전체 테스트 데이터 중 30%
  • Private Score: 전체 테스트 데이터 중 70%


2. 평가

  • 1차 평가: 리더보드 Private Score
  • 2차 평가: 수상 인증서를 원하는 팀 코드 제출 후 유저 평가 및 코드 검증


3. 참여

  • 개인으로만 참여 가능
  • 개인 참가 방법 : 팀 신청 없이, 자유롭게 제출 창에서 제출 가능

 

4. 외부 데이터 및 사전 학습 모델

  • 외부 데이터 사용 불가
  • 사용에 법적 제한이 없으며 논문으로 공개된 베이스의 사전 학습 모델(Pre-trained Model) 사용 가


5. AutoML 패키지

  • 모든 AutoML 패키지 사용 불가능


6. 코드 제출 규칙

  • Private 순위 공개 후, 수상 인증서를 원하는 팀은 아래 양식에 맞추어 코드를 [코드 공유 게시판]에 기한 내 제출
  • 코드 양식
  • 제목에 Private 순위와 사용한 모델, 코드에 대한 keyword 기재
  • 예시) Private 1위, LGBM 모델, 00전처리 기법 활용
  • 코드에 ‘/data’ 데이터 입/출력 경로 포함
  • 코드 파일 확장자: .R, .rmd, .py, .ipynb
  • 코드와 주석 인코딩: UTF-8
  • 모든 코드는 오류 없이 실행되어야 함(라이브러리 로딩 코드 포함)
  • 개발 환경(OS) 및 라이브러리 버전 기재
  • 제출한 코드는 Private Score 복원이 가능해야 함


7. 유의 사항

  • 1일 최대 제출 횟수: 3회
  • 사용 가능 언어: Python, R
  • 모델 학습에서 평가 데이터셋 활용(Data Leakage)시 수상 제외
  • label encoding, one-hot encoding 시 test 데이터 셋 활용
  • data scaling 적용 시 test 데이터 셋 활용
  • test 데이터 셋에 pd.get_dummies() 함수 적용
  • test 데이터 셋의 결측치 처리 시 test 데이터 셋의 통계 값 활용
  • 위 예시 외에도 test 데이터 셋이 모델 학습에 활용되는 경우에 Data leakage에 해당됨
  • 최종 순위는 선택된 파일 중에서 채점되므로 참가자는 제출 창에서 자신이 최종적으로 채점 받고 싶은 파일 1개를 선택해야 함
  • 대회 직후 공개되는 Private 랭킹은 최종 순위가 아니며 코드 검증 후 수상자가 결정됨
  • 데이콘은 부정 제출 행위를 금지하며 데이콘 대회 부정 제출 이력 있을 시 평가 제한 (참조: https://dacon.io/notice/notice/13)

 

8. 토론(질문)

  • 대회 운영 및 데이터 이상에 관련된 질문 외에 답변하지 않고 있음

* 데이콘 답변을 희망하는 경우 토론 제목에 [DACON 답변 요청] 문구를 넣어야 함

예) [DACON 답변 요청] 시상식은 언제 열리나요?

대회 주요 일정

  1. 06.02

    팀 병합 마감
  2. 06.03

    대회 시작
  3. 07.01

    대회 종료
  4. 07.03

    코드 제출 마감
  5. 07.07

    유저 평가 및 코드 검증
  6. 07.08

    최종 수상자 발표