블럭 장난감 제조 공정 최적화 AI경진대회

알고리즘 | 정형 | 강화 학습 | 제조

  • moneyIcon 상금 : 총 600만원
  • 874명 마감

1. 평가식

F(x, a): 1 - x/a if x < a else 0

p: 수요 발생 시 블럭 장난감 생산 부족분 합계

q: 수요 발생 시 블럭 장난감 생산 초과분 합계

c: 성형 공정 변경 시간 합계

c_n: 성형 공정 변경 이벤트 횟수

s: 멈춤 시간 합계

s_n: 멈춤 이벤트 횟수

N: 블럭 장난감 총 수요

M: 전체 시간


Score = 50 x F(p, 10N) + 20 x F(q, 10N) + 20 x F(c, M) / (1+0.1 x c_n) + 10 x F(s, M) / (1+0.1 x s_n)

* 공정 조건을 만족하지 않으면 0점으로 기록됨

* 데이터 타입이 다른 경우 0점으로 기록됨

* 점수가 같을 경우 다음 부분 점수 순서로 우선 순위 결정

F(p, 10N)

F(c, M) / (1+0.1 x c_n)

F(s, M) / (1+0.1 x s_n)

F(q, 10N)


2. 외부 데이터

- 사용 불가


3. 개인 및 팀 병합 규정

- 개인 참가 방법 : 팀 신청 없이, 자유롭게 제출 창에서 제출 가능 

- 팀 참가 방법 : 팀 배너에서 가능, 상세 내용은 팀 배너에서 팀 병합 정책 확인

* 하나의 대회에는 하나의 팀으로만 등록 가능

* 팀의 수상 요건 충족 시 팀의 대표가 수상

 

4. 코드 제출 규칙

- 입상자는 데이콘에서 안내한 양식에 맞추어 코드 제출

- R user는 R or .rmd. Python user는 .py or .ipynb로 제출

- 코드에 ‘/data’ 데이터 입/출력 경로 포함

- 전체 프로세스를 가독성 있게 정리하여 주석 포함 하나의 파일로 제출

- 제출 코드는 리더보드 점수를 복원할 수 있어야 함

- 모든 코드는 오류 없이 실행되어야 함 (라이브러리 로딩 코드 포함)

- 코드와 주석의 인코딩은 UTF-8 사용

- AI 모델을 사용해야 함

* AI 모델 학습 과정이 있어야 함

* Gurobi, FICO 등 상용 솔루션 사용 불가


5. 평가

- 대회 종료 후 Public Score 기준 1~15 위 팀은 2020년 07월 03일 23:59 까지 코드와 함께 PT 자료 제출

- [코드, PT 양식 다운로드]

- 제출된 자료를 바탕으로 온라인 대면 평가 실시 (10분 발표, 5분 질의 응답)

- 최종 점수를 산출하여 최종 수상자 및 추천인 10명 선정

- 추천인 중 입사 지원자에 한해 이력서, 개인정보이용동의서 제출

- 데이콘 대회 부정제출 이력이 있는 경우 평가 제한

- 코드 공유 / 토론 활동에 따라 가점 부여


6. 온라인 대면 평가 점수

- 모델

(20) 모델 성능: 리더보드 점수

(20) 적용 가능성: 현업 적용 가능성, 동작 속도 (훈련, 예측), 모델 재사용

(10) 독창성: 모델의 독창성 / 참신성

(10) 확장성: 다른 문제로 확장/응용 가능성

- 코드

(10) 코드 정리: 가독성, 코드 중복, 논리

- 발표

(10) 자료: 제출 자료 완성도

(20) 전달: 발표 내용, 시간 준수, 질의 응답

대회 주요 일정

  1. 06.01

    대회 시작

  2. 06.30

    팀 병합 마감

  3. 06.30

    대회 종료

  4. 07.01

    코드 제출 시작

  5. 07.03

    코드 제출 마감

  1. 07.09

    온라인 대면 평가 시작

  2. 07.10

    온라인 대면 평가 종료

  3. 07.13

    최종 순위 발표

  4. 07.16

    시상식

1. 평가식

F(x, a): 1 - x/a if x < a else 0

p: 수요 발생 시 블럭 장난감 생산 부족분 합계

q: 수요 발생 시 블럭 장난감 생산 초과분 합계

c: 성형 공정 변경 시간 합계

c_n: 성형 공정 변경 이벤트 횟수

s: 멈춤 시간 합계

s_n: 멈춤 이벤트 횟수

N: 블럭 장난감 총 수요

M: 전체 시간


Score = 50 x F(p, 10N) + 20 x F(q, 10N) + 20 x F(c, M) / (1+0.1 x c_n) + 10 x F(s, M) / (1+0.1 x s_n)

* 공정 조건을 만족하지 않으면 0점으로 기록됨

* 데이터 타입이 다른 경우 0점으로 기록됨

* 점수가 같을 경우 다음 부분 점수 순서로 우선 순위 결정

F(p, 10N)

F(c, M) / (1+0.1 x c_n)

F(s, M) / (1+0.1 x s_n)

F(q, 10N)


2. 외부 데이터

- 사용 불가


3. 개인 및 팀 병합 규정

- 개인 참가 방법 : 팀 신청 없이, 자유롭게 제출 창에서 제출 가능 

- 팀 참가 방법 : 팀 배너에서 가능, 상세 내용은 팀 배너에서 팀 병합 정책 확인

* 하나의 대회에는 하나의 팀으로만 등록 가능

* 팀의 수상 요건 충족 시 팀의 대표가 수상

 

4. 코드 제출 규칙

- 입상자는 데이콘에서 안내한 양식에 맞추어 코드 제출

- R user는 R or .rmd. Python user는 .py or .ipynb로 제출

- 코드에 ‘/data’ 데이터 입/출력 경로 포함

- 전체 프로세스를 가독성 있게 정리하여 주석 포함 하나의 파일로 제출

- 제출 코드는 리더보드 점수를 복원할 수 있어야 함

- 모든 코드는 오류 없이 실행되어야 함 (라이브러리 로딩 코드 포함)

- 코드와 주석의 인코딩은 UTF-8 사용

- AI 모델을 사용해야 함

* AI 모델 학습 과정이 있어야 함

* Gurobi, FICO 등 상용 솔루션 사용 불가


5. 평가

- 대회 종료 후 Public Score 기준 1~15 위 팀은 2020년 07월 03일 23:59 까지 코드와 함께 PT 자료 제출

- [코드, PT 양식 다운로드]

- 제출된 자료를 바탕으로 온라인 대면 평가 실시 (10분 발표, 5분 질의 응답)

- 최종 점수를 산출하여 최종 수상자 및 추천인 10명 선정

- 추천인 중 입사 지원자에 한해 이력서, 개인정보이용동의서 제출

- 데이콘 대회 부정제출 이력이 있는 경우 평가 제한

- 코드 공유 / 토론 활동에 따라 가점 부여


6. 온라인 대면 평가 점수

- 모델

(20) 모델 성능: 리더보드 점수

(20) 적용 가능성: 현업 적용 가능성, 동작 속도 (훈련, 예측), 모델 재사용

(10) 독창성: 모델의 독창성 / 참신성

(10) 확장성: 다른 문제로 확장/응용 가능성

- 코드

(10) 코드 정리: 가독성, 코드 중복, 논리

- 발표

(10) 자료: 제출 자료 완성도

(20) 전달: 발표 내용, 시간 준수, 질의 응답

대회 주요 일정

  1. 06.01

    대회 시작
  2. 06.30

    팀 병합 마감
  3. 06.30

    대회 종료
  4. 07.01

    코드 제출 시작
  5. 07.03

    코드 제출 마감
  6. 07.09

    온라인 대면 평가 시작
  7. 07.10

    온라인 대면 평가 종료
  8. 07.13

    최종 순위 발표
  9. 07.16

    시상식