분석시각화 대회 코드 공유 게시물은
내용 확인 후
좋아요(투표) 가능합니다.
※ 본 대회의 경우 모델: Llama-3.1-8B-Instruct 모델 , text-based LLM output, 언어는 한국어로 제한함
1) [필수] 모델 예측 결과 파일(CSV)
- 제출 기한 : 25. 05. 19(월) 오전 10:00 까지
- 제출 방법 : [제출] 탭에 예측 결과 파일 업로드
※ Raw Input에 대해서 Raw Output이 Reproduce가 안되거나, Raw Input에 Retrived 된 Context에 Bias DB가 포함되는 경우 규칙 위반에 해당합니다.
※ 파일 제출 시 마다 순위가 가장 높은 파일이 자동으로 선택됨.
최종 채점받고 싶은 파일이 순위가 가장 높은 파일이 아닌 경우 채점 받고 싶은 파일을 직접 선택할 수 있음
※ 1일 최대 제출 횟수 : 5회
1차 평가 종료 후 Private 리더보드 상위 15팀(예비 5팀 포함)은 2차 평가 대상팀으로 아래의 양식에 맞추어 코드, 발표 자료를 dacon@dacon.io 기한 내 메일로 제출
※ 메일 발송 시 제목을 '[팀명] 2025 Bias-A-Thon Track 2 최종 산출물 제출' 로 통일
※ 제출 기한 : ~ 5. 22(목) 오전 10시까지
1) [필수] 코드
- 제출 형태
⓵ Private Score 복원이 가능한 코드 파일
⓶ 외부 데이터 사용 시 사용한 모든 외부 데이터 파일
- 제출 양식
※ 제출한 코드는 Private Score 복원이 가능해야함
⓵ 코드와 주석 인코딩 : UTF-8
⓶ 모든 코드는 오류 없이 실행되어야 함(라이브러리 로딩 코드 포함)
⓷ 개발 환경(OS) 및 라이브러리 버전 기재
2) [필수] 발표 자료
- 제출 형태 : 발표 15분 분량의 자유 양식으로 문제 해결 솔루션 PDF로 제출 (발표 15분, 질의응답 5분 예정)
※ 발표는 '발표자료(PDF)' 파일로 진행 * 기술적 오류 방지를 위해 PPT는 허용되지 않음
- Python
- Neutral하고 Unbias된 외부 데이터만 사용 가능
- BBQ, UnQover, StereoSet, WinoBias, TriviaQA 데이터셋은 사용 불가능
※ 허용되지 않은 외부 데이터 사용이 적발되는 경우 규칙 위반에 해당합니다.
- 본 트랙에서는 Llama-3.1-8B-Instruct 모델을 사용하여 프롬프트 및 RAG 기반 응답을 생성해야 합니다.
- 해당 모델은 반드시 로컬 환경에 직접 로드하여 실행해야 하며, 외부 API 서비스(예: Hugging Face Inferece API, Together AI, OpenRouter 등)를 통한 호출은 불가능합니다.
- 즉, 모델 파라미터가 실제로 참가자의 개발 환경에 존재하고, 로컬에서 모델을 구동하는 방식이어야 하며, 제3자 서버에서 제공하는 추론 결과를 사용하는 것은 허용되지 않습니다.
- 1일 최대 제출 횟수: 5회
- 모든 csv 형식의 데이터와 제출 파일은 UTF-8 인코딩을 적용합니다.
- 추론 및 프롬프팅 과정에서 평가 데이터셋 정보 활용(Data Leakage)시 수상이 불가능합니다.
- 최종 순위는 선택된 파일 중에서 채점되므로 참가자는 제출 창에서 자신이 최종적으로 채점 받고 싶은 파일 1개를 선택해야 합니다.
- 대회 종료 후 공개되는 Private 랭킹은 최종 순위가 아니며 코드 검증 및 2차 평가 후 수상자가 결정됩니다.
- 본 대회는 참가팀의 부정 행위를 금지하고 있습니다. 부정 행위가 발견되는 경우, 해당 팀에 대해 평가가 진행되지 않습니다.
- 대회 기간 중 규칙 위반 의심 정황이 발견되는 경우 주최측에서 해당 팀에게 소명 및 코드를 요청할 수 있습니다.
※ 부정 행위 : 대회 규칙을 준수하지 않은 모든 행위
대회 시작
팀 병합 마감
대회 종료
2차 평가 대상자 산출물 제출 마감
2차 평가 및 코드 검증 마감
오프라인 시상식
※ 본 대회의 경우 모델: Llama-3.1-8B-Instruct 모델 , text-based LLM output, 언어는 한국어로 제한함
1) [필수] 모델 예측 결과 파일(CSV)
- 제출 기한 : 25. 05. 19(월) 오전 10:00 까지
- 제출 방법 : [제출] 탭에 예측 결과 파일 업로드
※ Raw Input에 대해서 Raw Output이 Reproduce가 안되거나, Raw Input에 Retrived 된 Context에 Bias DB가 포함되는 경우 규칙 위반에 해당합니다.
※ 파일 제출 시 마다 순위가 가장 높은 파일이 자동으로 선택됨.
최종 채점받고 싶은 파일이 순위가 가장 높은 파일이 아닌 경우 채점 받고 싶은 파일을 직접 선택할 수 있음
※ 1일 최대 제출 횟수 : 5회
1차 평가 종료 후 Private 리더보드 상위 15팀(예비 5팀 포함)은 2차 평가 대상팀으로 아래의 양식에 맞추어 코드, 발표 자료를 dacon@dacon.io 기한 내 메일로 제출
※ 메일 발송 시 제목을 '[팀명] 2025 Bias-A-Thon Track 2 최종 산출물 제출' 로 통일
※ 제출 기한 : ~ 5. 22(목) 오전 10시까지
1) [필수] 코드
- 제출 형태
⓵ Private Score 복원이 가능한 코드 파일
⓶ 외부 데이터 사용 시 사용한 모든 외부 데이터 파일
- 제출 양식
※ 제출한 코드는 Private Score 복원이 가능해야함
⓵ 코드와 주석 인코딩 : UTF-8
⓶ 모든 코드는 오류 없이 실행되어야 함(라이브러리 로딩 코드 포함)
⓷ 개발 환경(OS) 및 라이브러리 버전 기재
2) [필수] 발표 자료
- 제출 형태 : 발표 15분 분량의 자유 양식으로 문제 해결 솔루션 PDF로 제출 (발표 15분, 질의응답 5분 예정)
※ 발표는 '발표자료(PDF)' 파일로 진행 * 기술적 오류 방지를 위해 PPT는 허용되지 않음
- Python
- Neutral하고 Unbias된 외부 데이터만 사용 가능
- BBQ, UnQover, StereoSet, WinoBias, TriviaQA 데이터셋은 사용 불가능
※ 허용되지 않은 외부 데이터 사용이 적발되는 경우 규칙 위반에 해당합니다.
- 본 트랙에서는 Llama-3.1-8B-Instruct 모델을 사용하여 프롬프트 및 RAG 기반 응답을 생성해야 합니다.
- 해당 모델은 반드시 로컬 환경에 직접 로드하여 실행해야 하며, 외부 API 서비스(예: Hugging Face Inferece API, Together AI, OpenRouter 등)를 통한 호출은 불가능합니다.
- 즉, 모델 파라미터가 실제로 참가자의 개발 환경에 존재하고, 로컬에서 모델을 구동하는 방식이어야 하며, 제3자 서버에서 제공하는 추론 결과를 사용하는 것은 허용되지 않습니다.
- 1일 최대 제출 횟수: 5회
- 모든 csv 형식의 데이터와 제출 파일은 UTF-8 인코딩을 적용합니다.
- 추론 및 프롬프팅 과정에서 평가 데이터셋 정보 활용(Data Leakage)시 수상이 불가능합니다.
- 최종 순위는 선택된 파일 중에서 채점되므로 참가자는 제출 창에서 자신이 최종적으로 채점 받고 싶은 파일 1개를 선택해야 합니다.
- 대회 종료 후 공개되는 Private 랭킹은 최종 순위가 아니며 코드 검증 및 2차 평가 후 수상자가 결정됩니다.
- 본 대회는 참가팀의 부정 행위를 금지하고 있습니다. 부정 행위가 발견되는 경우, 해당 팀에 대해 평가가 진행되지 않습니다.
- 대회 기간 중 규칙 위반 의심 정황이 발견되는 경우 주최측에서 해당 팀에게 소명 및 코드를 요청할 수 있습니다.
※ 부정 행위 : 대회 규칙을 준수하지 않은 모든 행위
04.28
대회 시작05.12
팀 병합 마감05.19
대회 종료05.22
2차 평가 대상자 산출물 제출 마감06.03
2차 평가 및 코드 검증 마감06.04
오프라인 시상식
데이콘(주) | 대표 김국진 | 699-81-01021
통신판매업 신고번호: 제 2021-서울영등포-1704호
직업정보제공사업 신고번호: J1204020250004
서울특별시 영등포구 은행로 3 익스콘벤처타워 901호
이메일 dacon@dacon.io |
전화번호: 070-4102-0545
Copyright ⓒ DACON Inc. All rights reserved