분석시각화 대회 코드 공유 게시물은
내용 확인 후
좋아요(투표) 가능합니다.
분석시각화 대회 코드 공유 게시물은
내용 확인 후
좋아요(투표) 가능합니다.
※ 제출 탭에 표시되는 ‘시간’은 평가 서버에서 제출물이 실행되는 '전체 추론 실행 시간'입니다.
해당 시간에는 모델 로드, 평가 데이터에 대한 추론, 결과값 파싱 등 모든 처리 과정이 포함되며, 이 전체 추론 실행 시간은 규칙으로 지정한 시간 제한(30분) 이내에 완료되어야 합니다.
반면, 평가 산식에 반영되는 모델 효율성은 모델이 평가용 벤치마크 데이터셋에 대해 실제로 추론하며 기록된 '최대 초당 토큰 생성 속도(Peak Output Throughput)'의 역수를 기준으로 계산됩니다.
※ 각 항의 min, max 값은 운영진이 각 평가 항목별 기대 성능 범위를 고려하여 사전 설정한 기준값이며, 그 수치는 비공개로 진행됩니다.
※ 테스트 데이터는 비공개 벤치셋으로 구성되어 있습니다.
※ 모델 성능(50점) 환산식 : 50 X ((2차 평가 대상팀 최종 리더보드 점수) / (2차 평가 대상팀 중 최고점수))^N (N은 조정 계수로 1~5 사이로 설정되며 비공개)
본 대회는 submit.zip 파일을 제출하는 방식의 '코드 제출 대회'로 진행됩니다.
참가자는 아래와 같은 구조로 submit.zip을 구성하여 제출해야 합니다.
아래의 구조와 동일하고 디렉토리 명과 파일 명을 모두 일치 시켜야합니다.
📁 참가자 제출 파일 구조 (submit.zip)
submit.zip
├── model/ # 허깅 페이스(HF) 방식의 모델 가중치 파일 디렉토리
| └── (예: config.json, model.safetensors 등)
├── vllm-0.17.0-cp311-cp311-linux_x86_64.whl # [선택]참가자가 직접 수정 후 빌드한 vLLM wheel(.whl) 파일
└── requirements.txt # [선택] 필요한 패키지 및 버전 명시
model/ 디렉토리에는 반드시 제출 모델 가중치 및 토크나이저 관련 파일이 포함되어야 합니다.vllm-**.whl은 선택 제출 항목이며, 제출한 경우 해당 wheel 파일을 설치한 뒤 평가를 진행합니다.vllm-**.whl을 제출하지 않은 경우, 평가 서버에 기본 설치된 고정 vLLM 환경으로 자동 채점됩니다.requirements.txt는 선택 제출 항목이며, 제출 시 참가자가 사용하는 의존성을 기준으로 패키지 설치가 진행됩니다.submit.zip 내 구조는 반드시 일치해야 하며, 추가 최상위 폴더가 존재하거나 경로 구조가 상이한 경우 설치 오류가 발생할 수 있습니다.제출 시, 평가 서버에서 참가자가 제출한 submit.zip 파일에는 아래 항목이 자동으로 추가됩니다.
submit.zip
├── model/ # 참가자 구성
├── script.py # 평가에 사용될 추론 코드 (운영진 고정, 평가 시 자동 생성)
├── requirements.txt # 필요한 패키지 및 버전 (제출하지 않을 경우, 고정 서버로 자동 생성)
├── data/ # 평가에 사용될 테스트 데이터 (운영진 고정, 평가 시 자동 생성)
└── output/submission.csv # 참가자 모델의 추론 결과가 저장되는 경로 (운영진 고정, 평가 시 자동 생성)
model/ , vllm-**.whl(선택), requirements.txt(선택)만 구성할 수 있습니다.💾 제출 파일 용량 제한
💾 평가 서버 기본 설치 패키지 목록
1) 설치 패키지(라이브러리)
torch==2.10.0+cu129
vllm==0.17.0
bitsandbytes==0.49.2
bitblas==0.1.0.post1
nvidia-modelopt==0.41.0
compressed-tensors==0.13.0
torch-c-dlpack-ext==0.1.4
transformers==4.57.3
tokenizers==0.22.1
accelerate==1.10.1
datasets==4.4.1
huggingface-hub==0.36.0
safetensors==0.7.0
sentencepiece==0.2.1
protobuf>=6.32.0
evaluate==0.4.6
rouge_score==0.1.2
sacrebleu==2.5.1
math-verify==0.8.0
langdetect==1.0.9
numpy==2.2.6
pandas==2.3.3
tqdm==4.67.1
regex==2025.11.3
nltk==3.9.2
antlr4-python3-runtime==4.11.0
sympy==1.14.0
immutabledict==4.2.2
2) 설치 시스템 패키지
python3.11
python3.11-distutils
python3-pip
python3.11-dev
build-essential
git
git-lfs
ninja-build
libomp-dev
libblas3
liblapack3
gfortran
libatlas-base-dev
curl
wget
ca-certificates
unzip
procps
cmake
tzdata
libxcb1
3) 모델 서빙 스펙
vllm==0.17.0이 설치되어 있으나, 오프라인 해커톤에서는 기본 vLLM 대신 사용할 커스텀 vLLM wheel 파일(.whl)을 제출할 수 있습니다. [가이드]cp311-cp311-linux_x86_64.whl)win_amd64, macosx, aarch64 등 평가 서버와 다른 플랫폼 태그를 가진 wheel 파일은 정상 설치되지 않을 수 있습니다. (제공된 Docker 환경에서 wheel 파일을 빌드하는 것을 권장합니다.) vLLM (version: 0.17.0)AutoModelForCausalLM 호환# tokenizer
AutoTokenizer.from_pretrained(MODEL, trust_remote_code=True, local_files_only=True)
# model
AutoModelForCausalLM.from_pretrained(MODEL, trust_remote_code=True)
tensor_parallel_size = 1
gpu_memory_utilization = 0.85
batch_size = auto
max_gen_toks = 32768
enable_thinking = True
apply_chat_template = true
팀 병합 마감
대회 시작 (13:00)
리더보드 제출 마감 (10:00)
대회 종료 (11:00)
※ 제출 탭에 표시되는 ‘시간’은 평가 서버에서 제출물이 실행되는 '전체 추론 실행 시간'입니다.
해당 시간에는 모델 로드, 평가 데이터에 대한 추론, 결과값 파싱 등 모든 처리 과정이 포함되며, 이 전체 추론 실행 시간은 규칙으로 지정한 시간 제한(30분) 이내에 완료되어야 합니다.
반면, 평가 산식에 반영되는 모델 효율성은 모델이 평가용 벤치마크 데이터셋에 대해 실제로 추론하며 기록된 '최대 초당 토큰 생성 속도(Peak Output Throughput)'의 역수를 기준으로 계산됩니다.
※ 각 항의 min, max 값은 운영진이 각 평가 항목별 기대 성능 범위를 고려하여 사전 설정한 기준값이며, 그 수치는 비공개로 진행됩니다.
※ 테스트 데이터는 비공개 벤치셋으로 구성되어 있습니다.
※ 모델 성능(50점) 환산식 : 50 X ((2차 평가 대상팀 최종 리더보드 점수) / (2차 평가 대상팀 중 최고점수))^N (N은 조정 계수로 1~5 사이로 설정되며 비공개)
본 대회는 submit.zip 파일을 제출하는 방식의 '코드 제출 대회'로 진행됩니다.
참가자는 아래와 같은 구조로 submit.zip을 구성하여 제출해야 합니다.
아래의 구조와 동일하고 디렉토리 명과 파일 명을 모두 일치 시켜야합니다.
📁 참가자 제출 파일 구조 (submit.zip)
submit.zip
├── model/ # 허깅 페이스(HF) 방식의 모델 가중치 파일 디렉토리
| └── (예: config.json, model.safetensors 등)
├── vllm-0.17.0-cp311-cp311-linux_x86_64.whl # [선택]참가자가 직접 수정 후 빌드한 vLLM wheel(.whl) 파일
└── requirements.txt # [선택] 필요한 패키지 및 버전 명시
model/ 디렉토리에는 반드시 제출 모델 가중치 및 토크나이저 관련 파일이 포함되어야 합니다.vllm-**.whl은 선택 제출 항목이며, 제출한 경우 해당 wheel 파일을 설치한 뒤 평가를 진행합니다.vllm-**.whl을 제출하지 않은 경우, 평가 서버에 기본 설치된 고정 vLLM 환경으로 자동 채점됩니다.requirements.txt는 선택 제출 항목이며, 제출 시 참가자가 사용하는 의존성을 기준으로 패키지 설치가 진행됩니다.submit.zip 내 구조는 반드시 일치해야 하며, 추가 최상위 폴더가 존재하거나 경로 구조가 상이한 경우 설치 오류가 발생할 수 있습니다.제출 시, 평가 서버에서 참가자가 제출한 submit.zip 파일에는 아래 항목이 자동으로 추가됩니다.
submit.zip
├── model/ # 참가자 구성
├── script.py # 평가에 사용될 추론 코드 (운영진 고정, 평가 시 자동 생성)
├── requirements.txt # 필요한 패키지 및 버전 (제출하지 않을 경우, 고정 서버로 자동 생성)
├── data/ # 평가에 사용될 테스트 데이터 (운영진 고정, 평가 시 자동 생성)
└── output/submission.csv # 참가자 모델의 추론 결과가 저장되는 경로 (운영진 고정, 평가 시 자동 생성)
model/ , vllm-**.whl(선택), requirements.txt(선택)만 구성할 수 있습니다.💾 제출 파일 용량 제한
💾 평가 서버 기본 설치 패키지 목록
1) 설치 패키지(라이브러리)
torch==2.10.0+cu129
vllm==0.17.0
bitsandbytes==0.49.2
bitblas==0.1.0.post1
nvidia-modelopt==0.41.0
compressed-tensors==0.13.0
torch-c-dlpack-ext==0.1.4
transformers==4.57.3
tokenizers==0.22.1
accelerate==1.10.1
datasets==4.4.1
huggingface-hub==0.36.0
safetensors==0.7.0
sentencepiece==0.2.1
protobuf>=6.32.0
evaluate==0.4.6
rouge_score==0.1.2
sacrebleu==2.5.1
math-verify==0.8.0
langdetect==1.0.9
numpy==2.2.6
pandas==2.3.3
tqdm==4.67.1
regex==2025.11.3
nltk==3.9.2
antlr4-python3-runtime==4.11.0
sympy==1.14.0
immutabledict==4.2.2
2) 설치 시스템 패키지
python3.11
python3.11-distutils
python3-pip
python3.11-dev
build-essential
git
git-lfs
ninja-build
libomp-dev
libblas3
liblapack3
gfortran
libatlas-base-dev
curl
wget
ca-certificates
unzip
procps
cmake
tzdata
libxcb1
3) 모델 서빙 스펙
vllm==0.17.0이 설치되어 있으나, 오프라인 해커톤에서는 기본 vLLM 대신 사용할 커스텀 vLLM wheel 파일(.whl)을 제출할 수 있습니다. [가이드]cp311-cp311-linux_x86_64.whl)win_amd64, macosx, aarch64 등 평가 서버와 다른 플랫폼 태그를 가진 wheel 파일은 정상 설치되지 않을 수 있습니다. (제공된 Docker 환경에서 wheel 파일을 빌드하는 것을 권장합니다.) vLLM (version: 0.17.0)AutoModelForCausalLM 호환# tokenizer
AutoTokenizer.from_pretrained(MODEL, trust_remote_code=True, local_files_only=True)
# model
AutoModelForCausalLM.from_pretrained(MODEL, trust_remote_code=True)
tensor_parallel_size = 1
gpu_memory_utilization = 0.85
batch_size = auto
max_gen_toks = 32768
enable_thinking = True
apply_chat_template = true
04.02
팀 병합 마감04.04
대회 시작 (13:00)04.05
리더보드 제출 마감 (10:00)04.05
대회 종료 (11:00)
데이콘(주) | 대표 김국진 | 699-81-01021
통신판매업 신고번호: 제 2021-서울영등포-1704호
직업정보제공사업 신고번호: J1204020250004
서울특별시 영등포구 은행로 3 익스콘벤처타워 901호
이메일 dacon@dacon.io |
전화번호: 070-4102-0545
Copyright ⓒ DACON Inc. All rights reserved