2025 Samsung Collegiate Programming Challenge : AI 챌린지

[ DACON 문의 ] KD질문

2025.07.04 11:39 547 Views

안녕하세요. 문제 해결 도중 질문이 생겨 질문드립니다.


  1. knowledge distillation기법을 사용하여 3b가 넘는 모델을 3b미만의 모델로 distillation하여 추론하는 것은 괜찮은가요?
  2. 만약 괜찮다면, 그러한 경우 코드를 제출할 때, knowledge distillation하는 코드까지 같이 전달드리면 되는 것인가요?
  3. 파인튜닝으로 성능 향상을 이룬 경우, 파인튜닝 코드와 파인튜닝된 모델의 가중치를 같이 전달드리면 되는 것인가요?
  4. 만약 아니라면, 모든 구현에 대해서 코드만 전달드리면 심사때, 훈련과 같은 전 과정을 직접 실행하셔서 확인하는 것일까요?


Login Required
0 / 1000
전_길원인데요
2025.07.04 11:46

마찬가지로 파인튜닝을 하는 경우, 파인튜닝하기 위한 데이터 증강 코드 이런 것도 다 포함하여 제공해드리면 되는 것인지 궁금합니다.

종합적으로 대회 성적을 높이기 위해 사용되는 코드 전부를 제출하면 되는 것인지 아니면 실행코드만 제공하고, finetuning된 Model file만 제공해드리면 되는지 궁금합니다.

DACON.GM
2025.07.04 15:10

데이터 로드, 사전학습가중치 Load부터 시작해서 학습 후 추론까지 Private Score를 재현할 수 있는 전체 과정 코드를 제출한다 라고 생각하시면 되겠습니다.
다만, 추론 코드는 별도로 작성하여 함께 제출해야합니다.

DACON.GM
2025.07.04 15:09

1. 네 맞게 이해해주셨고 그렇게 해주시면 되겠습니다.
2. 학습 / 추론 코드를 별도로 제출해야합니다. 즉, 학습 코드를 돌리려면 기존 가중치가 필요하기 때문에 첨부하시면 되며, 추론 코드에서는 이미 기학습된 추론 전용 가중치도 별도로 첨부하시면 됩니다.