분석시각화 대회 코드 공유 게시물은
내용 확인 후
좋아요(투표) 가능합니다.
[Baseline] Vanilla Knowledge Distillation
안녕하세요. 데이콘입니다.
데이콘 베이스라인은 모든 참가자의 '제출'을 목표로 합니다.
본 베이스라인은 참가자들의 '제출'을 목표로 하며 Knowledge Distillation 방법 중 가장 기본적인 방법을 적용하였습니다.
즉, 모든 Feature가 주어지는 학습데이터로부터 Teacher 모델을 학습시키고 추론 시에는 제한된 Feature로 이루어지기 때문에,
제한된 Feature로부터 추론해야하는 Student 모델을 Teacher 모델의 결과를 바탕으로 지식 증류가 이루어집니다.
'지식 증류(Knowledge Distillation)'의 방식은 상당히 여러가지가 제안되어 있고, 참가자 여러분들의 가설과 실험에 의해 충분히 새로운 방법도 제안될 수 있으므로
여러분들의 방법으로 고도화시키거나 다양한 방법으로 진행하실 수 있습니다.
본 베이스라인 코드가 모든 참가자 여러분들의 대회 진행에 도움이 되면 좋겠습니다.
감사합니다.
데이콘 드림
데이콘(주) | 대표 김국진 | 699-81-01021
통신판매업 신고번호: 제 2021-서울영등포-1704호
서울특별시 영등포구 은행로 3 익스콘벤처타워 901호
이메일 dacon@dacon.io | 전화번호: 070-4102-0545
Copyright ⓒ DACON Inc. All rights reserved